Trong một bối cảnh hơi tổng quát hơn với một vector chiều của -observations (các câu trả lời, hoặc các biến phụ thuộc), một ma trận của -observations (biến số, hoặc các biến phụ thuộc) và các tham số sao cho thì khả năng trừ log-log là
Trong câu hỏi của OP, là đường chéo với
YnyXn×pxθ=(β1,β2,σ)Y∼N(Xβ1,Σ(β2,σ))
l(β1,β2,σ)=12(Y−Xβ1)TΣ(β2,σ)−1(Y−Xβ1)+12log|Σ(β2,σ)|
Σ(β2,σ)Σ(β2,σ)ii=σ2g(zTiβ2)2
nên định thức trở thành và kết quả là khả năng trừ log-log trở thành
Có một số cách để tiếp cận việc giảm thiểu chức năng này (giả sử ba tham số là biến thể độc lập).
σ2n∏ni=1g(zTiβ2)212σ2∑i=1n(yi−xTiβ1)2g(zTiβ2)2+nlogσ+∑i=1nlogg(zTiβ2)
- Bạn có thể cố gắng giảm thiểu chức năng bằng thuật toán tối ưu hóa tiêu chuẩn ghi nhớ ràng buộc .σ>0
- Bạn có thể tính toán khả năng trừ nhật ký của hồ sơ bằng cách giảm thiểu cho cố định , sau đó cắm hàm kết quả vào thuật toán tối ưu hóa không bị ràng buộc tiêu chuẩn.(β1,β2)σ(β1,β2)
- Bạn có thể luân phiên giữa tối ưu hóa theo từng trong ba tham số riêng biệt. Tối ưu hóa có thể được thực hiện một cách phân tích, tối ưu hóa là một vấn đề hồi quy bình phương nhỏ nhất có trọng số và tối ưu hóa trên tương đương với việc phù hợp với mô hình tuyến tính tổng quát gamma với liên kết nghịch đảo.σβ1β2g2
Gợi ý cuối cùng hấp dẫn tôi vì nó dựa trên các giải pháp mà tôi đã biết rõ. Ngoài ra, lần lặp đầu tiên là điều mà tôi sẽ xem xét thực hiện bằng mọi cách. Đó là, trước tiên, tính toán ước tính ban đầu của bằng các bình phương tối thiểu thông thường bỏ qua tính không đồng nhất tiềm năng, sau đó khớp một gamma glm với phần dư bình phương để có ước tính ban đầu về chỉ để kiểm tra xem mô hình phức tạp hơn có đáng không. Lặp đi lặp lại kết hợp tính không đồng nhất vào giải pháp bình phương nhỏ nhất vì trọng lượng có thể cải thiện theo ước tính.β1β2 −
Về phần thứ hai của câu hỏi, có lẽ tôi sẽ xem xét tính toán khoảng tin cậy cho tổ hợp tuyến tính bằng cách sử dụng phương pháp tiệm cận MLE tiêu chuẩn (kiểm tra các mô phỏng rằng tiệm cận hoạt động) hoặc bằng cách khởi động.wT1β1+wT2β2
Chỉnh sửa: Bằng phương pháp tiệm cận MLE tiêu chuẩn, ý tôi là sử dụng xấp xỉ bình thường đa biến để phân phối MLE với ma trận hiệp phương sai thông tin Fisher nghịch đảo. Thông tin Fisher theo định nghĩa ma trận hiệp phương sai của độ dốc của . Nó phụ thuộc chung vào các tham số. Nếu bạn có thể tìm thấy một biểu thức phân tích cho đại lượng này, bạn có thể thử cắm vào MLE. Ngoài ra, bạn có thể ước tính thông tin Fisher bằng thông tin Fisher được quan sát , đó là Hessian của trong MLE. Tham số quan tâm của bạn là sự kết hợp tuyến tính của các tham số trong haillβ-vector, do đó từ bình thường đa biến xấp xỉ của MLE, bạn có thể tìm thấy một xấp xỉ bình thường của phân phối ước lượng như được mô tả ở đây . Điều này cung cấp cho bạn một lỗi tiêu chuẩn gần đúng và bạn có thể tính khoảng tin cậy. Nó được mô tả tốt trong nhiều sách thống kê (toán học), nhưng một bài thuyết trình hợp lý mà tôi có thể đề xuất là Trong Tất cả khả năng của Yudi Pawitan. Dù sao, đạo hàm chính thức của lý thuyết tiệm cận khá phức tạp và dựa vào một số điều kiện đều đặn, và nó chỉ đưa ra sự tiệm cận hợp lệphân phối. Do đó, nếu nghi ngờ, tôi sẽ luôn thực hiện một số mô phỏng với một mô hình mới để kiểm tra xem tôi có thể tin tưởng vào kết quả cho các tham số thực tế và kích thước mẫu hay không. Bootstrapping đơn giản, không tham số trong đó bạn lấy mẫu ba lần từ bộ dữ liệu được quan sát với sự thay thế có thể là một sự thay thế hữu ích nếu quy trình phù hợp không quá tốn thời gian.(yi,xi,zi)