Phải làm gì khi CFA phù hợp với quy mô nhiều mặt hàng là xấu?


9

Tôi không chắc chắn làm thế nào để tiến hành với CFA này tôi đang làm trong dung nham. Tôi có một mẫu gồm 172 người tham gia (tôi biết rằng không nhiều cho CFA) và 28 mặt hàng với thang đo Likert 7 điểm sẽ tải trên bảy yếu tố. Tôi đã thực hiện CFA với „mlm -estimators, nhưng mức độ phù hợp của mô hình thực sự rất tệ (2 (df = 329) = 739.36; chỉ số phù hợp so sánh (CFI) = .69; căn bậc hai có nghĩa là bình phương (SRMR) = 10; lỗi bình phương trung bình gốc của xấp xỉ (RMSEA) =. 09; RMSEA 90% khoảng tin cậy (CI) = [.08, .10]).

Tôi đã thử như sau:

  • mô hình bifactor với một yếu tố phương thức chung -> không hội tụ.

  • công cụ ước tính cho dữ liệu thứ tự („WLSMV,) -> Mức độ phù hợp của mô hình: (2 (df = 329) = 462; chỉ số phù hợp so sánh (CFI) = .81; sai số bình phương gốc được chuẩn hóa (SRMR) =. 09; của xấp xỉ (RMSEA) =. 05; RMSEA 90% khoảng tin cậy (CI) = [.04, .06])

  • giảm mô hình bằng các mục tải thấp trên một yếu tố và thêm hiệp phương sai giữa các mục cụ thể -> Phù hợp với mô hình: 2 (df = 210) = 295; chỉ số phù hợp so sánh (CFI) = .86; căn bậc hai có nghĩa là bình phương dư (SRMR) =. 08; lỗi bình phương trung bình gốc của xấp xỉ (RMSEA) =. 07; Khoảng tin cậy RMSEA 90% (CI) = [.06, .08].

Bây giờ câu hỏi của tôi:

  • Tôi nên làm gì với một mô hình như vậy?

  • Điều gì sẽ được thống kê chính xác để làm gì?

  • Báo cáo rằng nó không phù hợp hoặc nó không phù hợp? Và những mô hình nào?

Tôi rất vui khi được thảo luận với bạn về điều này.

Đây là sản lượng lavaan của CFA của mô hình ban đầu:

    lavaan (0.5-17.703) converged normally after  55 iterations

                                              Used       Total
  Number of observations                           149         172

  Estimator                                         ML      Robust
  Minimum Function Test Statistic              985.603     677.713
  Degrees of freedom                               329         329
  P-value (Chi-square)                           0.000       0.000
  Scaling correction factor                                  1.454
    for the Satorra-Bentler correction

Model test baseline model:

  Minimum Function Test Statistic             2461.549    1736.690
  Degrees of freedom                               378         378
  P-value                                        0.000       0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    0.685       0.743
  Tucker-Lewis Index (TLI)                       0.638       0.705

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -6460.004   -6460.004
  Loglikelihood unrestricted model (H1)      -5967.202   -5967.202

  Number of free parameters                        105         105
  Akaike (AIC)                               13130.007   13130.007
  Bayesian (BIC)                             13445.421   13445.421
  Sample-size adjusted Bayesian (BIC)        13113.126   13113.126

Root Mean Square Error of Approximation:

  RMSEA                                          0.116       0.084
  90 Percent Confidence Interval          0.107  0.124       0.077  0.092
  P-value RMSEA <= 0.05                          0.000       0.000

Standardized Root Mean Square Residual:

  SRMR                                           0.096       0.096

Parameter estimates:

  Information                                 Expected
  Standard Errors                           Robust.sem

                   Estimate  Std.err  Z-value  P(>|z|)   Std.lv  Std.all
Latent variables:
  IC =~
    PTRI_1r           1.000                               1.093    0.691
    PTRI_7            1.058    0.118    8.938    0.000    1.156    0.828
    PTRI_21           0.681    0.142    4.793    0.000    0.744    0.582
    PTRI_22           0.752    0.140    5.355    0.000    0.821    0.646
  IG =~
    PTRI_10           1.000                               0.913    0.600
    PTRI_11r          0.613    0.152    4.029    0.000    0.559    0.389
    PTRI_19           1.113    0.177    6.308    0.000    1.016    0.737
    PTRI_24           0.842    0.144    5.854    0.000    0.769    0.726
  DM =~
    PTRI_15r          1.000                               0.963    0.673
    PTRI_16           0.892    0.118    7.547    0.000    0.859    0.660
    PTRI_23           0.844    0.145    5.817    0.000    0.813    0.556
    PTRI_26           1.288    0.137    9.400    0.000    1.240    0.887
  IM =~
    PTRI_13           1.000                               0.685    0.609
    PTRI_14           1.401    0.218    6.421    0.000    0.960    0.814
    PTRI_18           0.931    0.204    4.573    0.000    0.638    0.604
    PTRI_20r          1.427    0.259    5.514    0.000    0.978    0.674
  IN =~
    PTRI_2            1.000                               0.839    0.612
    PTRI_6            1.286    0.180    7.160    0.000    1.080    0.744
    PTRI_12           1.031    0.183    5.644    0.000    0.866    0.523
    PTRI_17r          1.011    0.208    4.872    0.000    0.849    0.613
  EN =~
    PTRI_3            1.000                               0.888    0.687
    PTRI_8            1.136    0.146    7.781    0.000    1.008    0.726
    PTRI_25           0.912    0.179    5.088    0.000    0.810    0.620
    PTRI_27r          1.143    0.180    6.362    0.000    1.015    0.669
  RM =~
    PTRI_4r           1.000                               1.114    0.700
    PTRI_9            0.998    0.105    9.493    0.000    1.112    0.786
    PTRI_28           0.528    0.120    4.403    0.000    0.588    0.443
    PTRI_5            0.452    0.149    3.037    0.002    0.504    0.408

Covariances:
  IC ~~
    IG                0.370    0.122    3.030    0.002    0.371    0.371
    DM                0.642    0.157    4.075    0.000    0.610    0.610
    IM                0.510    0.154    3.308    0.001    0.681    0.681
    IN                0.756    0.169    4.483    0.000    0.824    0.824
    EN                0.839    0.169    4.979    0.000    0.865    0.865
    RM                0.644    0.185    3.479    0.001    0.529    0.529
  IG ~~
    DM                0.380    0.103    3.684    0.000    0.433    0.433
    IM                0.313    0.096    3.248    0.001    0.501    0.501
    IN                0.329    0.107    3.073    0.002    0.429    0.429
    EN                0.369    0.100    3.673    0.000    0.455    0.455
    RM                0.289    0.116    2.495    0.013    0.284    0.284
  DM ~~
    IM                0.530    0.120    4.404    0.000    0.804    0.804
    IN                0.590    0.122    4.839    0.000    0.731    0.731
    EN                0.588    0.105    5.619    0.000    0.688    0.688
    RM                0.403    0.129    3.132    0.002    0.376    0.376
  IM ~~
    IN                0.439    0.126    3.476    0.001    0.763    0.763
    EN                0.498    0.121    4.128    0.000    0.818    0.818
    RM                0.552    0.122    4.526    0.000    0.723    0.723
  IN ~~
    EN                0.735    0.167    4.402    0.000    0.987    0.987
    RM                0.608    0.141    4.328    0.000    0.650    0.650
  EN ~~
    RM                0.716    0.157    4.561    0.000    0.724    0.724


Variances:
    PTRI_1r           1.304    0.272                      1.304    0.522
    PTRI_7            0.613    0.153                      0.613    0.314
    PTRI_21           1.083    0.199                      1.083    0.662
    PTRI_22           0.940    0.141                      0.940    0.582
    PTRI_10           1.483    0.257                      1.483    0.640
    PTRI_11r          1.755    0.318                      1.755    0.849
    PTRI_19           0.868    0.195                      0.868    0.457
    PTRI_24           0.530    0.109                      0.530    0.473
    PTRI_15r          1.121    0.220                      1.121    0.547
    PTRI_16           0.955    0.200                      0.955    0.564
    PTRI_23           1.475    0.219                      1.475    0.691
    PTRI_26           0.417    0.120                      0.417    0.213
    PTRI_13           0.797    0.113                      0.797    0.629
    PTRI_14           0.468    0.117                      0.468    0.337
    PTRI_18           0.709    0.134                      0.709    0.635
    PTRI_20r          1.152    0.223                      1.152    0.546
    PTRI_2            1.178    0.251                      1.178    0.626
    PTRI_6            0.942    0.191                      0.942    0.447
    PTRI_12           1.995    0.235                      1.995    0.727
    PTRI_17r          1.199    0.274                      1.199    0.625
    PTRI_3            0.882    0.179                      0.882    0.528
    PTRI_8            0.910    0.131                      0.910    0.472
    PTRI_25           1.048    0.180                      1.048    0.615
    PTRI_27r          1.273    0.238                      1.273    0.553
    PTRI_4r           1.294    0.242                      1.294    0.510
    PTRI_9            0.763    0.212                      0.763    0.382
    PTRI_28           1.419    0.183                      1.419    0.804
    PTRI_5            1.269    0.259                      1.269    0.833
    IC                1.194    0.270                      1.000    1.000
    IG                0.833    0.220                      1.000    1.000
    DM                0.927    0.181                      1.000    1.000
    IM                0.470    0.153                      1.000    1.000
    IN                0.705    0.202                      1.000    1.000
    EN                0.788    0.177                      1.000    1.000
    RM                1.242    0.257                      1.000    1.000

2
Tôi có ấn tượng rằng dữ liệu đơn giản là không phù hợp với mô hình, ví dụ, bạn có một số mối tương quan cực kỳ cao giữa các yếu tố. Cố gắng xem xét một giải pháp được tiêu chuẩn hóa để có được mối tương quan thay vì hiệp phương sai (và tại các tải trọng được tiêu chuẩn hóa). Có lẽ bạn muốn sụp đổ một số yếu tố? Có thể bạn muốn thêm một yếu tố phương thức cho các mục được mã hóa ngược nếu bạn có một số - điều đó thường cải thiện sự phù hợp đáng kể.
hplieninger

1
Tôi đã thử xem xét các mục được mã hóa ngược với một yếu tố phương thức. Cải thiện sự phù hợp, nhưng không nhiều. Tôi muốn thu gọn một hoặc hai yếu tố, nhưng tôi "bị ràng buộc" để gắn bó với giải pháp 7 yếu tố theo lý thuyết. Và ngay cả khi tôi sụp đổ, sự phù hợp không cải thiện nhiều.
teeglaze

Câu trả lời:


14

1. Quay trở lại Phân tích nhân tố khám phá

Nếu bạn đang bị CFA rất tệ, thì đó thường là dấu hiệu cho thấy bạn đã nhảy quá nhanh sang CFA. Bạn nên quay lại phân tích nhân tố khám phá để tìm hiểu về cấu trúc bài kiểm tra của bạn. Nếu bạn có một mẫu lớn (trong trường hợp của bạn thì không), thì bạn có thể tách mẫu của mình để có một mẫu khám phá và mẫu xác nhận.

  • Áp dụng các quy trình phân tích nhân tố khám phá để kiểm tra xem số lượng các yếu tố được lý thuyết hóa có vẻ hợp lý hay không. Tôi sẽ kiểm tra cốt truyện để xem những gì nó gợi ý. Sau đó, tôi sẽ kiểm tra ma trận tải nhân tố xoay với số lượng yếu tố được lý thuyết hóa cũng như với một hoặc hai yếu tố nữa và một hoặc hai yếu tố. Bạn thường có thể thấy các dấu hiệu khai thác dưới hoặc quá mức của các yếu tố bằng cách xem các ma trận tải yếu tố đó.
  • Sử dụng phân tích nhân tố khám phá để xác định các mục có vấn đề. Cụ thể, các mặt hàng tải nhiều nhất trên một yếu tố không theo lý thuyết, các mặt hàng có tải trọng lớn, các mặt hàng không tải cao trên bất kỳ yếu tố nào.

Lợi ích của EFA là nó mang lại rất nhiều sự tự do, vì vậy bạn sẽ tìm hiểu nhiều hơn về cấu trúc của bài kiểm tra so với việc bạn chỉ nhìn vào các chỉ số sửa đổi CFA.

Dù sao, hy vọng từ quá trình này, bạn có thể đã xác định được một vài vấn đề và giải pháp. Ví dụ, bạn có thể bỏ một vài mục; bạn có thể cập nhật mô hình lý thuyết của bạn về việc có bao nhiêu yếu tố và vân vân.

2. Cải thiện Phân tích nhân tố khẳng định

Có nhiều điểm có thể được thực hiện ở đây:

CFA trên quy mô với nhiều mặt hàng trên mỗi quy mô thường hoạt động kém theo tiêu chuẩn truyền thống. Điều này thường dẫn mọi người (và lưu ý tôi nghĩ rằng phản hồi này thường không may) để tạo thành bưu kiện hoặc chỉ sử dụng ba hoặc bốn mục trên mỗi thang đo. Vấn đề là các cấu trúc CFA được đề xuất điển hình không thể nắm bắt được các sắc thái nhỏ trong dữ liệu (ví dụ: tải chéo nhỏ, các mục trong một thử nghiệm tương quan nhiều hơn một chút so với các yếu tố khác, các yếu tố phiền toái nhỏ). Chúng được khuếch đại với nhiều mục trên mỗi quy mô.

Dưới đây là một vài câu trả lời cho tình huống trên:

  • Do SEM thăm dò cho phép tải chéo nhỏ khác nhau và các điều khoản liên quan
  • Kiểm tra các chỉ số sửa đổi và kết hợp một số sửa đổi hợp lý lớn nhất; ví dụ, một số ít trong phần dư tương quan tỷ lệ; một vài tải trọng chéo. thấy modificationindices(fit)trong lavaan.
  • Sử dụng phân tích mục để giảm số lượng biến quan sát

Nhận xét chung

Vì vậy, nói chung, nếu mô hình CFA của bạn thực sự tồi tệ, hãy quay lại EFA để tìm hiểu thêm về quy mô của bạn. Ngoài ra, nếu EFA của bạn tốt và CFA của bạn trông hơi tệ do các vấn đề nổi tiếng về việc có nhiều mặt hàng trên mỗi thang đo, thì phương pháp CFA tiêu chuẩn như đã đề cập ở trên là phù hợp.


1
cảm ơn rất nhiều vì lời khuyên của bạn Tôi đã quay trở lại EFA, nhưng với các đề xuất của bạn, tôi đã nhận ra rằng rất nhiều mặt hàng không tải theo yếu tố họ nên có. Tôi muốn thu gọn mô hình thành 5 yếu tố thay vì 7 yếu tố lý thuyết, nhưng Giáo sư của tôi sẽ không đồng ý với điều đó, nhưng điều đó vẫn ổn. Đáng buồn thay, mô hình 7 yếu tố với 4 mục, mỗi mục không hoạt động (không có vấn đề gì được sửa đổi). Tôi sẽ báo cáo CFA giảm (với 7 yếu tố + 1 nhân tố, mỗi thứ 3), hầu như không phù hợp (CFI = .89, RMSEA = .067, SRMR = .069), nhưng đó là thứ tốt nhất tôi có.
teeglaze

1
ps Jeromy, tôi thực sự thích blog của bạn. Nó đã giúp tôi rất nhiều cho đến nay và chắc chắn sẽ làm như vậy trong tương lai :) Cảm ơn!
teeglaze

4

Tôi sẽ làm việc để cố gắng để mô hình bifactor hội tụ. Hãy thử điều chỉnh các giá trị bắt đầu ... đây có thể là một cách tiếp cận cá, vì vậy hãy lưu ý và giải thích một cách thận trọng. Đọc về sự nguy hiểm của các mô hình phiên dịch chống lại sự hội tụ nếu bạn muốn thực sự thận trọng - Tôi thừa nhận tôi đã không làm điều này nhiều trong bản thân mình trong nghiên cứu về SEM, vì vậy tôi khuyên bạn nên làm những gì bạn cần làm để đưa mô hình vào hội tụ chủ yếu vì lợi ích của bạn Tôi không biết rằng nó sẽ phù hợp hơn để xuất bản, nhưng nếu rõ ràng là không phải vì mô hình bifactor cũng không phù hợp, điều đó có thể tốt cho bạn biết.

Mặt khác, có vẻ như bạn đã thực hiện càng nhiều càng tốt với dữ liệu bạn có. AFAIK (Gần đây tôi đã xem xét sâu về dự án phương pháp này của mình, vì vậy hãy sửa cho tôi nếu tôi sai !!), ước tính của WLSMV trong việc lavaansử dụng các ngưỡng từ các tương quan đa âm, là cách tốt nhất để có được sự phù hợp tốt chỉ số trong một CFA của dữ liệu thứ tự. Giả sử bạn đã chỉ định mô hình của mình một cách chính xác (hoặc ít nhất là tối ưu), đó là tất cả những gì bạn có thể làm. Loại bỏ các mục có tải trọng thấp và ước tính hiệp phương sai giữa các mục thậm chí còn đi xa hơn một chút, nhưng bạn cũng đã thử điều đó.

Mô hình của bạn không phù hợp với các tiêu chuẩn thông thường, như bạn có thể biết. Tất nhiên bạn không nên nói nó phù hợp khi nó không. Điều này áp dụng cho tất cả các bộ thống kê phù hợp mà bạn báo cáo ở đây, thật không may (tôi cho rằng bạn đang hy vọng nó sẽ phù hợp). Một số thống kê phù hợp của bạn chỉ khá kém, không hoàn toàn xấu (RMSEA = 0,05 có thể chấp nhận được), nhưng nhìn chung, không có gì là tin tốt và bạn phải có trách nhiệm trung thực về điều đó nếu bạn sẽ xuất bản Những kết quả này. Tôi hy vọng bạn có thể, FWIW.

Dù bằng cách nào, bạn có thể cân nhắc thu thập thêm dữ liệu nếu có thể; Điều đó có thể giúp đỡ, tùy thuộc vào những gì bạn đang theo đuổi. Nếu mục tiêu của bạn là kiểm tra giả thuyết xác nhận, thì bạn đã "xem trộm" dữ liệu của mình và sẽ tăng tỷ lệ lỗi nếu bạn sử dụng lại trong một mẫu mở rộng, vì vậy trừ khi bạn có thể đặt tập dữ liệu này sang một bên và sao chép toàn bộ, mới, lớn hơn, bạn đã có một kịch bản khó xử lý. Nếu bạn chủ yếu quan tâm đến việc ước tính các tham số và thu hẹp khoảng tin cậy, tôi nghĩ có thể hợp lý khi chỉ tập hợp nhiều dữ liệu mà bạn có thể thu thập, bao gồm cả bất kỳ bạn đã sử dụng ở đây. Nếu bạn có thể nhận được nhiều dữ liệu hơn, bạn có thể nhận được các chỉ số phù hợp tốt hơn, điều này sẽ làm cho ước tính tham số của bạn đáng tin cậy hơn. Hy vọng rằng đó là đủ tốt.


Lớn +1 cho thay thế @ Jeromy quá: quay lại EFA. Phân tích bifactor thăm dò là một lựa chọn quá. Thậm chí còn có một vài bài viết về SEM khám phá (mà anh ấy cũng đề cập đến!) Ngoài ra tôi vẫn cần đọc ... một lần nữa, đây không phải là CFA theo cách bạn có thể muốn, nhưng nếu mục tiêu của bạn phù hợp với các phương pháp này, thì Rốt cuộc, các lựa chọn có thể chưa hết.
Nick Stauner

1
Mô hình bifactor hội tụ khi loại bỏ một mục. Nhưng sự phù hợp vẫn thực sự xấu và các yếu tố vẫn tương quan cao. Tôi nghĩ rằng lựa chọn của tôi đã cạn kiệt sau khi tất cả. Tuy nhiên, chúng tôi đang thu thập nhiều dữ liệu hơn để có ước tính đáng tin cậy hơn. Cảm ơn vì đã trả lời!
teeglaze
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.