CFA
основная модель
Самая простая модель на 8 компетенций среднего уровня (с2). Это исходная модель, которая описана в статье. С помощью конфирматорного факторного анализа проверяем, насколько теоретическая структура модели присутствует в данных.
Декларация модели такая:
## c11 =~ q_83 + q_88 + q_87 + q_65 + q_85 + q_12 + q_69 + q_55 + q_35 + q_47 + q_14 + q_19 + q_13 + q_36 + q_63 + q_50 + q_16
##
## c6 =~ q_54 + q_113 + q_132 + q_117 + q_40 + q_73 + q_133 + q_110 + q_28 + q_25 + q_91 + q_56 + q_135 + q_1 + q_57 + q_124 + q_126
##
## c2 =~ q_96 + q_134 + q_95 + q_128 + q_102 + q_119 + q_101 + q_109 + q_100
##
## c10 =~ q_10 + q_34 + q_123 + q_26 + q_60 + q_99 + q_64 + q_97 + q_98 + q_112 + q_111 + q_121 + q_103 + q_106 + q_92 + q_120 + q_21 + q_125
##
## c8 =~ q_41 + q_37 + q_42 + q_70 + q_122 + q_104 + q_27 + q_8 + q_82 + q_48 + q_22 + q_114 + q_49 + q_78 + q_90 + q_84 + q_66 + q_62 + q_17 + q_43 + q_81 + q_72 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_20 + q_74 + q_52 + q_80 + q_30 + q_107 + q_33 + q_131 + q_32 + q_23 + q_9
##
## c5 =~ q_15 + q_86 + q_24 + q_76 + q_31 + q_39 + q_71 + q_75 + q_5 + q_53 + q_46 + q_44 + q_79 + q_4 + q_7 + q_29 + q_68 + q_51 + q_61 + q_45 + q_89 + q_136 + q_3 + q_6 + q_67 + q_58 + q_77
##
## c9 =~ q_118 + q_137 + q_127 + q_129
##
## c3 =~ q_115 + q_94 + q_93 + q_108 + q_116
Модель сходится посредственно:
## cfi rmsea srmr
## 0.456 0.054 0.078
Индекс CFI (сравнение с моделью без латентных факторов) невысок, так как для хороших моделей значение должно быть выше 0.9, а лучше – выше 0.95. Возможные способы улучшить модель – пересмотреть факторную структуру или добавить кросс-нагрузки (когда один вопрос относится к нескольким факторам).
Референсные значения для RMSEA (оценка сложности модели) – чем ниже, тем лучше, ниже 0.05 очень хорошее качество, ниже 0.08 – приемлемое.
Референсные значения для SRMR (насколько хорошо модель воспроизводит наблюдаемые корреляции) – чем ниже, тем лучше, ниже 0.05 очень хорошее качество, ниже 0.08 – приемлемое.
подходы к улучшению модели
скорректированная модель
Самый простой способ улучшить модель – удалить те вопросы, по которым нет значимых вкладов. В табличке ниже дано количество вопросов в каждой шкале всего, и сколько оказалось без значимых вкладов (кандидаты на удаление):
| c2 | C1 | C2 | full_model | trimmed_model | excluded |
|---|---|---|---|---|---|
| c2 | процесс терапии | альянс и сеттинг - 1 | 9 | 8 | 1 |
| c3 | процесс терапии | альянс и сеттинг - 2 | 5 | 5 | 0 |
| c5 | отношения | отношения-1 | 27 | 21 | 6 |
| c6 | отношения | отношения-2 | 17 | 12 | 5 |
| c8 | работа с изменениями | работа с изменениями | 40 | 21 | 19 |
| c9 | профессионализм | профессионализм-1 | 4 | 3 | 1 |
| c10 | профессионализм | профессионализм-2 | 18 | 18 | 0 |
| c11 | результаты | результаты | 17 | 17 | 0 |
После удаления вопросов метрики модели выглядят следующим образом:
## cfi rmsea srmr
## 0.582 0.054 0.070
модель с кросс-нагрузками
И EFA, и метрики кросс-нагрузков CFA показывают, что много вопросов делают вклад в несколько факторов (т. е. высокая кросс-факторная нагрузка). Таблица, в которой для каждого вопроса даны факторы с максимальной нагрузкой – по модели и, если есть, кросс-факторы.
Соответственно, можно попробовать учесть в модели, что некоторые вопросы могут относиться к нескольким факторам. Для этого я взял первый по кросс-нагрузке фактор для каждого вопроса и добавил к скорректированной модели (основной модели, из которой удалены незначимые вопросы).
Декларация модели:
## rhs lhs op mi epc sepc.lv sepc.all sepc.nox
## <char> <char> <char> <num> <num> <num> <num> <num>
## 1: q_100 c10 =~ 45.41248 0.7106538 0.4765198 0.4039927 0.4039927
## 2: q_102 c10 =~ 13.17355 -0.2990720 -0.2005389 -0.2062211 -0.2062211
## 3: q_103 c6 =~ 13.48991 0.4282365 0.1971413 0.2057572 0.2057572
## 4: q_109 c9 =~ 24.01459 1.0036046 0.5839685 0.5317943 0.5317943
## 5: q_112 c6 =~ 45.05624 -0.8255243 -0.3800352 -0.3608719 -0.3608719
## 6: q_115 c9 =~ 16.18168 0.4213688 0.2451824 0.2343976 0.2343976
## 7: q_116 c9 =~ 10.26016 0.3553297 0.2067561 0.1860887 0.1860887
## 8: q_119 c6 =~ 41.15206 1.1888077 0.5472750 0.7466621 0.7466621
## 9: q_120 c8 =~ 24.51322 -0.9006735 -0.2293951 -0.2524841 -0.2524841
## 10: q_121 c11 =~ 30.71587 -0.2847672 -0.2266302 -0.2171642 -0.2171642
## 11: q_124 c5 =~ 11.59134 0.6671565 0.2338432 0.3135570 0.3135570
## 12: q_127 c10 =~ 54.88341 -0.8051707 -0.5398969 -0.6196627 -0.6196627
## 13: q_128 c5 =~ 31.47723 0.6353938 0.2227101 0.3272517 0.3272517
## 14: q_129 c10 =~ 27.37304 0.5329962 0.3573938 0.4455401 0.4455401
## 15: q_13 c5 =~ 14.10894 -0.8419055 -0.2950939 -0.2388722 -0.2388722
## 16: q_134 c9 =~ 23.67891 -0.9133203 -0.5314347 -0.4982345 -0.4982345
## 17: q_136 c9 =~ 15.07752 0.2684211 0.1561865 0.2418025 0.2418025
## 18: q_17 c5 =~ 29.18556 -1.9697897 -0.6904255 -0.6379535 -0.6379535
## 19: q_19 c6 =~ 26.49392 -0.9437674 -0.4344691 -0.4189776 -0.4189776
## 20: q_21 c8 =~ 33.45108 1.3642391 0.3474620 0.3623697 0.3623697
## 21: q_22 c6 =~ 28.60734 -2.0097291 -0.9251911 -1.0299151 -1.0299151
## 22: q_25 c11 =~ 24.48602 0.8313266 0.6616061 0.4426467 0.4426467
## 23: q_26 c11 =~ 34.08793 0.4425164 0.3521739 0.2990593 0.2990593
## 24: q_3 c6 =~ 38.88546 1.5551613 0.7159280 0.5891792 0.5891792
## 25: q_30 c5 =~ 13.44099 0.9710349 0.3403547 0.4391334 0.4391334
## 26: q_34 c8 =~ 31.26607 1.3632160 0.3472014 0.3215033 0.3215033
## 27: q_35 c5 =~ 38.79855 -1.2915050 -0.4526818 -0.3847923 -0.3847923
## 28: q_36 c8 =~ 27.27250 1.5823349 0.4030094 0.3834009 0.3834009
## 29: q_37 c11 =~ 11.11265 0.3995060 0.3179443 0.2739306 0.2739306
## 30: q_42 c5 =~ 47.20908 -3.1879149 -1.1173871 -0.9121709 -0.9121709
## 31: q_48 c11 =~ 37.31930 0.6917268 0.5505064 0.4704299 0.4704299
## 32: q_53 c3 =~ 10.81168 -0.1625146 -0.1191727 -0.1463513 -0.1463513
## 33: q_55 c5 =~ 11.07569 -0.7370420 -0.2583385 -0.2109297 -0.2109297
## 34: q_56 c11 =~ 23.97023 0.5832706 0.4641922 0.4158124 0.4158124
## 35: q_57 c11 =~ 18.40229 0.5881308 0.4680602 0.3644414 0.3644414
## 36: q_60 c8 =~ 35.50530 1.2814293 0.3263709 0.3554478 0.3554478
## 37: q_62 c5 =~ 19.69414 -1.8837568 -0.6602703 -0.5623405 -0.5623405
## 38: q_63 c5 =~ 80.34451 1.1515239 0.4036174 0.5400485 0.5400485
## 39: q_66 c11 =~ 20.08614 -0.5675006 -0.4516418 -0.3595590 -0.3595590
## 40: q_68 c8 =~ 12.17656 1.8931438 0.4821702 0.4355270 0.4355270
## 41: q_69 c8 =~ 10.27041 -0.8321065 -0.2119316 -0.2370240 -0.2370240
## 42: q_72 c10 =~ 23.90095 0.5840747 0.3916438 0.3174417 0.3174417
## 43: q_76 c6 =~ 18.60958 -0.8255970 -0.3800686 -0.3998065 -0.3998065
## 44: q_77 c2 =~ 15.26179 -0.4228828 -0.2442494 -0.2597007 -0.2597007
## 45: q_78 c5 =~ 60.29769 1.6876046 0.5915176 0.8900325 0.8900325
## 46: q_84 c10 =~ 13.12863 0.3004550 0.2014662 0.2407463 0.2407463
## 47: q_85 c5 =~ 19.36141 0.7115947 0.2494191 0.2595552 0.2595552
## 48: q_87 c5 =~ 25.17403 0.7701641 0.2699481 0.3007475 0.3007475
## 49: q_88 c6 =~ 22.20654 0.8528524 0.3926159 0.3817340 0.3817340
## 50: q_89 c11 =~ 13.98718 0.2337278 0.1860108 0.2226566 0.2226566
## 51: q_90 c6 =~ 10.12319 1.1734869 0.5402219 0.6202125 0.6202125
## 52: q_93 c9 =~ 31.00588 -0.7175184 -0.4175032 -0.3384390 -0.3384390
## 53: q_94 c9 =~ 20.70984 -0.4942146 -0.2875692 -0.2723051 -0.2723051
## 54: q_95 c6 =~ 39.10297 -1.9625135 -0.9034552 -0.7636606 -0.7636606
## 55: q_96 c6 =~ 19.51100 -1.5160244 -0.6979112 -0.5416624 -0.5416624
## 56: q_99 c2 =~ 27.48733 0.5991966 0.3460851 0.3129839 0.3129839
## rhs lhs op mi epc sepc.lv sepc.all sepc.nox
## mi_rnd
## <num>
## 1: 45.41
## 2: 13.17
## 3: 13.49
## 4: 24.01
## 5: 45.06
## 6: 16.18
## 7: 10.26
## 8: 41.15
## 9: 24.51
## 10: 30.72
## 11: 11.59
## 12: 54.88
## 13: 31.48
## 14: 27.37
## 15: 14.11
## 16: 23.68
## 17: 15.08
## 18: 29.19
## 19: 26.49
## 20: 33.45
## 21: 28.61
## 22: 24.49
## 23: 34.09
## 24: 38.89
## 25: 13.44
## 26: 31.27
## 27: 38.80
## 28: 27.27
## 29: 11.11
## 30: 47.21
## 31: 37.32
## 32: 10.81
## 33: 11.08
## 34: 23.97
## 35: 18.40
## 36: 35.51
## 37: 19.69
## 38: 80.34
## 39: 20.09
## 40: 12.18
## 41: 10.27
## 42: 23.90
## 43: 18.61
## 44: 15.26
## 45: 60.30
## 46: 13.13
## 47: 19.36
## 48: 25.17
## 49: 22.21
## 50: 13.99
## 51: 10.12
## 52: 31.01
## 53: 20.71
## 54: 39.10
## 55: 19.51
## 56: 27.49
## mi_rnd
## [1] "c11" "c6" "c2" "c10" "c8" "c5" "c9" "c3"
## c10 =~ q_10 + q_100 + q_102 + q_103 + q_106 + q_111 + q_112 + q_120 + q_121 + q_123 + q_125 + q_127 + q_129 + q_21 + q_26 + q_34 + q_60 + q_64 + q_72 + q_84 + q_92 + q_97 + q_98 + q_99
## c11 =~ q_12 + q_121 + q_13 + q_14 + q_16 + q_19 + q_25 + q_26 + q_35 + q_36 + q_37 + q_47 + q_48 + q_50 + q_55 + q_56 + q_57 + q_63 + q_65 + q_66 + q_69 + q_83 + q_85 + q_87 + q_88 + q_89
## c2 =~ q_100 + q_102 + q_109 + q_119 + q_128 + q_134 + q_77 + q_95 + q_96 + q_99
## c3 =~ q_108 + q_115 + q_116 + q_53 + q_93 + q_94
## c5 =~ q_124 + q_128 + q_13 + q_136 + q_15 + q_17 + q_24 + q_3 + q_30 + q_31 + q_35 + q_39 + q_42 + q_44 + q_45 + q_5 + q_51 + q_53 + q_55 + q_58 + q_61 + q_62 + q_63 + q_68 + q_71 + q_75 + q_76 + q_77 + q_78 + q_79 + q_85 + q_86 + q_87 + q_89
## c6 =~ q_1 + q_103 + q_110 + q_112 + q_117 + q_119 + q_124 + q_126 + q_132 + q_135 + q_19 + q_22 + q_25 + q_28 + q_3 + q_54 + q_56 + q_57 + q_76 + q_88 + q_90 + q_95 + q_96
## c8 =~ q_120 + q_17 + q_18 + q_2 + q_21 + q_22 + q_30 + q_32 + q_34 + q_36 + q_37 + q_41 + q_42 + q_43 + q_48 + q_60 + q_62 + q_66 + q_68 + q_69 + q_72 + q_74 + q_78 + q_80 + q_82 + q_84 + q_9 + q_90
## c9 =~ q_109 + q_115 + q_116 + q_118 + q_127 + q_129 + q_134 + q_136 + q_93 + q_94
В результате получилось такое качество модели:
## cfi rmsea srmr
## 0.582 0.054 0.070
модель без кросс-нагрузок
Еще один способ улучшить модель — исключить вопросы с высокой кросс-нагрузкой (вариативность которых может объясняться сразу несколькими латентными факторами).
Я исключил вопросы, у которых параметр mi > 15. Пробовал также mi > 20, но существенных различий не нашел.
Декларация модели:
## [1] 42
## c11 =~ q_83 + q_65 + q_12 + q_69 + q_55 + q_47 + q_14 + q_13 + q_50 + q_16
##
## c6 =~ q_54 + q_113 + q_132 + q_117 + q_40 + q_73 + q_133 + q_110 + q_28 + q_91 + q_135 + q_1 + q_124 + q_126
##
## c2 =~ q_102 + q_101
##
## c10 =~ q_10 + q_123 + q_64 + q_97 + q_98 + q_111 + q_103 + q_106 + q_92 + q_125
##
## c8 =~ q_41 + q_37 + q_70 + q_122 + q_104 + q_27 + q_8 + q_82 + q_114 + q_49 + q_90 + q_84 + q_43 + q_81 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_20 + q_74 + q_52 + q_80 + q_30 + q_107 + q_33 + q_131 + q_32 + q_23 + q_9
##
## c5 =~ q_15 + q_86 + q_24 + q_31 + q_39 + q_71 + q_75 + q_5 + q_53 + q_46 + q_44 + q_79 + q_4 + q_7 + q_29 + q_68 + q_51 + q_61 + q_45 + q_89 + q_6 + q_67 + q_58
##
## c9 =~ q_118 + q_137
##
## c3 =~ q_108 + q_116
Метрики качества модели при удалении вопросов с высокими (mi > 15) кросс-нагрузками:
## cfi rmsea srmr
## 0.470 0.054 0.087
модель с высокими efa-нагрузками
Четвертый способ, который я использовал — убрал из модели вопросы, которые имели низкую факторную нагрузку (меньше 0.3) при разбиении вопросов на восемь факторов при EFA. По сути, я убрал совсем нерелевантные вопросы.
Декларация модели:
## [1] 31
## c11 =~ q_83 + q_88 + q_87 + q_65 + q_85 + q_12 + q_69 + q_55 + q_35 + q_47 + q_14 + q_19 + q_13 + q_36 + q_63 + q_50 + q_16
##
## c6 =~ q_54 + q_73 + q_110 + q_28 + q_25 + q_1 + q_57 + q_124
##
## c2 =~ q_96 + q_134 + q_95 + q_128 + q_102 + q_119 + q_101 + q_109 + q_100
##
## c10 =~ q_10 + q_34 + q_26 + q_60 + q_99 + q_112 + q_111 + q_121 + q_103 + q_92 + q_120 + q_21 + q_125
##
## c8 =~ q_41 + q_42 + q_122 + q_104 + q_8 + q_48 + q_22 + q_114 + q_49 + q_78 + q_90 + q_84 + q_66 + q_62 + q_17 + q_43 + q_81 + q_72 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_74 + q_52 + q_80 + q_30 + q_107 + q_131 + q_23 + q_9
##
## c5 =~ q_15 + q_76 + q_31 + q_39 + q_75 + q_53 + q_44 + q_4 + q_7 + q_68 + q_51 + q_89 + q_136 + q_3 + q_6 + q_67 + q_58 + q_77
##
## c9 =~ q_118 + q_127 + q_129
##
## c3 =~ q_115 + q_94 + q_93 + q_108 + q_116
Метрики качества получившейся модели:
## cfi rmsea srmr
## 0.509 0.059 0.082
модель без вопросов с низкой нагрузкой
Пятый способ (самый слабый) – удаление нерелевантных вопросов из шкал отношения-1, работа с изменениями, профессионализм-2, результаты (по результатам оценки факторной структуры этих больших по количеству вопросов шкал).
Декларация модели:
## c11 =~ q_83 + q_88 + q_87 + q_65 + q_85 + q_12 + q_69 + q_55 + q_35 + q_47 + q_14 + q_19 + q_13 + q_36 + q_63 + q_50 + q_16
##
## c6 =~ q_54 + q_113 + q_132 + q_117 + q_40 + q_73 + q_133 + q_110 + q_28 + q_25 + q_91 + q_56 + q_135 + q_1 + q_57 + q_124 + q_126
##
## c2 =~ q_96 + q_134 + q_95 + q_128 + q_102 + q_119 + q_101 + q_109 + q_100
##
## c10 =~ q_10 + q_34 + q_123 + q_26 + q_60 + q_64 + q_97 + q_98 + q_112 + q_111 + q_121 + q_103 + q_92 + q_120 + q_21 + q_125
##
## c8 =~ q_41 + q_37 + q_42 + q_122 + q_104 + q_8 + q_82 + q_48 + q_22 + q_114 + q_49 + q_78 + q_90 + q_66 + q_62 + q_17 + q_43 + q_81 + q_72 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_20 + q_74 + q_52 + q_80 + q_30 + q_107 + q_33 + q_131 + q_32 + q_23 + q_9
##
## c5 =~ q_15 + q_76 + q_31 + q_39 + q_75 + q_5 + q_53 + q_44 + q_4 + q_7 + q_29 + q_68 + q_51 + q_45 + q_89 + q_136 + q_3 + q_6 + q_67 + q_58 + q_77
##
## c9 =~ q_118 + q_137 + q_127 + q_129
##
## c3 =~ q_115 + q_94 + q_93 + q_108 + q_116
Метрики качества получившейся модели:
## cfi rmsea srmr
## 0.509 0.059 0.082
метрики с2-моделей
Сводная таблица метрик качества этих моделей выглядит следующим образом:
| model | cfi | rmsea | srmr |
|---|---|---|---|
| исходная модель | 0.456 | 0.054 | 0.078 |
| модель без незначимых вопросов | 0.582 | 0.054 | 0.070 |
| модель с кросс-нагрузками | 0.582 | 0.054 | 0.070 |
| модель без кросс-нагрузок | 0.470 | 0.054 | 0.087 |
| модель с высокими EFA-нагрузками | 0.509 | 0.059 | 0.082 |
| модель без низких EFA-нагрузок по отдельным шкалам | 0.474 | 0.055 | 0.079 |
Удаление незначимых вопросов немного улучшает качество структуры модели, но оно все еще недостаточно. Остальные попытки улучшить качество модели не дали хороших эффектов, даже наоборот.
Дальнейшие улучшения текущей можели на восемь компетенций мне кажутся бессмысленными. Тем не менее, можно попробовать оценить качество модели по 30 субшкалам (то есть по субшкалам наших восьми компетенций), что я и сделал ниже. Либо в целом попробовать пересобрать факторную модель в эксплораторном факторном анализе (в следующем разделе).
модель с3-шкал
В качестве альтернативного решения я попробовал оценить структуру опросника на уровне дробных с3-шкал. Может быть, осмысленно спуститься на уровень ниже, от восьми шкал компетенций на уровень из субшкал (исходно в модели их 42, в опроснике представлено 30)
Однако модель на 30 факторов не сходится, даже если предположить скоррелированность латентных факторов.
Если рассматривать каждую из 30 шкал отдельно, то видно, что есть несколько шкал, по которым даже маленькая модель сойтись не может.
| c3 | c2 | n_questions | cfi | rmsea | srmr |
|---|---|---|---|---|---|
| 3 | 2 | 4 | 0.879 | 0.169 | 0.066 |
| 5 | 2 | 5 | 0.889 | 0.154 | 0.061 |
| 8 | 3 | 5 | 0.863 | 0.2 | 0.066 |
| 12 | 5 | 2 | NA | NA | NA |
| 13 | 5 | 4 | 0.976 | 0.077 | 0.031 |
| 14 | 5 | 4 | 0.917 | 0.096 | 0.041 |
| 15 | 5 | 3 | 1 | 0 | 0 |
| 16 | 5 | 5 | 0.733 | 0.226 | 0.117 |
| 17 | 5 | 3 | 1 | 0 | 0 |
| 18 | 5 | 4 | 0.997 | 0.034 | 0.017 |
| 19 | 5 | 2 | NA | NA | NA |
| 20 | 6 | 3 | NA | NA | NA |
| 21 | 6 | 5 | 0.868 | 0.107 | 0.056 |
| 22 | 6 | 4 | NA | NA | NA |
| 23 | 6 | 5 | 0.776 | 0.111 | 0.063 |
| 25 | 8 | 5 | 0.706 | 0.134 | 0.075 |
| 26 | 8 | 5 | 0.64 | 0.175 | 0.094 |
| 27 | 8 | 5 | 0.837 | 0.086 | 0.052 |
| 28 | 8 | 4 | 0.851 | 0.111 | 0.047 |
| 29 | 8 | 5 | 0.957 | 0.089 | 0.037 |
| 30 | 8 | 4 | 0.521 | 0.261 | 0.109 |
| 31 | 8 | 7 | 0.906 | 0.122 | 0.064 |
| 32 | 8 | 5 | 0.881 | 0.069 | 0.041 |
| 36 | 9 | 4 | 0.845 | 0.2 | 0.077 |
| 37 | 10 | 6 | 0.875 | 0.132 | 0.072 |
| 38 | 10 | 6 | 0.872 | 0.114 | 0.053 |
| 39 | 10 | 6 | 0.971 | 0.064 | 0.035 |
| 40 | 11 | 5 | 0.915 | 0.145 | 0.052 |
| 41 | 11 | 6 | 0.873 | 0.103 | 0.057 |
| 42 | 11 | 6 | 0.888 | 0.127 | 0.067 |
модель с1-шкал
Еще одно альтернативное решение — подняться на уровень макро-компетенций (всего пять).
Декларация модели:
## c3 =~ q_134 + q_128 + q_119 + q_101
##
## c5 =~ q_96 + q_95 + q_102 + q_109 + q_100
##
## c8 =~ q_115 + q_94 + q_93 + q_108 + q_116
##
## c12 =~ q_15 + q_136
##
## c13 =~ q_53 + q_79 + q_61 + q_58
##
## c14 =~ q_44 + q_4 + q_7 + q_77
##
## c15 =~ q_39 + q_5 + q_3
##
## c16 =~ q_86 + q_29 + q_68 + q_45 + q_67
##
## c17 =~ q_24 + q_51 + q_6
##
## c18 =~ q_76 + q_31 + q_71 + q_89
##
## c19 =~ q_75 + q_46
##
## c20 =~ q_133 + q_124 + q_126
##
## c21 =~ q_113 + q_132 + q_117 + q_110 + q_135
##
## c22 =~ q_40 + q_73 + q_25 + q_56
##
## c23 =~ q_54 + q_28 + q_91 + q_1 + q_57
##
## c25 =~ q_27 + q_49 + q_17 + q_2 + q_18
##
## c26 =~ q_82 + q_81 + q_38 + q_52 + q_33
##
## c27 =~ q_42 + q_8 + q_90 + q_84 + q_9
##
## c28 =~ q_78 + q_59 + q_32 + q_23
##
## c29 =~ q_41 + q_22 + q_66 + q_72 + q_74
##
## c30 =~ q_48 + q_62 + q_11 + q_20
##
## c31 =~ q_122 + q_104 + q_114 + q_105 + q_130 + q_107 + q_131
##
## c32 =~ q_37 + q_70 + q_43 + q_80 + q_30
##
## c36 =~ q_118 + q_137 + q_127 + q_129
##
## c37 =~ q_98 + q_112 + q_121 + q_103 + q_106 + q_125
##
## c38 =~ q_123 + q_99 + q_97 + q_111 + q_92 + q_120
##
## c39 =~ q_10 + q_34 + q_26 + q_60 + q_64 + q_21
##
## c40 =~ q_83 + q_55 + q_19 + q_36 + q_16
##
## c41 =~ q_88 + q_65 + q_12 + q_35 + q_13 + q_50
##
## c42 =~ q_87 + q_85 + q_69 + q_47 + q_14 + q_63
Метрики качества получившейся модели:
## cfi rmsea srmr
## 0.432 0.055 0.078