CFA

основная модель

Самая простая модель на 8 компетенций среднего уровня (с2). Это исходная модель, которая описана в статье. С помощью конфирматорного факторного анализа проверяем, насколько теоретическая структура модели присутствует в данных.

Декларация модели такая:

## c11 =~ q_83 + q_88 + q_87 + q_65 + q_85 + q_12 + q_69 + q_55 + q_35 + q_47 + q_14 + q_19 + q_13 + q_36 + q_63 + q_50 + q_16
## 
## c6 =~ q_54 + q_113 + q_132 + q_117 + q_40 + q_73 + q_133 + q_110 + q_28 + q_25 + q_91 + q_56 + q_135 + q_1 + q_57 + q_124 + q_126
## 
## c2 =~ q_96 + q_134 + q_95 + q_128 + q_102 + q_119 + q_101 + q_109 + q_100
## 
## c10 =~ q_10 + q_34 + q_123 + q_26 + q_60 + q_99 + q_64 + q_97 + q_98 + q_112 + q_111 + q_121 + q_103 + q_106 + q_92 + q_120 + q_21 + q_125
## 
## c8 =~ q_41 + q_37 + q_42 + q_70 + q_122 + q_104 + q_27 + q_8 + q_82 + q_48 + q_22 + q_114 + q_49 + q_78 + q_90 + q_84 + q_66 + q_62 + q_17 + q_43 + q_81 + q_72 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_20 + q_74 + q_52 + q_80 + q_30 + q_107 + q_33 + q_131 + q_32 + q_23 + q_9
## 
## c5 =~ q_15 + q_86 + q_24 + q_76 + q_31 + q_39 + q_71 + q_75 + q_5 + q_53 + q_46 + q_44 + q_79 + q_4 + q_7 + q_29 + q_68 + q_51 + q_61 + q_45 + q_89 + q_136 + q_3 + q_6 + q_67 + q_58 + q_77
## 
## c9 =~ q_118 + q_137 + q_127 + q_129
## 
## c3 =~ q_115 + q_94 + q_93 + q_108 + q_116

Модель сходится посредственно:

##   cfi rmsea  srmr 
## 0.456 0.054 0.078

Индекс CFI (сравнение с моделью без латентных факторов) невысок, так как для хороших моделей значение должно быть выше 0.9, а лучше – выше 0.95. Возможные способы улучшить модель – пересмотреть факторную структуру или добавить кросс-нагрузки (когда один вопрос относится к нескольким факторам).

Референсные значения для RMSEA (оценка сложности модели) – чем ниже, тем лучше, ниже 0.05 очень хорошее качество, ниже 0.08 – приемлемое.

Референсные значения для SRMR (насколько хорошо модель воспроизводит наблюдаемые корреляции) – чем ниже, тем лучше, ниже 0.05 очень хорошее качество, ниже 0.08 – приемлемое.

подходы к улучшению модели

скорректированная модель

Самый простой способ улучшить модель – удалить те вопросы, по которым нет значимых вкладов. В табличке ниже дано количество вопросов в каждой шкале всего, и сколько оказалось без значимых вкладов (кандидаты на удаление):

c2 C1 C2 full_model trimmed_model excluded
c2 процесс терапии альянс и сеттинг - 1 9 8 1
c3 процесс терапии альянс и сеттинг - 2 5 5 0
c5 отношения отношения-1 27 21 6
c6 отношения отношения-2 17 12 5
c8 работа с изменениями работа с изменениями 40 21 19
c9 профессионализм профессионализм-1 4 3 1
c10 профессионализм профессионализм-2 18 18 0
c11 результаты результаты 17 17 0

После удаления вопросов метрики модели выглядят следующим образом:

##   cfi rmsea  srmr 
## 0.582 0.054 0.070

модель с кросс-нагрузками

И EFA, и метрики кросс-нагрузков CFA показывают, что много вопросов делают вклад в несколько факторов (т. е. высокая кросс-факторная нагрузка). Таблица, в которой для каждого вопроса даны факторы с максимальной нагрузкой – по модели и, если есть, кросс-факторы.

Соответственно, можно попробовать учесть в модели, что некоторые вопросы могут относиться к нескольким факторам. Для этого я взял первый по кросс-нагрузке фактор для каждого вопроса и добавил к скорректированной модели (основной модели, из которой удалены незначимые вопросы).

Декларация модели:

##        rhs    lhs     op       mi        epc    sepc.lv   sepc.all   sepc.nox
##     <char> <char> <char>    <num>      <num>      <num>      <num>      <num>
##  1:  q_100    c10     =~ 45.41248  0.7106538  0.4765198  0.4039927  0.4039927
##  2:  q_102    c10     =~ 13.17355 -0.2990720 -0.2005389 -0.2062211 -0.2062211
##  3:  q_103     c6     =~ 13.48991  0.4282365  0.1971413  0.2057572  0.2057572
##  4:  q_109     c9     =~ 24.01459  1.0036046  0.5839685  0.5317943  0.5317943
##  5:  q_112     c6     =~ 45.05624 -0.8255243 -0.3800352 -0.3608719 -0.3608719
##  6:  q_115     c9     =~ 16.18168  0.4213688  0.2451824  0.2343976  0.2343976
##  7:  q_116     c9     =~ 10.26016  0.3553297  0.2067561  0.1860887  0.1860887
##  8:  q_119     c6     =~ 41.15206  1.1888077  0.5472750  0.7466621  0.7466621
##  9:  q_120     c8     =~ 24.51322 -0.9006735 -0.2293951 -0.2524841 -0.2524841
## 10:  q_121    c11     =~ 30.71587 -0.2847672 -0.2266302 -0.2171642 -0.2171642
## 11:  q_124     c5     =~ 11.59134  0.6671565  0.2338432  0.3135570  0.3135570
## 12:  q_127    c10     =~ 54.88341 -0.8051707 -0.5398969 -0.6196627 -0.6196627
## 13:  q_128     c5     =~ 31.47723  0.6353938  0.2227101  0.3272517  0.3272517
## 14:  q_129    c10     =~ 27.37304  0.5329962  0.3573938  0.4455401  0.4455401
## 15:   q_13     c5     =~ 14.10894 -0.8419055 -0.2950939 -0.2388722 -0.2388722
## 16:  q_134     c9     =~ 23.67891 -0.9133203 -0.5314347 -0.4982345 -0.4982345
## 17:  q_136     c9     =~ 15.07752  0.2684211  0.1561865  0.2418025  0.2418025
## 18:   q_17     c5     =~ 29.18556 -1.9697897 -0.6904255 -0.6379535 -0.6379535
## 19:   q_19     c6     =~ 26.49392 -0.9437674 -0.4344691 -0.4189776 -0.4189776
## 20:   q_21     c8     =~ 33.45108  1.3642391  0.3474620  0.3623697  0.3623697
## 21:   q_22     c6     =~ 28.60734 -2.0097291 -0.9251911 -1.0299151 -1.0299151
## 22:   q_25    c11     =~ 24.48602  0.8313266  0.6616061  0.4426467  0.4426467
## 23:   q_26    c11     =~ 34.08793  0.4425164  0.3521739  0.2990593  0.2990593
## 24:    q_3     c6     =~ 38.88546  1.5551613  0.7159280  0.5891792  0.5891792
## 25:   q_30     c5     =~ 13.44099  0.9710349  0.3403547  0.4391334  0.4391334
## 26:   q_34     c8     =~ 31.26607  1.3632160  0.3472014  0.3215033  0.3215033
## 27:   q_35     c5     =~ 38.79855 -1.2915050 -0.4526818 -0.3847923 -0.3847923
## 28:   q_36     c8     =~ 27.27250  1.5823349  0.4030094  0.3834009  0.3834009
## 29:   q_37    c11     =~ 11.11265  0.3995060  0.3179443  0.2739306  0.2739306
## 30:   q_42     c5     =~ 47.20908 -3.1879149 -1.1173871 -0.9121709 -0.9121709
## 31:   q_48    c11     =~ 37.31930  0.6917268  0.5505064  0.4704299  0.4704299
## 32:   q_53     c3     =~ 10.81168 -0.1625146 -0.1191727 -0.1463513 -0.1463513
## 33:   q_55     c5     =~ 11.07569 -0.7370420 -0.2583385 -0.2109297 -0.2109297
## 34:   q_56    c11     =~ 23.97023  0.5832706  0.4641922  0.4158124  0.4158124
## 35:   q_57    c11     =~ 18.40229  0.5881308  0.4680602  0.3644414  0.3644414
## 36:   q_60     c8     =~ 35.50530  1.2814293  0.3263709  0.3554478  0.3554478
## 37:   q_62     c5     =~ 19.69414 -1.8837568 -0.6602703 -0.5623405 -0.5623405
## 38:   q_63     c5     =~ 80.34451  1.1515239  0.4036174  0.5400485  0.5400485
## 39:   q_66    c11     =~ 20.08614 -0.5675006 -0.4516418 -0.3595590 -0.3595590
## 40:   q_68     c8     =~ 12.17656  1.8931438  0.4821702  0.4355270  0.4355270
## 41:   q_69     c8     =~ 10.27041 -0.8321065 -0.2119316 -0.2370240 -0.2370240
## 42:   q_72    c10     =~ 23.90095  0.5840747  0.3916438  0.3174417  0.3174417
## 43:   q_76     c6     =~ 18.60958 -0.8255970 -0.3800686 -0.3998065 -0.3998065
## 44:   q_77     c2     =~ 15.26179 -0.4228828 -0.2442494 -0.2597007 -0.2597007
## 45:   q_78     c5     =~ 60.29769  1.6876046  0.5915176  0.8900325  0.8900325
## 46:   q_84    c10     =~ 13.12863  0.3004550  0.2014662  0.2407463  0.2407463
## 47:   q_85     c5     =~ 19.36141  0.7115947  0.2494191  0.2595552  0.2595552
## 48:   q_87     c5     =~ 25.17403  0.7701641  0.2699481  0.3007475  0.3007475
## 49:   q_88     c6     =~ 22.20654  0.8528524  0.3926159  0.3817340  0.3817340
## 50:   q_89    c11     =~ 13.98718  0.2337278  0.1860108  0.2226566  0.2226566
## 51:   q_90     c6     =~ 10.12319  1.1734869  0.5402219  0.6202125  0.6202125
## 52:   q_93     c9     =~ 31.00588 -0.7175184 -0.4175032 -0.3384390 -0.3384390
## 53:   q_94     c9     =~ 20.70984 -0.4942146 -0.2875692 -0.2723051 -0.2723051
## 54:   q_95     c6     =~ 39.10297 -1.9625135 -0.9034552 -0.7636606 -0.7636606
## 55:   q_96     c6     =~ 19.51100 -1.5160244 -0.6979112 -0.5416624 -0.5416624
## 56:   q_99     c2     =~ 27.48733  0.5991966  0.3460851  0.3129839  0.3129839
##        rhs    lhs     op       mi        epc    sepc.lv   sepc.all   sepc.nox
##     mi_rnd
##      <num>
##  1:  45.41
##  2:  13.17
##  3:  13.49
##  4:  24.01
##  5:  45.06
##  6:  16.18
##  7:  10.26
##  8:  41.15
##  9:  24.51
## 10:  30.72
## 11:  11.59
## 12:  54.88
## 13:  31.48
## 14:  27.37
## 15:  14.11
## 16:  23.68
## 17:  15.08
## 18:  29.19
## 19:  26.49
## 20:  33.45
## 21:  28.61
## 22:  24.49
## 23:  34.09
## 24:  38.89
## 25:  13.44
## 26:  31.27
## 27:  38.80
## 28:  27.27
## 29:  11.11
## 30:  47.21
## 31:  37.32
## 32:  10.81
## 33:  11.08
## 34:  23.97
## 35:  18.40
## 36:  35.51
## 37:  19.69
## 38:  80.34
## 39:  20.09
## 40:  12.18
## 41:  10.27
## 42:  23.90
## 43:  18.61
## 44:  15.26
## 45:  60.30
## 46:  13.13
## 47:  19.36
## 48:  25.17
## 49:  22.21
## 50:  13.99
## 51:  10.12
## 52:  31.01
## 53:  20.71
## 54:  39.10
## 55:  19.51
## 56:  27.49
##     mi_rnd
## [1] "c11" "c6"  "c2"  "c10" "c8"  "c5"  "c9"  "c3"
## c10 =~ q_10 + q_100 + q_102 + q_103 + q_106 + q_111 + q_112 + q_120 + q_121 + q_123 + q_125 + q_127 + q_129 + q_21 + q_26 + q_34 + q_60 + q_64 + q_72 + q_84 + q_92 + q_97 + q_98 + q_99
## c11 =~ q_12 + q_121 + q_13 + q_14 + q_16 + q_19 + q_25 + q_26 + q_35 + q_36 + q_37 + q_47 + q_48 + q_50 + q_55 + q_56 + q_57 + q_63 + q_65 + q_66 + q_69 + q_83 + q_85 + q_87 + q_88 + q_89
## c2 =~ q_100 + q_102 + q_109 + q_119 + q_128 + q_134 + q_77 + q_95 + q_96 + q_99
## c3 =~ q_108 + q_115 + q_116 + q_53 + q_93 + q_94
## c5 =~ q_124 + q_128 + q_13 + q_136 + q_15 + q_17 + q_24 + q_3 + q_30 + q_31 + q_35 + q_39 + q_42 + q_44 + q_45 + q_5 + q_51 + q_53 + q_55 + q_58 + q_61 + q_62 + q_63 + q_68 + q_71 + q_75 + q_76 + q_77 + q_78 + q_79 + q_85 + q_86 + q_87 + q_89
## c6 =~ q_1 + q_103 + q_110 + q_112 + q_117 + q_119 + q_124 + q_126 + q_132 + q_135 + q_19 + q_22 + q_25 + q_28 + q_3 + q_54 + q_56 + q_57 + q_76 + q_88 + q_90 + q_95 + q_96
## c8 =~ q_120 + q_17 + q_18 + q_2 + q_21 + q_22 + q_30 + q_32 + q_34 + q_36 + q_37 + q_41 + q_42 + q_43 + q_48 + q_60 + q_62 + q_66 + q_68 + q_69 + q_72 + q_74 + q_78 + q_80 + q_82 + q_84 + q_9 + q_90
## c9 =~ q_109 + q_115 + q_116 + q_118 + q_127 + q_129 + q_134 + q_136 + q_93 + q_94

В результате получилось такое качество модели:

##   cfi rmsea  srmr 
## 0.582 0.054 0.070

модель без кросс-нагрузок

Еще один способ улучшить модель — исключить вопросы с высокой кросс-нагрузкой (вариативность которых может объясняться сразу несколькими латентными факторами).

Я исключил вопросы, у которых параметр mi > 15. Пробовал также mi > 20, но существенных различий не нашел.

Декларация модели:

## [1] 42
## c11 =~ q_83 + q_65 + q_12 + q_69 + q_55 + q_47 + q_14 + q_13 + q_50 + q_16
## 
## c6 =~ q_54 + q_113 + q_132 + q_117 + q_40 + q_73 + q_133 + q_110 + q_28 + q_91 + q_135 + q_1 + q_124 + q_126
## 
## c2 =~ q_102 + q_101
## 
## c10 =~ q_10 + q_123 + q_64 + q_97 + q_98 + q_111 + q_103 + q_106 + q_92 + q_125
## 
## c8 =~ q_41 + q_37 + q_70 + q_122 + q_104 + q_27 + q_8 + q_82 + q_114 + q_49 + q_90 + q_84 + q_43 + q_81 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_20 + q_74 + q_52 + q_80 + q_30 + q_107 + q_33 + q_131 + q_32 + q_23 + q_9
## 
## c5 =~ q_15 + q_86 + q_24 + q_31 + q_39 + q_71 + q_75 + q_5 + q_53 + q_46 + q_44 + q_79 + q_4 + q_7 + q_29 + q_68 + q_51 + q_61 + q_45 + q_89 + q_6 + q_67 + q_58
## 
## c9 =~ q_118 + q_137
## 
## c3 =~ q_108 + q_116

Метрики качества модели при удалении вопросов с высокими (mi > 15) кросс-нагрузками:

##   cfi rmsea  srmr 
## 0.470 0.054 0.087

модель с высокими efa-нагрузками

Четвертый способ, который я использовал — убрал из модели вопросы, которые имели низкую факторную нагрузку (меньше 0.3) при разбиении вопросов на восемь факторов при EFA. По сути, я убрал совсем нерелевантные вопросы.

Декларация модели:

## [1] 31
## c11 =~ q_83 + q_88 + q_87 + q_65 + q_85 + q_12 + q_69 + q_55 + q_35 + q_47 + q_14 + q_19 + q_13 + q_36 + q_63 + q_50 + q_16
## 
## c6 =~ q_54 + q_73 + q_110 + q_28 + q_25 + q_1 + q_57 + q_124
## 
## c2 =~ q_96 + q_134 + q_95 + q_128 + q_102 + q_119 + q_101 + q_109 + q_100
## 
## c10 =~ q_10 + q_34 + q_26 + q_60 + q_99 + q_112 + q_111 + q_121 + q_103 + q_92 + q_120 + q_21 + q_125
## 
## c8 =~ q_41 + q_42 + q_122 + q_104 + q_8 + q_48 + q_22 + q_114 + q_49 + q_78 + q_90 + q_84 + q_66 + q_62 + q_17 + q_43 + q_81 + q_72 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_74 + q_52 + q_80 + q_30 + q_107 + q_131 + q_23 + q_9
## 
## c5 =~ q_15 + q_76 + q_31 + q_39 + q_75 + q_53 + q_44 + q_4 + q_7 + q_68 + q_51 + q_89 + q_136 + q_3 + q_6 + q_67 + q_58 + q_77
## 
## c9 =~ q_118 + q_127 + q_129
## 
## c3 =~ q_115 + q_94 + q_93 + q_108 + q_116

Метрики качества получившейся модели:

##   cfi rmsea  srmr 
## 0.509 0.059 0.082

модель без вопросов с низкой нагрузкой

Пятый способ (самый слабый) – удаление нерелевантных вопросов из шкал отношения-1, работа с изменениями, профессионализм-2, результаты (по результатам оценки факторной структуры этих больших по количеству вопросов шкал).

Декларация модели:

## c11 =~ q_83 + q_88 + q_87 + q_65 + q_85 + q_12 + q_69 + q_55 + q_35 + q_47 + q_14 + q_19 + q_13 + q_36 + q_63 + q_50 + q_16
## 
## c6 =~ q_54 + q_113 + q_132 + q_117 + q_40 + q_73 + q_133 + q_110 + q_28 + q_25 + q_91 + q_56 + q_135 + q_1 + q_57 + q_124 + q_126
## 
## c2 =~ q_96 + q_134 + q_95 + q_128 + q_102 + q_119 + q_101 + q_109 + q_100
## 
## c10 =~ q_10 + q_34 + q_123 + q_26 + q_60 + q_64 + q_97 + q_98 + q_112 + q_111 + q_121 + q_103 + q_92 + q_120 + q_21 + q_125
## 
## c8 =~ q_41 + q_37 + q_42 + q_122 + q_104 + q_8 + q_82 + q_48 + q_22 + q_114 + q_49 + q_78 + q_90 + q_66 + q_62 + q_17 + q_43 + q_81 + q_72 + q_11 + q_59 + q_38 + q_2 + q_105 + q_130 + q_18 + q_20 + q_74 + q_52 + q_80 + q_30 + q_107 + q_33 + q_131 + q_32 + q_23 + q_9
## 
## c5 =~ q_15 + q_76 + q_31 + q_39 + q_75 + q_5 + q_53 + q_44 + q_4 + q_7 + q_29 + q_68 + q_51 + q_45 + q_89 + q_136 + q_3 + q_6 + q_67 + q_58 + q_77
## 
## c9 =~ q_118 + q_137 + q_127 + q_129
## 
## c3 =~ q_115 + q_94 + q_93 + q_108 + q_116

Метрики качества получившейся модели:

##   cfi rmsea  srmr 
## 0.509 0.059 0.082

метрики с2-моделей

Сводная таблица метрик качества этих моделей выглядит следующим образом:

model cfi rmsea srmr
исходная модель 0.456 0.054 0.078
модель без незначимых вопросов 0.582 0.054 0.070
модель с кросс-нагрузками 0.582 0.054 0.070
модель без кросс-нагрузок 0.470 0.054 0.087
модель с высокими EFA-нагрузками 0.509 0.059 0.082
модель без низких EFA-нагрузок по отдельным шкалам 0.474 0.055 0.079

Удаление незначимых вопросов немного улучшает качество структуры модели, но оно все еще недостаточно. Остальные попытки улучшить качество модели не дали хороших эффектов, даже наоборот.

Дальнейшие улучшения текущей можели на восемь компетенций мне кажутся бессмысленными. Тем не менее, можно попробовать оценить качество модели по 30 субшкалам (то есть по субшкалам наших восьми компетенций), что я и сделал ниже. Либо в целом попробовать пересобрать факторную модель в эксплораторном факторном анализе (в следующем разделе).

модель с3-шкал

В качестве альтернативного решения я попробовал оценить структуру опросника на уровне дробных с3-шкал. Может быть, осмысленно спуститься на уровень ниже, от восьми шкал компетенций на уровень из субшкал (исходно в модели их 42, в опроснике представлено 30)

Однако модель на 30 факторов не сходится, даже если предположить скоррелированность латентных факторов.

Если рассматривать каждую из 30 шкал отдельно, то видно, что есть несколько шкал, по которым даже маленькая модель сойтись не может.

c3 c2 n_questions cfi rmsea srmr
3 2 4 0.879 0.169 0.066
5 2 5 0.889 0.154 0.061
8 3 5 0.863 0.2 0.066
12 5 2 NA NA NA
13 5 4 0.976 0.077 0.031
14 5 4 0.917 0.096 0.041
15 5 3 1 0 0
16 5 5 0.733 0.226 0.117
17 5 3 1 0 0
18 5 4 0.997 0.034 0.017
19 5 2 NA NA NA
20 6 3 NA NA NA
21 6 5 0.868 0.107 0.056
22 6 4 NA NA NA
23 6 5 0.776 0.111 0.063
25 8 5 0.706 0.134 0.075
26 8 5 0.64 0.175 0.094
27 8 5 0.837 0.086 0.052
28 8 4 0.851 0.111 0.047
29 8 5 0.957 0.089 0.037
30 8 4 0.521 0.261 0.109
31 8 7 0.906 0.122 0.064
32 8 5 0.881 0.069 0.041
36 9 4 0.845 0.2 0.077
37 10 6 0.875 0.132 0.072
38 10 6 0.872 0.114 0.053
39 10 6 0.971 0.064 0.035
40 11 5 0.915 0.145 0.052
41 11 6 0.873 0.103 0.057
42 11 6 0.888 0.127 0.067

модель с1-шкал

Еще одно альтернативное решение — подняться на уровень макро-компетенций (всего пять).

Декларация модели:

## c3 =~ q_134 + q_128 + q_119 + q_101
## 
## c5 =~ q_96 + q_95 + q_102 + q_109 + q_100
## 
## c8 =~ q_115 + q_94 + q_93 + q_108 + q_116
## 
## c12 =~ q_15 + q_136
## 
## c13 =~ q_53 + q_79 + q_61 + q_58
## 
## c14 =~ q_44 + q_4 + q_7 + q_77
## 
## c15 =~ q_39 + q_5 + q_3
## 
## c16 =~ q_86 + q_29 + q_68 + q_45 + q_67
## 
## c17 =~ q_24 + q_51 + q_6
## 
## c18 =~ q_76 + q_31 + q_71 + q_89
## 
## c19 =~ q_75 + q_46
## 
## c20 =~ q_133 + q_124 + q_126
## 
## c21 =~ q_113 + q_132 + q_117 + q_110 + q_135
## 
## c22 =~ q_40 + q_73 + q_25 + q_56
## 
## c23 =~ q_54 + q_28 + q_91 + q_1 + q_57
## 
## c25 =~ q_27 + q_49 + q_17 + q_2 + q_18
## 
## c26 =~ q_82 + q_81 + q_38 + q_52 + q_33
## 
## c27 =~ q_42 + q_8 + q_90 + q_84 + q_9
## 
## c28 =~ q_78 + q_59 + q_32 + q_23
## 
## c29 =~ q_41 + q_22 + q_66 + q_72 + q_74
## 
## c30 =~ q_48 + q_62 + q_11 + q_20
## 
## c31 =~ q_122 + q_104 + q_114 + q_105 + q_130 + q_107 + q_131
## 
## c32 =~ q_37 + q_70 + q_43 + q_80 + q_30
## 
## c36 =~ q_118 + q_137 + q_127 + q_129
## 
## c37 =~ q_98 + q_112 + q_121 + q_103 + q_106 + q_125
## 
## c38 =~ q_123 + q_99 + q_97 + q_111 + q_92 + q_120
## 
## c39 =~ q_10 + q_34 + q_26 + q_60 + q_64 + q_21
## 
## c40 =~ q_83 + q_55 + q_19 + q_36 + q_16
## 
## c41 =~ q_88 + q_65 + q_12 + q_35 + q_13 + q_50
## 
## c42 =~ q_87 + q_85 + q_69 + q_47 + q_14 + q_63

Метрики качества получившейся модели:

##   cfi rmsea  srmr 
## 0.432 0.055 0.078