Introducci - PowerPoint PPT Presentation

1 / 88
About This Presentation
Title:

Introducci

Description:

Introducci n al An lisis factorial confirmatorio Lectura b sica: Cap. 13 del texto Ampliaci n: Brown, T. A. (2006). Confirmatory Factor Analysis for Applied Research. – PowerPoint PPT presentation

Number of Views:38
Avg rating:3.0/5.0
Slides: 89
Provided by: vic137
Category:

less

Transcript and Presenter's Notes

Title: Introducci


1
Introducción alAnálisis factorial confirmatorio
  • Lectura básica
  • Cap. 13 del texto
  • Ampliación
  • Brown, T. A. (2006). Confirmatory Factor Analysis
    for Applied Research. New York The Guilford
    Press.
  • Programas LISREL, AMOS, EQS, Mplus

2
  • 1.) AFE versus AFC
  • 2.) Aplicaciones

3
Ítems del EPQ-R (neuroticismo)
Z1. Su estado de ánimo sufre altibajos con frecuencia?
Z2. Se siente a veces desdichado sin motivo?
Z3. A menudo se siente solo?
Z4. Es usted una persona sufridora?
Z5. Se inquieta por cosas terribles que podrían suceder?
Z6. Se siente intranquilo por su salud?
z1 z2 z3 z4 z5 z6
Z1 1 .529 .352 .294 .210 .146
Z2 1 .420 .259 .216 .086
Z3 1 .307 .240 .132
Z4 1 .276 .218
Z5 1 .271
Z6 1
4
Minimizar diferencias entre la matriz de
correlaciones observada y la reproducida
F1 F2 z1 z2 z3 z4 z5 z6
Z1 ? ? r\r Z1 .529 .352 .294 .210 .146
Z2 ? ? r\r Z2 .526 .420 .259 .216 .086
Z3 ? ? r\r Z3 .364 .419 .307 .240 .132
Z4 ? ? r\r Z4 .277 .275 .271 .276 .218
Z5 ? ? r\r Z5 .230 .205 .241 .288 .271
Z6 ? ? r\r Z6 .133 .084 .161 .231 .251
Residual Z1
Residual Z2 .003
Residual Z3 -.012 .001
Residual Z4 .017 -.016 .036
Residual Z5 -.021 .011 -.001 -.012
Residual Z6 .014 .002 -.029 -.013 .021
MUCHAS SOLUCIONES POSIBLES
1 factor? 2 factores? 3 factores?
5
Análisis Factorial Exploratorio
Su estado de ánimo sufre altibajos con frecuencia?
Se siente a veces desdichado sin motivo?
A menudo se siente solo?
Es usted una persona sufridora?
Se inquieta por cosas terribles que podrían suceder?
Se siente intranquilo por su salud?
z1 .628 F1 .064 F2 E1
z2 .866 F1 - .121 F2 E2
z3 .453 F1 .185 F2 E3
z4 .189 F1 .424 F2 E4
z5 .073 F1 .505 F2 E5
z6 .078 F1 .509 F2 E6
6
REPRESENTACIÓN
Modelo exploratorio
Cuantos factores? Criterio para la Rotación?
E1
F1
E2
E3
E4
F2
E5
E6
DATOS ?MODELO
7
Modelo confirmatorio
E1
F1
E2
Factor 1 Factor 2
Z1 0.694 0
Z2 0.736 0
Z3 0.565 0
Z4 0 0.590
Z5 0 0.520
Z6 0 0.383
E3
E4
F2
E5
E6
rF1F20.631
MODELO?DATOS
8
E1
Modelo exploratorio Modelo inicial
F1
E2
Factor 1 Factor 2
Z1 0 0
Z2 X 0
Z3 X X
Z4 X X
Z5 X X
Z6 X X
E3
E4
F2
E5
E6
rF1F2 0
DATOS?MODELO
9
AFE versus AFC
  • Similitudes
  • Técnica de reducción de dimensionalidad Se
    buscan (pocos) factores comunes que expliquen la
    matriz de var-cov, S.
  • Muchos procedimientos (p.e., de estimación) son
    comunes a AFE y AFC.
  • Diferencias
  • No explora la relación entre variables o
    constructos, sino que las contrasta
  • Se supone un número concreto de factores comunes
    y qué variables empíricas (indicadores) los
    miden.
  • Se supone la existencia o no de relación entre
    los factores.
  • Se pueden establecer correlaciones entre los
    términos de error.
  • No es necesario un método de rotación.

10
Ventajas del modelo confirmatorio (I)
  • Permite evaluar el ajuste estadístico de nuestros
    modelos teóricos fijando
  • Número de factores
  • Ítems que saturan en cada factor
  • Especificando errores de medida correlacionados

11
Ventajas del modelo confirmatorio (II)

Grupo 1
Grupo 2
- Contraste de hipótesis de invarianza de
parámetros a través de sexo, país, nivel
educativo, (tests ó ítems DIF-) - Análisis de
las estructuras de medias
12
Ventajas del modelo confirmatorio (III)
Modelo confirmatorio
Modelos complejos Análisis factorial de 2º
orden, modelos con errores correlacionados
13
Ventajas del modelo confirmatorio (Iv)
  • Obtención de la correlación entre constructos
    (similar a la corrección por atenuación).
    Validación de constructo, mostrando la validez
    convergente de los indicadores que se espera que
    estén asociados, y la discriminante (no
    correlación de los que se espera que no
    correlacionen).

14
Ventajas del modelo confirmatorio (V)
  • Tratamiento de los efectos de método por
    ejemplo, los ítems directos e inversos en los
    cuestionarios. En AFE salen como factores
    espúreos, no sustantivos.

15
Ventajas del modelo confirmatorio (VI)
  • Evaluación psicométrica de tests
  • - Enfoque alternativo a TRI análisis factorial
    para datos categóricos
  • Modelo logístico de 2 parámetros
  • Modelo de respuesta graduada.
  • modelos multidimensionales de TRI
  • - Nuevas medidas de fiabilidad

16
Representación de los modelos
17
Se representan mediante diagramas causales o
path diagrams
Representación de modelos
  • Tipos de variables
  • OBSERVABLES
  • LATENTES Muy importante el concepto de factor
    latente!

x1
x1
F1
x2
x3
18
Tipos de relaciones (siempre lineales)
  • FLECHAS BIDIRECCIONALES
  • Covarianzas o correlaciones
  • FLECHAS UNIDIRECCIONALES
  • Pesos no estandarizados
  • o pesos estandarizados

x1
E1
E2
x2
x1
F1
19
  • EXOGENAS Variables que el modelo NO intenta
    explicar (ninguna flecha las apunta)
  • ENDOGENAS Variables que en el modelo se intentan
    explicar. Toda variable endogena tiene un error.

e1
x1
F1
x2
e2
x3
e3
20
Objetivo cuando se genera un modelo confirmatorio
  • Generar un modelo que sea compatible con la
    matriz de varianzas-covarianzas entre todas las
    variables.
  • Las varianzas y covarianzas son función de los
    parámetros del modelo.

21
Ingredientes del modelo
  • Para especificar el modelo, hay que fijar
  • Número de factores comunes.
  • 2) Relaciones entre las xs y los factores
    comunes.
  • 3) Si existe o no covariación entre los
    factores comunes (y entre cuales).
  • 4) Si existe o no covariación entre los
    factores únicos (y entre cuales).

22
Ecuaciones del modelo
23
  • Análisis
  • Factorial
  • (1 factor)

x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
Ecuaciones
Modelo
Matriz de varianzas-covarianzas reproducida
24
  • Análisis
  • Factorial
  • (1 factor)

25
Path analysis (Análisis de Senderos)
26
  • Análisis
  • Factorial
  • (1 factor)

27
Path analysis (Análisis de Senderos)
28
Identificación del modelo
29
Ecuaciones e incognitas
  • xu1
  • yv1
  • xy0.24
  • -----
  • xu1
  • yv1
  • zw1
  • xy0.25
  • zy0.24
  • zx0.24
  • -----
  • xu1
  • yv1
  • zw1
  • tr1
  • xy0.25
  • zy0.24
  • zx0.24
  • tx0

Infinitas soluciones Identificación Ajuste.
30
es estimable el modelo?
  • Datos o ecuaciones disponibles (p(p1)/2)
  • Elementos de la matriz de varianzas-covarianzas
  • Parámetros a estimar (t)

  • 10 ecuaciones
  • 9 parámetros

Parámetros del modelo t - Pesos libres entre
las variables exógenas y las endogenas -
Varianzas/covarianzas entre las variables
exógenas
  • No son parámetros del modelo
  • Varianzas y Covarianzas de las variables
    endógenas

31
Métrica del factor latente
32
Métrica del factor latente
32
33
  • Análisis
  • Factorial
  • (1 factor)

x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
Modelo
Restricciones - Fijar un peso factorial a 1 -
Fijar la varianza del factor a 1
Matriz de varianzas-covarianzas reproducida
34
es estimable el modelo?
  • Datos o ecuaciones disponibles (p(p1)/2)
  • Elementos de la matriz de varianzas-covarianzas
    10
  • Parámetros a estimar (t) 8
  • Grados de libertad 2
  • Gl(p(p1)/2)-t
  • lt 0 Modelo no identificado, hay más incógnitas
    que ecuaciones
  • 0 Modelo saturado o exactamente identificado.
    Solución única. Reproduce exactamente la matriz
    de varianzas-covarianzas
  • gt0 Modelo sobreidentificado. Si hay más
    ecuaciones que incógnitas no hay una solución
    exacta. Buscaremos aquella solución que haga lo
    más parecidas posibles la matriz de
    varianzas-covarianzas observada y la reproducida.

35
SINTAXIS MPLUS (MATRIZ DE VARIANZAS-COVARIANZAS)
36
Parámetros obtenidos (sin estandarizar)
84
e1
1
x1
1
16
84
1
e2
F1
1
x2
.1.5
64
1.75
e3
x3
1
51
e4
x4
1
37
RESULTADOS MPLUS
Significación estadística
MODEL RESULTS Estimates
S.E. Est./S.E. Std() StdYX() F
BY X1 1.000 0.000
0.000 4.000 0.400 X2
1.000 0.417 2.398 4.000 0.400
X3 1.500 0.536 2.799
6.000 0.600 X4 1.750
0.640 2.734 7.000 0.700 Variances
F 16.000 9.707 1.648
1.000 1.000 Residual Variances X1
84.000 13.285 6.323 84.006
0.840 X2 84.000 13.285
6.323 83.999 0.840 X3
64.000 14.206 4.505 63.995 0.640
X4 51.000 16.272 3.135
51.010 0.510
- Coeficientes de la ecuación de regresión
(cambios de x en función de cambios en F). Por
ejemplo, 4 puntos de cambio en F (una DT) llevan
a 4 puntos de cambio en X1. - Varianza de los
errores de pronóstico. La varianza de X1 es 100
(en la población general). Sin embargo, para
gente igualada en F la varianza de X1 es 84.
38
Matriz de varianzas-covarianzas reproducida
x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO
OBSERVADA
x1 x2 x3 x4
x1 0
x2 0 0
x3 0 0 0
x4 0 0 0 0
RESIDUOS (observada estimada)
39
RESULTADOS MPLUS
Correlaciones (si las variables exógenas son
independientes) unicidades
MODEL RESULTS Estimates
S.E. Est./S.E. Std() StdYX() F
BY X1 1.000 0.000
0.000 4.000 0.400 X2
1.000 0.417 2.398 4.000 0.400
X3 1.500 0.536 2.799
6.000 0.600 X4 1.750
0.640 2.734 7.000 0.700 Variances
F 16.000 9.707 1.648
1.000 1.000 Residual Variances X1
84.000 13.285 6.323 84.000
0.840 X2 84.000 13.285
6.323 84.000 0.840 X3
64.000 14.206 4.505 64.000 0.640
X4 51.000 16.272 3.135
51.000 0.510
- Coeficientes de la ecuación de regresión
estandarizados - Varianza de los errores de
pronóstico (unicidades)
40
Parámetros obtenidos (sin estandarizar)
.84
e1
1
x1
.4
1
.84
.4
e2
F1
1
z2
.6
.64
.7
e3
x3
1
.51
e4
z4
1
Parámetros obtenidos (estandarizados)
Para obtener el parámetro estandarizado se
multiplica por la desviación típica de la
variable exógena y se divide por la desviación
típica de la variable endogena
40
41
Matriz de correlaciones reproducida
zx1 zx2 zx3 zx4
zx1 1
zx2 .16 1
zx3 .24 .24 1
zx4 .28 .28 .42 1
zx1 zx2 zx3 zx4
zx1 1
zx2 .16 1
zx3 .24 .24 1
zx4 .28 .28 .42 1
REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO
OBSERVADA
x1 x2 x3 x4
x1 0
x2 0 0
x3 0 0 0
x4 0 0 0 0
RESIDUOS
42
Modelo no identificado
p
q
Con dos indicadores, 3 datos las dos varianzas y
la covarianza. En el ejemplo habría que estimar
1 lambda (la otra se fija una a 1, para fijar la
escala), la varianza del factor común, las
varianzas de los 2 factores únicos (la covarianza
entre ellos se ha fijado a cero) (4 parámetros).
Luego gl -1.
0.24pq
43
p
q
r
s
10-91
p
q
10-82
44
  • Puede ocurrir que los grados de libertad no sean
    negativos y, sin embargo, que el modelo no tenga
    solución
  • Falta de
    Falta de
  • identificación
    identificación
  • parcial
    empírica

p
p
q
q
z
10-82
10-91
45
Modelo en ecuaciones (2 factores)
1
e1
x1
?11
1
?21
x2
e2
?1
?31
1
?32
x3
e3
?42
1
x4
e4
?2
?52
1
x5
e5
46
Pesos factoriales
Varianzas-Covarianzas entre factores latentes
Varianzas-Covarianzas teóricas
Varianzas-Covarianzas entre errores
47
(No Transcript)
48
48
49
49
50
50
51
Identificación del modelo
  • 15 ecuaciones (56)/2
  • 12 parámetros 6 lambdas (?), 1 covarianza entre
    factores comunes (Fij), 2 varianzas de los
    factores comunes (Fii), 5 varianzas de los
    factores únicos (?ii) Para fijar la escala, se
    fijan a 1 bien las dos varianzas de los factores
    comunes o bien una lambda de cada factor común
  • Luego, tendríamos 15 12 3 grados de libertad.

1
e1
x1
?11
1
?21
x2
e2
?1
?31
1
?32
x3
e3
?42
1
x4
e4
?2
?52
1
x5
e5
52
(No Transcript)
53
Covariances/Correlations/Residual Correlations
X1 X2 X3
X4 X5 ________
________ ________ ________
________ X1 100.000 X2
36.000 100.000 X3 38.000
40.000 100.000 X4 13.000
25.000 46.000 100.000 X5
13.000 10.000 48.000 53.000
100.000
54
MODEL RESULTS Estimates
S.E. Est./S.E. Std StdYX F1 BY
X1 5.854 1.223 4.787
5.854 0.588 X2 6.089
1.240 4.912 6.089 0.612 X3
4.850 1.222 3.970 4.850
0.487 F2 BY X3 4.764
1.128 4.222 4.764 0.479 X4
7.004 1.069 6.552 7.004
0.704 X5 7.492 1.079
6.943 7.492 0.753 F2 WITH F1
0.340 0.157 2.168 0.340
0.340 Variances F1 1.000
0.000 0.000 1.000 1.000 F2
1.000 0.000 0.000 1.000
1.000 Residual Variances X1
64.733 13.288 4.872 64.733 0.654
X2 61.932 13.611 4.550
61.932 0.626 X3 37.086
10.160 3.650 37.086 0.375 X4
49.953 11.311 4.416 49.953
0.505 X5 42.870 11.788
3.637 42.870 0.433
55
Cuando los predictores están correlacionados los
pesos estandarizados no son correlaciones de
Pearson son correlaciones semi-parciales
1
F1
rx3F1
rF1F2
1
1
Ex3
1
X3
F2
Cambios en X3, en función de la parte de F2 que
no tiene que ver con F1. Manteniendo F1,
constante cuál es el efecto de F2 en X3
1
F2
56
Estimación de parámetros
57
Estimación de parámetros
  • Estimadores de los elementos de S es decir, de
    ?, T y F, que hagan que S se acerque los más
    posible a S.
  • Se llama función de ajuste (o discrepancia) a
    F(S, )
  • Procedimientos de estimación
  • -Mínimos cuadrados no ponderados (ULS)
  • -Mínimos cuadrados generalizados (GLS)
  • -Máxima verosimilitud (ML)
  • -Mínimos cuadrados ponderados (WLS)

58
Residuals for Covariances/Correlations/Residual
Correlations X1 X2
X3 X4 X5
________ ________ ________
________ ______ X1 -0.001 X2
-0.001 -0.002 X3 -0.244
0.218 -0.002 X4 -1.056
10.266 0.637 -0.003 X5
-2.027 -5.594 -0.516
-0.001 -0.001

-.001
-.001
-.002
-.244
.218

p(p1)/2 elementos distintos de la matriz de
varianzas-covarianzas residuales
Cómo ponderarlos?
59
Estimación de parámetros
ULS Mínimos Cuadrados no Ponderados
Función de discrepancia Se busca minimizar el
tamaño de los residuos. 1) Valor mínimo 0
(Ajuste perfecto)2) Cuanto mayores son los
residuos mayor es F (independientemente de la
dirección de los residuos) 3) Ser cauto al
utilizarlo, sensible a la escala de las
variables. No asume distribución de las
variables. No proporciona errores típicos.
60
El tamaño de las discrepancias depende de las
unidades de medida de las variables
61
Matriz de varianzas-covarianzas asintótica
s11 S12 s22
10 6 90
9 3 87
11 4 84
12 5 72


s11 s12 s22
10k2 6k 90
9k2 3k 87
11k2 4k 84
12k2 5k 72


62
s11 s12 s22
s11 S2S11
s12 SS11,S11 S2S12
s22 SS11,S22 SS12,S22 S2S22
63
Ponderación de las discrepancias

-.001
-.001
-.002
-.244
.218

Se relaciona inversamente con la varianza
muestral del producto de discrepancias i y j
ULS s i j , w1, de lo contrario w0 GLS w
depende de las varianzas y covarianzas de las
variables (S), más peso a la discrepancia cuanto
menor las varianzas (covarianzas) de las
variables implicadas. No cambia de iteración a
iteración. ML w depende de las varianzas y
covarianzas de las variables (S) , más peso a la
discrepancia cuanto menor las varianzas
(covarianzas) de las variables implicadas. Cambia
de iteración a iteración. WLS w tiene en cuenta
la falta de normalidad de las variables, pero
requiere estimar la matriz W de k(k1)/2
elementos, donde kp(p1)/2
64
ML Máxima Verosimilitud
Asumiendo una distribución multivariada normal
para las variables (en diferenciales) la función
de verosimilitud sólo depende de la matriz de
varianzas-covarianzas
Si la distribución es multivariada normal. La
matriz de varianzas-covarianzas sigue una
distribución conocida (de Wishart). Por lo tanto,
se maximiza la siguiente función
Maximizar lo anterior es equivalente a minimizar
la siguiente función de discrepancia
Ventaja Proporciona medidas estadísticas de
ajuste del modelo y de errores típicos de
estimación
65
  • Máxima verosimilitud (ML)
  • Qué parámetros hacen más probables los datos
    observados
  • Se asume que las variables se distribuyen
    normalmente.
  • Mínimos cuadrados generalizados (GLS)
  • Se asume que las variables se distribuyen
    normalmente.
  • Mínimos cuadrados ponderados (WLS).
  • No asume normalidad de las variables
  • pero requiere muestras muy grandes.
  • Métodos robustos Nuevos métodos
    (DWLS/WLSMV/MLMV)

66
Teóricamente
ML diferirá de GLS y WLS Si el modelo es
incorrecto. WLS diferirá de ML y GLS Si los
datos no se distribuyen normalmente.
67
Recomendaciones
  • Se cumplen supuestos ML, pues ofrece errores
    típicos (y contrastes estadísticos), aunque
  • Problemas de convergencia (muestras pequeñas/nº
    indicadores por factor pequeño)
  • más casos Heywood (p.e., unicidades negativas)
  • resultados más distorsionados si el modelo se
    especifica mal o si no se cumplen los supuestos,
  • ULS puede ser incorrecto si las diferencias de
    varianzas en las variables son arbitrarias

68
Comprobación del ajuste
69
(No Transcript)
70
Ajuste de los modelos
  • 2 CRITERIOS DE AJUSTE BIEN DIFERENCIADOS
  • Modelos que hagan los residuos pequeños en
    nuestra muestra
  • Modelos parsimoniosos (se repetirían los
    resultados en otra muestra?)

71
Indicadores de ajuste
  • Índices de ajuste absoluto

Medidas basadas en los residuos Standardized
Root Mean Squared Residuals (SRMR) Índices de
ajuste comparativo Normed Fit Index (NFI)
Non-Normed Fit Index (NNFI o TLI) Comparative
Fit Index (CFI) Medidas en errores de
aproximación Root Mean Square Error of
Aproximation (RMSEA) Medidas basadas en la
información Akaike Information Criterion
(AIC) Bayes Information Criterion (BIC)
72
  • Estadístico chi-cuadrado
  • La p asociada indica la probabilidad de obtener
    una función de discrepancia tan grande como la
    obtenida en la muestra si nuestro modelo fuera
    correcto en la población.
  • Hipótesis nula La función de discrepancia es
    cero en la población
  • Hipótesis alternativa La función de discrepancia
    no es cero en la población
  • Problemas
  • La hipótesis nula nunca es cierta.
  • Depende del tamaño de la muestra.

CHI/DF Regla informal. El valor esperado de
CHI es DF. Si la ratio es 1 entonces el modelo se
ajusta. Suelen considerarse aceptables si son
menores de 5 (preferiblemente menores que 3 ó
2). Problema sensible al tamaño muestral
73
Residuals for Covariances/Correlations/Residual
Correlations X1 X2
X3 X4 X5
________ ________ ________
________ ______ X1 -0.001 X2
-0.001 -0.002 X3 -0.244
0.218 -0.002 X4 -1.056
10.266 0.637 -0.003 X5
-2.027 -5.594 -0.516
-0.001 -0.001
1
e1
x1
?11
1
?21
x2
e2
?1
?31
1
?32
x3
e3
?42
1
x4
e4
?2
?52
1
x5
e5
74
TESTS OF MODEL FIT Chi-Square Test of Model
Fit Value
3.465 Degrees of Freedom
3 P-Value
0.3254
Nuestro modelo
Modelo de independencia de variables
Chi-Square Test of Model Fit for the Baseline
Model Value
110.211 Degrees of Freedom
10 P-Value
0.0000
MODELO DE INDEPENDENCIA MODELO EN EL QUE SE
ESTIMAN COMO PARÁMETROS LAS VARIANZAS Y SE FIJAN
EL RESTO DE PARÁMETROS (COVARIANZAS) A 0.
75
x1
e1
e2
x2
x3
e3
x4
e4
x5
e5
76
Medidas de bondad de ajuste
  • Índices de ajuste comparativo

Regla 0.95. Rango 0 1.
77
Chi-Square Test of Model Fit Value
3.465 Degrees
of Freedom 3
P-Value
0.3254 Chi-Square Test of Model Fit for the
Baseline Model Value
110.211 Degrees of Freedom
10 P-Value
0.0000 CFI/TLI CFI
0.995 TLI
0.985
78
  • RMR
  • - El promedio de los residuos. Poco informativo
    si no se analiza la matriz de correlaciones.
  • SRMR
  • - promedio de los residuos calculados sobre la
    matriz de correlaciones, debe ser menor que .06.
  • .

79
  • SRMR (Standardized Root Mean Square Residual)
  • Value 0.031

80
Afecta al tamaño de los residuos
FP Error de Aproximación en la
población (disminuye al aumentar el número de
parámetros) (no depende del tamaño de la muestra)
S (nuestro modelo)
S(modelo real)
Error de estimación (depende del tamaño de la
muestra)
VARIACION MUESTRAL
S (observada)
S (nuestro modelo)
F Función de discrepancia (mayor que el error
de aproximación)
VARIACION DEBIDA AL MODELO
81
Medidas de bondad de ajuste
  • Medidas basadas en errores de aproximación
  • RMSEA (root mean square error of aproximation)
  • Hemos visto que (N-1)F ?2 con parámetro gl. si
    el modelo propuesto en H0 es correcto. En ese
    caso, en sucesivas muestras, tendremos diferentes
    valores de (N-1)F cuya distribución es ?2 con
    parámetro gl. Error de estimación.
  • En realidad, (N-1)F ?2 es no centrada con
    parámetros gl y parámetro de no centralidad
    (N-1)F0, (cuando el modelo no es correcto. Error
    de aproximación.

82
  • RMSEA
  • (Raiz del Error Cuadrático de Aproximación)
  • - mayor que 0. Preferiblemente por debajo de
    0.05 (recomendable por debajo de 0.08, nunca por
    encima de 0.10)
  • - Indica el error de aproximación medio por cada
    grado de libertad.
  • - No depende del tamaño de la muestra
  • - Penaliza por la complejidad del modelo.

83
Ejemplo (continua)
RMSEA (Root Mean Square Error Of Approximation)
Estimate
0.039 90 Percent C.I.
0.000 0.178 Probability RMSEA lt .05
0.433
84
Medidas de bondad de ajuste
  • Medidas basadas en la información
  • Akaike Information criterion AIC 2k - 2ln(L)
  • Medidas basadas en la información
  • Bayes Information criterion BIC kln(N) -
    2ln(L)
  • k número de parámetros libres
  • L función de verosimilitud H0
  • N tamaño muestra
  • Regla cuanto menor, mas apropiado el modelo.
    Medida indicada para la comparación de modelos no
    anidados.

85
Loglikelihood H0 Value
-1804.876 H1 Value
-1803.144 Information Criteria
Number of Free Parameters 12
Akaike (AIC) 3633.752
Bayesian (BIC) 3665.014

86
The Journal of Educational Research, 2006, 99, 6,
323-337
87
Recomendaciones
  • Para decidir el ajuste hay que fijarse en
  • Los indicadores de ajuste vistos.
  • - Si los coeficientes estimados son
    significativos.
  • La comunalidad de cada indicador.

88
Reespecificación de los modelosÍndices de
modificación
  • Cambio ?2 si añadieramos el nuevo parámetro al
    modelo. Si es mayor que 3.84 eso indica que el
    cambio sería significativo al 5.
  • Preferiblemente no utilizar o solo utilizar si
    las muestras son muy grandes (capitalización del
    azar).
Write a Comment
User Comments (0)
About PowerShow.com