Tema 17: Contraste param - PowerPoint PPT Presentation

About This Presentation
Title:

Tema 17: Contraste param

Description:

Tema 17: Contraste param trico de hip tesis II: Pruebas de contraste para m s de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente ... – PowerPoint PPT presentation

Number of Views:62
Avg rating:3.0/5.0
Slides: 23
Provided by: Manuel133
Category:

less

Transcript and Presenter's Notes

Title: Tema 17: Contraste param


1
Tema 17 Contraste paramétrico de hipótesis II
Pruebas de contraste para más de dos grupos
independientes (ANOVA entresujetos) un y dos
factores completamente aleatorizados.Pruebas de
contraste para más de dos grupos relacionados
(ANOVA intrasujetos)diseños con medidas
repetidas.
2
Pruebas de contraste (sobre las medias) para más
de dos grupos En el tema anterior vimos el
empleo de la prueba t para efectuar pruebas de
contraste de medias para dos grupos, ya fueran
tales grupos relacionados o no relacionados. El
problema es que la prueba t se puede emplear
únicamente para el caso de comparar las medias
dos grupos. Sin embargo, en muchos casos queremos
comparar simultáneamente tres o más grupos. La
solución es el empleo del Análisis de Varianza
(ANOVA ANalysis Of VAriance). El ANOVA sirve
para el caso de dos, tres, cuatro,..., grupos, ya
sean éstos grupos relacionados o grupos no
relacionados.
3
Pruebas de contraste (sobre las medias) para más
de dos grupos En este tema veremos, en primer
lugar, el caso del ANOVA con dos o más grupos
independientes para cuando tenemos una única
variable independiente (o factor) Es el ANOVA
unifactorial entre-sujetos. Luego veremos el
caso del ANOVA cuando tenemos dos variables
independientes (o factores) cuando los grupos son
independientes Es el ANOVA factorial
entre-sujetos. Finalmente, veremos el caso del
ANOVA con dos o más grupos relacionados para
cuando tengamos una única variable independiente
(o factor) Es el ANOVA unifactorial
intra-sujetos.
4
ANOVA unifactorial entre-sujetos (1) En este
caso, tenemos dos o más grupos independientes.
Por ejemplo, supongamos que tenemos TRES
tratamientos para una fobia i) desensibilización
sistemática, ii) implosión, iii) terapia
psicoanalítica, y que tenemos 30 pacientes. Si
asignamos 10 pacientes al azar a cada uno de los
3 grupos, podremos medir el grado de fobia tras
el tratamiento, y las diferencias en fobia tras
el tratamiento podrán atribuirse a los propios
tratamientos. Hipótesis nula (todas las medias
poblacionales de los "a" grupos son iguales) H0
m1m2m3...mam Hipótesis alternativa (al
menos una media poblacional difiere) H1 No es
cierto H0
5
ANOVA unifactorial entre-sujetos (2) Como en el
tema anterior, para decidir entre ambas
hipótesis, hemos de computar un estadístico de
contraste (una F empírica) y contrastarlo con un
valor crítico (una F teórica). Esta es la
fórmula de la F empírica
Si la hipótesis nula es cierta (y se cumplen los
supuestos estadísticos), la F empírica sigue una
distribución F de Fisher, con gl num grados de
libertad en el numerados y gl den grados de
liberta en el denominador.
6
ANOVA unifactorial entre-sujetos (3) Supuestos
estadísticos (para asumir la distribución
subyacente del estadístico de contraste) 1)
Normalidad. Las puntuaciones de cada grupo deben
seguir aproximadamente una distribución normal.
(El incumplimiento de este supuesto no es
particularmente grave.) 2) Homogeneidad de
Varianzas. La varianza debe ser similar en los
diferentes grupos. (Cuando el tamaño muestral de
cada grupo es similar, el incumplimiento de este
supuesto no es especialmente grave pero sí lo es
cuando los grupos están claramente
desequilibrados.) 3) Independencia de
puntuaciones. Las puntuaciones de cada grupo
deben ser independientes entre sí. (El
incumplimiento de este supuesto es
particularmente grave.)
7
ANOVA unifactorial entre-sujetos (4) Es
importante observar que, si la hipótesis nula es
cierta, tanto en numerador y el denominador de la
F empírica son estimadores de la misma varianza
(propiedad vista en el primer semestre...por lo
que la razón debería ser cercana a 1). Ello se ve
fácilmente en la siguiente fórmula
En el denominador, es claro que tenemos una
estimación de la varianza (es el promedio de
cuasivarianzas de los grupos). Pero lo más
relevante es que si la hipótesis nula es cierta,
el numerador estima esa misma varianza. (Pero
observad que si la hipótesis nula no fuera
cierta, el numerador tenderá ser mayor y mayor
que 1.)
8
Prueba F
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
Observa que sólo hay un valor crítico. Recordad
que una F es una t al cuadrado, de ahí que sólo
haya una cola.
9
ANOVA unifactorial entre-sujetos (5) Una
crítica que se puede hacer al ANOVA cuando
tenemos más de dos grupos es que, caso de
rechazar la hipótesis nula, se hace necesario
efectuar hipótesis específicas. (Es decir,
rechazamos la hipótesis nula de que las tres,
cuatro,... medias sean iguales, y ahora toca
decidir de manera específica qué medias son
iguales y cuáles no.) Ello quiere decir que
ahora hemos de efectuar contrastes entre medias.
Tales contrastes pueden ser contrastes simples
(cuando involucran únicamente dos medias) o
contrastes complejos (cuando involucran tres o
más medias). Empleando otro criterio, los
contrastes pueden ser "a priori" (cuando se
plantean antes de analizar los datos) o "a
posteriori" (cuando se plantean una vez vistos
los datos),
Comparaciones múltiples
10
ANOVA unifactorial entre-sujetos (6) Claro
está, si tenemos 3 grupos experimentales y
queremos hacer los 3 contrastes simples (grupo 1
vs grupo 2 grupo 1 vs grupo 3 grupo 2 vs grupo
3), no basta con hacer la prueba F
correspondiente (o la prueba t) sin más. El tema
es que al hacer varias comparaciones estamos
inflando la probabilidad de error de tipo I. Es
decir, si hacemos un ANOVA, la probabilidad de
rechazar la hipótesis nula siendo cierta es 0'05
(el habitual el psicología). Pero si en cada una
de los contrastes empleamos un alpha de 0'05,
ello quiere decir que al hacer los 3 contrastes
de arriba, la probabilidad de cometer algún error
de tipo I en el experimento es mayor de 0'05. (De
manera análoga que comprar muchos billetes de
lotería aumenta nuestras posibilidades de tener
premio.) Por tanto, se precisa controlar la
probabilidad de error tipo I en cada contraste,
que será menor que 0'05.
Comparaciones múltiples (2)
11
ANOVA unifactorial entre-sujetos (7) Existen
varias pruebas que permiten controlar el error
tipo I en el experimento. Tales pruebas dependen
de si los contrastes son "a priori" o "a
posteriori", y de si los contrastes son simples o
complejos. -Cuando todos los contrastes son
simples y queremos efectuar todas las
comparaciones "a priori" (o bien algunas -o todas
las- comparaciones "a posteriori"), la prueba más
popular es la prueba de Tukey, que el SPSS
computa fácilmente. -Cuando tenemos unos pocos
contrastes "a priori" (v.g., a-1 contrastes o
menos), la prueba recomendada es la de
Bonferroni. -Cuando tenemos contrastes "a
posteriori" y alguno de ellos es complejo, hemos
de efectuar la prueba de Scheffé.
Comparaciones múltiples (3)
Hay muchas otras pruebas de comparaciones
múltiples, como podéis ver en el SPSS.
12
ANOVA factorial entre-sujetos (1) Veremos el
caso de que tengamos dos variables independientes
(o factores), A y B. El factor A tiene a niveles
y el factor B tiene b niveles. Como ambos
factores están cruzados, tenemos un total de axb
condiciones experimentales. La ventaja de
emplear un diseño factorial es que podemos
examinar no sólo el efecto (principal) del factor
A y el efecto (principal) del factor B, sino
también el llamado efecto de interacción entre A
y B. En el ANOVA obtendremos TRES razones F, en
consecuencia. Efecto de interacción de AxB. Se
dice que hay interacción entre A y B cuando el
efecto de A difiere a través de los niveles de B
o lo que es lo mismo, que el efecto de B difiere
a través de los niveles de A. (Gráficamente se
corresponde a líneas que se cruzan o tienden a
cruzarse.)
13
ANOVA factorial entre-sujetos (2) Tenemos TRES
hipótesis nulas para cada razón F 1) Efecto
principal de A. La hipótesis nula indica que
todas las medias de los niveles de A son
iguales. 2) Efecto principal de B. La hipótesis
nula indica que todas las medias de los niveles
de B son iguales. 3) Efecto de la interacción de
AxB. La hipótesis nula indica que el efecto de A
es el mismo a través de los niveles de B (y que
el efecto de B es el mismo a través de los
niveles de A).
14
ANOVA factorial entre-sujetos (3) EFECTO
PRINCIPAL DE A
Si la hipótesis nula es cierta, la FA sigue una
distribución F de Fisher, con glA grados de
libertad en el numerados y gl den grados de
liberta en el denominador.
15
ANOVA factorial entre-sujetos (4) EFECTO
PRINCIPAL DE B
Si la hipótesis nula es cierta, la FB sigue una
distribución F de Fisher, con glB grados de
libertad en el numerados y gl den grados de
liberta en el denominador.
16
ANOVA factorial entre-sujetos (5) EFECTO
INTERACCIÓN AxB
Si la hipótesis nula es cierta, la FAB sigue una
distribución F de Fisher, con glAB grados de
libertad en el numerados y gl den grados de
liberta en el denominador.
17
ANOVA factorial entre-sujetos (6) Es importante
señalar que los tres efectos (los efectos
principales de A y de B y el efecto de
interacción de AxB) son estadísticamente
independientes. Por ejemplo, es perfectamente
posible que no sean significativos ni el efecto
principal de A ni el de B, pero que sí lo sea el
efecto de la interacción de AxB. Si alguno de
los efectos en el ANOVA son significativos, es
habitualmente necesario efectuar más pruebas
estadísticas. Por simplicidad, no las
expondremos. (Por ejemplo, pensemos que el efecto
a A hubiera sido significativo, y que los otros
dos efectos no lo hubieran sido y pensemos que A
hubiera tenido 3 grupos. Sería necesario efectuar
pruebas de comparaciones múltiples entre las
medias marginales de A.)
18
ANOVA unifactorial intra-sujetos (1) Esta prueba
es la paralela a la t de Student de dos grupos
relacionados. La diferencia es que el ANOVA
unifactorial intra-sujetos se puede aplicar no
sólo a dos grupos relacionados, sino a tres,
cuatro, etc. El cómputo del ANOVA unifactorial
intra-sujetos es similar al del ANOVA factorial
entre-sujetos, excepto en lo que respecta al
denominador (el "término de error"). El numerador
de la razón F empírica es exactamente el mismo en
ambos ANOVAs. Así pues, lo único que necesitamos
es indicar cómo se calcula la MC del denominador
en los ANOVAS unifactoriales intra-sujetos, que
es lo que veremos en la siguiente transparencia.
Hipótesis nula (todas las medias de los "a"
grupos son iguales) H0 m1m2m3...mam Hipótes
is alternativa (al menos una media difiere) H1
No es cierto H0
19
ANOVA unifactorial intra-sujetos (2)
Igual que en diseños entre-sujetos
Si la hipótesis nula es cierta, la F empírica
sigue una distribución F de Fisher, con gl num
grados de libertad en el numerados y gl den
grados de liberta en el denominador.
Observad que estamos tomando "sujetos" como si
fuera un factor "cruzado" con el factor que
manipulamos El término de error es la
interacción entre sujetos y tal factor.
20
ANOVA unifactorial intra-sujetos (3) Al igual
que ocurría en los diseños unifactoriales
entre-sujetos, cuando tenemos tres o más grupos y
rechazamos la hipótesis nula global (es decir,
que todas las medias poblacionales sean iguales),
habremos de efectuar pruebas de comparaciones
múltiples. El cómputo de los diseños
unifactoriales intra-sujeto es más engorroso que
en los diseños unifactoriales entre-sujetos
(debido al cálculo de la SC del denominador de
los diseños intra-sujetos) y se recomienda
emplear un programa estadístico. Otra razón para
emplear el ordenador en los diseños
unifactoriales intra-sujeto es que los diseños
intra-sujeto requieren comprobar un supuesto
adicional el supuesto de esfericidad, que se
refiere a que debe haber homogeneidad de
varianzas entre las diferencias entre
tratamientos.
21
ANOVA unifactorial intra-sujetos
(4) Evidentemente, el supuesto de esfericidad se
cumplirá siempre en el caso de tener dos grupos,
pero no necesariamente cuando tenemos tres ó más
grupos... Cuando se incumple el supuesto de
esfericidad, lo que ocurre es que la F empírica
(bajo la hipótesis nula) no se distribuye como
esperamos (con gl num en el numerador y gl den en
el denominador), sino que pierde grados de
libertad. Hay pruebas para evaluar el supuesto de
esfericidad (v.g., prueba de Mauchly, que ofrece
el SPSS), pero que han sido bastante
criticadas. La solución habitual suele ser
emplear una corrección de los grados de libertad
es el valor epsilon que da el ordenador. Hay
varios valores epsilon sobre los grados de
libertad, lo más populares con la corrección
epsilon de Greenhouse-Geisser y la de Huyn-Feldt.
El valor de epsilon será 1 cuando se cumpla
totalmente el supuesto (es decir, los gl son los
originales), mientras que será menor de 1 en caso
contrario. Veremos el empleo de tales
correcciones en las sesiones prácticas.
22
ANOVA unifactorial intra-sujetos (5) Al emplear
la corrección epsilon, lo que tendremos es una F
empírica como sigue
Observa que la F empírica no se verá alterada por
la corrección epsilon, dado que afecta por igual
el numerador y el denominador de la razón F.
Si la hipótesis nula es cierta, la F empírica
sigue una distribución F de Fisher, con (gl num
epsilon) grados de libertad en el numerador y
(gl den epsilon) grados de liberta en el
denominador.
Write a Comment
User Comments (0)
About PowerShow.com