Investigaci - PowerPoint PPT Presentation

About This Presentation
Title:

Investigaci

Description:

Investigaci n en educaci n Ps. Mg. V ctor Cabrera Vistoso El dise o de la investigaci n Con las hip tesis definidas se concibe la manera pr ctica de responder ... – PowerPoint PPT presentation

Number of Views:269
Avg rating:3.0/5.0
Slides: 115
Provided by: tuvntanaF
Category:

less

Transcript and Presenter's Notes

Title: Investigaci


1
Investigación en educación
Ps. Mg. Víctor Cabrera Vistoso
2
El diseño de la investigación
  • Con las hipótesis definidas se concibe la manera
    práctica de responder a las preguntas. Se hace el
    diseño, (plan o estrategia) de la investigación.
    Hay investigación experimental y no
    experimental.
  • El experimento requiere la manipulación de una
    acción para analizar sus posibles efectos.
  • La variable independiente se manipula, la
    dependiente se mide para ver si varía o no.
  • Si se expone a un grupo a la presencia de la
    variable independiente y al otro no, el primero
    se llama grupo experimental y el segundo grupo de
    control.

3
Diseño Experimental
  • Un experimento aplica un estímulo a un individuo
    o grupo de individuos y ve el efecto de ese
    estímulo en alguna(s) variable(s) del
    comportamiento de estos. La observación se puede
    realizar en condiciones de mayor o menor
    control.
  • Se deduce que un estímulo afectó cuando
    observamos diferencias en las variables que
    serían supuestamente las afectadas entre un grupo
    al que se le administró dicho estímulo y uno al
    que no se le administró, siendo ambos iguales en
    todo excepto en esto último.
  • La asignación al azar es el método preferible
    para lograr que los grupos del experimento sean
    comparables.

4
Validez Interna y Externa
  • Los grupos que se comparen deben ser iguales en
    todo menos en el estímulo experimental. Se debe
    controlar la influencia de otras variables
    extrañas en las variables dependientes.
    (Purificación de la relación X---Y)
  • La validez interna refiere a la confianza que
    tenemos sobre los resultados. Elimina
    explicaciones rivales.
  • Lograr la validez interna (mantener equivalentes
    a los grupos controlando la fuente de
    invalidez)es el objetivo metodológico y principal
    de todo experimento.
  • Una vez que se consigue se busca la validez
    externa o sea la posibilidad de generalizar los
    resultados a la población no experimental.

5
Fuentes de Invalidez
  • Fuentes que invalidan internamente el
    experimento
  • Historia eventos que ocurren durante el
    experimento y afectan la variable dependiente.
  • Maduración procesos internos de los
    participantes por el paso del tiempo que afectan
    resultados (Cansancio).
  • Inestabilidadpoca o nula confiabilidad en la
    mediciones.
  • Administración de pruebas que afectan las
    puntuaciones de pruebas subsecuentes.
  • Instrumentación o cambios en los instrumentos de
    medición o en los observadores participantes.

6
Fuentes de Invalidez
  • La regresión estadística o valores extremos en
    una prueba que tienden al promedio en otras
    mediciones.
  • La selección que al elegir sujetos genera grupos
    no equiparables.
  • La mortalidad experimental al perder
    participantes entre los grupos que se
    comparan.
  • Interacción entre selección y maduración, que
    hace que la selección de origen a diferentes
    tasas de maduración.
  • Otras Interacciones entre las fuentes de
    invalidación.

7
El Control y la Validez
  • El control y la validez interna se logra con
  • 1) Varios grupos de comparación. (2 mínimo) y
  • 2) Equivalencia de los grupos en todo excepto
    la manipulación de las variables independientes.
  • Con un solo grupo no hay certeza que resultados
    se deban al estímulo experimental o a otras
    razones.
  • Los grupos (no los individuos) deben ser
    inicialmente equivalentes (sexo, edad,etc). La
    equivalencia inicial se logra asignando sujetos
    al azar. La técnica de emparejamiento no es la
    ideal.
  • Los grupos debe ser equivalentes durante todo el
    experimento (instrucciones, entrevistadores,
    etc).Los instrumentos de medición deben ser
    iguales y aplicados de la misma manera.

8
Simbología en el Diseño
  • R asignación al azar
  • G grupos de sujetos
  • X Tratamiento, estímulo, condición experimental
  • O Una medición a los sujetos de un grupo
  • - Ausencia de estímulo
  • RG1 O X O
  • Asignación Medición
    Administración Medición
  • Azar sujetos Previa
    Estímulo Posterior
  • Grupo 1

9
Pre Experimento
  • El pre-experimento tiene un grado de control
    mínimo.
  • Aplica tratamiento y luego una medición para
    observar el nivel del grupo en la variable G
    X O
  • No hay manipulación de la variable independiente
    (no hay niveles de ella, no se explica como se
    afecta)
  • No hay control previo del nivel de la variable
    dependiente ni grupo de comparación.
  • No controla las fuentes de invalidez interna.
  • Si se hace una pre-prueba se agrega un punto de
    referencia G O1 X O2
  • No son adecuados para establecer relaciones entre
    variables y puede ser para prueba piloto
    (explorar).

10
Otros Diseños
  • Diseño con post prueba y grupo de control
  • RG1 X O 1 RG2 - O2
  • Si O1O2 no hubo efecto significativo del
    tratamiento experimental. Suele usarse la prueba
    estadística t para grupos correlacionados.
  • Si no hay grupo de control se llama diseño con
    grupos aleatorizados y post prueba unicamente
    RG1 X O1
  • Diseño con pre-prueba-post prueba y grupo de
    control
  • RG1 O1 X1 O2
  • RG2 O3 X2 O4 RG3 O5 - O6
  • En este caso O1, O3 y O5 puede ser el
    conocimiento sobre un tema, X1 un video didactico
    , X2 lecura de folleto y O2 04 y 06 el
    conocimiento sobre el mismo tema anterior.

11
Las Comparaciones
  • RG1 O1 X1 O2
  • RG2 O3 X2 O4 RG3 O5 - O6
  • Las posibles comparaciones son a) Pre-pruebas
    entre sí, b) post-pruebas entre sí, c) el puntaje
    ganancia de cada grupo ej. O1 vs 02 d) el puntaje
    ganancia de los grupos entre sí.
  • Esto puede dar por ejemplo efectos de los
    tratamientos experimentales pero diferentes, o
    que sólo uno o ninguno tenga efectos etc.

12
Pruebas Estadísticas
  • Para comparar entre pre-pruebas y entre las dos
    post pruebas se usa la prueba t para grupos
    correlacionados.
  • Igual para analizar el puntaje ganancia de cada
    grupo O1 vs O2 y O3 vsO4
  • Análisis de varianza (ANOVA) para grupos
    relacionados si se comparan simultáneamente las
    cuatro pruebas.
  • Cuando se quiere analizar efectos en el largo
    plazo se adoptan diseños con varias post pruebas.
    (Diseños de series de tiempo o cronológicas que
    toman de un individuo u otro ente muchas
    observaciones)

13
Estudios Factoriales
  • Los experimentos pueden incorporar más de una
    sola variable independiente.
  • Los diseños factoriales manipulan dos o más
    variables independientes e incluyen dos o más
    niveles de presencia en cada una de las variables
    independientes.
  • Un ejemplo de diseño factorial de 2 X 2 sería
    método de enseñanza (tradicional oral y por
    video) y sexo (masculino-femenino).
  • Permiten evaluar los efectos de cada variable
    independiente sobre la dependiente por separado y
    los efectos de las variables independientes
    conjuntamente.

14
Validez Externa
  • La validez externa refiere a que tan
    generalizables son los resultados a otros
    sujetos. Hay fuentes de invalidez
  • El efecto de interacción entre pruebas (sujetos
    son afectados en su reacción a la variable
    experimental por la pre prueba).
  • Errores de selección que al elegir personas con
    ciertas características el tratamiento produzca
    un efecto que no se daría en otras personas sin
    esas características.
  • La artificialidad de las condiciones
    experimentales que vuelven atípica la
    experiencia.
  • La interferencia de tratamientos múltiples si no
    tienen efectos reversibles.
  • Imposibilidad de replicar los experimentos en
    otras condiciones.

15
Estudio de Campo
  • En el experimento el efecto (la variancia) de las
    variables independientes influyentes posibles no
    pertinentes al problema se mantiene reducida en
    un mínimo.
  • El estudio de campo se hace en una situación
    realista en la que una o más variables
    independientes son manipuladas por el
    experimentador en condiciones tan controladas
    como lo permite la situación.
  • La diferencia es el grado en que el ambiente es
    natural para los sujetos. Los experimentos tienen
    más control que los estudios de campo pero estos
    tienen más validez externa.

16
Cuasi- Experimentos
  • En los cuasi experimentos no se asignan los
    sujetos a grupos experimentales sino que se
    trabaja con grupos intactos (formados aparte del
    experimento ej. habitantes de una zona de la
    ciudad) G X O (falta la R junto a la G de
    la asignación aleatoria de sujetos)
  • Alcanzan validez interna en la medida en que
    demuestran la equivalencia inicial de los grupos
    participantes y la equivalencia en el proceso de
    experimentación.
  • Los experimentos verdaderos constituyen estudios
    explicativos, los pre-experimentos son
    exploratorios y descriptivos y los
    cuasi-experimentos son correlacionales aunque
    pueden llegar a ser explicativos.

17
EJEMPLO
  • Hipótesis Los pacientes que reciban mayor
    retroalimentación de sus médicos de cómo se están
    comportando en el tratamiento prescrito,
    obedecerán más a dicho tratamiento.
  • Se toman dos grupos de pacientes. Un grupo recibe
    retroalimentación sobre su conducta en el
    tratamiento (G1) y el otro grupo no (G2).
  • G1 X O1 G2 - O2
  • Se evalúa la obediencia o apego al tratamiento.
  • Si el resultado es O1gtO2 deducimos que la
    hipótesis fue confirmada. Pero podría ser que la
    mayor sensibilidad de G1 se deba a que lee más
    sobre su problema. No hay certeza si grupos no
    son inicialmente equivalentes.

18
Pasos Comunes a Seguir
  • Decidir las variables independientes y
    dependientes.
  • Elegir niveles de manipulación de var.
    independientes y convertir concepto en
    operaciones prácticas (tratamiento experimental)
  • Desarrollar instrumento para medir las variables
    dependientes.
  • Seleccionar la muestra de personas.
  • Reclutar sujetos del experimento (o
    cuasi-experimento)
  • Seleccionar diseño apropiado para muestras,
    hipótesis, objetivos y preguntas de
    investigación.
  • Planear actividad de los sujetos, dividirlos al
    azar o analizar propiedades de grupos intactos.
  • Aplicar pre-pruebas, los tratamientos y las
    post-pruebas.

19
Investigación no Experimental
  • Se realiza sin manipular variables y sin
    asignación al azar. Los sujetos ya pertenecían a
    un grupo dado.
  • Se observan fenómenos tal y como se dan en su
    contexto natural para después analizarlos. No
    hay estímulos a los cuales se expongan los
    sujetos del estudio.
  • No se construye ninguna situación sino que se
    observan situaciones existentes no provocadas
    intencionalmente
  • Es investigación sistemática y empírica en la que
    las variables independientes no se manipulan
    porque ya han sucedido.
  • Experimento Hacer enojar intencionalmente a una
    persona para ver sus reacciones. No experimental
    Ver las reacciones de esa persona cuando llega
    enojada.

20
Diseños Transeccionales
  • Los Diseños no experimentales se clasifican en
    transeccionales (ver el nivel de una variable o
    la relación entre varias en un punto del tiempo)
    y longitudinales (como evolucionan o cambian
    variables o sus relaciones)
  • Los transeccionales o transversales recolectan
    datos en un sólo momento. Ej. Investigar el
    número de empleados, desempleados y subempleados
    en un momento dado.
  • Se dividen en descriptivos y correlacionales/caus
    ales.
  • Los descriptivos indagan los valores de una o más
    variables (Ej. Nivel de empleo en 3 ciudades)
  • Los correlacionales/causales describen relaciones
    entre dos o más variables ej. (relación entre
    urbanización y analfabetismo para ver que
    variables mediatizan esa relación.)

21
Diseños Longitudinales
  • Los diseños longitudinales juntan datos a través
    del tiempo en períodos especificados, infieren
    sobre al cambio, sus determinantes y
    consecuencias. Por ej. como evolucionan los
    niveles de empleo durante cinco años en una
    ciudad.
  • Sonde tendencia, de evolución de grupo (cohort)
    y diseños panel.
  • Los de tendencia analizan cambios en el tiempo en
    variables o sus relaciones en una población. Ej.
    cambio de actitud hacia el aborto anualmente por
    10 años.
  • Los de grupos analizan cambios en
    sub-poblaciones. Ej. Actitudes hacia el aborto en
    Argentinos nacidos en 1983.
  • Los de panel similares a los anteriores pero el
    mismo grupo de sujeto es medido en todos los
    momentos. Ej. analizar la evolución de enfermos
    de cancer de mama cada 6 meses en 2 años.
  • Hipótesis son de diferencia de grupos,
    correlacionales y causales.

22
Experimental Vs No experimental
  • Menor control
  • No manipula variables
  • Observan lo dado.
  • Las variables independientes son realistas y
    genera más validez externa
  • Mayor control
  • Manipula variables
  • Se replican facilmente
  • Las variables independientes son menos realistas

23
Resumen Diseño No Experimental
  • La investigación no experimental no manipula
    variables, se basa en realidades que ya
    ocurrieron sin intervención del investigador.
  • Es un enfoque retrospectivo. Observa variables en
    su contexto natural.
  • Estudia variables en un momento del tiempo en
    forma descriptiva o correlacional/causal o las
    estudia a lo largo del tiempo en tendencias y
    evolución dentro de grupos.
  • El tipo de diseño a elegir está condicionado por
    el problema, el contexto, el tipo de estudio y
    las hipótesis.

24
RESUMEN SEGUNDA PARTE
  • La investigación puede ser experimental o no
    experimental. En el primer caso se manipula la
    variable independiente y se mide la dependiente
    controlando las fuentes de invalidez. La validez
    interna refiere a la confianza en los resultados
    y la externa a su posible generalización. Cuando
    la manipulación es de varias variables
    independientes de varios niveles cada uno el
    estudio es factorial. El pre-experimento no
    manipula la variable independiente. El
    cuasi-experimento utiliza grupos intactos. El
    diseño no experimental observa escenarios
    existentes no provocados intencionalmente. Pueden
    ser transeccionales que a su vez se dividen en
    descriptivos y correlacionales/causales o
    longitudinales de tendencia, de evolución de
    grupo y diseño panel.

25
Selección de la Muestra
  • La muestra es un sub-grupo de la población.
  • Hay que definir la unidad de ánálisis o quienes
    van a ser medidos (personas, organizaciones,
    periódicos etc.)
  • Luego se definen las características de la
    población o parámetros muestrales en contenido,
    lugar y tiempo (ej enfermos de cáncer de la
    ciudad X sin tratamiento).
  • Hay muestras probabilísticas y no
    probabilísticas.
  • En la probabilística todos los elementos de la
    población tienen la misma posibilidad de ser
    elegidos. En la segunda, la elección de elementos
    depende del investigador .
  • Que tipo de muestra se elige depende de los
    objetivos del estudio, del esquema de
    investigación y de la contribución que se piensa
    hacer.

26
Muestra Probabilística
  • En la muestra probabilística puede medirse el
    tamaño del error en la predicción.
  • El principal objetivo de una muestra
    probabilística es reducir al mínimo este error
    llamado error estándar que dependerá del número
    de elementos muestreados.
  • Es esencial en diseños por encuestas que buscan
    estimaciones de variables medidas con
    instrumentos de medición y analizados con pruebas
    estadísticas.
  • Los valores muestrales serán parecidos a los de
    la población
  • La precisión de dichos estimados depende del
    error en el muestreo.

27
Tamaño de la Muestra
  • Se establece el error estándar (ej.0.05 o 0.01)
    o sea se sugiere que de 100 casos 95 o 99 veces
    el estimado sea correcto y que su valor se sitúe
    en un intervalo de confianza que comprenda el
    valor del parámetro poblacional.
  • El tamaño de la muestra se determina en dos pasos
  • 1) Se saca el tamaño provisional de la muestra
    dividiendo la varianza de la muestra/varianza de
    la población. La varianza de la población es el
    cuadrado del error estándar y la varianza de la
    muestra S p (1-p).
  • 2) Se ajusta la muestra provisional (n) si se
    conoce el tamaño de la población (N) de forma tal
    que n n/ 1n/N
  • Luego se decide como y de donde seleccionar los
    sujetos de la muestra del tamaño n

28
Muestra Estratificada y Por Racimo
  • La muestra es estratificada si se la divide en
    estratos o categorías en que se divide la
    población y que son relevantes para los objetivos
    del estudio.
  • Se divide a la población en sub poblaciones
    (estratos) y se selecciona una muestra para cada
    estrato.
  • Aumenta precisión en la muestra pues se usan
    diferentes tamaños de muestra para cada estrato a
    fin de reducir la varianza de cada unidad de la
    media muestral.
  • El muestreo por racimos se hace cuando las
    unidades de análisis se encuentran encerradas en
    determinados lugares físicos o geográficos (ej.
    niños en colegios).
  • Unidad de análisis indica quienes serán
    medidos.La unidad muestral el racimo por el cual
    se llega a la unidad de análisis

29
Selección Aleatoria Muestra Probabilística
  • Los elementos de una muestra probabilística
    siempre se eligen aleatoriamente (ej. tabla de
    números random o elección sistemática) para
    asegurar que cada elemento tenga la misma
    probabilidad de ser elegido.
  • Todo procedimiento de selección depende de
    listados, sea existentes o construidos ad hoc.
  • Listados pueden ser la guía telefónica, lista de
    escuelas oficiales etc.
  • Cuando no hay listas se usan otros marcos con
    descripciones del material (archivos, mapas)

30
Muestras no Probabilísticas (dirigidas)
  • Las muestras no probabilísticas (dirigidas)
    dependen del criterio del investigador para la
    elección de los sujetos u objetos de estudio.
  • Selecciona casos típicos con la esperanza que
    sean representativos (para muestra basta un
    botón). Los elementos no tienen la misma
    posibilidad de ser elegidos.
  • Es informal y un poco arbitraria. No se puede
    calcular con precisión el error estándar (nivel
    de confianza con que se hace una estimación).
  • Pueden ser 1) muestras con sujetos voluntarios 2)
    muestras de expertos (estudios exploratorios), 3)
    muestras de sujetos tipo o estudios de casos
    (estudios cualitativos y motivacionales) y 4)
    muestreo por cuotas (estudios de opinión y
    mercadotecnia).
  • Las muestras dirigidas son válidas en cuanto a
    que un determinado diseño de investigación así lo
    requiere, pero los resultados no son
    generalizables a una población sino apenas a la
    muestra en sí o muestras similares.

31
Normalidad y Probabilidad
  • El teorema central del límite sugiere que una
    muestra de más de cien casos, será una muestra
    con una distribución normal en sus
    características.
  • Distinguir normalidad de probabilidad.
  • La normalidad es necesaria para efectuar pruebas
    estadísticas (inferenciales).
  • Lo segundo es requisito indispensable para hacer
    inferencias correctas sobre una población.

32
Recolección de Datos
  • Seleccionado el diseño apropiado y la muestra
    adecuada al problema e hipótesis el próximo paso
    es recolectar los datos sobre las variables
    seleccionadas.
  • Hay que seleccionar primero un instrumento de
    medición o desarrollar uno válido y confiable.
  • Aplicar el instrumento en la medición.
  • Preparar las mediciones obtenidas o sea codificar
    los datos.

33
Medición de Conceptos Abstractos
  • Medir significa asignar números a objetos (cosas
    que pueden verse o tocarse) y eventos (resultado,
    consecuencia o producto) de acuerdo con reglas.
  • En ciencias sociales varios de los fenómenos que
    son medidos no pueden caracterizarse como objetos
    o eventos porque son muy abstractos para ello
    (ej. disonancia cognitiva, alienación, PBI,
    credibilidad).
  • Por eso es mejor definir medición como la
    vinculación de conceptos abstractos con
    indicadores empíricos.
  • Esto se hace con un plan organizado para
    clasificar y cuantificar los datos disponibles
    (indicadores) en términos del concepto que el
    investigador tiene en mente

34
Valores Observables de Conceptos Abstractos
  • El centro de atención es la respuesta observable.
  • El interés se sitúa en el concepto subyacente no
    observable que es representado por la respuesta.
  • Los registros del instrumento de medición
    representan valores observables de conceptos
    abstractos.
  • Un instrumento adecuado es el que registra los
    datos observables que representan bien los
    conceptos o variables que el investigador tiene
    en mente.
  • No hay medición perfecta. Es imposible
    representar fielmente ciertas variables
    (ej.motivación) pero hay que acercarse lo más
    posible a la representación fiel de las variables
    a observar.

35
Confiabilidad y Validez del Instrumento
  • La confiabilidad del instrumento significa que su
    aplicación repetida al mismo sujeto u objeto
    produce iguales resultados.
  • La validez refiere al grado en que un instrumento
    realmente mide la variable que se pretende medir
    (ej. si se quiere medir inteligencia que mida
    inteligencia y no memoria)
  • La validez responde a la pregunta Se esta
    midiendo lo que se cree que está midiendo?.
  • La validez refiere a evidencia relacionada con el
    contenido, con el criterio y con el constructo.

36
La Validez de Contenido
  • La validez de contenido del instrumento de
    medición refiere al dominio específico de
    contenido de lo que se mide.
  • El instrumento debe contener representados a
    todos los ítems del dominio de contenido de las
    variables a medir.
  • Una prueba de conocimiento sobre canciones de los
    Beatles no tendrá validez si sólo incluye
    canciones de un par de sus discos o una prueba de
    operaciones aritméticas no tendrá validez de
    contenido si sólo incluye problemas de resta y
    excluye la suma.

37
La Validez de Criterio
  • La validez de criterio establece la validez de un
    instrumento de medición comparándola con algún
    criterio externo.
  • Es un estándar. Por ej. un exámen sobre manejo de
    aviones, mostrando la exactitud con que el examen
    predice que tan bien un grupo de pilotos puede
    operar un aeroplano.
  • Si el criterio se fija en el presente se habla de
    validez concurrente (preferencias del electorado
    por partidos contendientes unos días antes de la
    elección).
  • Si el criterio se fija en el futuro se habla de
    validez predictiva (resultados de una prueba de
    capacidad administrativa de gerentes
    comparandolos con los resultados del futuro
    desempeño)

38
Validez de Constructo (Concepto)
  • La validez de constructo (concepto) refiere al
    grado en que una medición se relaciona
    consistentemente con otras mediciones de acuerdo
    con hipótesis derivadas teóricamente referidas a
    los conceptos medidos.
  • Ej. Teoría (investigaciones hechas) encontraron
    que A correlaciona positivamente con B,C y D y
    negativamente con W. Si el instrumento mide
    realmente A sus resultados deben correlacionarse
    positivamente con los resultados obtenidos en las
    mediciones de B,C,D y negativamente con los
    resultados de W.
  • Ej. Al medir motivación laboral se mide
    persistencia (tiempo adicional que trabaja
    alguien al terminar su horario.
  • Hay que especificar 1) Una relación teórica entre
    conceptos desde el marco teórico. La validez de
    constructo se vincula con la teoría. 2)
    Correlacionar ambos conceptos y analizar la
    correlación. 3) Interpretar la evidencia empírica
    de acuerdo con el nivel en que clarifica la
    validez de concepto de una medición en
    particular.

39
Validez y Confiabilidad
  • La validez total del instrumento de medición se
    hace sobre la base de los tres tipos de evidencia
    (contenido, criterio y constructo)
  • Mayor la validez, mayor la aproximación de la
    representación a la variable que se pretende
    medir.
  • Un instrumento puede ser confiable pero no válido
    cuando genera resultados consistentes pero no
    mide lo que se pretende.
  • Los instrumentos pueden ser afectados en su
    confiabilidad y validez por 1) la improvisación
    2) el desarrollo en culturas, grupos y tiempos
    distintos 3) su falta de adaptación a las
    personas a las que se aplica (ej. no empatía por
    lenguaje elevado para niños) 4) por las
    condiciones en que se aplica el instrumento
    (cuestionario largo, tedioso, en la puerta de
    calle con ruido etc.) 5) aspectos mecánicos (no
    comprender instrucciones, falta de espacio para
    contestar, no se lee bien lo que dice etc.
  • En la práctica es imposible la medición perfecta.

40
Cálculo de la Confiabilidad
  • La medición se conceptualiza X t
    e donde X son los valores observados t son los
    valores verdaderos y e es el grado de error de la
    medición.
  • El error se mide calculando la confiabilidad y la
    validez.
  • El coeficiente de confiabilidad puedo oscilar
    entre 0 y 1. Los procedimientos utilizados para
    medir la confiabilidad son
  • Medida de Estabilidad aplica un mismo instrumento
    dos o mas veces a un mismo grupo después de
    cierto período. Si la correlación de los
    resultados de las diferentes aplicaciones es
    altamente positiva, el instrumento se considera
    confiable.
  • Método de formas alternativas o paralelas aplica
    versiones equivalentes del instrumento (no el
    mismo). La correlación debe ser
    significativamente positiva.
  • Método de mitades Se aplica una sóla medición
    pero se dividen en dos los items. Los valores
    deben correlacionar fuerte
  • Coeficientes de cronbach y coeficiente KR-20

41
Cálculo de la Validez
  • Para revisar la validez de contenido hay que
    mirar primero como usaron otros investigadores la
    variable.
  • Sobre esa base se elabora un universo de items
    posibles para medir la variable y sus
    dimensiones.
  • Se consulta luego investigadores familiarizados
    con la variable para ver si el universo es
    exhaustivo.
  • Se seleccionan los items y una muestra
    probabilística de ellos.
  • Se administran los items, se correlacionan las
    puntuaciones entre sí y se hacen estimaciones
    estadísticas para ver si la muestra es
    representativa.
  • La validez de criterio se estima correlacionando
    su medición con el criterio
  • La validez de constructo se hace mediante
    programas estadísticos de análisis de factores.

42
Construcción del Instrumento
  • Listar las variables. Revisar su definición
    conceptual y comprender su significadoRevisar
    como han sido definidas operacionalmente las
    variables
  • Comparar instrumentos, su confiabilidad,
    validez, sujetos a los que se aplicó, facilidad
    de administración, veces que medición resultó
    exitosa
  • Elegir el instrumento favorecido y adaptarlo al
    contexto propio
  • Indicar nivel de medición de cada variable 1)
    Nominal sin jerarquía ej, sexo m o f. Puede
    incluir variables dicotómicas ej escuela publica
    o privada a la asiste.2) Ordinal hay categorías
    y jerarquía. Ej. mayor puntaje a una profesión
    que a otra. 3) Medición por intérvalos Hay
    jerarquía entre categorías e intérvalos iguales
    en la medición ej.escala de 0 a 10. 4) Medición
    de razón (el cero de la escala es real o sea no
    existe la propiedad. Nivel medición afecta prueba
    estadística seleccionada
  • Indicar codificación de datos (valor númerico que
    los represente). Ej. masculino 1 y femenino 0
  • Prueba piloto del instrumento,ajuste y mejora.

43
Instrumentos Disponibles Escala de Likert
  • Escalas para medir actitudes que tienen dirección
    (positiva o negativa) e intensidad (alta o baja).
  • La escala de Likert presenta items en forma de
    afirmaciones o juicios (ej. la DGI informa bien a
    los contribuyentes) ante los cuales se pide la
    reacción de los sujetos (muy de acuerdo, de
    acuerdo, en desacuerdo etc.). Cada afirmación
    tiene el mismo peso en la escala. El número de
    juicios debe ser el mismo para todas las
    afirmaciones.
  • Todas las afirmaciones (items) miden la actitud
    hacia un único concepto subyacente (ej. la DGI).
    Si se miden actitudes hacia varios objetos se
    requiere una escala por cada objeto.
  • Cada frase tiene un puntaje y se suman sus
    valores por lo que se trata de una escala
    aditiva. (Ej. desde una actitud muy desfavorable
    hasta una actitud muy favorable)
  • Suponiendo una encuesta con 8 afirmaciones y 5
    opciones cada una con un valor de 1 a 5, el
    mínimo posible es 8 y el máximo 40.
  • La escala de Likert se aplica autoadministradamen
    te o por entrevista.

44
Diferencial Semántico-Cuestionarios
  • El diferencial semántico califica al objeto de
    actitud en un conjunto de adjetivos bipolares ej.
    justo-injusto fuerte-débil caro-barato
  • Entre cada par de adjetivos se presentan opciones
    ej. muy, bastante, regular, bastante y muy) y el
    sujeto elige la que refleja su actitud.
  • La escala final se califica igual a la de Likert
    sumando las puntuaciones obtenidas. Los
    resultados pueden ordenarse en una tabla
  • Los cuestionarios son un conjunto de preguntas
    cerradas (o con respuestas delimitadas) o
    abiertas respecto de las variables a medir.
  • Para codificar preguntas abiertas se selecciona
    un determinado número de cuestionarios por
    muestreo. Se observa la frecuencia con que
    aparece cada respuesta, se eligen las que tienen
    mayor frecuencia (patrones generales),se
    clasifican en temas o rubros de acuerdo a un
    criterio lógico, se le da un título a cada tema y
    se asigna un código a cada patrón general de
    respuesta

45
Análisis de Contenido
  • Es una técnica para analizar la comunicación de
    una manera objetiva, sistemática y cuantitativa.
  • Sirve para conocer actitudes de un grupo mediante
    análisis de sus discursos, analizar la
    personalidad de alguien evaluando sus escritos,
    describir tendencias en el contenido de la
    comunicación, develar diferencias en el mismo,
    comparar mensajes, auditar el contenido, medir la
    claridad de los mensajes, identificar
    intenciones, mensajes ocultos, revelar centros de
    interés, reflejar actitudes, valores etc
  • Se hace codificando las características
    relevantes del contenido del mensaje, para eso
    hay que definir el universo, las unidades de
    análisis y las categorías de análisis.

46
Universo, Unidades de Análisis, y Categorías
  • El Universo puede ser la obra de un autor, las
    emisiones de un noticiario televisivo durante un
    mes etc.
  • Las unidades de análisis constituyen segmentos
    del contenido de los mensajes. Pueden ser
    palabras, el tema, el item (programa, libro) el
    personaje, las medidas de espacio tiempo.
  • Las categorías son las casillas o cajones en las
    cuales son clasificadas las unidades de análisis.
    Ej. un discurso puede ser optimista, pesimista,
    liberal, conservador. Un personaje puede ser
    bueno o malo.
  • Las categorías pueden ser de asuntos (el tópico),
    de dirección (a favor, en contra, nacionalista,
    etc.) de valores (creencias, intereses) de
    receptores (a quien va dirigido) físicas (sección
    y página de prensa, horario en TV etc.)
  • Las categorías deben ser exhaustivas, mutuamente
    excluyentes, derivarse del marco teórico y de una
    evaluación de la situación.

47
Pasos en el Análisis de contenido
  • Definir el universo y sacar una muestra
    representativa
  • Definir las unidades de análisis
  • Definir las categorías que presenten a las
    variables
  • Seleccionar las personas que codificarán
  • Elaborar hojas de codificación
  • Entrenar a los codificadores
  • Calcular confiabilidad de los codificadores
  • Codificar y contar las frecuencias de repetición
    de las categorías.
  • Obtener totales para cada categoría
  • Realizar los análisis estadísticos apropiados

48
Observación
  • Es el registro sistemático, válido y confiable de
    comportamientos o conductas manifiestas. Es una
    forma de observación del contenido de
    comunicaciones. Puede ser participante o no.
  • La ventaja es que son técnicas de medición no
    obstructivas, aceptan material no estructurado y
    puede trabajar grandes volúmenes de datos.
  • Se debe definir el universo de eventos o
    conductas a observar, extraer una muestra,
    definir las unidades de observación y las
    categorías de observación.(Las subcategorías
    pueden ser escalas del tipo likert o diferencial
    semántico).
  • Se selecciona a los observadores, se elige el
    medio de observación, se elaboran las hojas
    codificadoras, se entrenan los codificadores y se
    calcula su confiabilidad.
  • Se codifica, se obtienen los totales y se hacen
    los análisis

49
Sesiones en Profundidad
  • Las sesiones en profundidad son otro método de
    recolectar datos.
  • Se reúne a un grupo de personas y se trabaja con
    éste en relación a las variables de la
    investigación.
  • Se define el tipo de personas. Se detectan ese
    tipo de personas y se las invita a las sesión.
  • Se lleva a cabo la reunión creando clima de
    confianza (rapport).
  • Se elabora el reporte de sesión.
  • Se codifica y se hace el análisis
    correspondiente

50
Resumen Tercera Parte
  • La selección de la muestra depende de los
    objetivos y el tipo de investigación. Cuando es
    probabilística, se puede medir el error en la
    predicción, no así en la muestra dirigida. Hay
    muestras estratificadas y por racimos. La
    recolección de datos se hace con instrumentos que
    deben ser confiables y válidos. Cuando se miden
    conceptos abstractos, estos se vinculan con
    indicadores empíricos. La validez debe ser de
    contenido, de criterio y de concepto. Entre los
    instrumentos disponibles están las escalas
    (Likert, semántica diferencial) los
    cuestionarios, el análisis de contenido, la
    observación, las sesiones en profundidad, y otros
    como las pruebas estandarizadas y los archivos.

51
Análisis de los Datos
  • Con los datos codificados en una matriz se
    analizan.
  • Los análisis dependen de tres factores el nivel
    de medición de las variables (nominal,ordinal,por
    intérvalos), la formulación de las hipótesis y el
    interés del investigador.
  • Se busca describir los datos y luego relacionar
    las variables.
  • Los principales análisis son estadística
    descriptiva para las variables tomadas
    individualmente, puntuaciones Z, razones y
    tasas, cálculos y razonamientos de estadística
    inferencial, pruebas paramétricas, pruebas no
    paramétricas, análisis multivariados.
  • Para describir cada variable se distribuyen las
    frecuencias o sea se establece el conjunto de
    puntuaciones ordenadas en sus respectivas
    categorías. Luego se pueden agregar las
    frecuencias relativas (porcentajes de casos en
    cada categoría) y las acumuladas (lo que se va
    acumulando en cada categoría) que también pueden
    expresarse en porcentajes. Las distribuciones
    pueden presentarse en histogramas o gráficas.

52
Medidas de Tendencia Central
  • Las medidas de tendencia central son puntos en
    una distribución.
  • Son la moda, la mediana y la media. El nivel de
    medición de la variable determina cuál es la
    medida de tendencia apropiada.
  • La moda (categoría más frecuente) va con
    cualquier nivel de medición
  • La mediana (distribuye la distribución por la
    mitad) se usa con mediciones ordinales, por
    intérvalo y de razón. No tiene sentido con
    variables nominales porque no tienen jerarquía.
    No hay noción de encima o debajo. Es útil cuando
    hay valores extremos en la distribución, ya que
    no es sensible a estos.
  • La media es el promedio aritmético de una
    distribución y se aplica a mediciones por
    intérvalos o de razón. No tiene sentido en
    variables medidas en nivel nominal u ordinal. Es
    sensible a valores extremos.
  • Para calcular la media en una distribución de
    frecuencias, se saca el punto medio de cada
    intérvalo, se lo multiplica por la frecuencia que
    le corresponde. Se suman los resultados y se lo
    divide por el número total de frecuencias.

53
Medidas de Variabilidad
  • Indican dispersión de los datos en la escala de
    medición y responden a la pregunta dónde están
    diseminados los valores obtenidos?
  • Las medidas de tendencia central son valores en
    una distribución y las medidas de variabilidad
    son intérvalos, designan distancias o un número
    de unidades en la escala de medición. Son el
    rango, la desviación estándar y la varianza.
  • El rango es la diferencia entre la puntuación
    mayor y la menor. Se calcula puntuación mayor
    menos puntuación menor. Mayor el rango, mayor la
    dispersión de los datos en una distribución.
  • El desvio estándar es el promedio de desviación
    de las puntuaciones con respecto a la media. Se
    expresa en unidades originales de medición de la
    distribución. Se interpreta en relación a la
    media. Mayor la dispersión de los datos alrededor
    de la media mayor la desviación estándar. Se
    calcula sumando todos los cuadrados de la
    desviación de cada puntuación respecto a la media
    dividida por el número total de puntuaciones. A
    esa división se le saca raíz cuadrada.

54
Medidas de Variabilidad
  • Para datos agrupados en una distribución de
    frecuencias se obtiene la media con la fórmula de
    datos agrupados. Se eleva esa media al cuadrado.
    Se multiplica la columna de puntos medios
    multiplicados por sus frecuencias por los puntos
    medios (fx2). Se suman los valores y se divide
    el total por el número de frecuencias. Se le
    resta el promedio al cuadrado y al resultado se
    le saca raíz cuadrada.
  • S Raiz cuadrada de ((la sumatoria de fx2/N) -
    X2)
  • La desviación estádar se interpreta como cuanto
    se desvía en promedio de la media un conjunto de
    puntuaciones
  • Sólo se usa en variables medidas por intérvalos o
    de razón.
  • La varianza es el desvío estándar elevado al
    cuadrado.
  • Las medidas de tendencia central y las de
    variabilidad se interpretan en conjunto no
    aisladamente.

55
Asimetría y Curtosis
  • La asimetría y la curtosis son otras medidas de
    estadística descriptiva para analizar la
    distribución de frecuencias en términos de
    probabilidad y visualizar su grado de dispersión.
    Requieren medición por intérvalo.
  • La asimetría es una estadística para conocer
    cuánto se parece la distribución a una
    distribución teórica llamada curva normal.
  • Constituye un indicador del lado de la curva
    donde se agrupan las frecuencias. Si es positiva,
    habrá más valores agrupados hacia la izquierda de
    la curva o por debajo de la media, y si es
    positiva a la derecha o por encima de la media.
  • La curtosis es un indicador de lo plana o
    picuda que es una curva. Cuando es cero
    significa que se trata de una curva normal. Si es
    positiva la curva es más levantada o picuda. Si
    es negativa es más plana.
  • Las frecuencias y las estadísticas descriptivas
    son para cada variable.

56
Puntuaciones Z
  • Las puntuaciones Z son las transformaciones de
    los valores obtenidos para analizar su distancia
    respecto a la media en unidades de desviación
    estándar (s). (Son un elemento descriptivo
    adicional)
  • Indica la dirección y grado en que un valor
    individual obtenido se aleja de la media en una
    escala de unidades de desviación estándar.
  • Es el método usado comúnmente para estandarizar
    la escala de una variable medida en un nivel por
    intervalos. Z X -X media/s ej. si el valor es
    50 y la media 60 y el desvio estandar 10 resulta
    que Z 50 - 60 / 10 -1 o sea el valor 50 está
    a un desvío por debajo de la media de la
    distribución.
  • La estandarización permite comparar puntuaciones
    de dos distribuciones diferentes (por ejemplo una
    distribución obtenida en una preprueba y en una
    postprueba) o mediciones de distintas pruebas o
    escalas aplicadas a los mismos sujetos.
  • La distribucion Z tiene media cero (0) y una
    desviación estándar de 1.

57
Tasas y Razones
  • Una razón es la relación entre dos categorías por
    ej. masculino (60)/femenino(30) 2
  • Una tasa es la relación entre el número de casos,
    frecuencias o eventos de una categoría y el
    número total de observaciones multiplicada por un
    múltiplo de 10, generalmente 100 o 1000
  • Por ej. (Número de nacidos vivos en el país/
    número de habitantes en el país) X 1000

58
Inferencia De la Muestra al Universo
  • La investigación pretende generalizar los
    resultados de la muestra al universo. La
    estadística inferencial se usa para probar
    hipótesis y estimar parámetros.
  • Una hipótesis en el contexto de la estadística
    inferencial es una proposición respecto a uno o
    varios parámetros. La prueba de hipótesis
    determina si la hipótesis es congruente con los
    datos obtenidos en la muestra. Si es congruente
    se retiene como un valor aceptable del
    parámetro.
  • Para entender la prueba de hipótesis hay que
    revisar el concepto de distribución muestral y el
    de nivel de significancia.

59
Distribución Muestral
  • Una distribución muestral es un conjunto de
    valores sobre una estadística calculada de todas
    las muestras posibles de determinado tamaño. Se
    saca el tamaño representativo de la muestra ej.
    512 y luego se sacan varias muestras de ese
    tamaño. Con las medias extraídas de las medias se
    hace una distribución de las medias. Comúnmente
    se saca una sola muestra.
  • La cuestión es que han cerca está nuestra media
    de la distribución muestral . (Si está cerca
    podremos tener una estimación precisa de la media
    poblacional que es prácticamente el mismo que el
    de la distribución muestral.
  • El teorema central del límite especifica que la
    distribución muestral tiene una media igual a la
    de la población, y una varianza igual a la
    varianza de la población dividida por el tamaño
    de muestra.

60
Nivel de Significancia (Valor de certeza fijado
a priori)
  • La probabilidad de que un evento ocurra oscila
    entre 0 y 1.Aplicando el concepto de probabilidad
    a la distribución muestral podemos tomar el área
    de esta como 1. Cualquier área entre dos puntos
    de la distribución corresponderá a la
    probabilidad de la distribución.
  • Para probar hipótesis inferenciales respecto a la
    media, el investigador debe evaluar si es alta o
    baja la probabilidad de que la media de la
    muestra esté cerca de la media de la distribución
    muestral. Si es alta se generalizará a la
    población, si es baja no.
  • El nivel de significancia o nivel alfa es un
    nivel de la probabilidad de equivocarse y se fija
    antes de probar hipótesis inferenciales.
  • La estadística de la muestra obtenida se analiza
    sobre que porcentaje tiene de confianza en que
    dicho valor se acerque al valor de la
    distribución muestral (valor del parámetro de la
    población).
  • Hay dos niveles convenidos 0.5 o sea que hay 95
    de seguridad para generalizar sin equivocarse y
    sólo 5 en contra o 0.1 o 99 de seguridad

61
Distribución Muestral y Nivel de Significancia
  • El nivel de significancia se expresa en términos
    de probabilidad (0.05 y 0.01) y la distribución
    muestral se expresa como probabilidad (el área
    total de ésta es 1).
  • El nivel de significancia se toma como un área
    bajo la distribución muestral. Representa áreas
    de riesgo o confianza en la distribución
    muestral.
  • La distribución muestral es una distribución de
    valores Z. Los valores Z son distancias que
    indican áreas bajo la distribución normal (áreas
    de probabilidad).
  • El área de riesgo es tomada como el área de
    rechazo de la hipótesis y el área de confianza
    como el área de aceptación de la misma.
  • La hipótesis es sobre el parámetro poblacional

62
Procedimiento
  • Sobre bases firmes (revisión literatura e
    información disponible) establecer una hipótesis
    sobre el parámetro poblacional.
  • Definir el nivel de significancia. (Ej.0.05)
  • Recolectar datos en una muestra representativa.
  • Estimar desvío estándar de la distribución
    muestral de la media mediante la fórmula s / raíz
    cuadrada de n donde s es el desvío estándar de
    la muestra y n el tamaño de la muestra.
  • Transformar la media de la muestra en una
    puntuación Z
  • Buscar en la tabla bajo la curva normal aquella
    puntuación Z que deje 2,5 por encima de ella
    que es 1.96
  • Comparar la media de la muestra transformada a
    valor Z con el valor 1.96, si es menor aceptar la
    hipótesis y si es mayor rechazarla.

63
El Intervalo de Confianza
  • Otro procedimiento inferencial es construir un
    intervalo donde se localiza un parámetro. En vez
    de probar una hipótesis sobre la media
    poblacional, se busca un intervalo donde se
    ubique dicha media. Esto requiere un nivel de
    confianza que es al intervalo de confianza lo que
    el nivel de significancia es a la prueba de
    hipótesis. Es una probabilidad dada de que un
    parámetro esté en un intervalo.
  • Si la probabilidad es 0.95 tenemos un 95 de
    probabilidad a favor de que el parámetro se
    localice en el intervalo estimado contra 5 de
    elegir un intervalo equivocado. Estos niveles de
    confianza se expresan en unidades de desviación
    estándar.
  • Se usa la tabla de áreas bajo la curva normal, y
    se selecciona el valor Z del nivel de confianza
    seleccionada. Luego se aplica la fórmula
    Intervalo de confianza estadística de la
    muestra - (puntuación Z X Desvío estándar de
    la distribución muestral)
  • Ej. si Z 0.95 1.96 si 0.99 2.58 Si la media
    es 2.9 y el desvío 0.0679 entonces 2,9 - (1.96)
    (0.0679 2.9 - (0.133) la media está entre
    2.767 y 3.033 con 95 de probabilidades de no
    errar.

64
Errores al Realizar Inferencias
  • Los resultados posibles al probar hipótesis son
  • Aceptar una Hipótesis verdadera. (decisión
    correcta)
  • Rechazar una Hipótesis falsa (decisión correcta)
  • Aceptar una H. falsa (error tipo II o error beta)
  • Rechazar una H. verdadera (error tipo I o error
    alfa)
  • Los dos errores son indeseables y su posibilidad
    se reduce mediante
  • Muestras representavas probabilísticas,
    inspección cuidadosa de los datos, selección de
    las pruebas estadísticas aporpiadas y mayor
    conocimiento de la población.

65
Análisis Paramétricos
  • Los supuestos para los análisis paramétricos son
    1) La distribución poblacional de la variable
    dependiente es normal 2) El nivel de
    medición de la variable dependiente es por
    intérvalo o razón 3) Cuando dos o mas
    poblaciones son estudiadas, tienen una varianza
    homogenea (dispersión similar en sus
    distribuciones)
  • Las pruebas estadísticas paramétricas más usadas
    son 1) El coeficiente de correlación de
    Pearson y la regresión lineal 2) La prueba
    t 3) La prueba de contraste de la
    diferencia de proporciones 4) El análisis de
    varianza unidireccional (ANOVA) 5) El análisis
    de varianza factorial (ANOVA) 6) El análisis de
    covarianza (ANCOVA)

66
Correlación
  • Analiza relación entre dos variables medidas en
    un nivel por intervalos o de razón. Se simboliza
    r. Cuando se lo eleva al cuadrado (r2) el
    resultado indica la varianza de factores comunes.
  • Es una hipótesis correlacional del tipo a mayor
    X mayor Y o a mayor X menor Y. Relaciona dos
    variables sin considerar una como independiente y
    otra como dependiente pues no evalúa la
    causalidad.
  • El r se calcula a partir de los valores obtenidos
    en una muestra en dos variables. Se relacionan
    valores de una variable con valores de otra en
    los mismos sujetos. El coeficiente varía de -1
    (correlación negativa perfecta) a 1 (positiva
    perfecta) siendo 0 la falta de correlación
  • Se indica si el coeficiente es o no significativo
    de la siguiente manera s 0.001 significancia .
    Si s es menor de 0.05 es significativo al nivel
    de 0.05 (95 de confianza que correlación sea
    verdadera y 5 de probabilidad de error).
    (Simboliza p lt0.05 prob.de error menor a 0.05)
  • Ej. R 0.214 y s 0.081 Se acepta H nula pues
    r no es significativo ya que 0.081 es mayor que
    0.05 que es el nivel mínimo para aceptar H

67
Regresión Lineal
  • Estima el efecto de una variable sobre otra. Está
    asociado con el coeficiente r Se expresa Y a
    bX donde Y es un valor de la variable
    dependiente que se desea predecir, a es la
    ordenada en el origen y b la pendiente.
  • La Hipótesis son correlacionales y causales.
  • Son dos variables a una se la considera
    independiente y a otra dependiente. Para eso hay
    que tener un sólido sustento teórico.
  • El nivel de medición es por intervalo o razón.
  • La regresión lineal se determina con base en el
    diagrama de dispersión
  • Conociendo la línea y la tendencia se puede
    predecir los valores de una variable conociendo
    los de la otra variable.
  • Regresión lineal no es útil con relaciones
    curvilíneas donde tendencia varía, primero es
    ascendente y luego descendente o viceversa.
  • Ej. a 1.2 b 0.8 a un valor de 7 en lógica que
    valor corresponde en historia? Y 1.2 0.8 x 7
    6.8

68
Prueba t
  • Prueba para evaluar si dos grupos difieren entre
    sí de manera significativa respecto a sus medias.
    Simboliza t
  • La H propone que los grupos difieren
    significativamente entre sí y la H nula propone
    que los grupos no difieren significativamente.
  • La comparación se realiza sobre una variable. Si
    hay diferentes variables se efectuarán varias
    pruebas t una para cada variable.
  • La medición es por intervalos o razón.
  • Para saber si valor de t es significativo se
    calculan los grados de libertad(número de maneras
    en que datos pueden variar libremente).
  • Esto indica que valor podemos esperar de t
    dependiendo del tamaño de los grupos que se
    comparan. Mayor los grados de libertad que se
    tengan, la distribución t de student se acerca
    más a una distribución normal y si los grados de
    libertad exceden los 120 la distribución normal
    es usada como aproximación adecuada de la
    distribución t

69
Prueba t
  • La fórmula de t es la diferencia entre las
    medias de los dos grupos divididos por el error
    estándar de la distribución muestral de la
    diferencia entre medias. Los grados de libertad
    se calculan sumando los dos valores del tamaño de
    los grupos que se comparan menos dos. Gl
    (N1N2)-2
  • Calculados el valor de t y los grados de
    libertad se elige el nivel de significancia y se
    compara el valor obtenido contra el valor que le
    correspondería en la tabla respectiva. Si el
    valor calculado es igual o mayor al que aparece
    en la tabla se acepta Hi (investigación). Si es
    menor se acepta la H0
  • En la tabla se busca niveles de confianza como
    columnas y los grados de libertad como filas o
    renglones.
  • Ej. Se comparan las medias y varianzas de una
    preprueba con una postprueba en dos momentos
    diferentes. N1128 N2119 gl245
  • Si t 6.698 para un nivel de confianza de 0.05
    el valor de tabla será para más de 200 grados de
    libertad 1.645. Se acepta la Hi.

70
Prueba de Diferencia de Proporciones
  • Prueba sobre una variable para analizar si dos
    proporciones difieren significativamente entre
    sí.
  • La variable se mide en intérvalos o razón
    expresada en proporciones o porcentajes.
  • Se aplica la formula, se compara con el valor Z
    de la distribución normal que corresponde al
    valor de confianza elegido. Si es igual o mayor
    se acepta la Hi si es menor se rechaza.
  • Ej. el de liberales en la ciudad X es mayor que
    la la ciudad Y
  • en X 55 para N 410 en Y 48
    para N 301
  • Los se transforman en proporciones y se
    calculan q1 y q2 o sea q1 1- 0.55 0.45 q2
    1 -0.48 0.52
  • Con a 0.05 1.96 Z por lo tanto z 0.55 - 0.48
    / la raíz cuadrada de ((0.45 x 0.55) / 410 )
    ((0.48 x 0.52) / 301) 1.56
  • Como z calculada es menor al nivel alfa expresada
    en valor Z 1.96, se rechaza la Hi y se acepta la
    Ho

71
Análisis de Varianza Unidireccional
  • Analiza si más de dos grupos difieren
    significativamente en cuanto a sus medias y
    varianzas (La prueba t se usa para dos grupos)
  • La Hipótesis es de diferencia entre los grupos.
    La Hi propone que los grupos difieren
    significativamente entre sí y la Ho propone que
    los grupos no difieren significativamente.
  • Hay una variable independiente (categoría) y una
    dependiente (por intérvalos o razón)
  • Que la var. ind. sea categórica significa que se
    pueden formar grupos diferentes ej. Religión o
    nivel socioeconómico o antigüedad en la empresa.
  • El análisis de varianza unidireccional produce un
    valor conocido coo F basada en una distribución
    muestral F
  • Compara variaciones de dos fuentes entre los
    grupos y dentro de los grupos.

72
Varianza Unidireccional
  • Si los grupos difieren entre sí, sus valores
    variarán más de lo que puedan variar las
    puntuaciones entre integrantes de un mismo grupo.
  • Ej. hay 3 clínicas A,B,C la primera esta
    integrada por los médicos x,y,z la otra por a,b,c
    y la otro por d,e,f.
  • Se espera que los integrantes de una clínica se
    parezcan más entre sí (por ej. en su
    comportamiento referido a internación o cirugías)
    que a los miembros de otra clínica. Se espera
    homogeneidad intra clínica y heterogeneidad inter
    clínicas.
  • Que pasa si los comportamientos de la clínica A
    se parecen más a los de otra clínica que a los
    integrantes de la suya propia?. Quiere decir que
    no hay diferencia entre las clínicas.
  • La razón F indica si las diferencias entre
    grupos son mayores que las diferencias intra
    grupo. Esas diferencias son medidas en términos
    de la varianza. (dispersión sobre la media
    calculada en desviaciones elevadas al cuadrado)

73
Razón F Razón entre Varianzas (división de
medias cuadráticas)
  • La razón F es una razón de varianzas o sea divide
    a la media cuadrática entre los grupos
    (numerador) por la media cuadrática dentro de los
    grupos (denominador) F mceg/mcdg
  • La media cuadrática implica un promedio de
    varianzas elevadas al cuadrado.
  • La media cuadrática entre grupos se obtiene
    calculando la media de los valores de todos los
    grupos (media total). Después se obtiene la
    desviación de la media de cada grupo respecto a
    la media total y se eleva al cuadrado cada
    desviación, después se suman. Finalmente se
    sopesa el número de individuos de cada grupo y la
    media cuadrática se obtiene con base en los
    grados de libertad inter grupales.
  • La media cuadrática dentro de los grupos se saca
    primero midiendo el desvío de cada puntuación
    respecto a la media de su grupo, se suma esa
    fuente de variación y se combina para obtner una
    media de la varianza intra grupal tomando en
    cuenta los grados de libertad totales

74

Varianza Unidireccional ( F Significativa)
  • Media cuadrática entre grupos Suma de cuadrados
    entre grupos / grados de libertad entre grupos
  • Grados de lib. entre grupos K -1 donde K es el
    número de grupos
  • La media cuadrática dentro de los grupos suma
    de los cuadrados intragrupo / grados de libertad
    intragrupos
  • Grados de lib.intragrupos N - K donde N es
    tamaño de la muestra, la suma individuos de todos
    los grupos y K es el número de grupos
  • Cuando F es significativa (valor igual o mayor
    al de la tabla) grupos difieren
    significativamente entre sí. Se acepta la Hi y
    se rechaza la Ho
  • Se elige un valor alfa o probabilidad (0.05 o
    0.01). Si es menor a ese nivel es significativo.
    Ver tabla.
  • Ej. si F 1.12 y el valor en tabla es 3.15 como
    F calculado es menor se rechaza Hi y se acepta Ho
    o sea los grupos no difiere entre sí.

75
Análisis Factorial de Varianza
  • Analiza el efecto de dos o más variables
    independientes sobre una variable dependiente.
  • Extiende análisis de varianza unidireccional.
    Incluye más de una variable.
  • Evalúa los efectos por separado de cada variable
    independiente y los efectos conjuntos de dos o
    más variables independientes.
  • La variable dependiente está medida en intervalos
    y las independientes en cualquier nivel pero
    expresadas de manera categórica.
  • Sirve para diseños experimentales factoriales
  • Ej., la similitud en valores, la atracción física
    y la retroalimentación positiva son factores que
    inciden en la satisfacción sobre la relación de
    parejas de novios que tienen entre 24 y 32 años.

76
Análisis de Covarianza
  • Analiza la relación entre una variable
    dependiente y dos o mas independientes eliminando
    y controlando el efecto de al menos una de estas
    independientes
  • Hay tres perspectivas para el análisis de
    covarianza. La perspectiva experimental se
    centra en las diferencias observadas en la
    variable dependiente a través de las categorías
    de la(s)variable (s) independiente(s). ( Se
    intenta controlar la influencia de otras
    variables independientes que no sean categóricas.
    Purifica la relación entre las variables
    independientes y la dependiente controlando el
    efecto de las independientes no categóricas o
    continuas).
  • A las variables independientes cuantitativas
    continuas cuya influencia se remueve y controla
    se les denomina covariables
  • Aquí el análisis de covarianza se concibe como un
    ajuste en la variable dependiente respecto a
    diferencias en la covariable y luego como una
    evaluación de la relación entre variables
    independientes categóricas y los valores
    ajustados de la variable dependiente.

77
Análisis de Covarianza
  • La perspectiva de interés por la covariable
    analiza la relación entre la variable dependiente
    y la covariable (variable cuantitativa continua).
  • La influencia que se remueve es la de las
    variables independientes categóricas. Primero se
    controla efecto de estas variables y después se
    analiza el efecto purificado de las
    covariables.
  • En la perspectiva de regresión tanto las
    variables independientes categóricas como las
    covariables resultan de interés.
  • El análisis de covarianza elimina influencias no
    deseadas sobre la variable dependiente. Elim
Write a Comment
User Comments (0)
About PowerShow.com