Sin t - PowerPoint PPT Presentation

1 / 111
About This Presentation
Title:

Sin t

Description:

Por qu una encuesta de 1500 personas permite predecir ... Las aproximaciones anteriores se hacen exactas cuando n tiende a infinito. ... – PowerPoint PPT presentation

Number of Views:94
Avg rating:3.0/5.0
Slides: 112
Provided by: NancyLa5
Category:
Tags: exactas | sin

less

Transcript and Presenter's Notes

Title: Sin t


1
11. Muestreo
2
INFERENCIA ESTADÍSTICA
Proceso y resultado de extraer conclusiones
respecto a una población a partir de una o más
muestras.
obtención de la muestra
conclusiones
P
M
3
Problema de estimación Por qué una encuesta de
1500 personas permite predecir bastante bien el
resultado de una elección con 10 millones de
votantes? Cómo se consigue? Cómo se mide la
precisión del resultado? Problema de test de
hipótesis Las normas de calidad exigen que, en
un lote de 5000 bombillas, a lo sumo el 3
pueden durar menos de 1000 horas. En un estudio
de control de calidad de una fabrica de bombillas
sería muy costoso examinar cada una. Se decide
usar una muestra de 500 bombillas. Si obtenemos
el 3,2 de bombillas defectuosas, deberíamos
declarar el lote completo defectuoso?
4
Problema de estimación Se busca precisar una
característica totalmente desconocida de la
población a partir de los datos obtenidos sobre
una muestra. Estimar el porcentaje de la
población (10 millones) que votará a ZP a partir
de una muestra de 1500 votantes. O estimar la
duración promedio de las bombillas del lote de
5000, a partir de una muestra de 500.
5
Problema de test de hipótesis Se busca
comprobar alguna información sobre la población
a partir de los datos obtenidos de una
muestra. ZP obtendrá más del 65 de los
votos. Menos del 3 de las bombillas del lote de
5000 duran menos de 1000 horas. Las bombillas
duran más de 1000 horas en promedio.
6
Muestra aleatoria simple con reemplazo
  • Supongamos una población de tamaño N donde cierta
    característica se distribuye como la variable
    aleatoria X. Una muestra aleatoria simple con
    reemplazo de n observaciones de la variable
    aleatoria X es un conjunto de variables
    aleatorias X1, X2, ..., Xn independientes e
    idénticamente distribuidas (iid).
  • Cada una de ellas tiene la misma distribución de
    probabilidad que la variable aleatoria X.

7
Observa que las probabilidades de escoger
cualquier elemento de la población para formar
parte de la muestra son iguales (1/N) y que
además las extracciones son independientes. Se
puede escoger por azar varias veces al mismo
elemento. Pero si la población N es muy superior
al tamaño n de la muestra esa probabilidad es
despreciable. En ese caso una muestra con
reposición es equivalente a una muestra sin
reposición. Trabajaremos siempre con reposición.
8
Ejemplo Sea una población compuesta por 5
unicornios con las siguientes longitudes de
cuerno 6, 8, 10, 12 y 14. Escribamos todas las
muestras aleatorias con reemplazo posibles de
tamaño 2. En total serán 52 25.
9
  • En el ejemplo la variable aleatoria X de la
    población puede tomar los valores 6, 8, 10, 12
    y 14, cada uno con probabilidad 1/5. Es decir la
    variable aleatoria X tiene una densidad de
    probabilidad discreta uniforme.
  • Una muestra consta de n 2 observaciones de esa
    variable aleatoria X. Podemos interpretarla como
    una variable aleatoria bidimensional
  • (X1, X2), donde X1 y X2 son independientes y
    están idénticamente distribuidas (iid). De hecho,
    cada una de ellas tiene la misma distribución de
    probabilidad que la variable aleatoria X.

10
Estadísticos
  • Cualquier función de las variables aleatorias
    observadas se denomina estadístico
  • Los dos estadísticos mas conocidos son
  • la media muestral y la varianza muestral.
  • La raíz cuadrada de la varianza muestral es la
    desviación estándar muestral.

11
  • Los parámetros poblacionales son fijos, no
    aleatorios.
  • Por ejemplo, la media de la población anterior
    es
  • ? (6 8 10 12 14) / 5 10.
  • Mientras que los estadísticos son variables
    aleatorias (su valor depende de la muestra
    seleccionada los estadísticos calculados para
    distintas muestras darán, en general, resultados
    distintos).
  • Por ejemplo, la media de la muestra (6, 6) es
  • (6 6) / 2 6.
  • Y la media de la muestra (6, 12) es
  • (6 12) / 2 9. Etc...

12
  • Como estos estadísticos son variables aleatorias,
    podemos entonces hablar de sus distribuciones.
  • Si tomamos una muestra de tamaño n y calculamos
    la media de esta muestra obtenemos un valor
    determinado.
  • Si repetimos este mismo experimento un gran
    número de veces obtendremos una gran cantidad de
    valores distintos para .
  • A partir de esta variedad de valores distintos
    obtenidos para la media muestral, podemos obtener
    la distribución de probabilidad de la misma la
    distribución de la media muestral.

13
Calculemos para el ejemplo anterior todas las
medias muestrales posibles de tamaño n2
donde i 1, ..., 25 es ahora el índice de las
posibles muestras.
14
  • La distribución de medias muestrales es

P
5/25
4/25
4/25
3/25
3/25
2/25
2/25
1/25
1/25
6 7 8 9 10
11 12 13 14
15
Como es una variable aleatoria y ya conocemos
su distribución, podemos calcular su esperanza,
la media de medias muestrales
Y observa que coincide con la media poblacional
Ocurre siempre?
16
Dada una muestra de tamaño n, el valor xi
(i1,...,n) será uno de los posibles valores que
puede tomar la variable aleatoria Xi. Cuál es su
valor esperado? Como Xi se distribuye como X
La distribución de la media muestral será
De modo que
Cuando se cumple la igualdad, se dice que el
estimador de ? es insesgado.
17
Calculemos ahora para el ejemplo de los
unicornios todas las varianzas muestrales
posibles
donde i 1, ..., 25 es el índice de las
posibles muestras.
18
  • Hemos obtenido de nuevo una distribución,
  • ahora la distribución de varianzas muestrales

P
8/25
6/25
5/25
4/25
2/25
0 1 2 3 4 5 6 7 8 9 10 11 12
13 14 15 16
19
Como s2 es una variable aleatoria y ya conocemos
su distribución, podemos calcular su esperanza,
la media de las varianzas muestrales
La varianza poblacional es
Observa que ahora
Decimos entonces que el estimador s2 de ?2 es
sesgado.
20
  • Definamos el estimador cuasivarianza o
    seudovarianza muestral
  • Solo se distingue
  • de la varianza muestral
  • en dividir entre (n-1)
  • en vez de n.

21
Tendremos ahora que
De modo que la cuasivarianza muestral es un
estimador insesgado para la varianza poblacional
22
Resumiendo dada una población de tamaño N,
tenemos como parámetros de una variable
aleatoria X de nuestro interés a la media
poblacional y la varianza poblacional.
23
Sea una muestra con reposición de tamaño n de la
población
La media muestral
será un estimador insesgado de la media
poblacional. La varianza muestral
será un estimador sesgado de la varianza
poblacional. Y la cuasivarianza muestral será
un estimador insesgado de la varianza poblacional.
24
Muestreo desde una población normal
  • Sea X una variable aleatoria que se distribuye en
    una población como una normal con media ? y
    varianza ?2, es decir N(?, ?).
  • Tomemos una muestra aleatoria de tamaño n de esta
    población normal.
  • Cuál será la varianza muestral de la
    distribución muestral de ?

25
Primero observemos que
De modo que la varianza de la distribución de la
media muestral será
Y además suponemos independencia entre las
variables Xi
26
  • Si la muestra aleatoria x1, x2, ..., xn se toma a
    partir de una población normal con media ? y
    varianza ?2, la media muestral tendrá
    distribución normal con media ? y varianza ?2/n,
    N(?, ?/?n).
  • Vemos entonces que la distribución de la media
    muestral tiene una dispersión menor alrededor de
    la media poblacional y cuanto más grande es la
    muestra, menor es la varianza.

27
Distribución muestral de la media Veremos
primero el caso de que la distribución subyacente
sea normal, con media y varianza La media de
la distribución muestral de medias es La
varianza de la distribución muestral de medias es
La forma de la distribución muestral de la media
es normal.
Nota La desviación típica de la distribución
muestral suele ser denominada error típico de
tal estadístico (v.g., error típico de la
media, etc.)
Veamos varios ejemplos donde iremos variando el
tamaño n de las muestras.
28
Distribución muestral de la media. Ejemplo 1
Distribución poblacional subyacente (dist.
Normal) Media 100 Varianza 225 Desv. típica
15
La línea (en este y sucesivos ejemplos) es una
curva normal
Distribución muestral de la media Tamaño
muestral 10 Media 100 Varianza 225/10
22.5 Desv.típica
En este y sucesivos gráficos Número de muestras n
29
Distribución muestral de la media. Ejemplo 2
Distribución poblacional subyacente (dist.
Normal) Media 100 Desv. Típica 15
Distribución muestral de la media Tamaño
muestral 20 Media 100 Varianza 225/20
11.3 Desv. típica 3.35
30
Distribución muestral de la media. Ejemplo 3
Distribución poblacional subyacente (dist.
Normal) Media 100 Desv. Típica 15
Distribución muestral de la media Tamaño
muestral 50 Media 100 Varianza 225/50
4.5 Desv. típica 2.12
31
Distribución muestral de la media Veamos ahora
el caso en que la distribución subyacente sea
arbitraria, si bien sabemos que la media es
y la varianza es La media de la distribución
muestral de medias es La varianza de la
distribución muestral de medias es
La forma de la distribución muestral de la media
TAMBIÉN tiende a ser normal. En concreto, la
distribución muestral se acercará más y más a la
distribución normal (media m y varianza s2/n) a
medida que se aumente el tamaño de cada muestra.
32
Veamos aparecer la distribución normal a partir
de una población uniforme
  • Aunque una variable aleatoria no posea
    distribución normal, ciertos estadísticos/estimado
    res calculados sobre muestras elegidas al azar sí
    que poseen una distribución normal.
  • Es decir, tengan las distribución que tengan
    nuestros datos, los objetos que resumen la
    información de una muestra, posiblemente tengan
    distribución normal.
  • Como ilustración mostramos una variable que
    presenta valores distribuidos más o menos
    uniformemente sobre el intervalo 150-190. Como es
    de esperar la media es cercana a 170. El
    histograma no se parece en nada a una
    distribución normal con la misma media y
    desviación típica.

33
  • A continuación elegimos aleatoriamente
    grupos/muestras de 10 observaciones de las
    anteriores y calculamos el promedio.
  • Para cada grupo de 10 obtenemos entonces una
    nueva medición, la media muestral.
  • Observa que las nuevas cantidades están más o
    menos cerca de la media de la variable original
    que era 170.
  • Repitamos el proceso un número elevado de veces y
    pintamos la distribución de la nueva variable
    aleatoria.


173
169
168
34
  • La distribución de las medias muestrales sí que
    tiene distribución aproximadamente normal.
  • La media de esta nueva variable (promedio
    muestral) es muy parecida a la de la variable
    original.
  • Las observaciones de la nueva variable están
    menos dispersas. Además la desviación típica es
    aproximadamente raíz de 10 veces más pequeña.
    Llamamos error estándar a la desviación típica de
    esta nueva variable.

35
Distribuciones para muestras grandes
  • Cuando el tamaño de la muestra es grande,
    independientemente de que la variable aleatoria
    de nuestro interés en la población se distribuya
    o no como una normal, podemos derivar un número
    de propiedades gracias a la LEY DE LOS GRANDES
    NUMEROS y el TEOREMA CENTRAL DEL LIMITE.

36
Distribuciones para muestras grandes teorema
central del límite
  • Dada una v.a. cualquiera, si extraemos muestras
    de tamaño n, y calculamos los promedios
    muestrales, entonces
  • Dichos promedios tienen distribución
    aproximadamente normal
  • La media de los promedios muestrales es la misma
    que la de la variable original.
  • La desviación típica de los promedios disminuye
    en un factor raíz de n (error estándar).
  • Las aproximaciones anteriores se hacen exactas
    cuando n tiende a infinito.
  • Este teorema justifica la importancia de la
    distribución normal.
  • Sea lo que sea lo que midamos, cuando se
    promedie sobre una muestra grande (n gt 30) nos va
    a aparecer de manera natural la distribución
    normal.

37
Teorema central del límite
  • Sea x1, x2, ..., xn una muestra aleatoria de
    observaciones tomadas de la misma distribución y
    sea E(Xi) ? y Var(Xi) ?2.
  • Entonces la distribución muestral de la variable
    aleatoria
  • converge a la normal standard N(0, 1) cuando n
    tiende a infinito.
  • El TCL se cumple aún cuando la distribución desde
    la que se toman las observaciones no sea normal.
    Esto significa que si nosotros nos aseguramos que
    el tamaño de la muestra es grande, entonces
    podemos usar la variable Zn para responder
    preguntas acerca de la población de la cual
    provienen las observaciones.

38
Distribución muestral de la media. Ejemplo 4
Distribución poblacional subyacente (dist.
Gamma) Media 100 Varianza 100
39
Distribución muestral de la media. Ejemplo 4
Distribución poblacional subyacente (dist.
GAMMA) Media 100 Varianza 100
Distribución muestral de la media Tamaño
muestral 10 Media 100 Varianza 100/10
10 Desv. típica
40
Distribución muestral de la media. Ejemplo 5
Distribución poblacional (dist.
EXPONENCIAL) Media 0.1 1/l Varianza 0.01
1/l2
41
Distribución muestral de la media. Ejemplo 5a
Distribución poblacional (dist.
EXPONENCIAL) Media 0.11/l Varianza 0.01
1/l2
Distribución muestral de la media Tamaño
muestral 10 Media 0.1 Varianza 0.01/10
0.001 Desv. típica 0.03
Observad que la dist. muestral se aproxima a la
normal
42
Distribución muestral de la media. Ejemplo 5b
Distribución poblacional (dist.
EXPONENCIAL) Media 0.1 1/l Varianza 0.01
1/l2
Distribución muestral de la media Tamaño
muestral 20 Media 0.1 Varianza 0.01/20
0.0005 Desv. típica 0.022
Observad que la distribución muestral se aproxima
más a la normal (al elevar el tamaño muestral).
43
Algunas distribuciones usadas en inferencia
Distribución Ji-Cuadrado o Chi-cuadrado o c2 de
Pearson con n grados de libertad. Sean X1 , X2
, ... ,Xn n variables aleatorias continuas
independientes tal que Xi N (0,1) con i
1, ..., n (i.i.d.). Definamos la variable
aleatoria
Su densidad de probabilidad será
44
La función gamma es 1. 2.
45
TABLA DE c2
orden percentílico
p
c2n
grados de libertad
valores acumulados de c2n
46
Distribución muestral del estadístico
Cuando las distribución de la que obtenemos la
varianza muestral es normal, el estadístico
anterior se distribuye según la distribución
chi-cuadrado con n -1 grados de libertad. Es
fácil de demostrar
47
Tipificando
48
Otra distribución que aparece en inferencia es
la t-Student, tn Student era el seudónimo de
W.S. Gosset, un pionero estadista que trabajó en
la Cervecería Guiness de Dublín. Sea X v.a.c.
tal que X N (0,1) Y v.a.c. tal que Y ?2n
Con función de densidad de probabilidad
49

50
TABLA DE LA DISTRIBUCION DE t (Student)
orden percentílico
valores acumulados de tp
grados de libertad
tp
51
Distribución muestral de
Cuando la distribución de la que obtenemos las
medias muestrales es normal, el estadístico
anterior, se distribuye según la distribución t
de Student con tn-1 grados de libertad. Cuando
la distribución de la que obtenemos las medias
muestrales no es normal, el estadístico anterior,
se distribuye como una normal tipificada para
valores de n gt 30. Nota comparar con el teorema
central del límite.
52
La distribución F de Fisher o F-Snedecor es otra
distribución que aparece con frecuencia en
inferencia sea X v.a.c. tal que X ?2n Y
v.a.c. tal que Y ?2m independientes
Definamos
53
(m,n)
54
Distribución muestral del estimador
Cuando las distribuciones de la que obtenemos las
varianzas muestrales son normales y extraemos
dos muestras de tamaño n y m respectivamente. El
estadístico anterior se distribuye según la
distribución F de Fisher con n - 1 grados de
libertad en el numerador y m -1 grados de
libertad en el denominador, Fn-1, m-1.
55
Estimación
Sea una característica, un parámetro
poblacional cuyo valor se desea conocer a partir
de una muestra.
Sea un estadístico ( función de la muestra
) que utilizamos para estimar el valor de .
Observa que el estadístico es una función
que depende de la muestra y lo llamaremos
estimador. El valor concreto de es la
estimación. Hay dos tipos básicos de estimación
puntual y por intervalo de confianza.
56
  • Estimación puntual
  • Provee un solo valor, un valor concreto para la
    estimación.
  • Un estimador puntual es simplemente un
    estadístico (media aritmética, varianza, etc.)
    que se emplea para estimar parámetros (media
    poblacional, varianza poblacional, etc.).
  • Por ejemplo, cuando obtenemos una media
    aritmética a partir de una muestra, tal valor
    puede ser empleado como un estimador para el
    valor de la media poblacional.
  • Algunos autores comparan los estimadores con los
    lanzamientos en una diana el círculo central
    sería el valor real del parámetro.

57
  • Por intervalo
  • Determina dos valores (límites de confianza)
    entre los que acepta puede estar el valor del
    estimador.
  • Hablaremos de nivel de confianza 1-a cuando en el
    intervalo se
  • encuentre el valor del estimador con probabilidad
    1-a.
  • Observa que la probabilidad de error (no contener
    al parámetro) es a.
  • En general el tamaño del intervalo disminuye con
    el tamaño muestral y aumenta con 1-a.
  • En todo intervalo de confianza hay una noticia
    buena y otra mala
  • La buena hemos usado una técnica que en alto
    de casos acierta.
  • La mala no sabemos si ha acertado en nuestro
    caso.

58
Métodos de estimación puntual
Hemos visto que un estimador de la media
poblacional es la media muestral y de la
varianza poblacional es la cuasivarianza
muestral. Pero, cómo determinar un estimador
cuando no se trata de la media o la
varianza? Por ejemplo, supongamos una población
con función densidad
Cómo estimar el parámetro ??
Método de los momentos Método de máxima
verosimilitud Método de mínimos cuadrados (Lo
veremos más adelante en el tema de regresión)
59
Método de los momentos
  • Si una distribución tiene k parámetros, el
    procedimiento consiste en calcular los primeros k
    momentos muestrales de la distribución y usarlos
    como estimadores de los correspondientes momentos
    poblacionales.
  • La media poblacional ? es el primer momento de la
    distribución alrededor del origen. La media
    muestral es el promedio aritmético de las
    observaciones muestrales x1, x2, ..., xn. El
    método de los momentos toma a la media muestral
    como una estimación de la media poblacional.
  • De la misma manera, la varianza de una variable
    aleatoria es ?2 y se denomina segundo momento
    alrededor de la media. La cuasivarianza muestral
    s2 se usa como un estimador de la varianza
    poblacional de la distribución.

60
Recordemos que el momento muestral centrado en el
origen de orden r se define como
Para el ejemplo anterior, los momentos de primer
orden centrados en el origen de la población y
la muestra son respectivamente
Igualando
Luego podemos usar como estimador
61
Método de máxima verosimilitud
  • Sea X una variable aleatoria cuya distribución de
    probabilidad depende del parámetro desconocido ?.
  • Sea la función de densidad de probabilidad de la
    población f(x, ?). Se toma una muestra aleatoria
    x1, x2, ..., xn de observaciones independientes y
    se calcula la densidad conjunta de la muestra la
    función de verosimilitud y se expresa como

62
Si de una población cualquiera hemos obtenido una
muestra particular, es razonable pensar que la
muestra obtenida era la que mayor probabilidad
tenía de ser escogida.
Función máxima verosimilitud
Valor del estimador máxima verosimilitud
63
  • Si los valores posibles de ? son discretos, el
    procedimiento es evaluar L(x,?) para cada valor
    posible y elegir el valor de ? para el cual L
    alcanza su máximo.
  • Por otro lado, si L(x,?) es diferenciable se
    puede maximizar L sobre el rango de valores
    posibles de ? obteniéndose condiciones de primer
    y segundo orden.
  • En la práctica es más fácil maximizar el
    logaritmo de la función de verosimilitud. Como la
    función logaritmo es una transformación monótona,
    maximizar L(x,?) es equivalente a maximizar
    Ln(L(x,?)).

64
Ejemplo Sea una urna con bolas rojas y blancas
en proporciones desconocidas. Extraemos 10 bolas
con reemplazo (n 10) y obtenemos 3R y 7B.
Llamemos p a la proporción de R en la urna.
Soluciones p 0 p 1
p 3/10
Que además hace máxima la función L(p)
Imposible porque hemos extraído 7B
Imposible porque hemos extraído 3R
65
Volvamos al ejemplo
Construimos la función máxima verosimilitud
Extraemos logaritmos a ambos lados
Derivamos e igualamos a cero para encontrar el
máximo de la función
Observemos que no coincide con el estimador que
nos propone el método de los momentos.
66
Propiedades deseables en los estimadores
Los dos procedimientos que repasamos hace un
momento (más el método de mínimos cuadrados que
veremos luego) eligen a la media muestral como
estimador del parámetro ?. Sin embargo, otras
veces obtenemos estimadores distintos para el
mismo parámetro, como ocurre con ?2. O como hemos
visto para el caso del parámetro ? del
ejemplo. En esos casos, cuál es el mejor
estimador?
  • Ausencia de sesgo
  • Consistencia
  • Eficiencia
  • Suficiencia

67
1. Estimador insesgado. Diremos que es un
estimador insesgado de si
Vimos que la media muestral es un estimador
insesgado de la media poblacional. Vimos que la
varianza muestral no es un estimador insesgado de
la varianza poblacional, es sesgado. Recuerda
que construimos la cuasivarianza que sí es un
estimador insesgado de la varianza poblacional.
se llama sesgo de
68
Sea una población N(?, ?) y construyamos los
estimadores de varianza varianza muestral y
cuasivarianza muestral.
Vimos que si la población es normal, entonces el
estimador
69
Propiedades en muestras grandes
  • Muchos estimadores no tienen buenas propiedades
    para muestras pequeñas, pero cuando el tamaño
    muestral aumenta, muchas de las propiedades
    deseables pueden cumplirse. En esta situación se
    habla de propiedades asintóticas de los
    estimadores.
  • Como el estimador va a depender del tamaño de la
    muestra, vamos a expresarlo utilizando el símbolo
  • Por ejemplo, el sesgo puede depender del tamaño
    de la muestra. Si el sesgo tiende a cero cuando
    el tamaño de la muestra crece hasta infinito
    decimos que el estimador es asintóticamente
    insesgado.

70
  • Ausencia de sesgo asintótica
  • Definición Un estimador se dice que es
    asintóticamente insesgado si
  • o equivalentemente

71
2. Consistencia. Se dice que un estimador es
consistente si se cumple que
o
Es decir, a medida que se incrementa el tamaño
muestral, el estimador se acerca más y más al
valor del parámetro. La consistencia es una
propiedad asintótica. Tanto la media muestral
como la cuasivarianza son estimadores
consistentes. La varianza muestral es un
estimador consistente de la varianza poblacional,
dado que a medida que el tamaño muestral se
incrementa, el sesgo disminuye.
72
Ejemplo supongamos que la población es no normal
y de media desconocida. Construyamos
estadísticos media muestral
Para cada tamaño muestral n tenemos
Por el teorema de Chebychev
La media muestral es un estimador consistente de
la media poblacional.
73
3. Eficiencia. Utilizar las varianzas de los
estimadores insesgados como una forma de elegir
entre ellos.
La varianza de una variable aleatoria mide la
dispersión alrededor de la media. Menor varianza
para una variable aleatoria significa que, en
promedio, sus valores fluctúan poco alrededor de
la media comparados con los valores de otra
variable aleatoria con la misma media y mayor
varianza. Menor varianza implica mayor precisión
y entonces el estimador que tenga menor varianza
es claramente más deseable porque, en promedio,
está mas cerca del verdadero valor de ?.
Si , decimos que es un estimador
insesgado eficiente o de varianza mínima para ? ,
si cualquier otro estimador insesgado de ? ,
digamos , verifica que
74
  • Sean y dos estimadores insesgados del
    parámetro ?.
  • Si Var ( ) lt Var ( ) decimos que es
    más eficiente que .
  • El cociente Var ( ) / Var ( ) se llama
    eficiencia relativa.
  • Entre todos los estimadores insesgados de ?, el
    que tenga menor varianza es el estimador
    insesgado de mínima varianza. Pero, cómo podemos
    encontrarlo?

75
Cota de Cramér-Rao Sea una población con
densidad de probabilidad f(x, ?), entonces se
cumple que
Si un estimador tiene una varianza que coincide
con la cota de Cramér-Rao se dice que es un
estimador eficiente. Si además en insesgado, se
dice que es un estimador de eficiencia absoluta
o completa.
76
Ejemplo Sea una población que se distribuye
normalmente con desviación típica conocida y
media desconocida. Como estimador utilizaremos
la media muestral. Sabemos que la distribución
del estimador es también una normal con la misma
media y varianza . Luego el
estimador es insesgado b(?) 0. Calculemos la
cota de Cramér-Rao (CCR).
77
  • Eficiencia asintótica
  • Cuando trabajamos con estimadores consistentes el
    rango de valores de ? para el cual un estimador
    es más eficiente que otro disminuye a medida que
    n crece. En el límite cuando n tiene a infinito
    la distribución de todos los estimadores
    consistentes colapsa en el verdadero parámetro ?.
    Entonces deberíamos preferir aquel estimador que
    se aproxime más rápidamente (es decir, aquel cuya
    varianza converge más rápido a cero)

78
  • En términos intuitivos, un estimador consistente
    es asintóticamente eficiente si para muestras
    grandes su varianza es menor que la de cualquier
    otro estimador consistente.
  • Definición un estimador consistente se dice
    que es asintóticamente eficiente si para
    cualquier otro estimador el

79
4. Suficiencia. Diremos que es un estimador
suficiente del parámetro si dicho estimador
basta por sí solo para estimar . Si el
conocimiento pormenorizado de los elementos la
muestra no añade ninguna información sobre ?.
Ejemplo Supongamos una población binomial de la
que desconocemos la proporción ? p. Extraemos
una muestra de tamaño n 50.
Estimador suficiente, p aprox. 35/50.
80
  • Error cuadrático medio (ECM)
  • Consideremos dos estimadores, uno insesgado y el
    otro es sesgado pero con una varianza bastante
    menor, de modo que en promedio puede estar más
    cerca de la verdadera media que el estimador
    insesgado.
  • En esta situación podríamos admitir algo de sesgo
    con la intención de obtener una mayor precisión
    en la estimación (menor varianza del estimador).
  • Una medida que refleja este compromiso (trade
    off) entre ausencia de sesgo y varianza es el
    ECM.

81
  • El error cuadrático medio de un estimador se
    define como ECM ( ) E( - ? )2 . Esto es
    la esperanza de la desviación al cuadrado del
    estimador con respecto al parámetro de interés.
  • Si , son dos estimadores alternativos
    de ? y ECM ( ) lt ECM ( ) entonces se
    dice que es eficiente en el sentido del ECM
    comparado con . Si los dos son insesgados,
    entonces es más eficiente.
  • Entre todos los posibles estimadores de ?, aquel
    que tenga el menor ECM es el llamado estimador de
    mínimo error cuadrático medio.
  • ECM Var( ) sesgo2.
  • es decir que el ECM es igual a la suma de la
    varianza más el sesgo al cuadrado.

82
Constante
Variable aleatoria
Compromiso entre varianza y sesgo de los
estimadores.
sesgo ?2
83
Ejemplos Supongamos una población de la que
conocemos la media y la varianza ( 100).
Tomemos muestras n 10. Consideremos los dos
estimadores de la media siguientes
Dependiendo de la media de la población nos
interesará tomar un estimador u otro.
84
Propiedades de los estimadores de máxima
verosimilitud
  • Los estimadores máximo verosímiles son
  • Asintóticamente insesgados
  • Asintóticamente normales
  • Asintóticamente eficientes
  • Invariantes bajo transformaciones biunívocas
  • Si ? estimador suficiente, es suficiente

85
Estimación por intervalos de confianza.
En este caso, en lugar de indicar simplemente un
único valor como estimación del parámetro
poblacional ?, lo que haremos es ofrecer un
intervalo de valores en el que se tiene cierta
probabilidad (confianza) de que se encuentre el
verdadero valor de ?. Intervalo de confianza Es
el intervalo de las estimaciones (probables)
sobre el parámetro. Límites de los intervalos de
confianza Son los dos valores extremos del
intervalo de confianza. Amplitud del intervalo o
margen de error...
86
Ahora bien, cuán grande debe de ser el intervalo
de confianza? Evidentemente, si decimos que el
intervalo de confianza va de menos infinito a más
infinito, seguro que acertamos...Pero eso no es
muy útil. El caso extremo contrario es la
estimación puntual, donde la amplitud del
intervalo es nula.
La idea es crear unos intervalos de confianza de
manera que sepamos en qué porcentaje de casos el
valor del parámetro poblacional estará dentro del
intervalo crítico.
Es decir, dar una medida de bondad de la
estimación, la probabilidad de que el valor real
? se encuentre dentro del intervalo.
Coeficiente o grado de confianza
Nivel de significación (N. S.)
87
Y cómo fijamos tal probabilidad? Usualmente se
asume un porcentaje del 95. Al calcular un
intervalo de confianza al 95, ello quiere decir
que el 95 de las veces que repitamos el proceso
de muestreo (y calculemos el estadístico), el
valor del parámetro poblacional estará dentro de
tal intervalo. A ese usual nivel de significación
se le denomina confianza casi significativa.
Otros casos usuales son confianza
significativa 99. confianza muy significativa
99.5
88
Intervalos de confianza para la media
Supongamos que la población sigue una
distribución normal, con cierta media ? y
cierta desviación típica ?. Utilizaremos como
estimador puntual para la media poblacional la
media muestral . Sabemos que (1). La media
de la distribución muestral de medias es la media
poblacional ?. (2). La varianza de la
distribución muestral de medias es ?2/n. O lo que
es lo mismo, la desviación típica de la
distribución muestral de medias es ? /?n.
Veremos dos casos para calcular intervalos de
confianza (1) Conocemos la desviación típica ?
y (2) no la conocemos.
89
(1) La población es normal y conocemos ?
Sabemos cómo se distribuye la variable aleatoria
muestral y a partir de esa distribución podemos
determinar el intervalo de confianza.
Tipificamos la variable
Supongamos que deseamos tener un nivel de
significación ?.
90
?/2
?/2
1-?
z?/2
-z?/2
0
91
Así, una estimación puntual de la media
poblacional ? se obtendría de una muestra de n
elementos haciendo la media muestral. Mientras
que un intervalo de confianza con nivel de
significación ? sería
Nota Observa que podemos determinar el tamaño
necesario de una muestra para obtener una
amplitud del intervalo de confianza determinada.
Semiamplitud del intervalo
92
? ? 0.05
Ejemplo
n 100
Confianza 0.95
Buscamos en las tablas N(0,1) los valores de z
que dejan 0.05 / 2 0.025 de probabilidad por
abajo y 0.05 / 2 0.025 de probabilidad por
arriba
?
93
Observemos cómo a medida que el tamaño muestral
aumenta, la amplitud del intervalo disminuye.
(Evidentemente, esto es general, no sólo para la
media.) Veamos, un ejemplo. Supongamos que
deseamos 1 - ? 0.95 Caso 1. Media muestral
10, varianza poblacional 4, tamaño muestral
12. Caso 2. Media muestral 10, varianza
poblacional 4, tamaño muestral 20.
94
Supongamos ahora que deseamos que 1 - ? 0.99.
En tal caso, tendremos más seguridad de que el
parámetro de interés se halle en los límites del
intervalo. El problema es que incrementar la
confianza aumenta la amplitud del intervalo. Caso
1. Media muestral 10, varianza poblacional 4,
tamaño muestral 12. Intervalo al 95 Caso 2.
Media muestral 10, varianza poblacional 4,
tamaño muestral 12. Intervalo al 99
95
(2) Población normal y desconocemos ?
Por el tema anterior sabemos que la distribución
muestral del estadístico
no es una distribución normal, sino una
distribución t de Student con n -1 grados de
libertad.
96
En definitiva, para la media (cuando conocemos la
varianza poblacional), tenemos
Pero si no conocemos la varianza poblacional (el
caso realista), tenemos como intervalo
97
Distribución de la población desconocida y n gt 30
Si n es grande (n gt 30), la distribución del
estadístico será prácticamente una distribución
normal N(0,1). Y el intervalo de confianza será
Nota Observa, en particular, que para n gt 30 la
distribución t de Student es prácticamente una
normal.
98
Intervalo de confianza para las varianzas
Intervalo de confianza
99

? 0.05
Ejemplo
n 31
?
n -1 30
?
Si se desea estimar s ?s2 ? 3.20 ? s ? 5.35
100
Resumen Procedimiento para determinar el
intervalo de confianza
1. Fijar el nivel de significación ? a

2. Conociendo la distribución en el
muestreo de y poseyendo una estimación
puntual, hallar los percentiles x a/2 y x 1-
a/2 de
LCi
LCs
Si es simétrica el intervalo de
confianza es simétrico en x y en probabilidad.
Si es asimétrica el intervalo de
confianza es simétrico en probabilidad solamente.
101
(No Transcript)
102
(No Transcript)
103
(No Transcript)
104
(No Transcript)
105
Mirar en capítulo 13
Intervalo de confianza para diferencia de medias
Intervalo de confianza para ?12/?22. Intervalo
de confianza para la proporción poblacional.
106
(No Transcript)
107
(No Transcript)
108
(No Transcript)
109
(No Transcript)
110
(No Transcript)
111
(No Transcript)
Write a Comment
User Comments (0)
About PowerShow.com