ESTIMADOR PUNTUAL
Un estimador puntual de un parámetro θ es una predicción de θ que puede considerarse representativo. El estimador es una función de la muestra.
Ejemplos:
- Seleccionamos aleatoriamente una muestra de 500 personas de una ciudad y las medimos. Queremos predecir cual es la media de la altura de la población de la ciudad sabiendo que la altura sigue una distribución normal.
- Ver si una moneda está equilibrada y la lanzamos al aire 100 veces. Queremos estimar que la probabilidad de que salga cara es 0,5, sabiendo que sigue una distribución Bernouilli de parámetro p (Be(p)).
MÉTODO DE MOMENTOS
Tenemos una variable aleatoria X. Tenemos dos casos: que la variable siga una distribución puntual (pX(x)) o que siga una distribución continua (fX(x)).
Definimos los momentos de orden k como:
Y definimos los momentos muestrales de orden k como:
El método de los momentos consiste en igualar los momentos poblacionales con los momentos muestrales, para hacer un sistema de k ecuaciones con k incógnitas, siendo k el número de parámetros que se quiere estimar.
MÉTODO DE MÁXIMA VEROSIMILITUD
Sea (X1,…,Xn) una muestra aleatoria con una función de distribución f(x|θ).
Definimos la función de verosimilitud como:
El estimador de θ en el método de máxima verosimilitud es el valor que maximiza la función de verosimilitud. Este valor se llama estimador de máxima verosimilitud (EMV(θ)).
Normalmente calcularemos el máximo del logaritmo de la función de verosimilitud puesto que los máximos coinciden y este resultará más fácil. Sea:
Por lo que el estimador de máxima verosimilitud viene definido como:
INTERVALOS DE CONFIANZA
La inferencia puntual depende directamente de la muestra escogida. Podría variar en el caso de que escogiésemos otra muestra, dando la sensación de que la estimación no es correcta.
Por lo tanto, es preferible perder precisión en la estimación pero ganar en confianza de predicción del estimador. Es preferible dar un intervalo de valores en el que tengamos confianza en que el valor del parámetro está dentro.
Tengamos X=(X1,…,Xn) una muestra aleatoria, sea θ un parámetro desconocido y 0<α<1 .="" entonces="" s="" style="border: 0px; font-family: inherit; font-size: 11.25px; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; line-height: inherit; margin: 0px; padding: 0px;" sup="">(1)1>
En otras palabras, en el 1-α% de veces que hiciesemos el intervalos de confianza, éste contendría el verdadero valor. Por lo general se trabaja en intervalos de confianza del 95% o incluso del 99%.
ANUNCIOS
Método del pivote
El método del pivote para estimar intervalos de confianza es uno de los principales. Consiste en identificar una función pivote p(T,θ) la distribución de la cual es independiente de θ y conocida. El pivote es función de θ y de una estimación puntual del parámetro.
Después elegimos un nivel de confianza 1-α y buscamos el intervalo de confianza [a,b] tal que a y be cumplen que:
Tendremos que manipular y resolver esta desigualdad para encontrar los valores a y b.
Podemos ver los intervalos de confianza calculados mediante el método de los momentos en varios ejemplos de intervalo de confianza.
Ejemplos
Distribución normal con varianza conocida – Intervalo para la media μ
Tenemos una muestra aleatoria X=(X1,…,Xn) de una normal N(μ,σ2) con la varianza σ2 desconocida y queremos estimar el valor de la media μ.
La media es un estimador razonable. Tipificando su distribución obtenemos el pivote:
Entonces el intervalo de confianza 1-α es:
Distribución normal con media y varianza desconocida – Intervalo para la media μ
Tenemos una muestra aleatoria X=(X1,…,Xn) de una normal N(μ,σ2) con la media μ y la varianza σ2 desconocida. Vamos a buscar el intervalo de confianza de la media μ.
Aplicando fórmulas estadística obtenemos el pivote:
Por simetria de la t-student y aislando μ obtenemos el intervalo de confianza:
Distribución normal con media y varianza desconocida – Intervalo para la varianza σ2
Supongamos una distribución normal N(μ,σ2) y una muestra aleatoria de la variable X=(X1,…,Xn) con la media μ y la varianza σ2 desconocida. Vamos a buscar el intervalo de confianza de la varianza σ2.
El pivote es:
Aplicando normas de la χ2 y aislando obtenemos:
Distribución uniforme (Un(0,θ)) – Intervalo para θ
Sea X=(X1,…,Xn) una muestra aleatoria de una uniforme (Un(0,θ)). Obtengamos un intervalo de confianza para θ.
X(n) es el máximo de los elementos de la muestra. Sabiendo que X(n) es el estimador de máxima verosimilitud tenemos el pivote:
Operando obtenemos el intervalo de confianza:
No hay comentarios:
Publicar un comentario