martes, 4 de abril de 2017

Estadística inferencial

ESTIMADOR PUNTUAL


Un estimador puntual de un parámetro θ es una predicción de θ que puede considerarse representativo. El estimador es una función de la muestra.
Ejemplos:
  1. Seleccionamos aleatoriamente una muestra de 500 personas de una ciudad y las medimos. Queremos predecir cual es la media de la altura de la población de la ciudad sabiendo que la altura sigue una distribución normal.
  2. Ver si una moneda está equilibrada y la lanzamos al aire 100 veces. Queremos estimar que la probabilidad de que salga cara es 0,5, sabiendo que sigue una distribución Bernouilli de parámetro p (Be(p)).



MÉTODO DE MOMENTOS




Tenemos una variable aleatoria X. Tenemos dos casos: que la variable siga una distribución puntual (pX(x)) o que siga una distribución continua (fX(x)).
Definimos los momentos de orden k como:

Fórmula de los momentos de orden k
Y definimos los momentos muestrales de orden k como:

Fórmula de los momentos muestrales de orden k
El método de los momentos consiste en igualar los momentos poblacionales con los momentos muestrales, para hacer un sistema de k ecuaciones con k incógnitas, siendo k el número de parámetros que se quiere estimar.




MÉTODO DE MÁXIMA VEROSIMILITUD


Sea (X1,…,Xn) una muestra aleatoria con una función de distribución f(x|θ).
Definimos la función de verosimilitud como:

Fórmula de la función de verosimilitud
El estimador de θ en el método de máxima verosimilitud es el valor que maximiza la función de verosimilitud. Este valor se llama estimador de máxima verosimilitud (EMV(θ)).
Normalmente calcularemos el máximo del logaritmo de la función de verosimilitud puesto que los máximos coinciden y este resultará más fácil. Sea:

Fórmula del logaritmo de la función de verosimilitud
Por lo que el estimador de máxima verosimilitud viene definido como:

Fórmula del estadístico de máxima verosimilitud







INTERVALOS DE CONFIANZA



La inferencia puntual depende directamente de la muestra escogida. Podría variar en el caso de que escogiésemos otra muestra, dando la sensación de que la estimación no es correcta.
Por lo tanto, es preferible perder precisión en la estimación pero ganar en confianza de predicción del estimador. Es preferible dar un intervalo de valores en el que tengamos confianza en que el valor del parámetro está dentro.
Tengamos X=(X1,…,Xn) una muestra aleatoria, sea θ un parámetro desconocido y 0<α<1 .="" entonces="" s="" style="border: 0px; font-family: inherit; font-size: 11.25px; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; line-height: inherit; margin: 0px; padding: 0px;" sup="">(1)
 (X),θ(n)(X)) es un intervalo de confianza con nivel de confianza 100(1-α)% si

Fórmula de la condición de intervalo de confianza
En otras palabras, en el 1-α% de veces que hiciesemos el intervalos de confianza, éste contendría el verdadero valor. Por lo general se trabaja en intervalos de confianza del 95% o incluso del 99%.
ANUNCIOS

Método del pivote

El método del pivote para estimar intervalos de confianza es uno de los principales. Consiste en identificar una función pivote p(T,θ) la distribución de la cual es independiente de θ y conocida. El pivote es función de θ y de una estimación puntual del parámetro.
Después elegimos un nivel de confianza 1-α y buscamos el intervalo de confianza [a,b] tal que a y be cumplen que:

Fórmula de la definición del pivote
Tendremos que manipular y resolver esta desigualdad para encontrar los valores a y b.
Podemos ver los intervalos de confianza calculados mediante el método de los momentos en varios ejemplos de intervalo de confianza.

Ejemplos

Distribución normal con varianza conocida – Intervalo para la media μ

Tenemos una muestra aleatoria X=(X1,…,Xn) de una normal N(μ,σ2) con la varianza σ2 desconocida y queremos estimar el valor de la media μ.
La media es un estimador razonable. Tipificando su distribución obtenemos el pivote:

Fórmula del pivote para μ siendo la varianza conocida
Entonces el intervalo de confianza 1-α es:

Fórmula del pivote para la media μ siendo la varianza conocida

Distribución normal con media y varianza desconocida – Intervalo para la media μ

Tenemos una muestra aleatoria X=(X1,…,Xn) de una normal N(μ,σ2) con la media μ y la varianza σ2 desconocida. Vamos a buscar el intervalo de confianza de la media μ.
Aplicando fórmulas estadística obtenemos el pivote:

Fórmula del pivote para la media μ siendo la media y la varianza desconocidas
Por simetria de la t-student y aislando μ obtenemos el intervalo de confianza:

Fórmula del intervalos de confianza para la media μ siendo la media y la varianza desconocidas

Distribución normal con media y varianza desconocida – Intervalo para la varianza σ2

Supongamos una distribución normal N(μ,σ2) y una muestra aleatoria de la variable X=(X1,…,Xn) con la media μ y la varianza σ2 desconocida. Vamos a buscar el intervalo de confianza de la varianza σ2.
El pivote es:

Fórmula del pivote para la varianza siendo la media y la varianza desconocidas
Aplicando normas de la χ2 y aislando obtenemos:

Fórmula del intervalo de confianza para la varianza siendo la media y la varianza desconocidas

Distribución uniforme (Un(0,θ)) – Intervalo para θ

Sea X=(X1,…,Xn) una muestra aleatoria de una uniforme (Un(0,θ)). Obtengamos un intervalo de confianza para θ.
X(n) es el máximo de los elementos de la muestra. Sabiendo que X(n) es el estimador de máxima verosimilitud tenemos el pivote:

Fórmula del pivote para θ en una uniforme (Un(0,θ))
Operando obtenemos el intervalo de confianza:

Fórmula del intervalo de confianza para θ en una uniforme (Un(0,θ))
 

No hay comentarios:

Publicar un comentario