Inferencia de los parámetros del modelo.
3.5.1 Intervalos de confianza de los parámetros.
Se consideran dos situaciones:
Se acepta H0.
Si se acepta la no influencia del factor los datos provienen de una única muestra homogénea y los parámetros
y
2 se estiman según las técnicas clásicas.
|
|
Si se supone que el factor influye, entonces los parámetros del modelo son:
Para
Para la varianza
Si se rechaza la hipótesis nula es porque existen medias de tratamientos diferentes y es importante calcular un intervalo de confianza para el parámetro
=
i -
j, con i
j, i,j = 1,...,I. Este intervalo se deduce fácilmente del siguiente estadístico pivote
|
que proporciona el siguiente intervalo de confianza a un nivel 1 - 
3.5.2 Concepto de contraste.
Lo expuesto en el apartado anterior puede generalizarse. Para ello se introduce el siguiente concepto:
“ Se denomina contraste,
|
En un diseño completamente aleatorizado todo contraste es estimable y su estimador mínimo-cuadrático es
Por la normalidad e independencia de las observaciones, se obtiene la distribución de 
|
En muchos casos es útil representar un contraste por la lista de sus coeficientes. Esto es, el contraste
se puede representar por cualquiera de las dos formas equivalentes siguientes:
Contrastes importantes sobre los que es interesante hacer inferencia son los siguientes:
- • Comparar tratamientos a pares (“pairwise”).
- Son contrastes del tipo:
=
i -
j, donde el vector de coeficientes es un 1 en el i-ésimo lugar, un -1 en el j-ésimo lugar y un 0 en el resto.
Por ejemplo,= [0,0,1,0,...,0,-1,0] sería el contraste
3 -
I-1. Existen m = (I 2) contrastes de comparaciones por pares
- Es decir, estimar contrastes del tipo:
=
i -
j, donde el vector de coeficientes es 1 en el i-éximo lugar, un -1 en el j-ésimo lugar y un 0 en el resto.
- Por ejemplo,
=[0,0,1,0,...,0,-1,0] sería el contraste
3 -
I-1. Existen m =
contrastes de comparaciones por pares.
• Tratamientos frente a control.
Un subconjunto de contrastes del grupo anterior muy particular es el formado por los I - 1 contrastes1 -
I ([1,0,...,0,-1]),
2 -
I ([0,1,...,0,-1]), ... ,
I-1 -
I([0,0,...,1,-1]). El objetivo es comparar el efecto de cada uno de los tratamientos con un tratamiento concreto, que se suele denominar control.
• Diferencias de medias de grupos.
Si los niveles de los factores tratamiento se dividen de un modo natural en dos o más grupos, puede ser interesante comparar el efecto medio de un grupo con los efectos medios de otros grupos.Por ejemplo, supóngase que se desea comparar el efecto del color del papel de examen en los resultados finales de éste. Se ha probado con dos tonos claros: blanco y amarillo (niveles 1 y 2 del factor) y con tres tonos más fuertes: azul, verde y rosa (niveles 3, 4 y 5). El siguiente contraste:permite observar diferencias entre la influencia del papel claro (grupo 1) con respecto a la del papel oscuro (grupo 2).
- • Tendencias
- Cuando los niveles del factor tratamiento son cuantitativos y tienen un orden natural, el experimentador podría estar interesado en saber si la respuesta crece o decrece con un incremento del nivel o, más aún, si esa tendencia se mantiene o no constante. Se habla entonces de contrastes de tendencia.
Por ejemplo, supóngase que hay I = 5 niveles de un factor son equiespaciados y con igual tamaño muestral en cada grupo. Suponiendo α = α1 = α2 = α3= α4 = α5 el siguiente contraste indica una tendencia lineal en los niveles En el mismo contexto, una tendencia cuadrática viene dada por el contraste En general, si=
i = 1Ibi
i es el estimador mínimo cuadrático de un contraste individual
=
i = 1Ibi
i, con
i = 1Ibi = 0. Entonces, de (3.2 6) se deduce que un intervalo de confianza para
, al nivel 1 -
, viene dado por:
(3.27) donde g.l. representa los grados de libertad con que se ha estimado la varianza del error.En el modelo del diseño completamente aleatorizado al estimar2 por la varianza residual,
R2, con n - I grados de libertad, se obtiene
(3.28) Análogamente, utilizando la distribución del contraste=
i = 1Ibi
i, dada en (3 .26), se pueden realizar test de hipótesis del tipo
(3.29)
3.5.3 Contrastes múltiples.
Si el test de la F de la tabla ANOVA indica rechazo de la hipótesis nula de igualdad de las medias de los niveles, es importante establecer la hipótesis alternativa adecuada y, para ello, son de gran utilidad los contrastes múltiples. En ocasiones se quiere realizar un número muy grande de comparaciones, de modo que la probabilidad de que alguna comparación individual resulte significativa puede ser erróneamente muy grande.
Si se quieren resolver todas las pruebas de hipótesis siguientes:
Existen m =
=
pruebas (por ejemplo, si I = 6 entonces m = 15). Al resolverlas una a una, con nivel
, se denomina Aij al suceso: 
Entonces:
Sea el suceso: A = rechazar erróneamente alguna H0ij =
ijmAij.
¿Cuál es la probabilidad de A?
Suponiendo que los Aij fuesen independientes (obviamente no lo son):
Si
= 0'05 y m = 15, entonces P(A) = 1 - 0'9515 = 1 - 0'46 = 0'54.
Por tanto, la probabilidad de concluir erróneamente que algún par de tratamientos son significativamente distintos es mayor que 0'54.
Hay distintos métodos para abordar el problema de la resolución de pruebas de hipótesis simultáneas (es decir, garantizando para todos ellas un nivel de significación predeterminado). Unos han sido desarrollados con carácter general y otros orientados a problemas concretos como puede ser la comparación de distintos tratamientos con un tratamiento control.
A continuación se exponen dos métodos de resolución de contrastes múltiples.
Método de Bonferroni.
Se basa en calcular un nivel de significación,
*, para cada una de las m pruebas de hipótesis que garantice un nivel de significación concreto
para todas las pruebas de hipótesis simultáneas (
es por tanto el nivel de significación global).
Supóngase que se tienen I niveles y m pruebas de hipótesis individuales. Sean los sucesos:
Ak : “aceptar la hipótesis nula del contraste k-ésimo cuando ésta es cierta”.
A : “rechazar erróneamente la hipótesis nula de uno o más contrastes”.
¿Qué
* habrá que utilizar en cada prueba de hipótesis individual para garantizar que P(A) no es mayor que
?
|
Por tanto, para el modelo matemático de un diseño completamente aleatorizado, el método de Bonferroni consiste en resolver cada prueba de hipótesis individual conforme al siguiente criterio:
Dado un conjunto de m contrastes
|
Ventajas y desventajas de este procedimiento son las siguientes:
• Si m es muy grande,
será tan pequeño que tn-I
no viene en las tablas. Se puede aproximar por:
donde z
es el valor de una normal estandar tal que P
=
.
• Es método es excesivamente conservador y sólo resulta más potente que otros procedimientos cuando m es muy pequeño.
• Es válido para cualquier tipo de diseño.
Método de Scheffé.
El método de Bonferroni presenta serios inconvenientes, en particular, si m es muy grande la mínima diferencia significativa al nivel global
para cada prueba es excesivamente grande.
Por el contrario, el método de Scheffé proporciona una mínima diferencia significativa que no depende del número de pruebas m a realizar.
El valor crítico de Scheffé es
de modo que, para cualquier contraste individual
|
Sobre el método de Scheffé conviene saber que
• Sólo depende de I y de n, pero no de m.
• Es especialmente adecuado cuando se precisen comparar otros contrastes además de las comparaciones a pares.
• Si m es muy grande, resulta más potente (y por ello más recomendable) que el método de Bonferroni.
• Es válido para cualquier tipo de diseño.
• El F-test del ANOVA resulta significativo al nivel
si al menos una de las infinitas pruebas de hipótesis simultáneas de Scheffé lo es.
Otros métodos de contrastes múltiples son los siguientes:
— Método de Tukey para todas las comparaciones a pares.
— Método de Dunnett para comparaciones entre tratamientos y control.
— LSD (Least Significative Difference) de Fisher.
— Test de rango múltiple de Duncan.
— Test de Newman y Keuls.
— Test de Hsu (es muy útil para comparar cada tratamiento con el mejor).
No hay comentarios:
Publicar un comentario