sábado, 6 de junio de 2015

Estadística

Análisis de la regresión

En el análisis estadístico de los estudios observacionales, el pareamiento por puntaje de propensión o Propensity score matching(PSM) en inglés, es una técnica estadística de coincidencia que intenta estimar el efecto de un tratamiento,1 una política,2 u otra intervención por cuenta de las covariables que predicen que recibe el tratamiento. PSM intenta reducir el sesgo debido a la confusión de las variables que se pueden encontrar en una estimación del efecto del tratamiento obtenido de la simple comparación de los resultados entre unidades que recibieron el tratamiento frente a los que no lo hicieron. La técnica fue publicada por primera vez por Paul Rosenbaum y Donald Rubin en 1983,3 y aplica el modelo causal de Rubin para los estudios observacionales.- .............................:http://es.wikipedia.org/w/index.php?title=Especial:Libro&bookcmd=download&collection_id=077b06bc92269950094eb0c0ecee92c20cdc0911&writer=rdf2latex&return_to=Pareamiento+por+puntaje+de+propensi%C3%B3n

 El Análisis de propensiones, más conocido por su nombre en inglés: Propensity analysis o, también, como Propensity score analysis, es una importante técnica estadística con una importancia creciente, especialmente en Medicina.
2. Cuando se comparan tratamientos distintos en estudios controlados, en estudios randomizados, donde se aleatoriza a los participantes en el estudio, la llamada Ley de los grandes números va generando grupos que, si el tamaño de muestra es grande, son grupos claramente homogéneos.
3. Como hemos comentado en el artículo La Estadística descriptiva en Medicina, en la sección de Complemento de este Curso de Estadística, una de los principales usos de la Estadística descriptiva en Medicina es comparar los grupos que van a recibir un tratamiento distinto, en el punto de partida, en la línea de partida, en el “baseline”. Observemos, por ejemplo, en la tabla siguiente, uno de los ejemplos que allí hemos comentado:
IMG_5174
4. Se trata de un estudio aleatorizado donde se comparan tres grupos: uno de pacientes siguiendo una dieta mediterránea con el añadido de Aceite virgen de oliva (EVOO), otro siguiendo una dieta mediterránea con el añadido de nueces y, finalmente, otro, siguiendo una dieta control. Observemos que los valores descriptivos de las variables que se evalúan, en cada uno de estos grupos, son muy similares. Esto es muy importante para poder evaluar los resultados que se obtengan, finalmente, en el estudio. Para que las diferencias en las variables resultado (Outcome events), se puedan atribuir a estas distintas dietas estudiadas y no a otros factores ocultos.
5. Otros ejemplos de estos estudios controlados aleatorizados: Pacientes que cumplen unas determinadas condiciones son elegidos para una cirugía u otra, o para un tratamiento farmacológico u otro, según un sistema aleatorio. El objetivo es partir de grupos homogéneos. Después de un tiempo del tratamiento asignado a cada uno de los grupos se analiza, siempre, un repertorio de variables resultado (Outcome events), ahora sí buscando diferencias, y tratándolas de atribuir a las distintas condiciones experimentales estudiadas.
6. Asignando al azar a pacientes si el tamaño de muestra es grande acabamos siempre teniendo grupos muy equilibrados. Este es el objetivo fundamental cuando se comparan grupos: que las únicas diferencias sean las del factor que se quiere comparar y que los otros factores que puedan influir estén en igualdad de condiciones. Y en los estudios aleatorizados, gracias a la propia forma de proceder, se consiguen grupos homogéneos sin dificultad.
7. En los estudios clínicos no aleatorizados y, especialmente, en los estudios observacionales, sin embargo, donde la elección de los grupos no viene dado por un proceso aleatorio sino que se hace en función de criterios fuera de control, casi siempre se acaba trabajando con grupos que no son homogéneos respecto a un buen número de variables. Y, entonces, nos encontramos ante el problema de delimitar hasta qué punto lo que vemos en las variables resultado (Outcome events) es efecto de las condiciones distintas estudias o de estas diferencias entre esas variables incontroladas.
8. Ejemplos de estudios observacionales: tenemos dos grupos de pacientes, los que han estado durante un tiempo sometidos a un cierto riesgo (por ejemplo, fumar más de cierta cantidad de tabaco, vivir más de cierto tiempo a menos de 20 Km de una central nuclear, estar embarazada y haber tomado cierto fármaco) y los que no lo han estado de sometidos a este riesgo. En uno y otro grupo podemos entonces analizar un repertorio de variables resultado (Outcome events).
9. En estos estudios observacionales la propia forma de generar los grupos lleva a que muy posiblemente tengamos variables importantes con diferencias considerables, diferencias que podrían ser la causa de las diferencias que vemos, entre los grupos, a nivel de variables resultado.
10. En los estudios observacionales esta no homogeneidad de los grupos comparados permite, pues, dudar de hasta qué punto las diferencias que se aprecian en las variables resultados que se estudian son debidas al tratamiento distintos, a las condiciones distintas comparadas, o lo son debido a que estamos trabajando con grupos con características diferentes para una serie de variables que no hemos controlado y que están latentes allá detrás.
11. Por ejemplo, y ahora voy a caricaturizar la situación, no tendría sentido comparar un fármaco respecto a un placebo donde el fármaco se aplicara a hombres y el placebo a mujeres. O donde el fármaco se aplicara a mayores de 50 años y el placebo a menores de 50 años. Si viéramos diferencias no sabríamos qué proporción de diferencias atribuirlas al fármaco y cuáles a las diferencias evidentes entre los grupos comparados.
12. Las diferencias entre los grupos, en la realidad de estos estudios no randomizados o en estudios observacionales, no son tan grandes como las apuntadas en el ejemplo anterior, pueden ser sutiles, pero puede producirse en varias variables, y puede ocurrir perfectamente que estas diferencias estén detrás justificando unas diferencias que vemos en las variables resultado. Y, muchas veces, el observador, que ignora esas no homogeneidades entre grupos, atribuye las diferencias que ve al factor de riesgo estudiado cuando tal vez esa no sea esa la principal causa de lo que está viendo.
13. El Propensity score trata de evitar este problema aportándonos herramientas para igualar los grupos para un repertorio de variables que queramos contemplar.
14. Una intuitiva introducción: Supongamos que vamos a comparar dos grupos de individuos tratados de forma diferente y que respecto a dos variables X1 y X2 estos dos grupos tengan los valores siguientes:
IMG_5187
15. Un grupo está señalado de color rojo y el otro de color azul. Las muestras son pequeñas pero ahora esto no es lo importante. Lo trascendental es entender el concepto. Un grupo, el rojo, es más grande que el otro, el azul. Ya sucede esto con frecuencia en los estudios observacionales. El grupo control, el grupo no sometido a un riesgo a estudiar, suele ser mucho más grande que el grupo sometido a un determinado tipo de riesgo.
16. Observemos que estos dos grupos no son homogéneos para estas dos variables s X1 y X2. Si comparamos ciertas variables resultado en estos dos grupos podemos dudar si las diferencias son atribuibles al efecto de un posible factor de riesgo o debido a que, intrínsecamente, son dos grupos diferentes, dos grupos no comparables.
17. Supongamos que hacemos la siguiente operación. Nos quedamos con los tres valores azules pero de rojos no los cogemos todos sino que cogemos únicamente los más cercanos a la esfera de los azules. En definitiva, que acabamos trabajando únicamente con los situados dentro del círculo dibujado en la siguiente figura:
IMG_5188
18. Si ahora trabajamos únicamente con los tres rojos y los tres azules remarcados las diferencias que veamos en las variables resultado no podremos pensar que son debidas a que estamos trabajando con dos grupos que respecto a las variables X1 y X2 son muy diferentes. Ahora estamos realmente comparando dos grupos que, respecto a estas dos variables, son homogéneos. Esta es, en definitiva, la idea del Análisis de propensiones: detectar estas situaciones mediante unos mecanismos estadísticos y aportar unas posibles soluciones que nos permitan reconducir comparaciones entre grupos heterogéneos a comparaciones entre grupos homogéneos. En términos populares: Se trata no de comparar manzanas con naranjas, sino manzanas con manzanas.
19. El índice de propensión, el Propensity score, se formula, habitualmente, en forma de probabilidad condicionada (Ver en el apartado de Complementos el artículo Probabilidad y Probabilidad condicionada). Es una forma de expresar, con conceptos matemáticos, probabilísticos, si el reparto entre grupos se ha hecho homogéneamente o no respecto a una serie de variables que podrían confundirnos a la hora de interpretar los resultados finales. Porque es posible que, de no ser así, parte de lo que le estuviéramos atribuyendo al factor estudiado lo deberíamos atribuir, en realidad, a estas diferencias entre las variables confusoras.
20. Con el Propensity score se trata de evaluar y contrastar dos probabilidades. Por un lado:
P(Ser sometido a una determinada condición/Ciertos valores concretos de las variables consideradas).
Y, por el otro:
P(Ser sometido a una determinada condición).
Si estas dos probabilidades son iguales significa que valores concretos de esas variables, potencialmente contaminadoras, no están repartidos heterogéneamente entre los grupos sometidos de forma diferente a la condición que se quiere estudiar. Y si estas dos probabilidades son distintas significa que sí que hay un reparto heterogéneo y, por lo tanto, debería reconducirse la muestra que tenemos para conseguir una homogeneidad que no tenemos.
21. Veamos cómo se trabajaría con esta probabilidad condicionada. Si se ha seleccionado para un estudio la misma proporción de hombres que de mujeres y a los hombres, a todos, se les ha dado un tratamiento y a las mujeres, también a todas, un placebo. Entonces:
P(Ser sometido al tratamiento/Hombre)=1>0.5=P(Ser sometido al tratamiento).
P(Ser sometido al tratamiento/Mujer)=0<0 .5="P(Ser" al="" p="" sometido="" tratamiento="">
Cuando eres hombre hay mayor propensión a ser sometido al tratamiento y cuando eres mujer menor propensión.
22. Si, ahora, en el caso anterior, de nuevo con la misma proporción de hombres que de mujeres, el 90% de hombres se trataran y sólo el 10% de mujeres, ahora tendríamos:
P(Ser sometido al tratamiento/Hombre)=0.9>0.5=P(Ser sometido al tratamiento).
P(Ser sometido al tratamiento/Mujer)=0.1<0 .5="P(Ser" al="" p="" sometido="" tratamiento="">
De nuevo cuando eres hombre hay mayor propensión, aunque no tanta como antes, a ser sometido al tratamiento y cuando eres mujer menos propensión, aunque no tan poca como antes.
23. Sin embargo, si el 50% de hombres y mujeres fueran tratados, entonces:
P(Ser sometido al tratamiento/Hombre)=0.5=0.5=P(Ser sometido al tratamiento).
P(Ser sometido al tratamiento/Mujer)=0.5=0.5=P(Ser sometido al tratamiento).
Y ahora el ser hombre o mujer no cambia la propensión a ser sometido al tratamiento.
24. Esto último es lo que se busca. Esta es la situación a la que se pretende llegar. Para igualar las condiciones, para que ninguna variable nos confunda. Para que la comparación entre un tratamiento u otro, entre la presencia o no de un riesgo, etc., sea lo más pura posible.
25. Por lo tanto, con el Análisis de propensiones se busca que el ser sometido a una determinada condición, a un determinado riesgo, no dependa del valor de unas variables que pudieran influir en la respuesta que se quiere valorar.
26. Esta es la esencia del Análisis de propensiones, del Propensity analysis. Ahora de lo que se trata es de ver de qué formas se hace esta homogeneización, de qué formas se consigue reconducir una, muchas veces, muy amplia muestra para conseguir estar en una situación de homogeneidad. Saber todo lo que hemos visto hasta ahora nos ayudará a entender los mecanismos que tenemos para esta reconducción de la información. Porque se trata de esto, de focalizar en una parte de lo que tenemos en busca de una situación que nos permita eliminar todo aquello que nos confunda de lo que es nuestro objetivo. En realidad, siempre vamos a girar en torno a las ideas expresadas en los dos gráficos anteriores.
27. El Análisis de propensiones trata de buscar esas propensiones, si es que las hay, esas desigualdades, esas heterogeneidades con la finalidad de igualar, con la finalidad de buscar grupos homogéneos. Busca, pues, que las diferencias entre los grupos estudiados, entre los factores de riesgo estudiados se puedan atribuir a ellos y no a otros efectos.
28. Y pensemos, evidentemente, que son muchas las potenciales variables que nos pueden hacer pensar que las diferencias que vemos entre los grupos a comparar sean debidas no al factor de riesgo estudiado sino a unas distintas distribuciones de valores de estas variables entre esos grupos.
29. Por lo tanto, esta técnica, como veremos ahora, es una técnica, en realidad, multivariante, porque el problema es realmente multivariante. Cuantas más variables contemplemos en el análisis más capacidad de homogeneizar tendremos.
30. Pensemos que no porque tengamos, por ejemplo, la misma proporción de hombres y mujeres en los dos grupos a comparar, por eso debamos ya pensar que estamos ante grupos homogéneos. En realidad, la búsqueda de la homogeneidad es potencialmente infinita, siempre podríamos continuar definiendo variables a controlar. En algún punto nos debemos quedar.
31. La elección de las variables a usar en el análisis no es un problema estadístico. Debe ser una elección del experto: del médico si se trata de un estudio médico. Él debe delimitar cuáles son las variables que deben igualarse, porque, de no ser así, podrían enmascarar la interpretación final de los resultados.
32. Hay tres modalidades básicas de técnicas para realizar este Análisis de propensiones. Vamos a ver cada una de ellas.
33. La primera modalidad es el Matching, que podríamos traducir algo así como: Apareamiento. Consiste en hacer una selección entre los grupos en función del posicionamiento de los puntos en el espacio de tantas dimensiones como variables queramos contemplar en el estudio.
34. Se trata de elegir, para cada elemento de un grupo, por ejemplo, el grupo expuesto a un riesgo, otro del otro grupo, el más próximo en el espacio de las variables que estemos considerando. Este sería un sistema de elección 1:1. Si el grupo de los no expuestos al riesgo es bastante más grande que el de los expuestos se puede elegir por cada uno de los expuestos un determinado número de no expuestos. Por ejemplo, en una relación 1:4, u otra combinación.
35. Por eso es un Matching, un apareamiento, porque se trata de elegir en la muestra en base a proximidades, se trata de aparear. Las formas de cómo establecer esas proximidades pueden ser muchas. En realidad, si repasamos el tema dedicado al Análisis clúster podemos ver que se hablaba de diferentes distancias entre puntos. La distancia de Mahalanobis, vista y comentada allí, es muy usada en este contexto.
36. Sigamos el criterio de distancia que sigamos, la idea básica del Matching es para cada valor del grupo más pequeño elegir un número determinado del grupo más grande y elegir siempre los más próximos. Veamos que en el gráfico siguiente, para cada uno del grupo de los expuestos (en azul) elegimos cuatro de los no expuestos (en rojo), por lo tanto estamos hablando de una relación 1:4.
IMG_5189
37. Observemos que serán los individuos enmarcados los que se extraerán y constituirán los elementos de los dos grupos a comparar finalmente con las variables resultado a estudiar. Serán dos grupos homogéneos para las variables consideradas. En este caso estamos dibujando el ejemplo con dos variables, pero hay que pensar que esto se hará con muchas más variables.
38. Observemos en la siguiente tabla extraída de un estudio donde se analizaba, en un estudio observacional, enfermos de cáncer que tomaban estatinas y enfermos que no las tomaban. Se quería analizar el efecto de la exposición, a este tipo de fármaco, sobre el tiempo de vida de esos pacientes. Observemos cómo a la izquierda tenemos los valores totales y a la izquierda los valores después de hacer un Matching:
IMG_5190
39. Puede observarse que no todos los tratados con estatinas son seleccionados finalmente y mucho menos todos los controles. Se ha seguido un sistema 1:3, por cada sometido a estatinas tres no sometidos a ellas.
40. Muchas veces se eliminan individuos del grupo de expuestos por no tener ningún individuo del grupo control lo suficientemente cerca. Puede establecerse una distancia mínima para ser incluido, etc.
41. El Matching viene a ser, pues, en estos términos, visto como un elegir individuos, de ambos grupos, con las mismas posiciones en el espacio de muchas variables. Esto evita que un tipo de individuos dentro de ese espacio tenga más propensión que otro a ser incluido en un grupo u otro de los que se pretende comparar.
42. Como puede observarse es una forma de reordenar la información que se tiene, las muestras que se tienen, con la finalidad de crear grupos homogéneos, grupos con el mismo repertorio de valores de esas variables que podrían influir en las variables resultado, para poder focalizar, así, en el factor que se quiere estudiar, en el efecto del factor de riesgo estudiado.
43. La segunda modalidad de Propensity score es la Estratificación. Consiste en focalizar en el conjunto global de individuos de los grupos a comparar, respecto a las variables que se pretende homogeneizar, y crear subconjuntos en cada uno de los grupos (expuestos o no expuestos al factor de riesgo estudiado) que sean homogéneos entre sí. A estos grupos homogéneos les llamamos estratos. Al final acabamos mezclando estos estratos y dejando fuera a los que no encajen en esos estratos.
44. Mediante un Análisis clúster (Ver el tema 19: Análisis clúster) se pueden construir esos estratos. Se trata de elegir estratos generados a través del dendrograma, estratos homogéneos que tengan representantes de los dos grupos que queramos comparar y que tendrán, al estar cerca en el dendrograma, propensiones similares.
45. La tercera modalidad de Propensity score es la Regresión logística. Consiste en hacer una Regresión logística con la siguiente variable dicotómica: ser del grupo de riesgo o del grupo control y como variables independientes se toma las variables que se pretende igualar. Y se trata, entonces, de ver cómo se comportan los coeficientes de esa Regresión. Se trata de ver si esos coeficientes son o no estadísticamente significativos.
46. Se trata de buscar, mediante este mecanismo, submuestras de la muestra para los que los coeficientes de esas variables independientes, en la Regresión, sean no estadísticamente significativos, lo que implicará que estamos ante grupos homogéneos. Si se trata de dos grupos homogéneos significa que los dos grupos de individuos están en hiperplanos paralelos con valores solapados paralelamente.
47. Recordemos (Ver el tema 11: Regresión logística) que en una Regresión logística podemos imaginar cómo están distribuidos los puntos en los dos planos en situaciones distintas posibles y visualizar cómo son los coeficientes del modelo de Regresión. Dos planos porque la respuesta es dicotómica. En nuestro caso: expuestos o no al riesgo estudiado, si es que se trata de un estudio observacional.
48. Recordemos el modelo de Regresión logística en dos variables. Evidentemente el número de variables que nos interesarán en un Análisis de propensiones será mucho mayor, pero planteo la situación con dos variables para poder visualizar cómo son las cosas:
IMG_3945
49. Este modelo con dos variables independientes nos proporciona, según sean los valores de estos coeficientes, los siguientes dibujos en el gráfico ya visto y comentado en el tema dedicado a la Regresión logística:
IMG_4401
50. La situación que se busca es la situación de arriba y a la izquierda. Si los puntos están en paralelo significa que estamos ante grupos homogéneos. Y los coeficientes serán los dos cero, o no estadísticamente distintos de cero.
51. Si algún o algunos coeficientes son significativamente distintos de cero, los valores no están en paralelo, como ocurre en nuestro dibujo en los otros tres casos. El repertorio de coeficientes significativos nos ayudarán a ver cuál o cuáles son las variables que nos están rompiendo la homogeneidad en el reparto de ambos grupos. Por lo tanto, los coeficientes nos ayudarán a diagnosticar dónde se produce la pérdida de homogeneidad. Y, por lo tanto, a partir de esta información se podrá producir una mejor selección de individuos.
52. La Regresión logística nos puede servir, como he comentado en el apartado anterior, para retocar los grupos, basándonos en la información de las variables que rompen la homogeneidad, y comprobar, sucesivamente, si hemos elegido bien y así, secuencialmente, llegar a generar grupos homogéneos. Sin embargo, la Regresión logística suele usarse, más frecuentemente, de otra forma.
53. Este otro uso más frecuente de la Regresión logística en Análisis de propensiones es el siguiente: se trata de asignar, mediante la Regresión, un valor, un score, un Propensity score. Este Propensity score, como ya hemos definido antes, es la probabilidad de ser asignado a un grupo en función de unos valores concretos de unas variables independientes. Una vez se tienen estos scores para todos los individuos de un grupo y del otro que se quieren comparar, se procede a hacer un Matching, como hemos visto antes, mediante la elección de individuos de ambos grupos con scores similares.
54. Voy a intentar explicar, mediante unos dibujos, esto que estoy comentando. Supongamos que en el dibujo siguiente en el eje simbolizado con una “x” contemplamos un conjunto amplio de variables independientes. Al hacer una Regresión logística lo que construimos es una función que se mueve entre 0 y 1. Si se mueve como el siguiente gráfico estamos ante variables independientes que generan grupos homogéneos. Los Propensity scores de los diferentes individuos son todos iguales prácticamente. Tendríamos que todos los individuos tienen el mismo valor, por esto se vería esta función constante:
IMG_5232
55. En cambio, en el gráfico siguiente tenemos que hay una clara diferencia de Propensity scores según el individuo:
IMG_5234
55. En una situación como ésta, que es la que suele darse al analizar estudios observacionales, para solventar el problema lo que se hace es hacer un Matching: un apareamiento de individuos de los dos grupos con valores iguales en esta curva. Es una forma de igualar, de homogeneizar.
56. Veámoslo con unos datos posibles. Supongamos que tenemos en un estudio una serie de individuos que pertenecen al grupo en contacto con un factor de riesgo (los que están sobre la línea del 1) y los que no han estado en contacto con ese factor de riesgo (los individuos que están sobre la línea del 0):
IMG_5243
57. Los individuos, tanto los del grupo de riesgo como los del grupo que no ha estado en contacto con el factor de riesgo estudiado, están más a la izquierda o más a la derecha respecto a los valores de x según sea el valor de las variables independientes. Si suponemos que sólo estamos contemplando una variable independiente, por ejemplo: la edad, estaríamos ante una situación en la que los del grupo en contacto con el riesgo son mayores y los del grupo que no ha estado en contacto con el riesgo son más jóvenes.
58. Pues bien, al aplicar una Regresión logística donde la variable dependiente, expresada como 0 y 1, según el individuo no haya estado en contacto con el factor de riesgo o sí, obtenemos una curva de este tipo. El valor que cada individuo tiene en esta curva es el llamado Índice de propensión (Propensity score). Agrupar, entonces, por índice de propensión sería reestructurar el estudio únicamente con individuos emparejados (en una relación 1:1 ó con cualquier otra, como hemos visto al plantear el Matching). En el caso anterior elegiríamos las parejas marcada por las flechas:
IMG_5244
59. Reducimos el tamaño de la muestra final pero conseguimos tener grupos homogéneos respecto a la variables independientes de interés. Observemos que si la variable independiente x contemplada fuera únicamente la variable edad acabaríamos teniendo los dos grupos (los que han estado en contacto con el factor de riesgo y los que no lo han estado) sin diferencias en cuanto a la variable edad. Por lo tanto, la variable edad no nos podría estar confundiendo en cuanto a cómo el contacto con el factor de riesgo influye en las variables resultado, en los Outcome events estudiados.

No hay comentarios:

Publicar un comentario