viernes, 28 de abril de 2017

Bioestadística Clínica


Estadísticos de fuerza de la asociación
¿Cuál es la fuerza de la asociación? Ni el estadístico c2 ni su valor pasociado miden esa fuerza, es decir se puede encontrar un alto  valor de c2 (pequeño valor de p) con una asociación débil si el tamaño muestral fuera grande. Hay varios estadísticos propuestos para medir esta fuerza:
1º Diferencia de riesgo o Reducción absoluta del riesgo (RAR): A partir de la tabla del ejemplo anterior podemos estimar la probabilidad (riesgo en la terminología epidemiológica) de que un individuo que haga ejercicio tenga éxito: y también la probabilidad de que lo tenga uno que no lo haga: . Se llama Diferencia de riesgo o Reducción absoluta del riesgo a esta diferencia: 0,20 que puede oscilar entre -1 y 1; 0 indica no asociación.
2º Reducción relativa del riesgo (RRR): La magnitud de la diferencia de riesgo es difícil de interpretar: una diferencia de 0,001 puede ser mucho o poco dependiendo del riesgo basal. Para superar esta dificultad se define la RRR como la reducción absoluta del riesgo dividida por el riesgo basal o riesgo del grupo de referencia. En el ejemplo, si consideramos como referencia el no hacer ejercicio, el RRR sería 0,20/0,63 = 0,32.
3º Riesgo relativo (RR): Otro índice relativo es el riesgo relativo definido como el cociente entre los riesgos. En el ejemplo anterior RR=0,83/0,63=1,32. Los individuos que hacen ejercicio tienen una probabilidad de éxito 1,32 veces mayor que los que no. El RR puede oscilar entre 0 y ¥; 1 indica no asociación. Es el estadístico preferido.
4º Odds ratio (OR): Es un estadístico menos intuitivo que el RR. Para caracterizar un proceso binomial se puede usar su probabilidad (p) o el cociente p/q llamado odds. En el ejemplo anterior, para el ejercicio = 0,83 y el odds = 0,83/0,17=4,88, es decir es 4,88 veces más probable tener éxito que no tenerlo si se hace ejercicio y para el no ejercicio = 0,63 y el odds = 0,63/0,37=1,70. Para comparar ambos procesos podemos usar su cociente u odds ratio OR = 4,88/1,70 = 2,87. El odds para el ejercicio es 2,87 veces mayor que para el no ejercicio. El OR también puede oscilar entre 0 y ¥; 1 indica no asociación. Queda como ejercicio para el lector comprobar que el OR se puede estimar como el cociente de los productos cruzados de los elementos de la tabla, OR=(50x15)/(10x25)=3. La diferencia con el anterior es debida a errores de redondeo.
¿Qué ventajas tiene el OR frente al RR?. En principio parece menos intuitivo aunque un jugador no opinaría lo mismo. De hecho el OR proviene del mundo de las apuestas. Si queremos comparar dos juegos ¿qué da más información el OR o el RR? ... y ¿si queremos comparar dos estrategias terapéuticas?
Por otro lado si el estudio del ejemplo anterior se hubiera hecho de otra forma: muestreando por un lado individuos con éxito y por otro sin éxito (diseño caso-control) el RR no se podría estimar y sin embargo el OR sí y de la misma forma (se puede demostrar usando el teorema de Bayes).
Además, cuando se estudian fenómenos con probabilidades bajas (típicamente enfermedades) el OR tiende al RR.
Sean dos fenómenos con probabilidades p1 y p2 próximas a cero, en consecuencia q1 y q2 estarán próximos a 1 y su cociente también, por lo tanto
Resumiendo, el OR se puede estimar en diseños como el caso-control en los que el RR no se puede y si se estudian fenómenos con baja prevalencia el OR estima el RR. Además el OR es un buen indicador en sí mismo.
5º Número necesario a tratar (NNT): En el contexto de la evaluación de tratamientos (ensayos clínicos) se suele usar este índice definido como el número de personas que se necesitaría tratar con un tratamiento para producir, o evitar, una ocurrencia adicional del evento. Del mismo modo se define número necesario para perjudicar (NNP) para evaluar efectos indeseables. Se calcula como el inverso del RAR. En el ejemplo NNT = 1/0,20 = 5 que se interpreta como por cada 5 pacientes que hagan ejercicio se consigue que uno tenga éxito.







Problemas de estadística propuestos (3ª parte):
 Plantear (y resolver) el contraste de hipótesis adecuado para el problema 2 de la serie anterior: Para evaluar una vacuna para la gripe se selecciona un grupo de 200 individuos de riesgo. Se eligen aleatoriamente a 100 de ellos y se les suministra la vacuna; de ellos 10 pasan la gripe. En los otros 100 pacientes sin vacunar la pasan 20. ¿Hay evidencia de que la vacuna es eficaz?
Solución
H0: No hay asociación entre la vacuna y la gripe (la vacuna no es eficaz)
Construimos la tabla
 
V
nV
 
G
10
20
30
nG
90
80
170
 
100
100
200
Calculamos los valores esperados en H0
 
V
nV
G
100x30/200=15
100x30/200=15
nG
100x170/200=85
100x170/200=85
Calculamos el estadístico c2
Como el valor crítico de c2 es 3,84 rechazamos la H0 y concluimos que la vacuna es eficaz.
2º Antiguos estudios muestran que el germicida DDT puede acumularse en el cuerpo. En 1965, la concentración media de DDT en las partes grasas del cuerpo en la población española era de 9 ppm. Se espera que como resultado de los controles realizados esta concentración haya disminuido.
a. Construir la hipótesis nula y alternativa para documentar esta afirmación.
b. Explicar en términos prácticos las consecuencias de cometer un error tipo I y un error tipo II.
c. Se realiza el contraste de forma que la potencia para detectar una concentración media de 6 ppm es de 0,8. Explicar en términos prácticos qué significa.
Solución
a. Llamando ma a la concentración media antes y md a la concentración media ahora, las hipótesis se plantean
H0ma = md
H1
ma > md 

b. 
Error tipo I = (rechazar H0|H0 cierta) es decir concluir que la concentración ha disminuido, cuando en realidad no ha sido así.
Error tipo II = (aceptar H0|H0 falsa) es decir concluir que la concentración no ha disminuido, cuando en realidad si ha disminuido
c. El diseño garantiza que si la concentración media ha disminuido 6 ppm o más el estudio tiene una probabilidad de 0,8 de detectarlo.
3º En un estudio caso-control para estudiar la posible asociación entre estado civil y mortalidad en la UVI se ha encontrado que de 50 personas que murieron 30 eran solteros, mientras que entre 60 que sobrevivieron sólo lo eran 15. Plantear y resolver el contraste. ¿Cuál sería el mejor estimador del efecto?
Solución
H0: No hay asociación entre el estado civil y la mortalidad
Construimos la tabla
 
Soltero
No
 
Morir
30
20
50
No
15
45
60
 
45
65
110
Calculamos los valores esperados en H0
 
Soltero
no
Morir
45x50/110=20,5
65x50/110=29,5
No
45x60/110=24,5
65x60/110=35,5
Calculamos el estadístico c2
Como el valor crítico de c2 es 3,84 rechazamos la H0 y concluimos que hay asociación. El mejor estimador de la fuerza de la asociación (realmente el único posible de los que hemos visto para este tipo de estudios) es el OR estimado como





  Introducción a la causalidad
1 Causalidad en la vida común: Parece que forma parte de la mente humana el buscar relaciones entre las cosas y particularmente entre acciones y sus consecuencias como modo de entender el mundo y adaptarse al mismo. Ya figura en el aprendizaje del niño, incluso la repetición.
Sin embargo en el lenguaje común e incluso literario se usa con mucha laxitud:
"Un hombre entró en un local provocando una nube de humo, se alisó el cabello provocando la aparición de un barman de aspecto feroz". 
Queneau.
"Sobre como la divina providencia regula la igualdad en el nacimiento de los sexos". 
Arthunot.
2 Causalidad en la filosofía: Para Aristóteles (visión finalista) existen 4 tipos de causa:
Causa material: el mármol para una estatua,la existencia del miocardio y su necesidad de riego sanguíneo para el infarto de miocardio.
Causa eficiente: la mano del escultor para la estatua, el trombo para el infarto.
Causa formal: el canon de belleza para la estatua, la necesidad de nutrientes para el infarto.
Causa final: depende de posiciones "a priori": el aumento de la belleza en el mundo para la estatua, para la regulación de la población en el mundo o para que existan cardiólogos para el infarto.
Evidentemente estos conceptos se solapan.
No es infrecuente encontrar esta visión finalista en Biología: "El sistema inmunológico está para defender al individuo de ataques externos".
Otras posiciones:
i) ontológica (Leibniz): La causalidad es un principio del ser. "Las leyes causales que una cosa cumple constituyen un aspecto fundamental e inseparable de su modo de ser". D. Bohm.
ii) legalista (Hume): La causalidad es la forma en que se expresan las leyes científicas basadas en una generalización de la experiencia y con capacidad predictiva. Las características de la relación causal son:
a) contigüidad (causa y efecto deben estar contiguos en espacio y tiempo).
b) prioridad (la causa precede en el tiempo al efecto).
c) conjunción constante (las relaciones anteriores deben conservarse en varios casos).
iii) a priorista (Kant): La causalidad es un "a priori" que se necesita para el conocimiento racional. No procede del conocimiento, es un supuesto previo que lo hace posible.
iv) escéptica: "La razón por la que la física ha dejado de buscar las causas es que en realidad no existen. La Ley de causalidad como mucho de lo que se da por bueno entre los filósofos, es una reliquia de una época pasada que sobrevive, como la monarquía, porque se supone erróneamente que no hace ningún daño". B. Russell.
3 Elementos de la relación causal
1 Elemento inicial (A) o causa: su definición depende del modelo. Pueden ser causas:
a) Acciones intencionales (p.e. administración de un tratamiento): las más claras
b) Acciones no intencionales: acciones naturales (lluvia), hechos (fumar),...
c) Atributos (sexo), constructos (inteligencia): como no se definen en función de cambios, a veces en lugar de causas se habla de determinantes.
2 Elemento final (B) o efecto que se define en términos de cambio con respecto a:
a) situación previa
b) lo que hubiera ocurrido si no hubiera ocurrido la causa. Es la que plantea más problemas en el diseño experimental: necesidad de control.
3 Relación entre ambos
a) Algunos autores (
Russell) la definen exclusivamente como funcional en el sentido de función matemática.
b) Otros (
Galileo, Stuart Mill, Kant) también como condición. La relación condicional puede ser:
i) Necesaria y suficiente: Si A, entonces B y Si B, entonces A.
ii) Necesaria y no suficiente: Si A, entonces B o no B y Si B, entonces A
iii) No necesaria y suficiente: Si A, entonces B y Si B, entonces A o no A
iv) No necesaria y no suficiente: Si A, entonces B o no B y Si B, entonces A o no A
El cuarto caso es el más difícil de establecer por su ambigüedad, pero es el más frecuente en Biología.
4 Características de la relación causal: siguiendo a Hume, pero con un lenguaje más actual
a) temporalidad: la causa precede al efecto
b) dirección: la relación va de la causa al efecto
c) asociación: entendida como cuantificación de la constancia de la relación
5 Modelos causales en Biología
1 Modelo de Koch-Henle (sugerido por Koch a propósito de la tuberculosis y paradigmático en el estudio de enfermedades infecciosas): más que un modelo es un conjunto de reglas de decisión que asumen los principios anteriores:
i) el microorganismo debe encontrarse siempre en los casos de enfermedad.
ii) el microorganismo deberá poder ser aislado en cultivo, demostrando ser una estructura viva y distinta de otras que pueden encontrarse en otras enfermedades.
iii) el microorganismo debe distribuirse de acuerdo con las lesiones y ellas deben explicar las manifestaciones de la enfermedad.
iv) el microorganismo cultivado (algunas generaciones) deberá ser capaz de producir la enfermedad en el animal de experimentación.
2 Modelo de Bradford Hill: más conocido como criterios de Bradford Hill, aunque estrictamente no son criterios, y paradigmático en el estudio de enfermedades no infecciosas y también asume los principios anteriores adecuados a la relación causal tipo iv:
i) fuerza de la asociación, medida con los índices estadísticos apropiados.
ii) consistencia entre distintos observadores, en diferentes lugares, tiempos y circunstancias.
iii) especificidad de las causas.
iv) temporalidad
v) gradiente biológico en la relación dosis-respuesta.
vi) plausibilidad biológica.
vii) coherencia con otros conocimientos.
viii) evidencia experimental
ix) analogía con otras relaciones causales
3 Modelo de Rothman, con más contenido teórico, contempla las relaciones multicausales, fue desarrollado en el ámbito de la epidemiología y es el más adaptado a los métodos estadísticos multivariantes.
Define causa como todo acontecimiento, condición o característica que juega un papel esencial en producir un efecto (p.e. una enfermedad)
Distingue entre:
Causa componente causa que contribuye a formar un conglomerado que constituirá una causa suficiente.
Causa suficiente conjunto de causas que producen un efecto.
Causa necesaria ver más adelante (punto iii)
Características del modelo:
i) Ninguna de la causas componentes es superflua
ii) No exige especificidad: un mismo efecto puede ser producido por distintas causas suficientes
iii) Una causa componente puede formar parte de más de una causa suficiente para el mismo efecto. Si una causa componente forma parte de todas las causas suficientes de un efecto se la denomina causa necesaria
iv) Una misma causa componente puede formar parte de distintas causas suficientes de distintos efectos
v) Dos causas componentes de una causa suficiente se considera que tienen una interacción biológica, es decir ninguna actúa por su cuenta. El grado de interacción puede depender de otras causas componentes.




No hay comentarios:

Publicar un comentario