- Definiciones básicas
- Error: Se define como la diferencia entre entre el valor observado o calculado y el valor verdadero.
- Exactitud: Medida de cuán cerca es la medición del valor verdadero.
- Precisión: Medida de cuán bien se determinó la medición, independientemente del valor verdadero.
- Errores sistemáticos: Errores que hacen que las mediciones se alejen del valor verdadero, independientemente de cuantas veces repitamos el experimento (ej. mala calibración del instrumento). Son una medida de la exactitud de la medición.
- Errores aleatorios: Errores debidos a fluctuaciones aleatorias que se disminuyen repitiendo el experimento. Son una medida de la precisión de la medición.
Izquierda: mediciones precisas pero inexactas; Derecha: Mediciones exactas pero imprecisas - Valor medio de la muestra:
- Valor medio de la población madre:
- Mediana de la población madre:
- Moda de la población madre:
Distribución asimétrica de probabilidad que ilustra la media, la moda y la mediana de la variable x. - Si el acuerdo entre los datos y el modelo fuera perfecto obtendríamos χ2=0.
- Si la dispersión de los datos correspondiera a la dispersión esperada, esperaríamos una contribución de una unidad por cada bin, χ2≅n para todo el histograma, o bien
- Sin embargo, en realidad obtendremos diferencias con el valor esperado y debemos saber cuál es la probabilidad de medir un cierto valor de χ2 a partir de una muestra aleatoria de datos.
- El valor esperado de χ2ν es 1.
- Valores de χ2ν mucho mayores que 1 indican grandes diferencias entre los datos y lo esperado.
- Valores de χ2ν muy pequeños tampoco son aceptables.
- Si repetimos una medición muchas veces esperamos que los valores medidos se distribuyan alrededor del valor verdadero. Para el caso de un infinito número de mediciones obtendremos una distribución que determina la probabilidad de obtener un valor específico, la distribución madre. Esta distribución es hipotética ya que no podemos obtener infinitas medidas. En realidad uno obtiene una muestra finita, la distribución muestral.
Mediciones del largo de un bloque. La curva continua corresponde a una Gaussiana centrada en 19.9 cm y σ=0.52 cm. La curva segmentada corresponde a la distribución Gaussiana madre centrada en 20.0 cm y σ=0.50 cm.
La desviación estándar de la muestra, s, se define como:
La media μ y la desviación estándar σ son los parámetros que necesitamos para describir una distribución simétrica. La media es la mejor estimación del valor verdadero. La desviación estándar es una medida de la incerteza de nuestras mediciones. Para describir distribuciones asimétricas se requieren parámetros adicionales.
- Si la función de probabilidad P(x) es conocida, el valor medio se calcula como:
De igual modo, la desviación estándar es:
- Cuando la distribución es continua se reemplaza la sumatoria por una integral para calcular los valores esperados.
Lectura Sugerida:
2.1 La distribución binomial
- Si p es la probabilidad de un cierto evento individual (ej: p=1/2 para que una moneda salga cara o p=1/6 para que un dado de 6) y n es el número de lanzamientos de una moneda o un dado, la probabilidad de obtener x de dichos eventos (x≤n) está dada por la distribución binomial:
Valor medio:
Distribución binomial para μ=5 y p=0.5.
Distribución binomial para μ=10/6 y p=1/6.
- La distribución de Poisson corresponde al caso particular de la distribución binomial cuando p<<1 .="" p="">
Valor medio:
Notar que, si bien el error absoluto al medir N cuentas aumenta como √N, el error relativo disminuye como 1/√N.
Ejemplo.- Medición del número de cuentas de un isótopo radioactivo
Histograma de detección de cuentas en intervalos de 2 segundos. Se grafica con línea continua la distribución de Poisson para μ=1.69.
Histograma de detección de cuentas en intervalos de 15 segundos. Se grafica con línea continua la distribución de Poisson para μ=11.48.
- La distribución de Gauss corresponde a la distribución de Poisson cuando μ se hace grande.
Distribución de probabilidad de Gauss.
Ancho total a mitad de altura:
- Esta distribución es apropiada para datos de comportamiento de renonancia.
Distribuciones de probabilidad Gaussiana y Lorentziana.
Lectura Sugerida:
3.1 Errores internos versus errores externos
- Cuando la estimación de los errores utiliza suposiciones sobre la distribución madre (por ejemplo al asumir errores en errores del instrumento, tal como la incerteza al medir el largo de una mesa con una regla graduada) se obtiene una medida del error externo.Una estimación de los errores a partir de la varianza es una medida empírica de la dispersión de las mediciones y del acuerdo relativo de los datos. Esta estimación a partir de los mismos datos se denomina error interno.
Si las suposiciones sobre los errores instrumentales son correctas, los errores internos y externos debieran coincidir.
- A menudo uno necesita saber el error en una cantidad que es función de una o más cantidades medidas. Cuál es el error en la cantidad de interés?Por ejemplo, si estuviésemos interesados en el volumen V de una caja de largo L, ancho W, y altura H, cuyos errores fueran ΔL=L-L0, ΔW=W-W0, ΔH=H-H0, podriamos estimar el error en el volumen ΔV=V-V0 expandiendo V en series de Taylor:
En el caso general de una cantidad x que depende de dos cantides medidas u, v:
Panel superior: 1000 mediciones no correlacionadas del ancho y largo de un bloque. Panel inferior: el volumen (LxWxH) y el area del bloque (LxW) calculados a partir de mediciones no correlacionadas de L, W y H resultan altamente correlacionadas.
Lectura Sugerida:
4.1 Método de cuadrados mínimos
- Supongamos que en un cierto experimento tenemos N observaciones aleatoriamente extraidas de la población madre (un muestra infinita distribuida de acuerdo a la distribución madre). Suponiendo que la distribución madre es una Gaussiana con media μ y desviación estándar σ, la probabilidad dQi de realizar una observacion xi en el intervalo dx es:
Cuál es la incerteza σ asociada a la media μ'? Cada medición xi tiene asociada una incerteza σ, de manera que la media debe tener un error menor a cada medición individual. Usando la fórmula de propagación de errores:
- En esta sección describiremos el test de χ2, el cual nos permite determinar si un cierto modelo es una buena descripción de los datos.Si realizamos N mediciones de la cantidad x obtendremos N valores de xi. Luego podemos contar cuantas veces se repite cada valor de xj. Si denominamos h(xj) el número de eventos en cada bin podemos construir un histograma de j=1→n bins, tal como se muestra en rojo en esta figura:
Histograma de 100 mediciones construido de una distribución Gaussiana con μ=5 y σ=1. La distribución madre se muestra en azul. Las curvas de puntos negros representan la distribución Poissoniana de eventos en cada bin, calculada en base a la distribución Gaussiana.
Si repitiéramos este experimento muchas veces (k=1→nk), obtendríamos muchas mediciones de hk(xj) para cada bin y podemos encontrar la distribución pj(yk) que describe la probabilidad de obtener el valor hk(xj). Como el experimento de medir hk(xj) consiste en medir eventos discretos, esperamos que pj(yk) corresponda a una distribución de Poisson (curvas punteadas negras). Según la estadística de Poisson la desviación estándar esperada en cada bin debe estar dada por σj(h)=√y(xj).
En este ejemplo estamos asumiendo que la distribución madre es una Gaussiana pero en un experimento real no conocemos la forma de la distribución madre, por lo cual la desviación estándar distribución Poissoniana en cada bin se debe calcular a partir de los mismos datos, i.e., σj(h)=√NP(xj). Esto se ilustra como curvas punteadas negras en esta figura:
Histograma de 100 mediciones construido de una distribución Gaussiana con μ=5 y σ=1. La distribución madre se muestra en azul. Las curvas de puntos negros representan la distribución Piossoniana de eventos en cada bin, calculada en base a la muestra de datos observada.
En esta sección se asumió una distribución de Poisson para modelar la dispersión en cada bin. El test χ2 se puede generalizar para comparar observaciones de cualquier experimento a las predicciones de cualquier modelo.
Lectura Sugerida: Numerical Recipes (Secciones 15.0, 15.1, 15.2)
5.1 Método de cuadrados mínimos
- En muchas experimentos se mide más de una variable, es decir en vez de medir sólo la cantidad x, realizamos N mediciones de (xi,yi). Nuestro objetivo es encontrar una función y=y(x) que describa adecuadamente la relación entre estas dos variables. En este capítulo asumiremos una simple relación lineal (el "modelo"):
Diferencia de potencial como función de la posición de un alambre conductor. La recta es un ajuste de cuadrados mínimos a los datos.
Ejemplo 2.- Mediciones de cuentas de una fuente radioactiva en función de la distancia a la fuente:
Número de cuentas en intervalos constantes de tiempo de una fuente radioactiva como función del inverso del cuadrado de la distancia a la fuente. La recta es un ajuste de cuadrados mínimos a los datos.
Em ambos ejemplos queremos ajustar una relación lineal entre dos variables:
- Para calcular la incerteza en los parámetros a y b usaremos la fórmula de propagación de errores:
Lectura Sugerida: Numerical Recipes (Sección 15.4)
6.1 Solución por el método de determinante
- En esta sección usaremos una relación más compleja para modelar los datos, en particular una función polinomial del tipo:
Ejemplo.- Medición del voltaje de una termocupla como función de la temperatura. Se asume que los errores en la temperatura son despreciables mientras que las incertezas en los voltajes se consideran constantes (0.05 mV).
Voltaje de una termocupla versus temperatura. La curva corresponde a un polinomio de segundo orden obtenido por el método de cuadrados mínimos.
- Para poder determinar los errores en los parámetros del ajuste utilizaremos en esta sección el método de las matrices que resulta elegante y conveniente. Recordemos que estamos tratando de ajustar la función:
La covarianza σajal entre los parámetros aj y al es:
Ejemplo.- Distribución angular de una fuente de rayos γ.
Distribución angular de una fuente de rayos γ. La curva corresponde a un ajuste de cuadrados mínimos a una serie de polinomios de Légendre hasta L=4.
- En todos los ejemplos anteriores hemos asumido que la función de ajuste es lineal en los parámetros ak. Esta característica lineal es lo que permite obtener una solución analítica a los coeficientes. Cuando la función pierde esta característica, en general no se pueden obtener soluciones analíticas y la solución debe buscarse numéricamente. Hay casos de funciones no lineales, sin embargo, que se pueden linealizar mediante un cambio de variables.
Por ejemplo, la función siguiente es claramente no lineal en el coeficiente b:
La linealización de la función original se puede ver gráficamente:
Gráfico de la función y=1000×e-5x. Las barras de error están dadas por √y. En rojo se muestra la función en una escala lineal, mientras que en azul se muestra la función en una escala logarítmica.
Lectura Sugerida: Numerical Recipes (Secciones 15.5 y 15.6)
7.1 Ajustes no lineales
- Los métodos descritos anteriormente para modelar datos están restringidos a funciones que son lineales en los coeficientes aj:
Número de cuentas detectadas de una fuente radioactiva en función del tiempo. Se asumen incertezas estadísticas. La curva se obtuvo realizando un ajuste de cuadrados mínimos no lineal.
A continuación describimos la generalización del método de máxima probabilidad para el caso no lineal. La probabilidad de observar el set de N observaciones es:
Hiper-Superficie de χ2 como función de dos parámetros.
- Para el caso de una muestra grande, la función χ2 se comporta como una Gaussiana en cada parámetro alrededor del mínimo.
Este resultado es consistente con aquel obtenido de realizar una expansión de Taylor de χ2 alrededor del mínimo:
Podemos obtener otra relación útil de la segunda derivada de χ2 con respecto al parámetro aj:
Gráfico de χ2 como función de un solo parámetro (a5) alrededor del mínimo. La ubicación del mínimo se calculó ajustando una parábola a los tres puntos.
- Para el caso no lineal existen varios métodos numéricos para encontrar el mínimo χ2. Primero debemos partir de valores iniciales razonables y luego calcular χ2 en pasos pequeños.
Una complicación es que puede haber más de una solución debido a la presencia de mínimos locales dentro del rango de parámetros considerado:
Hiper-Superficie de χ2 como función de dos parámetros.
La siguiente figura muestra un gráfico de contornos para el caso de dos parámetros. Cada contorno muestra niveles de χ2 constante. Estos contornos reciben el nombre de contornos de confianza (confidence contours). La línea de zigzag representa el camino de aproximación al mínimo usando el método "GRID-SEARCH".
Gráfico de contorno de χ2 como función de dos parámetros (a1 y a2). El trazo de zigzag representa el camino de búsqueda del mínimo local unsando el método "GRID-SEARCH".
Existen otros métodos más eficientes de búsqueda del mínimo tales como el método Lavenberg-Marquardt (ver Numerical Recipes).
Lectura Sugerida:
8.1 El test de χ2
- La varianza del ajuste s2 está dada por:
Si el modelo de ajuste es una buena descripción de los datos esperamos que la varianza del ajuste s2 concuerde con la varianza de la muestra madre σ2 de modo que χ2 reducido debe ser aproximadamente uno (χν2=1). Si el ajuste es malo, entonces esperamos que χν2>1. Un valor de χν2 muy por debajo de 1 indica que hemos sobre-estimado los errores de medición.
La función de distribución de probabilidad para χν2 con ν grados de libertad está dada por:
- El test de χ2 mide tanto la discrepancia entre los datos propiamente tales como la discrepancia entre el modelo adoptado y la verdadera distribución madre. Un test estadístico que permite separar ambos efectos es el test F.
Si uno determina dos valores χ12 y χ22 que siguen la distribución χ2, la razón entre χν12 y χν22 se distribuye de acuerdo a la distribución F:
Típicamente este test se usa para justificar la inclusión de un término adicional a un ajuste polinomial. Para esto se efectúa un ajuste con m parámetros (N-m grados de libertad) y se calcula χ2(m). Luego agregamos un nuevo parámetro y volvemos a calcular χ2(m+1). La razón Fχ
- Generalmente asumimos la distribución de Gauss para las incertezas:
En general, para una distribución Px(x;μ) podemos calcular la probabilidad de que una medición caiga entre
En general la función de probabilidad no tiene porqué ser simétrica por lo que a puede ser diferente de b.
En este gráfico se muestran los contornos correspondientes a 68.3%, 95.4% y 99.73% de confianza para la determinación de los parámetros cosmológicos (ΩM,ΩΛ). Los contornos cubren rangos bien diferentes a lo largo de cada eje de coordenadas debido a la alta correlación entre los parámetros. Para este caso en que tenemos dos grados de libertad, la tabla C.4 nos dice que el contorno de 68.3% de confianza corresponde al nivel de chi cuadrado 2.30 unidades mayor que el minimo; para el contorno de 95.4% el nivel con chi cuadrado es 6.17 unidades mayor que el mínimo. Para el contorno de 99.73% el nivel de chi cuadrado es 11.8 unidades mayor que el mínimo. La proyeccion del contorno de confianza del 68.3% en el eje de cada parametro permite especificar el rango del parametro que contiene un 68.3% de probabilidad.
Si pudieramos fijar el valor de uno de los dos parametros (por ejemplo, por medio de un experimento independiente), el valor del otro parametro queda mejor acotado. En este cado tenemos un solo grado de libertad, en cuyo caso los contornos de confianza que contienen probabilidades de 68.3%, 95.4% y 99.73% corresponden a niveles de chi cuadrado 1, 4 y 9 unidades mayores que el minimo, respectivamente.
Gráfico de contornos de χ2 como función de dos parámetros (ΩM,ΩΛ). Se puede ver un alto grado de correlación entre los dos parámetros. Los contornos corresponden a 68%, 95% y 99% de confianza.
- Este test se usa para comparar una distribución empírica con una distribución madre. Este test requiere convertir las dos distribuciones a histogramas cumulativos. El test K-S mide la máxima diferencia, D, entre las dos distribuciones cumulativas y evalúa la probabilidad de que esta diferencia ocurra por azar al extraer datos aleatorios de la muestra madre. Este método se puede usar también para comparar dos distribuciones empíricas en que una de las dos distribuciones juega el rol de distribucion madre.
Lectura Sugerida:
- Generalmente, los experimentos son el resultado de integraciones de multiples distribuciones de probabilidad que no tienen una evaluacion analitica. Una posibilidad es integrar las integrales numericamente evaluando la funcion sobre una grilla regular de N elementos. Cuando hay m variables involucradas, la dificultad numerica aumenta como Nm. Las simulaciones Monte Carlo se usan para evaluar integrales usando un muestreo aleatorio de las variables en vez de una grilla regular.
Por ejemplo, si estamos interesados en averiguar el area de un circulo, podemos generar 100 eventos aleatorios entre x[-1,+1] y[-1,+1] y calcular la fraccion de eventos que cayeron dentro del circulo. Esta simulacion la podemos repetir 100 veces y construir el siguiente histograma, con lo cual podemos estimar trivialmente la incerteza en el area del circulo.
Histograma del área de un círculo obtenida a partir de 100 simulaciones independientes Monte Carlo, cada una con 100 pares de números aleatorios. En azul se muestra una distribución Gaussiana con μ=3.127 y σ=0.156 obtenida a partir de las 100 simulaciones.
En general estaremos interesados en generar una numeros aleatorios para distribuciones no uniformes (e.g. una distribucion normal). Esto se puede lograr haciendo transformacion de variables a partir de r, teniendo en cuenta que la probabilidad integrada en cualquiera de ambas variables debe ser igual.
Este metodo se puede aplicar, por ejemplo, para la distribucion Gausiana y generar desviaciones gausianas.
Histograma de 200 variables aleatorias generadas de una distribución Poissoniana con μ=8.4.
No hay comentarios:
Publicar un comentario