El número de Atwood (A) es un número adimensional utilizado en mecánica de fluidos para el estudio de las inestabilidades hidrodinámicas en flujos de densidad estratificada. Se denomina así en honor del matemático inglés, reverendo George Atwood, creador del experimento de su nombre diseñado para verificar las leyes mecánicas del movimiento uniformemente acelerado.
Se define como la razón:
donde
- = densidad del fluido más pesado
- = densidad del fluido más ligero
De la definición se sigue que el número de Atwood toma valores entre 0 y 1: 0 cuando no hay diferencias de densidad entre los fluidos y 1 cuando el "fluido más ligero" es el vacío, típico caso de estudio en astrofísica.
El número de Atwood es un parámetro importante en el estudio de la inestabilidad de Rayleigh-Taylor y de la inestabilidad de Richtmyer-Meshkov: En la inestabilidad de Rayleigh-Taylor, la distancia de penetración de la burbujas del fluido más pesado en el interior del más ligero es una función de la escala de tiempo de aceleración, , donde es el número de Atwood, es la aceleración de la gravedad y es el tiempo.
La máquina de Atwood
La máquina de Atwood es un clásico ejemplo de la aplicación de la segunda ley de Newton. Como vemos en la figura, consta de dos cuerpos de masas m1 y m2 unidos por una cuerda que pasa por una polea. En la versión más simplificada, se supone que la cuerda es inextensible y sin peso, y que la polea tiene masa despreciable y gira sin rozamiento en el eje.
En la página titulada “Dinámica de rotación y balance energético”, se estudia la máquina de Atwood teniendo en cuenta la masa de la polea.
| |
En esta figura, se representan las fuerzas que actúan sobre cada una de las masas, y la aceleración a, suponiendo que m1>m2. Si T es la tensión de la cuerda, la segunda ley de Newton para cada una de las dos cuerpos se escribe
m1a=m1g-T
m2a=T-m2g
En este sistema dos ecuaciones, despejamos la aceleración a
|
Medida de la viscosidad de un fluido
El cuerpo de masa m1 es una pequeña esfera de radio R que cae en el seno de un fluido de densidad ρ, cuya viscosidad η deseamos determinar.
Las fuerzas que actúan sobre m1 son:
|
Cuando la masa m1 cae, alcanza rápidamente una velocidad límite constante Midiendo con un cronómetro el tiempo t, que tarda la esfera en descender una altura x, obtenemos la velocidad límite vl=x/t. Conocida la velocidad límite calculamos la viscosidad η del fluido.
Cuando la velocidad es constante o la aceleración es cero, las ecuaciones del movimiento de los dos cuerpos se escriben
m1g-T-E-Fr=0
T-m2g=0
T-m2g=0
Despejamos la velocidad límite vl de fuerza de rozamiento Fr.
En la experiencia, vamos cambiando la masa m2 y medimos la velocidad límite vl. Si representamos vl en función de m2 obtendremos un conjunto de puntos que se situarán próximos a la recta
cuya pendiente es
Cuando la masa m2 supera un valor límite, la esfera asciende en vez de descender. El valor de m2 para el cual la velocidad límite vl es cero es
Variación de la viscosidad con la temperatura
La viscosidad disminuye muy rápidamente a medida que se incrementa la temperatura. La relación entre las dos magnitudes viene dada por la fórmula empírica
η=a·exp(b/T)
donde T es la temperatura en kelvin, y a y b son dos parámetros que dependen del tipo de líquido. Para la glicerina se ha tomado a=4.289·10-12, b=7786.1. Para T=20ºC=293 K la viscosidad es
La figura muestra la representación gráfica de esta función, en el eje horizontal la temperatura se expresa en grados Celsius.
La función de autocorrelación se define como la correlación cruzada de la señal consigo misma. La función de autocorrelación resulta de gran utilidad para encontrar patrones repetitivos dentro de una señal, como por ejemplo, la periodicidad de una señal enmascarada bajo el ruido o para identificar la frecuencia fundamental de una señal que no contiene dicha componente, pero aparecen numerosas frecuencias armónicas de esta.- ......................................:http://es.wikipedia.org/w/index.php?title=Autocorrelaci%C3%B3n&printable=yes
¿Qué es la función de autocorrelación (fac)?
La función de autocorrelación (fac) y la función de autocorrelación parcial (facp) miden la relación estadística entre las observaciones de una serie temporal. Por ejemplo, el coeficiente de autocorrelación entre la variable yt y la misma variable un período antes, yt-1, al que denominaremos coeficiente de autocorrelación de primer orden, se formula como:
Dado el supuesto de estacionariedad, se tiene que var(yt) = var(yt-1) , por lo que
En general, para un desfase de k períodos se tiene que:
y cuando k=0,
A efectos de la identificación del modelo, debemos comparar el valor que esta función presentaría para los distintos modelos teóricos, con una estimación de la misma para nuestra serie. Pues bien, el estimador muestral de la fac, para el que utilizaremos la expresión rk, viene dado, con ciertas condiciones y aproximaciones que no trataremos aquí por:
AUTOCORRELACIÓN
La autocorrelación se puede definir como la correlación entre miembros de series de observaciones ordenadas en el tiempo (información de series de tiempo) o en el espacio (información de corte de transversal). El modelo de regresión lineal supone que no debe existir autocorrelación en los errores , es decir, el término de perturbación relacionado con una observación cualquiera no debería estar influenciado por el término de perturbación relacionado con cualquier otra observación.
para todo
Causas de la Autocorrelación
Algunas de las causas son las siguientes :
Trabajo con datos de serie temporal: cuando se trabaja con datos de corte longitudinal (p.e.: una variable explicativa cuyas observaciones correspondan a valores obtenidos en instantes temporales sucesivos), resulta bastante frecuente que el término de perturbación en un instante dado siga una tendencia marcada por los términos de perturbación asociados a instantes anteriores. Este hecho da lugar a la aparición de autocorrelación en el modelo.
Especificación errónea en la parte determinista del modelo (autocorrelación espuria):
1. Omisión de variables relevantes: en tal caso, las variables omitidas pasan a formar parte del término de error y, por tanto, si hay correlación entre distintas observaciones de las variables omitidas, también la habrá entre distintos valores de los términos de perturbación.
2. Especificación incorrecta de la forma funcional del modelo: si usamos un modelo inadecuado para describir las observaciones (p.e.: un modelo lineal cuando en realidad se debería usar un modelo cuadrático), notaremos que los residuos muestran comportamientos no aleatorios (i.e.: están correlacionados).
Transformaciones de los datos: determinadas transformaciones del modelo original podrían causar la aparición de autocorrelación en el término de perturbación del modelo transformado (incluso cuando el modelo original no presentase problemas de autocorrelación).
Trabajo con modelos dinámicos: cuando se trabaja con series temporales suele ser habitual considerar modelos de regresión que incluyan no sólo los valores actuales sino también los valores retardados (pasados) de las variables explicativas. Es el caso de un modelo de retardos distribuidos de orden s o RD(s):
Otro tipo de modelo dinámico que presentaría problemas de autocorrelación sería aquel que incluyese entre sus variables explicativas uno o más valores retardados de la variable dependiente. Este otro tipo de modelo dinámico se conoce como modelo autorregresivo de orden s o AR(s):
Otra causa común de la autocorrelación es la existencia de tendencias y ciclos en los datos. Es decir, la mayoría de las variables económicas no son estacionarias en media. Esto significa que si la variable endógena del modelo tiene una tendencia creciente o presenta un comportamiento cíclico que no es explicado por las exógenas, el término de error recogerá ese ciclo o tendencia.
Consecuencias de la Autocorrelación:
La consecuencia más grave de la autocorrelación de las perturbaciones es que la estimación MCO deja de ser eficiente y la inferencia estadística también se verá afectada. Las consecuencias dependen del tipo de autocorrelación (positiva o negativa):
1. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los residuos esta subestimada, si el tipo de autocorrelación es negativa, se tiene una sobrestimación de la misma.
2. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los coeficientes (betas) esta subestimada, si el tipo de autocorrelación es negativa, se tiene una sobrestimación de la misma.
3. Cuando se tiene autocorrelación positiva, los intervalos de confianza son angostos, si el tipo de autocorrelación es negativa, se tienen intervalos de confianza más amplios.
4. Cuando se tiene autocorrelación positiva, se tiende a cometer error tipo I (rechazar la hipótesis nula cuando es verdadera), si el tipo de autocorrelación es negativa, se tiende a cometer error tipo II (no rechazar la hipótesis nula cuando es falsa).
5. Los son lineales, insesgados, pero ineficientes (no tienen varianza mínima).
6. Las pruebas y pierden validez.
Detección de la Autocorrelación:
Para analizar la posible presencia de autocorrelación en el modelo se suele recurrir a dos técnicas complementarias: (1) el análisis gráfico de los residuos (obtenidos al realizar la regresión por MCO), y (2) los contrastes de hipótesis específicos (test de Durbin-Watson, test h de Durbin, test de Breusch-Godfrey, test Q de Box-Pierce, etc.).
Análisis Gráfico:
Al realizar la regresión por MCO, se pueden graficar los residuos (o, alternativamente, los residuos estandarizados, es simplemente dividir por el error estandar de la estimación ) frente al tiempo. Dado que los residuos MCO son estimadores consistentes de los términos de perturbación, si se aprecian en el gráfico anterior patrones de comportamiento sistemático (no aleatorio) podremos afirmar que los términos de perturbación presentan algún tipo de autocorrelación.
Contrastes:
Test de Durbin-Watson
Es la prueba mas conocida para detectar correlación serial; permite contrastar si el término de perturbación está autocorrelacionado. Dicha prueba presenta algunos supuestos:
Es válido para autocorrelación serial de 1° orden en los residuos, no aplica para modelos con variable dependiente rezagada como variable explicativa, las variables explicativas son no estocásticas (son fijas en muestreo repetido), el modelo de regresión lineal debe incluir el intercepto, y no hay observaciones faltantes en los datos.
Una vez hallado DW, es posible usar su valor para estimar el coeficiente de autocorrelación simple mediante la expresión:
El estadístico DW es un valor comprendido entre 0 y 4. Como se observa en el siguiente gráfico, para valores de DW cercanos a 2 no rechazaremos la hipótesis nula, por el contrario, para valores de DW alejados de 2, sí rechazaremos la hipótesis nula
Tabla de decisión:
, se rechaza , existe autocorrelación positiva.
, se rechaza , existe autocorrelación negativa.
, no se rechaza , no existe autocorrelación.
o , el contraste no es concluyente.
Los pasos a seguir de este contraste son:
1. Estimación por mínimos cuadrados ordinarios (MCO) del modelo de regresión.
2. Cálculo de los residuos MCO.
3. Obtención del estadístico d (experimental) de Durbin-Watson.
4. Búsqueda de los niveles críticos del contraste.
5. Aplicación de la regla de decisión.
Un inconveniente que presenta este contraste es que a veces puede no ser concluyente, por lo que hay que considerar, utilizando otros criterios, si existe o no autocorrelación.
Ejemplo en Stata:
Se trabajara con la base de datos PHILLIPS.DTA, la cual contiene las siguientes variables:
, indica el año.
, es la tasa de inflación.
, es la tasa de desempleo.
Con el fin de realizar estimaciones de series de tiempo en Stata, es importante escribir el siguiente comando:
tsset year
Donde es la variable que contiene los años.
Automáticamente el sistema reconoce la serie de tiempo, y muestra:
time variable: year, 1948 to 1996
Salida en Stata: reg inf unem
Source | SS df MS Number of obs = 49
-------------+------------------------------ F( 1, 47) = 2.62
Model | 25.6369575 1 25.6369575 Prob > F = 0.1125
Residual | 460.61979 47 9.80042107 R-squared = 0.0527
-------------+------------------------------ Adj R-squared = 0.0326
Total | 486.256748 48 10.1303489 Root MSE = 3.1306
------------------------------------------------------------------------------
inf | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
unem | .4676257 .2891262 1.62 0.112 -.1140213 1.049273
_cons | 1.42361 1.719015 0.83 0.412 -2.034602 4.881822
------------------------------------------------------------------------------
Una vez estimada la regresión, se procede a ejecutar el siguiente comando con el cual se obtiene el estadístico Durbin-Watson:
estat dwatson o dwstat
Durbin-Watson d-statistic( 2, 49) = .8027005
Si se quiere estimar el Durbin-Watson por las ventanas en Stata 9, la ruta a seguir es:
Statistics/time-series/tests/time series epecification tests after regress
Automáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.
La ruta a seguir en Stata 8.2 es:
Statistics/time-series/tests/Durbin-Watson d statistics after regress
Automáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.
Teniendo en cuenta que DW es 0.8027, gráficamente se tiene:
Por tanto se rechaza la hipótesis nula, hay autocorrelación.
Prueba de Breusch – Godfrey (BG) sobre autocorrelación de orden superior
Este estadístico es muy sencillo de calcular y resuelve los problemas del contraste de Durbin-Watson; por ejemplo, los regresores incluidos en el modelo pueden contener valores rezagados de la variable dependiente, es decir, , etc. Pueden aparecer como variables explicativas.
Supóngase que el termino de perturbación es generado por el siguiente esquema autorregresivo de orden :
Donde es un término de perturbación puramente aleatorio con media cero y varianza constante.
Dado el modelo anterior, la hipótesis será:
No hay autocorrelación de ningún orden.
Dicha hipótesis puede ser probada de la siguiente manera:
1. Estimación por MCO del modelo de regresión y obtención de los residuos MCO
.
2. Estimación de una regresión auxiliar de los residuos sobre p retardos de los
mismos, .
3. Obtención del coeficiente de determinación ( ) de la regresión auxiliar ( ).
4. Si el tamaño de la muestra es grande, Breusch y Golfrey han demostrado que:
se distribuye con con g.l.
5. Si el valor calculado excede el valor critico de al nivel de significancia seleccionado, se puede rechazar la hipótesis nula, en cuyo caso, por lo menos un es significativamente diferente de cero (se admite que hay autocorrelación), en caso contrario no habría autocorrelación.
Ejemplo en Stata:
El comando a ejecutar es:
estat bgodfrey o bgodfrey
Breusch-Godfrey LM test for autocorrelation
---------------------------------------------------------------------------
lags(p) | chi2 df Prob > chi2
-------------+-------------------------------------------------------------
1 | 18.472 1 0.0000
---------------------------------------------------------------------------
H0: no serial correlation
De acuerdo a la salida anterior, se puede observar que el p-valor asociado al es 0.000, lo cual confirma la presencia de autocorrelación.
Si se quiere estimar la prueba Breusch – Godfrey por las ventanas en Stata 9, la ruta a seguir es:
Statistics/time-series/tests/time series epecification tests after regress
utomáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.
La ruta a seguir en Stata 8.2 es:
Statistics/time-series/tests/Breusch-Godfrey LM test for autocorrelation
Automáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.
Como solucionar la autocorrelación
Cuando es conocido:
1. se tiene:
(a)
(b)
2. Multiplico (b) por , y se tiene:
(c)
4. Se resta (a)-(c):
5.
(d)
Donde
6. Estimo (d) por MCO.
Cuando desconocida:
Se utiliza en algoritmo de Cochrane Orcutt: Considérese el siguiente modelo:
(e)
Y supóngase que , es generado por el esquema AR(1):
Cochrane Orcutt recomienda realizar los siguientes pasos:
1. Estimar (e) por MCO y se obtener .
2. Utilizando los residuos estimados , realizo las siguiente regresión:
(f)
3. Utilizando obtenido en la regresión anterior, efectúese la ecuación en diferencia planteada en (d) por MCO.
4. Obtengo los y los sustituyo en (a).
5. Se estima nuevamente:
; donde es la estimación de de (f).
6. Se continúan haciendo estimaciones, y se suspenden las iteraciones cuando las estimaciones consecutivas de difieren en una cantidad muy pequeña, es decir, en menos de 0.01 o 0.05.
Ejemplo en Stata:
Para ejecutar el algoritmo de Cochrane Orcutt en Stat por comando, se escribe:
prais inf unem, corc
Iteration 0: rho = 0.0000
Iteration 1: rho = 0.5727
Iteration 2: rho = 0.7160
Iteration 3: rho = 0.7611
Iteration 4: rho = 0.7715
Iteration 5: rho = 0.7735
Iteration 6: rho = 0.7740
Iteration 7: rho = 0.7740
Iteration 8: rho = 0.7740
Iteration 9: rho = 0.7741
Iteration 10: rho = 0.7741
Cochrane-Orcutt AR(1) regression -- iterated estimates
Source | SS df MS Number of obs = 48
-------------+------------------------------ F( 1, 46) = 4.33
Model | 22.4790685 1 22.4790685 Prob > F = 0.0430
Residual | 238.604008 46 5.18704365 R-squared = 0.0861
-------------+------------------------------ Adj R-squared = 0.0662
Total | 261.083076 47 5.55495907 Root MSE = 2.2775
------------------------------------------------------------------------------
inf | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
unem | -.6653356 .3196035 -2.08 0.043 -1.308664 -.0220071
_cons | 7.583458 2.38053 3.19 0.003 2.7917 12.37522
-------------+----------------------------------------------------------------
rho | .7740512
No hay comentarios:
Publicar un comentario