martes, 10 de noviembre de 2015

Física matemática

Densidad espectral


Densidad Espectral (Spectral Density) de una señal es una función matemática que nos informa de cómo está distribuida la potencia o la energía (según el caso) de dicha señal sobre las distintas frecuencias de las que está formada, es decir, su espectro.

La definición matemática de la Densidad Espectral (DE) es diferente dependiendo de si se trata de señales definidas en energía, en cuyo caso hablamos de Densidad Espectral de Energía (DEE), o en potencia, en cuyo caso hablamos de Densidad Espectral de Potencia (DEP).

Aunque la densidad espectral no es exactamente lo mismo que el espectro de una señal, a veces ambos términos se usan indistintamente, lo cual, en rigor, es incorrecto.

Definición matemática

Para el caso de señales definidas en energía

Una señal x(t) es definida en energía si su energía media es finita, i.e,  0 < E_x < \infty y por tanto, su potencia media es cero. Otra forma de decir lo mismo es si la integral de su valor absoluto al cuadrado existe y es finita.
Su DEE es
S_{xx}(f) = \left|X(f)\right|^2 expresado en [J/Hz]
donde X(f) es la Transformada de Fourier de x(t), la integral de esta función en todo el eje f es el valor de la energía total de la señal x(t)
E=\int_{-\infty}^{+\infty} S_{xx}(f) df

señales definidas en potencia

Una señal x(t) es definida en potencia si su potencia media es finita, i.e,  0 < P_x < \infty y por tanto, su energía media es infinita,  E_x=\infty.
La DEP se calcula usando el teorema de Wiener-Khintchine el cual relaciona la DEP con la transformada de Fourier de la función de autocorrelación
S_{xx}(f)=\mbox{TF}\left\{R_{xx}(\tau)\right\}=\int_{-\infty}^{\infty}\,R_{xx}(\tau)\,e^{-2\pi\,if\tau}\,d \tau expresado en [W/Hz]
donde \mbox{TF} significa Transformada de Fourier y R_{xx} es la función de autocorrelación de x(t).
El valor S_{xx}(0) es la potencia de la componente continua (DC) de la señal. La integral de esta función en todo el eje f es el valor de la potencia total de la señal x(t)
P=\int_{-\infty}^{+\infty} S_{xx}(f) df
Usando el concepto de correlación cruzada es posible definir también la densidad espectral cruzada.
S_{xy}(f)=\mbox{TF}\left\{R_{xy}(\tau)\right\}

Nota: En realidad, la definición de la DEP sirve también para las señales definidas en energía, que serían un caso particular. En este caso la Transformada de Fourier de la autocorrelación de la señal x(t) sería simplemente la transformada de Fourier de la señal x(t) al cuadrado, es decir, la DEE.

Propiedades

Relativas a los sistemas lineales e invariantes con el tiempo

En un sistema lineal e invariante con el tiempo en el que x(t) es la entrada, h(t) la respuesta al impulso e y(t) la salida del sistema. Tenemos las siguientes propiedades:
m_y = m_x \cdot H(0)
S_{yy}(\omega)=S_{xx}(\omega) \cdot |H(\omega)|^2
S_{xy}(\omega)=S_{xx}(\omega) \cdot H^*(\omega)
S_{yx}(\omega)=S_{xy}^*(\omega) = S_{xx}(\omega) \cdot H(\omega)
donde m_y es la media de y(t) y S_{xy} es la densidad espectral cruzada entre x(t) e y(t)

Suma de procesos

En general, la Densidad Espectral de la suma NO es suma de Densidades Espectrales. Esto sólo es cierto si ambos procesos no están correlacionados. En general, si tenemos:
z(t) = x(t) + y(t)
donde x(t) e y(t) son conjuntamente estacionarios, entonces
R_{zz}(\tau) = R_{xx}(\tau) + R_{yy}(\tau) + R_{xy}(\tau) + R_{yx}(\tau) \,
S_{zz}(\omega) = S_{xx}(\omega) + S_{yy}(\omega) + S_{xy}(\omega) + S_{yx}(\omega) \,
S_{zz}(\omega) = S_{xx}(\omega) + S_{yy}(\omega) + S_{xy}(\omega) + S_{xy}^*(\omega) \,
S_{zz}(\omega) = S_{xx}(\omega) + S_{yy}(\omega) + 2\mbox{Re}\left[S_{xy}(\omega)\right]

Estimación de la densidad espectral

Un problema muy común y con grandes aplicaciones prácticas en procesado de señal es el de estimar la densidad espectral de potencia de una señal aleatoria estacionaria. Decimos "estimar" puesto que, como la señal es un proceso estocástico (estacionario) dada la naturaleza estocástica del mismo no es posible determinar con absoluta precisión su DEP a no ser que dispongamos de un registro de señal infinito, lo cual no es posible.
Las técnicas de estimación se dividen en dos grandes grupos:
  • No Paramétricas. Están basadas siempre de una u otra forma en el cálculo del periodograma. Calcular la transformada de fourier (en un ordenador es la DFT) de un registro de señal para estimar su espectro es un ejemplo de técnica no paramétrica.
  • Paramétricas. Consisten en suponer un determinado modelo para el proceso estocástico (modelos ARMAARMA, etc) y en la estimación de los parámetros de estos modelos mediante técnicas de predicción lineal (filtrado lineal óptimo) u otros métodos.

Acerca de los procesos estocásticos no estacionarios

La DE sólo está matemáticamente bien definida en el caso de señales con una función de autocorrelación estacionaria, i.e, que no dependa de la posición de las variables aleatorias que componen el proceso sino sólo de la distancia entre ellas. Es decir, la DE sólo está bien definida para el caso de señales deterministas y señales aleatorias estacionarias.
Un proceso aleatorio no estacionario que es estacionario a trozos se llama cuasi-estacionario y es posible definir la DEP en cada uno de estos trozos. Para estimar la DEP en este tipo de procesos lo normal es usar un método de estimación espectral paramétrico adaptativo (por ejemplo mediante un modelo AR y el algoritmo LMS para identificar el modelo AR).

Aplicaciones

  • Intuitivamente, la Densidad Espectral sirve para identificar periodicidades escondidas en una función de variable continua o de variable discreta (secuencia de números)
  • Estimar la entropía de un proceso aleatorio (las señales deterministas obviamente no tienen entropía). Cuanto más plana es la DEP de una señal aleatoria, más entropía contiene. Una señal aleatoria cuya DEP sea perfectamente plana se llama ruido blanco, no contiene redundancia y por tanto no puede ser comprimida (sin pérdidas).
  • Una vez conocida su entropía, comprimir con o sin pérdidas una señal de audio o vídeo (codecs FLAC/MP3/OGG, DIVX/THEORA/etc) o restaurar sus propiedades
  • Proporciona información muy valiosa sobre la dinámica interna de muchos sistemas físicos. Sirve para identificar elementos o compuestos químicos (espectroscopia). También sirve para la identificación de modelos matemáticos lineales en teoría de control.

Densidad espectral de Potencia

En el ejemplo de la potencia del coseno de frecuencia f0 realizado anteriormente, no nos da información de como esta repartida o esparcida en frecuencia la potencia, solo nos dice su valor. Conociendo la transformada de Fourier nosotros podemos intuir que el grueso de la potencia estará centrado en f0, por ello, nos puede interesar saber como está distribuida la potencia en función de la frecuencia, para ello, se define la densidad espectral de potencia.
\begin{align}
  & E_{x}=\int_{-\infty }^{\infty }{\left| x(t) \right|^{2}}\partial t=\int_{-\infty }^{\infty }{\underbrace{\left| X(f) \right|^{2}}_{\begin{smallmatrix} 
 \text{Densidad } \\ 
 \text{espectral} 
 \\ 
 \text{de energia} 
\end{smallmatrix}}}df \\ 
 & P_{x}=\underset{T\to \infty }{\mathop{\lim }}\,\text{ }\frac{1}{T}\cdot \int\limits_{-\infty }^{\infty }{\left| x(t) \right|^{2}}\partial t=\underset{T\to \infty }{\mathop{\lim }}\,\text{ }\frac{1}{T}\cdot \int\limits_{-\infty }^{\infty }{\left| X(f) \right|^{2}}\partial f=\int\limits_{-\infty }^{\infty }{\underbrace{\underset{T\to \infty }{\mathop{\lim }}\,\text{ }\frac{\left| X(f) \right|^{2}}{T}}_{\begin{smallmatrix} 
 \text{D}\text{.E}\text{.P}\text{.} \\ 
 \text{Densidad Espectral} 
 \\ 
 \text{de Potencia} 
\end{smallmatrix}}}\partial f=\int\limits_{-\infty }^{\infty }{G_{x}(f)}\partial f \\ 
 & G_{x}(f)=\underset{T\to \infty }{\mathop{\lim }}\,\text{ }\frac{\left| X(f) \right|^{2}}{T} \\ 
 & P_{x}=\int\limits_{-\infty }^{\infty }{G_{x}(f)}\partial f \\ 
\end{align}
Las siglas de DEP en inglés son PSD (Power Spectral Density)
La densidad espectral de potencia difiere de la densidad espectral de energía en que la primera no toma valores infinitos, al estar dividida por T, con lo que podemos representarlo graficamente de forma adecuada. La segunda en cambio, al estar representando la dispersion de la energía en frecuencia y, al ser la energía infinita (con señal periódica), tendrá probablemente zonas de frecuencia que tomen valores infinitos. Como su nombre indican la densidad espectral de potencia nos muestra como esta dispersada la potencia en función de la frecuencia, mientras que la densidad espectral de energía, como esta dispersada la energía.
Probemos ahora, a sacar la DEP de un coseno.
\begin{align}
  & x(t)=A\cos (2\pi f_{o}t) \\ 
 & \text{Sabemos que:  }E_{x}=\int_{-\infty }^{\infty }{\left| x(t) \right|^{2}\partial t=\infty },\text{  }E_{T}=\frac{A^{2}}{2}\cdot T_{0}\to P_{x}=\frac{E_{T}}{T}=\frac{A^{2}}{2} \\ 
 & P_{x}=\int_{-\infty }^{\infty }{G_{x}(f)\partial f};\text{     }G_{x}(f)=\underset{T\to \infty }{\mathop{\lim }}\,\frac{\left| X(f) \right|^{2}}{T} \\ 
 & X(f)=\frac{A}{2}\left( \delta (f-f_{0})+\delta (f+f_{0}) \right) \\ 
 & \left| X(f) \right|^{2}=\frac{A^{2}}{4}\left( \delta (f-f_{0})+\delta (f+f_{0}) \right)\cdot \left( \delta (f-f_{0})+\delta (f+f_{0}) \right)= \\ 
 & \frac{A^{2}}{4}\cdot \left( \delta (\underbrace{f_{0}-f_{0}}_{0})+\delta (0+f_{0})+\delta (0-f_{0})+\delta (\underbrace{-f_{0}+f_{0}}_{0}) \right)=\frac{A^{2}}{4}\cdot \left( \infty +0+0+\infty  \right) \\ 
 & G_{x}(f)=\underset{T\to \infty }{\mathop{\lim }}\,\frac{\left| X(f) \right|^{2}}{T}=\frac{A^{2}}{4T}\cdot \left( \infty +0+0+\infty  \right)=? \\ 
\end{align}
Primeramente, la densidad espectral de energía da infinito (lógico), y la densidad espectral de potencia no podemos resolverla, pues estamos trabajando con valores que tienden a infinito en ciertos puntos, porlo que no nos ha sido de utilidad la función para ver la dispersion de potencia. Para solucionarlo definimos una nueva función.








Difeomorfismo


 difeomorfismo es un isomorfismo en la categoría de las variedades diferenciables (es decir, un difeomorfismo es un homeomorfismo diferenciable con inversa diferenciable). Como tal un difeomorfismo es una aplicación que posee aplicación inversa, siendo ambas aplicaciones diferenciables.

Definición

Dadas dos variedades \mathcal{M} y \mathcal{N}, una aplicación diferenciable f:\mathcal{M} \to \mathcal{N} es un difeomorfismo si es una aplicación biyectiva y su inversa f^{-1}:\mathcal{N}  \to \mathcal{M}también es diferenciable. Si estas funciones son r veces diferenciables con continuidad, entonces f es un Cr-difeomorfismo o difeomorfismo de clase Cr.
Dos variedades \mathcal{M} y \mathcal{N} son difeomorfas (\mathcal{M} \approx \mathcal{N}) si existe un difeomorfismo f entre ellas.

Difeomorfismos de subconjuntos de variedades

Dado un subconjunto X de una variedad X\subset \mathcal{M} y un subconjunto Y\subset \mathcal{N}, una función f:X \to Y es diferenciable (suave) si para cada p \in X si existe unentorno U\subset \mathcal{M} de y una función diferencialbe (suave) g:U \to Y tal que g_{|U \cap X} = f_{|U \cap X} (nótese que g es una extensión de f). Se dice además que f es un difeomorfismo si es biyectiva, diferenciable y su inversa diferenciable.

Descripción local

Ejemplo canónico. Si UV son subconjuntos abiertos conexos de \R^n tales que V es además simplemente conexo, una aplicación diferenciable f : U → V es undifeomorfismo, si es una aplicación propia y si la aplicación progrediente o diferencial Dfx : Rn → Rn es biyectiva en todo punto x de U.
Comentario 1. Es esencial que U sea simplemente conexo para que la función f sea globalmente invertible (si únicamente se exige la condición de que la derivada sea biyectiva en cualquier punto). Por ejemplo, considérese la "realificación" de la función compleja z2:
\begin{cases}
f : \mathbf{R}^2 \setminus \{(0,0)\} \to \mathbf{R}^2 \setminus \{(0,0)\} \\
(x,y)\mapsto(x^2-y^2,2xy)
\end{cases}
Entonces f es suprayectiva y satisface
\det Df_x=4(x^2+y^2)\neq0
así Dfx es biyectiva en todos los punntos aunque f no admite inversa, porque no es biyectiva, e.g., f(1,0) = (1,0) = f(−1,0).

Ejemplos

Puesto que cualquier variedad puede ser parametrizada localmente mediante \R^n, podemos considerar algunas aplicaciones explícitas:
  • Sea
f(x,y) = \left (x^2 + y^3, x^2 - y^3 \right ).
Podemos calcular la matriz jacobiana:
 J_f = \begin{pmatrix} 2x & 3y^2 \\ 2x & -3y^2 \end{pmatrix} .
Esta matriz jacobiana tiene determinante cero si, y sólo si xy = 0. Vemos pues que f es un difeomorfismo sobre cualquier conjunto que no se interseque con los ejes X o Y.
  • Sea
g(x,y) = \left (a_0 + a_{1,0}x + a_{0,1}y + \cdots, \ b_0 + b_{1,0}x + b_{0,1}y + \cdots \right )
donde las a_{i,j} y b_{i,j} son números reales arbitrarios y los términos omitidos son de grado al menos dos en x e y. Calculamos la matriz jacobiana en el punto 0:
 J_g(0,0) = \begin{pmatrix} a_{1,0} & a_{0,1} \\ b_{1,0} & b_{0,1} \end{pmatrix}.
Vemos que g es un isomorfismo local en 0 si, y sólo si
a_{1,0}b_{0,1} - a_{0,1}b_{1,0} \neq 0,
es decir, los términos lineales en las componentes de g son linealmente independientes, como polinomios.




No hay comentarios:

Publicar un comentario