miércoles, 11 de noviembre de 2015

Física matemática

Integrales típicas en teoría cuántica de campos


integrales típicas en teoría cuántica de campos que aparecen continuamente al aplicarla a los problemas concretos de la teoría.1 Estas integrales son todas variaciones y generalizaciones de integrales gaussianas en el plano complejo y en varias (muchas, o incluso infinitas) dimensiones. Otro conjunto de integrales pueden ser aproximadas por integrales gaussianas. También se presentan transformaciones de Fourier.

Integral gaussiana en una dimensión

Integral Gaussiana

La primera integral aquí presentada, de uso común también en aplicaciones diferentes a la teoría cuántica de campos, es la integral gaussiana, que es la integral sobre todo su dominio de la campana de Gauss.
 G \equiv \int_{-\infty}^{\infty} e^{-{1 \over 2} x^2}\,dx
En Física, es habitual usar un factor 1/2 en el argumento de la exponencial.
La forma usual de resolver esta integral es intentando resolver su versión bidimensional haciendo uso de la propiedad de factorización de la integral respecto a la suma de argumentos y de un cambio de variables de cartesianas a polares:
 G^2 = \left ( \int_{-\infty}^{\infty} e^{-{1 \over 2} x^2}\,dx \right ) \cdot \left ( \int_{-\infty}^{\infty} e^{-{1 \over 2} y^2}\,dy \right ) = 2\pi \int_{0}^{\infty} r e^{-{1 \over 2} r^2}\,dr = 2\pi \int_{0}^{\infty} e^{- w}\,dw = 2 \pi.
Con lo que se obtiene el resultado buscado
 \int_{-\infty}^{\infty} e^{-{1 \over 2} x^2}\,dx = \sqrt{2\pi}.

Una minúscula generalización de la integral gaussiana

 \int_{-\infty}^{\infty} e^{-{1 \over 2} a x^2}\,dx = \sqrt{2\pi \over a}
donde hemos reescalado la variable
 x \rightarrow {x \over \sqrt{a}} .

Integrales de gaussianas con potencias pares de x

 \int_{-\infty}^{\infty} x^2 e^{-{1 \over 2} a x^2}\,dx = -2{d\over da} \int_{-\infty}^{\infty} e^{-{1 \over 2} a x^2}\,dx = -2{d\over da} \left ( {2\pi \over a } \right ) ^{1\over 2} = \left ( {2\pi \over a } \right ) ^{1\over 2} {1\over a}
y
 \int_{-\infty}^{\infty} x^4 e^{-{1 \over 2} a x^2}\,dx = \left ( -2{d\over da} \right) \left ( -2{d\over da} \right) \int_{-\infty}^{\infty} e^{-{1 \over 2} a x^2}\,dx = \left ( -2{d\over da} \right) \left ( -2{d\over da} \right) \left ( {2\pi \over a } \right ) ^{1\over 2} = \left ( {2\pi \over a } \right ) ^{1\over 2} {3\over a^2}
En general:
 \int_{-\infty}^{\infty} x^{2n} e^{-{1 \over 2} a x^2}\,dx = \left ( {2\pi \over a } \right ) ^{1\over {2}} {1\over a^{n}} \left ( 2n -1 \right ) \left ( 2n -3 \right ) \cdots 5 \cdot 3 \cdot 1 = \left ( {2\pi \over a } \right ) ^{1\over {2}} {1\over a^{n}} \left ( 2n -1 \right )!!
Nótese que, en el caso en el que tengamos potencias impares de x, la integral se anula debido a la simetría impar del argumento, por lo que
 \int_{-\infty}^{\infty} x^{2n + 1} e^{-{1 \over 2} a x^2}\,dx = 0

Integrales con un término lineal en el argumento de la exponencial

 \int_{-\infty}^{\infty} \exp\left( -{1 \over 2} a x^2 + Jx\right ) dx
Esta integral se puede resolver completando el cuadrado.
  \left( -{1 \over 2} a x^2 + Jx\right ) = -{1 \over 2} a \left ( x^2 - { 2 Jx \over a } + { J^2 \over a^2 } - { J^2 \over a^2 } \right ) = -{1 \over 2} a \left ( x -  { J \over a } \right )^2 + { J^2 \over 2a }

\begin{align}
& \int_{-\infty}^\infty \exp\left( -{1 \over 2} a x^2 + Jx\right) \, dx = \exp\left( { J^2 \over 2a } \right ) \int_{-\infty}^\infty \exp \left [ -{1 \over 2} a \left ( x - { J \over a } \right )^2 \right ] \, dx \\[8pt]
& = \exp\left( { J^2 \over 2a } \right )\int_{-\infty}^\infty \exp\left( -{1 \over 2} a x^2 \right) \, dx =  \left ( {2\pi \over a } \right ) ^{1\over 2} \exp\left( { J^2 \over 2a }\right )
\end{align}

Integrales con un término lineal imaginario en el argumento de la exponencial

La integral
 \int_{-\infty}^{\infty} \exp\left( -{1 \over 2} a x^2 + iJx\right ) dx  =  \left ( {2\pi \over a } \right ) ^{1\over 2} \exp\left( -{ J^2 \over 2a }\right )
es proporcional a la transformada de Fourier de la campana de Gauss, donde J  es la variable conjugada de x .
Se puede resolver como el caso anterior completando cuadrados, viendo así que la transformada de Fourier de una gaussiana es también otra guassiana, pero de la variable conjugada. Cuando mayor es el valor de a , más estrecha es la guassiana en x  y más amplia es la gaussiana en J . Este es un caso particular del principio de incertidumbre.

Integrales con un argumento complejo en el exponente

 \int_{-\infty}^{\infty} \exp\left( {1 \over 2} i a x^2 + iJx\right ) dx.
Ahora asumimos que a_{ }^{ } y J_{ }^{ } pueden ser complejos.
Completando el cuadrado
 \left( {1 \over 2} i a x^2 + iJx\right )  =  {1\over 2} ia \left ( x^2 + {2Jx \over a} + \left ( { J \over a} \right )^2 - \left ( { J \over a} \right )^2 \right ) = -{1\over 2} {a \over i} \left ( x + {J\over a} \right )^2 - { iJ^2 \over 2a}.
Por analogía con las integrales previas
 \int_{-\infty}^{\infty} \exp\left( {1 \over 2} i a x^2 + iJx\right ) dx  =  \left ( {2\pi i \over a } \right ) ^{1\over 2} \exp\left( { -iJ^2 \over 2a }\right ).
Este resultado es válido como una integración en el plano complejo siempre que a_{ }^{ } tenga una para imaginaria positiva (por muy pequeña que esta sea).

Integrales gaussianas en varias dimensiones

La integral gaussiana unidimensional puede ser generalizada a n_{ }^{ } dimensiones.2

\int \exp\left( - \frac 1 2 x \cdot A \cdot x +J \cdot x \right) d^nx
=
\sqrt{\frac{(2\pi)^n}{\det A}} \exp \left( {1\over 2} J \cdot A^{-1} \cdot J \right)
Donde A es una matriz simétrica real.
Esta integral se resuelve por medio de una diagonalización de la matriz A por medio de una transformación ortogonal

D_{ }^{ } = O^{-1}  A  O = O^T  A  O
donde D es una matriz diagonal y O es una matriz ortogonal. Esta transformación desacopla las variables de integración, por lo que tenemos n_{ }^{ } integrales unidomensionales que podemos resolver una a una independientemente.
Esto quedará seguramente más claro con un ejemplo en el caso bi-dimensional.

Ejemplo: Integración gaussiana en dos dimensiones

La integral gaussiana en 2 dimensiones es

\int \exp\left( - \frac 1 2 A_{ij} x^i x^j \right) d^2x
=
\sqrt{\frac{(2\pi)^2}{\det A}}
donde  A   es una matriz simétrica bi-dimensional definida como
 A = \bigl[ \begin{smallmatrix}
  a&c\\ c&b
\end{smallmatrix} \bigr]
y donde hemos usado el convenio de sumación de Einstein.

Diagonalización de la matriz

El primer paso es diagonalizar la matriz.3 Nótese que
 A_{ij} x^i x^j \equiv x^T  A  x = x^T  \left( O  O^T\right)  A  \left( O  O^T\right)  x  = \left( x^T  O \right) \left(  O^T  A  O \right) \left(  O^T  x \right)
donde, como  A   es una matriz simétrica real, podemos elegir una matriz ortogonal(y por tanto también unitariaO.
Elegimos la matriz O de tal manera que
 D \equiv   O^T  A  O
sea diagonal.
O puede obtenerse a partir de los autovalores de A.
Autovalores de A
Para obtener los autovectores de A, primero tenemos que conocer los autovalores \lambda de A,
  \bigl[ \begin{smallmatrix}
  a&c\\ c&b
\end{smallmatrix} \bigr] 
\bigl[ \begin{smallmatrix}
  u\\ v
\end{smallmatrix} \bigr] =
\lambda \bigl[ \begin{smallmatrix}
  u\\ v
\end{smallmatrix} \bigr].
Los autovalores de A son las soluciones de su polinomio característico
 \left( a - \lambda \right) \left( b-\lambda\right) -c^2 = 0
que son
  \lambda_{\pm} = {1\over 2}\left( a+b\right) \pm {1\over 2}\sqrt{ \left(a-b\right)^2+4c^2}.
Autovectores de A
Sustituyendo los autovalores otra vez en la ecuación que define los autovectores, tenemos
 v = -{ \left( a - \lambda_{\pm} \right)u \over c }
o
 v = -{cu \over  \left( b - \lambda_{\pm}  \right)}.
De la ecuación característica tenemos que
 { \left( a - \lambda_{\pm} \right)\over c } = {c \over  \left( b - \lambda_{\pm}  \right)}.
Nótese también que
 {\left( a - \lambda_{\pm} \right)\over c } = -{\left( b - \lambda_{\mp}  \right) \over c}.
Los autovectores pueden ser escritos como
  
   \begin{bmatrix}
  {1\over \eta}\\ - \left( {  a - \lambda_{-}  \over c\eta } \right)
\end{bmatrix}
y
  
   \begin{bmatrix}
  - \left( {  b - \lambda_{+}  \over c\eta } \right) \\ { 1\over \eta} 
\end{bmatrix}
Aquí, \eta es una constante de normalización dada por
  
   \eta = \sqrt{ 1 + \left( {  a - \lambda_{-}  \over c } \right)^2 } = \sqrt{ 1 + \left( {  b - \lambda_{+}  \over c } \right)^2 }.
Es fácil verificar que los 2 autovectores son ortogonales entre sí.
Construcción de la matriz ortogonal
La matriz ortogonal O se construye usando los autovectores normalizados de la matriz A como columnas de la matriz ortogonal.
  
O =  \begin{bmatrix}
  {1\over \eta } & -\left( {  b - \lambda_{+}  \over c \eta }\right) \\ -\left( {  a - \lambda_{-}  \over c \eta }\right) & {1\over \eta }
\end{bmatrix}.
Nótese que el determinante de O, al ser una matriz unitaria, es igual a uno.
Si definimos
 \sin \left( \theta \right) \equiv  -\left( {  a - \lambda_{-}  \over c \eta }\right)
entonces, la matriz ortogonal puede escribirse como
  
O =  \begin{bmatrix}
  \cos \left( \theta \right) & -\sin \left( \theta \right) \\ \sin \left( \theta \right) & \cos \left( \theta \right)
\end{bmatrix}
lo que representa una rotación de los autovectores.
La inversa de esta matriz es
  
O^{-1} = O^T =  \begin{bmatrix}
  \cos \left( \theta \right) & \sin \left( \theta \right) \\ -\sin \left( \theta \right) & \cos \left( \theta \right)
\end{bmatrix}.
Matriz diagonal
La matriz diagonal es
  
D = O^T A O =  \begin{bmatrix}
 \lambda_{-}&0\\ 0 & \lambda_{+}
\end{bmatrix}
con autovectores
  
  \begin{bmatrix}
 1\\ 0
\end{bmatrix}
y
  
  \begin{bmatrix}
 0\\ 1
\end{bmatrix}
Ejemplo numérico
  
A =  \begin{bmatrix}
 2&1\\ 1 & 1
\end{bmatrix}
Los autovalores son

\lambda_{\pm}  =  {3\over 2} \pm {\sqrt{ 5} \over 2}.
Los autovectores son
  {1\over \eta}
  \begin{bmatrix}
  1\\ { -{1\over 2} - {\sqrt{ 5} \over 2} }
\end{bmatrix}
y
  {1\over \eta}
  \begin{bmatrix}
  { {1\over 2} + {\sqrt{ 5} \over 2 } } \\  1  
\end{bmatrix}
donde
  \eta = \sqrt{ {5\over 2} + {\sqrt{5}\over 2} }
     .
La matriz ortogonal es
  O =
  \begin{bmatrix}
  {1\over \eta} & {1\over \eta} \left({ {1\over 2} + {\sqrt{ 5} \over 2}   }\right) \\ {1\over \eta} \left({ -{1\over 2} - {\sqrt{ 5} \over 2}   }\right) & {1\over \eta}
\end{bmatrix}.
Es fácil comprobar que el determinante de O es 1.
La matriz inversa de O es
  O =
  \begin{bmatrix}
  {1\over \eta} & {1\over \eta} \left({ -{1\over 2} - {\sqrt{ 5} \over 2}   }\right) \\ {1\over \eta} \left({ {1\over 2} + {\sqrt{ 5} \over 2}   }\right) & {1\over \eta}
\end{bmatrix}.
Por lo que la matriz diagonal D es
  D = O^TAO = 
  \begin{bmatrix}
  \lambda_{-} &0\\ 0 & \lambda_{+}
\end{bmatrix} =

  \begin{bmatrix}
  \left({ {3\over 2} - {\sqrt{ 5} \over 2}   }\right)& 0\\ 0 & \left({ {3\over 2} + {\sqrt{ 5} \over 2}   }\right)
\end{bmatrix}
con autovectores
  
  \begin{bmatrix}
  1\\ 0 
\end{bmatrix}
y
   \begin{bmatrix}
  0\\ 1
\end{bmatrix}.

Reescalado de las variables e integración

Tras la diagonalización, la integral a resolver se puede escribir como
   
\int \exp\left( - \frac 1 2 x^T A x \right) d^2x
= \int \exp\left( - \frac 1 2 \sum_{j=1}^{2} \lambda_{j} y_{j}^{2} \right) \, d^{2}y,
donde
   y_{ }^{ } = O^T x  .
Como la transformación de coordenadas aplicada es una rotación, el determinante jacobiano de la transformación es igual a la unidad, por lo que
   dy_{ }^{2}  = dx^{2}  .
Con lo que ya podemos resolver la integral
   
\int \exp\left( - \frac 1 2 x^T A x \right) d^2x
= \int \exp\left( - \frac 1 2 \sum_{j=1}^2 \lambda_{j} y_j^2 \right) d^2y
= \prod_{j=1}^2 \left( { 2\pi \over \lambda_j } \right)^{1\over 2}
= \left( { ( 2\pi )^2  \over \prod_{j=1}^2 \lambda_j } \right)^{1\over 2}
= \left( { ( 2\pi )^2  \over \det{ \left( O^{-1}AO \right)}  } \right)^{1\over 2}
= \left( { ( 2\pi )^2  \over \det{ \left( A \right)}  } \right)^{1\over 2},
que es la solución buscada.

Integrales con términos complejos lineales en varias dimensiones

Una vez que tenemos resuelto el ejemplo bi-dimensional, es fácil generalizar el resultado obtenido al plano complejo y a varias dimensiones.

Integrales con un término lineal real en el argumento


\int \exp\left( - \frac 1 2 x \cdot A \cdot x +J \cdot x \right) d^nx
=
\sqrt{\frac{(2\pi)^n}{\det A}} \exp \left( {1\over 2} J \cdot A^{-1} \cdot J \right)

Integrales con un término lineal imaginario en el argumento


\int \exp\left( - \frac 1 2 x \cdot A \cdot x +iJ \cdot x \right) d^nx
=
\sqrt{\frac{(2\pi)^n}{\det A}} \exp \left( -{1\over 2} J \cdot A^{-1} \cdot J \right)

Integrales con un término complejo cuadrático


\int \exp\left(  \frac i 2 x \cdot A \cdot x +iJ \cdot x \right) d^nx
=
\sqrt{\frac{(2\pi i)^n}{\det A}} \exp \left( -{i\over 2} J \cdot A^{-1} \cdot J \right)

Integrales con operadores diferenciales en el argumento

Por ejemplo, véase la integral4

\int \exp\left[  \int d^4x \left ( -\frac 1 2 \varphi  \hat A  \varphi +  J  \varphi \right) \right ] D\varphi
donde  \hat A  es un operador diferencial con  \varphi  y  J  funciones definidas en el espacio-tiempo D\varphi  representa una integración sobre todos los posibles caminos. Análogamente a la versión matricial de esta integral, la solución es

\int \exp\left( - \frac 1 2 \varphi  \hat A  \varphi +J  \varphi \right) D\varphi \; \propto \;
\exp \left( {1\over 2} \int d^4x \; d^4y J\left ( x \right ) D\left ( x - y \right )  J\left( y \right )  \right)
donde

\hat A D\left ( x - y \right ) = \delta^4 \left ( x - y \right ),
 D\left ( x - y \right ) , es el propagador, que es la inversa de  \hat A , y  \delta^4 \left ( x - y \right )  es la delta de Dirac.
Análogamente se obtienen los siguientes resultados

\int \exp\left[  \int d^4x \left ( -\frac 1 2 \varphi  \hat A  \varphi +  i J  \varphi \right) \right ] D\varphi \; \propto \;
\exp \left( - { 1\over 2} \int d^4x \; d^4y J\left ( x \right ) D\left ( x - y \right )  J\left( y \right )  \right)


\int \exp\left[ i \int d^4x \left ( \frac 1 2 \varphi  \hat A  \varphi +  J  \varphi \right) \right ] D\varphi \; \propto \;
\exp \left( { i\over 2} \int d^4x \; d^4y J\left ( x \right ) D\left ( x - y \right )  J\left( y \right )  \right)
.

Integrals that can be approximated by the method of steepest descent

En teoría cuántoca de campos, es muy usual encontrarse con integrales n-dimensionales de la forma
  \int_{-\infty}^{\infty} \exp\left( -{1 \over \hbar} f\left( q \right) \right ) d^{n}q.
\hbar es la constante de Planck reducida y f es una función con un mínimo positivo en  q = q_{0}. Estas integrales pueden aproximarse por el método del descenso más brusco.
Asumiendo que la constante de Planck es suficientemente pequeña, la función f puede aproximarse por su serie de Taylor alrededor de su mínimo
  \int_{-\infty}^{\infty} \exp\left[ -{1 \over \hbar} \left( f\left( q_0 \right)  + {1\over 2} \left( q-q_0\right)^2f^{\prime \prime} \left( q-q_0\right) + \cdots \right ) \right] d^nq.
Aquí,  f^{\prime \prime}  es la matriz Hessiana de  f  en  q = q_{0}, es decir, una matriz  n \times n  de segundas derivadas parciales evaluadas en el mínimo de la función.
Si despreciamos mayores órdenes de la expansión de la serie de Taylor, podemos resolver la integral explícitamente.
  \int_{-\infty}^{\infty} \exp\left[ -{1 \over \hbar} \left( f\left( q \right)   \right ) \right] d^nq \approx
\exp\left[ -{1 \over \hbar} \left( f\left( q_0 \right)   \right ) \right] \sqrt{ (2 \pi \hbar )^n \over \det f^{\prime \prime} } .

Integrales que pueden ser aproximadas por el método de la fase estacionaria

Otra integral común es la integral de caminos de la forma
  \int \exp\left( {i \over \hbar}  S\left( q, \dot q \right) \right ) Dq
donde  S\left( q, \dot q \right)  es la acción clásica y el dominio de integración son todos los posibles caminos que una partícula podría tomar. En el límite de  \hbar  pequeña, la integral puede aproximarse por el método de la fase estacionaria. En esta aproximación, la integral queda definida solamente sobre el camino en el cuál la acción es un punto estacionario (un mínimo, un máximo o un punto de silla). Por tanto, a través de esta aproximación se recupera la mecánica clásica como el límite clásico de la mecánica cuántica.

Integrales de Fourier

Función delta de Dirac

La función delta de Dirac puede representarse de la siguiente manera como la siguiente transformada de Fourier5
  \int { d^4 k \over \left ( 2 \pi \right ) ^4 } \; {\exp \left ( ik \left ( x-y \right) \right ) = \delta^4 \left ( x-y \right )  } .
En el caso  N  dimensional tenemos la generalización inmediata
  \int { d^N k \over \left ( 2 \pi \right ) ^N } \; {\exp \left ( ik \left ( x-y \right) \right ) = \delta^N \left ( x-y \right )  } .

Integrales de Fourier de generalizaciones del potencial de Coulomb

Laplaciano de 1/r

Aplicando el teorema de Gauss se tiene que, en el espacio tridimensional
 
 -{1 \over 4\pi} \nabla^2 \left( {1 \over r} \right) 
= \delta \left( \mathbf r \right)
donde
 
 r^2 =  \mathbf r \cdot \mathbf r
Esta indentidad se puede usar para derivar igualdades entre integrales. Por ejemplo, véase la descomposición en campos longitudinal y transversal.
A partir de la igualdad de arriba, se obtiene inmediatamente que la representación de 1/r como integral de Fourier es
  \int { d^3 k \over \left ( 2 \pi \right ) ^3 } { \exp \left ( i\mathbf k \cdot \mathbf r \right) \over k^2  } = {1 \over 4 \pi r }   .

Potencial de Yukawa: El potencial de Coulomb con masa

El potencial de Yukawa en 3 dimensiones puede representarse como una integral de su transformada de Fourier6
  \int { d^3 k \over \left ( 2 \pi \right ) ^3 } { \exp \left ( i\mathbf k \cdot \mathbf r \right) \over k^2 +m^2 } = {e^{  - m r } \over 4 \pi r }
donde
  r^2 =  \mathbf r \cdot \mathbf r
y
  k^2 =  \mathbf k \cdot \mathbf k .
En el límite de masa  m  pequeña, esta inteegral se reduce a
   {1 \over 4 \pi r }   .
Para obtener este límite de la forma correcta, nótese que:
  \int { d^3 k \over \left ( 2 \pi \right ) ^3 } { \exp \left ( i \mathbf k \cdot \mathbf r  \right ) \over k^2 +m^2 } = 
\int_0^{\infty} {k^2 dk \over \left ( 2 \pi \right )^2 } \int_{-1}^{1} du {\exp\left( ikru \right) \over k^2 + m^2}

= 
{2\over r} \int_0^{\infty} {k dk \over \left ( 2 \pi \right )^2 }  {\sin\left( kr \right) \over k^2 + m^2} =
{1\over i r} \int_{-\infty}^{\infty} {k dk \over \left ( 2 \pi \right )^2 }  {\exp\left( ikr \right) \over k^2 + m^2}

= 
{1\over i r} \int_{-\infty}^{\infty} {k dk \over \left ( 2 \pi \right )^2 }  {\exp\left( ikr \right) \over \left(k + i m \right)\left(k - i m \right)}
=
{1\over i r} { 2\pi i \over \left( 2 \pi \right)^2 } {im \over 2 i m} \exp \left( -m r \right)

Potencial de Coulomb modificado con masa

  \int { d^3 k \over \left ( 2 \pi \right ) ^3 } 
\left( \mathbf{\hat{k}}\cdot \mathbf{\hat{r}}\right)^2
{ \exp \left ( i\mathbf{k} \cdot \mathbf{r} \right ) \over k^2 +m^2 } = {e^{  - m r } \over 4 \pi r }  \left\{ 1+  {2\over mr}  
-  {2 \over \left( mr \right)^2 } \left( e^{mr} -1 \right)  \right \}
donde el gorro indica que el vector es de módulo unidad en el espacio tridimensional.
En el límite de masa  m  pequeña, esta integral se anula.
Para obtener este límite de la forma correcta, nótese que:
  \int { d^3 k \over \left ( 2 \pi \right ) ^3 } \left( \mathbf{\hat k}\cdot \mathbf{\hat r}\right)^2
 { \exp \left ( i\mathbf{k}\cdot \mathbf{r}\right ) \over k^2 +m^2 } = 
\int_0^{\infty} {k^2 dk \over \left ( 2 \pi \right )^2 } \int_{-1}^{1} du u^2 {\exp\left( ikru \right) \over k^2 + m^2}

= 
{2} \int_0^{\infty} {k^2 dk \over \left ( 2 \pi \right )^2 }  {1 \over k^2 + m^2} 
 
\left\{   {1\over kr }  \sin\left( kr \right) + 2 {1\over \left(kr\right)^2 } \cos\left( kr \right) 
- 2 {1\over \left(kr\right)^3 } \sin\left( kr \right) \right \}

=
{\exp \left( -m r \right) \over 4\pi r}

\left\{   g\left( mr\right)  
  \right \}
donde

 g\left( mr\right) 
= 1+{2\over mr}-{2 \over \left( mr \right)^2 } \left( e^{mr} -1 \right)

.
Nótese que, en este límite, cuando

 m\rightarrow 0,

 g\left( mr\right)  \rightarrow - \frac{m r}{3},
por lo que el lado derecho de la igualdad es proporcional a  m , que en este límite es cero.

Potencial longitudinal con masa

\int { d^3 k \over \left ( 2 \pi \right ) ^3 } 
 \; \mathbf{\hat{k}} \mathbf{\hat{k}} \;
{ \exp \left ( i\mathbf{k} \cdot \mathbf{r} \right ) \over k^2 +m^2 } 
= 
{1\over 2} {e^{  - m r } \over 4 \pi r }  \left[ \mathbf{1}- \mathbf{\hat{r}} \mathbf{\hat{r}} \right]
+
 {1\over 2} {e^{  - m r } \over 4 \pi r }  \left\{ 1+  {2\over mr}  
-  {2 \over \left( mr \right)^2 } \left( e^{mr} -1 \right)  \right \}
  \left[\mathbf{1}+ \mathbf{\hat{r}} \mathbf{\hat{r}}\right]
donde el gorro indica que el vector es de módulo unidad en el espacio tridimensional.
En el límite de masa  m  pequeña, esta integral se aproxima a
   {1\over 2} {1 \over 4 \pi r }  \left[ \mathbf 1 - \mathbf{\hat r} \mathbf{\hat r} \right] .
La integral se resuelve en coordenadas esféricas:
  \int { d^3 k \over \left ( 2 \pi \right ) ^3 }  \mathbf{\hat k} \mathbf{\hat k}
 { \exp \left ( i\mathbf k \cdot \mathbf r \right ) \over k^2 +m^2 } 
=
\int { d^3 k \over \left ( 2 \pi \right ) ^3 } 
\left[
\left( \mathbf{\hat k}\cdot \mathbf{\hat r}\right)^2\mathbf{\hat r} \mathbf{\hat r}
+ \left( \mathbf{\hat k}\cdot \mathbf{\hat \theta}\right)^2\mathbf{\hat \theta} \mathbf{\hat \theta}
+ \left( \mathbf{\hat k}\cdot \mathbf{\hat \phi}\right)^2\mathbf{\hat \phi} \mathbf{\hat \phi}
\right]
 { \exp \left ( i\mathbf k \cdot \mathbf r \right ) \over k^2 +m^2 }
Usando los resultados anteriores, se obtiene

= 
 {1 \over 4 \pi r } \exp \left ( - m r \right ) \left\{ 1+   {2\over mr }  
-  {2\over \left(mr\right)^2 } \left( e^{mr} -1 \right) \right \}
\left\{\mathbf 1  - {1\over 2} \left[\mathbf 1 - \mathbf{\hat r} \mathbf{\hat r}\right] \right\}
+
\int_0^{\infty} {k^2 dk \over \left ( 2 \pi \right )^2 } \int_{-1}^{1} du  {\exp\left( ikru \right) \over k^2 + m^2} 
{1\over 2}  \left[ \mathbf 1  - \mathbf{\hat r} \mathbf{\hat r} \right]

= 
{1\over 2} {e^{  - m r } \over 4 \pi r }  \left[ \mathbf 1 - \mathbf{\hat r} \mathbf{\hat r} \right]
+
 {e^{  - m r } \over 4 \pi r }  \left\{ 1+   {2\over mr }  
-  {2\over \left(mr\right)^2 } \left( e^{mr} -1 \right)  \right \}
\left\{ {1\over 2} \left[\mathbf 1 + \mathbf{\hat r} \mathbf{\hat r}\right] \right\}

.

Potencial transversal con masa

\int { d^3 k \over \left ( 2 \pi \right ) ^3 } 
 \; \left[ \mathbf{1} - \mathbf{\hat{k}} \mathbf{\hat{k}} \right] \;
{ \exp \left ( i \mathbf{k} \cdot \mathbf{r}\right ) \over k^2 +m^2 } 
=  {1\over 2} {e^{  - m r } \over 4 \pi r }  \left\{    
  {2 \over \left( mr \right)^2  } \left( e^{mr} -1 \right) -  {2\over mr} \right \}
\left[\mathbf{1} + \mathbf{\hat{r}} \mathbf{\hat{r}}\right]
En el límite de  m r pequeño, esta integral se aproxima a


 {1\over 2} {1 \over 4 \pi r }  
\left[\mathbf 1 + \mathbf{\hat r} \mathbf{\hat r}\right]
  .
Para grandes distancias, la integral decae cúbicamente con  r


  {1\over 4 \pi m^2r^3 }  
\left[\mathbf 1 + \mathbf{\hat r} \mathbf{\hat r}\right]
  .

Integración angular en coordenadas cilíndricas

La integración angular de una exponencial en coordenadas cilíndricas se puede escribir en función de funciones de Bessel de primer tipo7 8
  
 \int_0^{2 \pi} {d\varphi \over 2 \pi}  \exp\left( i p \cos\left( \varphi \right) \right)
=
 J_0 \left( p \right),

  
 \int_0^{2 \pi} {d\varphi \over 2 \pi} \cos\left( \varphi \right) \exp\left( i p \cos\left( \varphi \right) \right)
=
i J_1 \left( p \right)
  .

Funciones de Bessel

Integración del propagador del campo con masa en coordenadas cilíndricas

Función de Bessel lineal

  
\int_0^{\infty} {k\; dk \over k^2 +m^2} J_0 \left( kr \right)
=
K_0 \left( mr \right)
  .
Véase Abramowitz and Stegun.9
Para  mr << 1 , tenemos10

K_{0} \left( mr \right) \rightarrow -\ln \left( {mr \over 2}\right) + \gamma,

Cuadrado de funciones de Bessel

  
\int_0^{\infty} {k\; dk \over k^2 +m^2} J_1^2 \left( kr \right)
=
I_1 \left( mr \right)K_1 \left( mr \right)
  .
Véase11
Para  mr << 1  la integral se reduce a
  
\int_o^{\infty} {k\; dk \over k^2 +m^2} J_1^2 \left( kr \right)
\rightarrow
{1\over 2 }\left[ 1 - {1\over 8} \left(mr\right)^2 \right],
mientras que para  mr >> 1  se tiene
  
\int_o^{\infty} {k\; dk \over k^2 +m^2} J_1^2 \left( kr \right)
\rightarrow
{1\over 2}\;\left( {1\over mr}\right)
  .
En general
  
\int_0^{\infty} {k\; dk \over k^2 +m^2} J_{\nu}^2 \left( kr \right)
=
I_{\nu} \left( mr \right)K_{\nu} \left( mr \right)
\;\;\; \Re \;{\nu} > -1.

Integración de una función de onda magnética

La integral bi-dimensional sobre una función de onda magnética es12
  
{2 a^{2n+2}\over n!}
\int_0^{\infty} { dr }\;r^{2n+1}\exp\left( -a^2 r^2\right) J_{0} \left( kr \right)
=
M\left( n+1, 1, -{k^2 \over 4a^2}\right),







Matrices de Pauli


matrices de Pauli, deben su nombre a Wolfgang Ernst Pauli, son matrices usadas en física cuántica en el contexto del momento angular intrínseco o espín. Matemáticamente, las matrices de Pauli constituyen una base vectorial del álgebra de Lie del grupo especial unitario SU(2), actuando sobre la representación de dimensión 2.

Forma de las matrices

Cumplen las reglas de conmutación del álgebra de Lie \mathfrak{su}(2):
\left [\sigma_i,\sigma_j \right ]=2i\ \epsilon_{ijk}\ \sigma_k
Donde:
\epsilon_{ijk}\; es el Símbolo de Levi-Civita (pseudotensor totalmente antisimétrico).
También satisfacen la siguiente regla de anticonmutación
\left \{\sigma_i,\sigma_j \right \}=\sigma_i\sigma_j+\sigma_j\sigma_i=2\delta_{ij}I\
Otras propiedades importantes son:
\sigma_x^2 = \sigma_y^2 = \sigma_z^2 = \begin{pmatrix} 1&0\\0&1\end{pmatrix} = I
\operatorname{det} (\sigma_i) = -1
\operatorname{Tr} (\sigma_i) = 0

Caso de espín 1/2

Las matrices de Pauli son tres, al igual que la dimensión del álgebra del Lie del grupo SU(2). En su representación lineal más común tienen la siguiente forma:
 \sigma_x = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \qquad
\sigma_y = \begin{pmatrix} 0 & -i \\ i & 0 \end{pmatrix} \qquad \sigma_z = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}

Caso de espín 1

Por abuso de lenguaje se suele llamar matrices de Pauli a otras representaciones lineales diferentes a las usadas en el caso de espín 1/2 anterior. Por ejemplo para representar el espín de una partícula con valor 1, se usa la representación lineal mediante matrices de 3x3 siguiente:

J_x = \frac{\hbar}{\sqrt{2}}
\begin{pmatrix}
0&1&0\\
1&0&1\\
0&1&0
\end{pmatrix}
\qquad
J_y = \frac{\hbar}{\sqrt{2}}
\begin{pmatrix}
0&-i&0\\
i&0&-i\\
0&i&0
\end{pmatrix}
\qquad
J_z = \hbar
\begin{pmatrix}
1&0&0\\
0&0&0\\
0&0&-1
\end{pmatrix}

Caso de espín 3/2

Análogamente al caso anterior para espín 3/2 es común usar la siguiente representación:

J_x = \frac\hbar2
\begin{pmatrix}
0&\sqrt{3}&0&0\\
\sqrt{3}&0&2&0\\
0&2&0&\sqrt{3}\\
0&0&\sqrt{3}&0
\end{pmatrix}
\qquad
J_y = \frac\hbar2
\begin{pmatrix}
0&-i\sqrt{3}&0&0\\
i\sqrt{3}&0&-2i&0\\
0&2i&0&-i\sqrt{3}\\
0&0&i\sqrt{3}&0
\end{pmatrix}
\qquad
J_z = \frac\hbar2
\begin{pmatrix}
3&0&0&0\\
0&1&0&0\\
0&0&-1&0\\
0&0&0&-3
\end{pmatrix}

Aplicaciones

Las matrices de Pauli tienen gran utilidad en mecánica cuántica. La aplicación más conocida es la representación del operador de espín para una partícula de espín 1/2, como un electrón, un neutrón o un protón. Así el observable que sirve para medir al espín, o momento angular intrínseco, de un electrón, en la dirección i, viene dado por el operador autoadjunto:
 \hat{S}_i = \frac{\hbar}{2}\sigma_i
En la representación convencional, los autoestados de espín corresponden a los vectores:
\left \{| \uparrow \rangle = (1,0); | \downarrow \rangle = (0,1) \right\}

No hay comentarios:

Publicar un comentario