martes, 1 de marzo de 2016

Matemáticas - Matrices

Matrices gamma

Esta ecuación se propuso como un intento de solventar el problema de probabilidades negativas que era inherente a la ecuación de Klein-Gordon al intentar hacer una ecuación de evolución cuántica consistente con la relatividad especial. Ya veremos como la ecuación de Dirac solventa este problema. Pero en esta ocasión tenemos que pararnos un momento a deducir qué son esas \alpha y \beta que aparece en la ecuación:
i\partial_t\psi=\left[\vec{\alpha}(-i\vec{\nabla})+\beta m\right]\psi
Así que nos vamos a poner manos a la obra.

Alfa y Beta

Nos ocuparemos ahora de describir las propiedades y características de las “constantes” que hemos introducido en el Hamiltoniano de la ecuación de Dirac para que su cuadrado sea el de la ecuación de Klein-Gordon.  Para ello seguiremos unos pasos que intentaré que sean lo más claros posibles.
Lo primero que vamos a hacer es extender la expresión de la ecuación de Dirac:
i\partial_t\psi=\left[\vec{\alpha}(-i\vec{\nabla})+\beta m\right]\psi
i\partial_t\psi=\left(\alpha_1(-i\partial_x)+\alpha_2(-i\partial_y)+\alpha_3(-i\partial_z)\right)\psi+\beta m\psi
Como es usual en relatividad renombraremos las coordenadas (t,x,y,z) como (x_0,x_1,x_2,x_3)=x_\mu.
i\partial_0\psi=\left(\alpha_1(-i\partial_1)+\alpha_2(-i\partial_2)+\alpha_3(-i\partial_3)\right)\psi+\beta m\psi
Ahora empezaremos a enumerar las propiedades de (\beta,\alpha_1,\alpha_2,\alpha_3).  Como vimos en la entrada anterior estos objetos no pueden ser números ordinarios sino matrices, para que se puedan dar las relaciones de anticonmutación necesarias.
1.-  El Hamiltoniano H nos dará la energía del sistema. Sus autovalores han de ser reales y por tanto requerimos que el Hamiltoniano sea hermítico:
H=H^\dagger
Dado que H=\left(\alpha_1(-i\partial_1)+\alpha_2(-i\partial_2)+\alpha_3(-i\partial_3)\right)+\beta m. En este caso mjuega el papel de la masa de la partícula que estamos describiendo siendo por tanto un escalar real y por tanto hermítico. El momento p_i=-i\partial_i es un operador hermítico, p_i^\dagger=p_i. Esto obliga a que las alfas y la beta sean hermíticas.
\beta^\dagger=\beta
\alpha_i^\dagger=\alpha_i
Nota: Recordemos que hacer el hermítico conjugado de una matriz consiste en transponer (cambiar filas por columnas) y tomar el complejos conjugado de cada elemento de la matriz. Además si tenemos un producto de matrices AB, al tomar el hermítico conjugado se invierte el orden del producto: (AB)^\dagger=B^\dagger A^\dagger.
2.-  Una característica interesante cuando estamos trabajando con matrices es conocer su traza. En este caso podemos demostrar que la traza de las matrices alfas y beta son nulas.  Recordemos que la traza de una matriz es el resultado de sumar los elementos de su diagonal principal.
Partimos de \{\alpha_i,\beta\}=\alpha_i\beta+\beta\alpha_i=0, con lo que tenemos:
\alpha_i\beta=-\beta\alpha_i
Ahora calculemos la traza de una matriz alfa, la \alpha_i:
a)  Tr(\alpha_i)
b)  Uno siempre puede decir que una matriz es ella misma multiplicada por la identidad (matriz que únicamente contiene unos en su diagonal principal y el resto son todos nulos).
Tr(\alpha_i)=Tr(\alpha_i\mathbb{I})
c)  Ya vimos que las matrices alfa y beta verificaban: \beta^2=\alpha_i^2=\mathbb{I} con lo que podemos escribir:
Tr(\alpha_i)=Tr(\alpha_i\mathbb{I})=Tr(\alpha_i\beta^2)=Tr(\alpha_i\beta\beta)
d) Usando que \alpha_i\beta=-\beta\alpha_i obtemenos:
Tr(\alpha_i\beta\beta)=Tr(-\beta\alpha_i\beta)=-Tr(\beta\alpha_i\beta)
e)  Recordemos que las trazas tienen lo que se denomina propiedad cíclica que nos dice (en el caso de tres matrices para simplificar la notación) Tr(ABC)=Tr(CAB)=Tr(BCA), por lo que uno puede mover la \beta de la derecha a la izquierda y la traza queda igual:
Tr(\alpha_i\beta\beta)=Tr(-\beta\alpha_i\beta)=-Tr(\beta\alpha_i\beta)=-Tr(\beta\beta\alpha_i)
f)  Pero el cuadrado de beta nos da la identidad con lo cual:
Tr(\alpha_i\beta\beta)=Tr(-\beta\alpha_i\beta)=-Tr(\beta\alpha_i\beta)=-Tr(\beta\beta\alpha_i)=-Tr(\mathbb{I}\alpha_i)=-Tr(\alpha_i)
g)  Aquí, igualando el punto de partida a) a este último resultado, obtenemos:
Tr(\alpha_i)=-Tr(\alpha_i)
Esto solo es posible si la traza es nula con lo que concluimos que Tr(\alpha_i)=0.
Ejercicio:  Demostrar que Tr(\beta)=0
Ayuda: Basta repetir el procedimiento anterior usando que \alpha_i^2=\mathbb{I}.
Así pues tenemos que:
Tr(\beta)=0
Tr(\alpha_i)=0
3.-  También es importante encontrar los autovalores asociados a una matriz. En este caso la situación es simple.  Sigamos los siguientes pasos:
a)  Usaremos la matriz \beta. Supongamos que tenemos un vector \vec{v} que es propio de\beta.  Esto significa que cuando la matriz actúa sobre el vector el resultado es el mismo vector multiplicado por un número (que puede ser complejo):
\beta\vec{v}=K\vec{v}
b) Ahora apliquemos otra vez la matriz sobre la expresión anterior:
\beta(\beta\vec{v})=\beta(K\vec{v})=K\beta\vec{v}=KK\vec{v}=K^2\vec{v}
c)  Pero recordando que \beta^2=\mathbb{I} también podríamos haber llegado a la conclusión:
\beta(\beta\vec{v})=\beta^2\vec{v}=\mathbb{I}\vec{v}=1\cdot\vec{v}
d)  Como las expresiones finales de b) y c) tienen que ser iguales podemos concluir:
K^2=1
K=\pm 1
Por lo tanto los autovalores posibles para $\latex \beta$ son únicamente el +1 y el -1, posiblemente degenerados.
Ejercicio: Demostrar que para las matrices \alpha_i los autovalores posibles también son únicamente el +1 y el -1.
Ayuda:  El procedimiento es totalmente análogo al anterior.
4.-  Vamos a establecer que rango tienen las matrices. Vamos a hacerlo de dos formas.
1º Forma:
Dado que las matrices \alpha_i y \beta son hermíticas entonces son diagonalizables, existe alguna matriz S invertible que consigue llevar a estas matrices a su forma diagonal. Recordemos que una matriz diagonalizada tiene en su diagonal principial sus autovalores.
Centrándonos en \beta (el argumento funciona igual para el resto de matrices) tenemos:
S\beta S^{-1}=diag(K_1,K_2,\dots,K_n)
Como hemos visto los autovalores posibles son únicamente +1 y -1. Pero si ademas calculamos la traza de la expresión anterior:
Tr(S\beta S^{-1})=Tr(diag(K_1,K_2,\dots,K_n))=\sum_{i=1}^n K_i
Pero resulta que si en la primera expresión usamos la propiedad cíclica de la traza:
Tr(S\beta S^{-1})=Tr(S^{-1}S\beta)=Tr(\beta)=0
El resultado se anula como ya demostramos anteriormente. Con lo cual tenemos que imponer:
\sum_{i=1}^nK_i=0
La única forma de que una suma de +1 y -1 se anule es tener el mismo número de cada uno de ellos, por lo tanto n tiene que ser par.  Así las matriz \beta tiene que ser una matriz n x n, siendo n un número par.
El argumento funciona igual para las matrices alfa.
2º Forma:
Sabemos que se cumple lo siguiente: \beta\alpha_i=-\alpha_i\beta=(-\mathbb{I})\alpha_i\beta.  Tomando determinantes:
det(\beta\alpha_i)=det(\beta)det(\alpha_i)=det(\alpha_i)det(\beta), donde hemos usado las propiedades de los determinantes.
Sin embargo podemos hacer:
det(\beta\alpha_i)=det(-\alpha_i\beta)=det(-\mathbb{I}\alpha_i\beta)=(-1)^n det(\alpha_i)det(\beta)
n es el número de elementos en la diagonal de la identidad.
Con lo que tenemos:
det(\alpha_i)det(\beta)=(-1)^n det(\alpha_i)det(\beta)
La única forma de que (-1)^n=1 es que n sea un número par.
5.-  Otra pregunta interesante en este contexto es plantearse si las matrices \{\beta,\alpha_1,\alpha_2,\alpha_3\} son linealmente independientes o no. Es decir, si podemos expresar una de ellas como combinación lineal de las restantes.
Supongamos que este es el caso y que podemos expresar \beta como combinación lineal de las matrices alfa:
\beta=\sum_{i=1}^3b_i\alpha_i=b_i\alpha_i
(En la última parte de la expresión anterior se usa el criterio de Einstein según el cual si en una expresión con índices hay índices repetidos implica que se multiplican las cantidades con tal índice y se suman los resultados, esto hace que no haya que que usar tantos sumatorios y las expresiones se simplifican)
Las cantidades b_i serían los coeficientes de la combinación lineal y son, en general, números complejos.
Como sabemos, se ha de cumplir: \{\beta,\alpha_i\}=0, con lo que:
0=\{\beta,\alpha_i\}=\{b_i\alpha_i,\alpha_i\}=b_i\{\alpha_i,\alpha_i\}=2b_i (\alpha_i)^2=2\beta_i \mathbb{I}
Como dicha expresión ha de ser nula la única posibilidad es que b_i=0 para i=1,2,3.
Por lo tanto estas matrices son linealmente independientes.
6.-  Para finalizar hay que determinar cuál es el tamaño mínimo de las matrices. Ya hemos visto que su rango tiene que ser par, pero cuál es el mínimo, 2, 4, 6, etc.
Podemos contar los grados de libertad de una matriz compleja de orden n x n. Estas tienen 2n^2 grados de libertad independientes.
Si la matriz es hermítica los grados de libertad se reducen a n^2.  Para estas matrices se ha de cumplir que en la diagonal los elementos son A_{ii}^*=A_{ii} con lo que tenemos n grados de libertad menos y para los elementos fuera de la diagonal tenemos A_{ij}^*=A_{ji} con lo que tenemos 2\times \dfrac{n(n-1)}{2} relaciones que satisfacer y por tanto eliminan esos grados de libertad.
n+n(n-1)=n^2
Si además la matriz no tiene traza le quitamos un grado de libertad, ya que al menos un elemento de la diagonal ha de ser combinación del resto.  Contando todos los grados de libertad:
2n^2-n^2-1=n^2-1
Dado que n tiene que ser par, vayamos probando:
n=2:
2^2-1=3  No es posible tener las relaciones de anticonmutación requeridas de cuatro matrices con este rango.
4^2-1=15  Con este tenemos más que de sobra.
Por lo tanto, n tiene que ser par y al menos 4.

las famosas matrices gamma de Dirac \gamma^\mu. El objetivo de esta entrada es la de presentar estas matrices y las propiedades operacionales que tienen. También nos entretendremos en jugar con ellas ya que son esenciales a la hora de hacer cálculos en teoría cuántica de campos cuando estamos trabajando con fermiones.
He de confesar que trabajar con las matrices de Dirac siempre me ha inspirado sentimientos contrapuestos, desde el aburrimiento más absoluto hasta cierta perversión por ver si podía deducir todas las expresiones que vamos a presentar en esta entrada (y muchas más). Espero que esto o lo toméis como un juego, lo es, y la recompensa en un futuro próximo será más que evidente.
En siguientes entradas iremos a desgranar su significado físico y matemático a un nivel más conceptual.  Pasen y vean.

De alfa y beta a gamma

Como hemos visto en la entrada anterior las \alpha_i y la \beta son matrices que tienen que cumplir ciertas propiedades:
1.-  Son matrices linealmente independientes.
2.- Sin traza.
3.- Hermíticas.
4.- Su cuadrado nos da la identidad.
5.- Anticonmutan entre ellas.
6.- El rango mínimo admisible es de 4.
Ahora lo que vamos a hacer es una trivialidad, vamos a cambiar de nombre a algunas matrices.
\beta=\gamma^0
\beta\alpha_i=\gamma^i
Con esto tenemos cuatro matrices: \{\gamma^0,\gamma^1,\gamma^2,\gamma^3\}.
Escribamos la ecuación de Dirac en términos de las gammas:
1.- Partimos de la ecuación:
i\partial_0\psi=\left(\alpha_1(-i\partial_1)+\alpha_2(-i\partial_2)+\alpha_3(-i\partial_3)\right)\psi+\beta m\psi
2.- De forma compacta es: i\partial_t\psi=\left[-i\alpha_i\partial_i)+\beta m\right]\psi
3.-  Multiplicamos por \beta por la izquierda:
i\beta\partial_o\psi=\left[-i\beta\alpha_i\partial_i+\beta\beta m\right]\psi
4.-  Recordando que \beta\beta=\mathbb{I}, y que \beta=\gamma^0\beta\alpha_i=\gamma^i, tenemos:
i\gamma^0\partial_o\psi=\left[-i\gamma^i\partial_i)+m\right]\psi
5.-  Agrupando, y llamando \gamma^\mu donde \mu=0,1,2,3:
i\gamma^\mu\partial_\mu\psi-m\psi=0

Jugando con las gamma y sus índices

A simple vista las matrices \gamma^\mu conforman un vector en un espacio de Minkowski.  En realidad, la cosa es un poco más complicada, y entraremos en detalles próximamente. Ahora supondremos que son, efectivamente, un vector en Minkowski que es lo que da a entender su índice.
Así, dado \gamma^\nu podemos bajar su índice multiplicándola por la métrica de Minkowski \eta_{\mu\nu}. En todo este curso supondremos que la métrica es de signatura -2, eso quiere decir que su diagonal es \eta_{\mu\nu}=diag(+1,-1,-1,-1).
\eta_{\mu\nu}=\begin{pmatrix}+1&0&0&0\\ 0&-1&0&0\\ 0&0&-1&0\\ 0&0&0&-1\end{pmatrix}
Dada una métrica de Minkowski \eta_{\mu\nu} tenemos una inversa \eta^{\mu\nu} de forma que:
\eta_{\mu\nu}\eta^{\nu\sigma}=\begin{pmatrix}+1&0&0&0\\ 0&-1&0&0\\ 0&0&-1&0\\ 0&0&0&-1\end{pmatrix}\begin{pmatrix}+1&0&0&0\\ 0&-1&0&0\\ 0&0&-1&0\\ 0&0&0&-1\end{pmatrix}=
=\begin{pmatrix}+1&0&0&0\\ 0&+1&0&0\\ 0&0&+1&0\\ 0&0&0&+1\end{pmatrix}=\delta^\sigma_\mu
La métrica nos sirve para subir y bajar índices:
\gamma_\nu=\eta_{\mu\nu}\gamma^\nu
Es evidente que si \gamma^\mu=\{\gamma^0,\gamma^1,\gamma^2,\gamma^3\}, el resultado de bajar el índice es: \gamma_\mu=\{\gamma_0,-\gamma_1,-\gamma_2,-\gamma_3\}
Además definiremos la matriz \gamma^5 que se define como:
\gamma^5=i\gamma^0\gamma^1\gamma^2\gamma^3
Esta matriz será muy importante para nosotros y es muy, pero que muy bueno acostumbrarse a ella y a sus propiedades.
Lo que vamos a hacer en lo que sigue es lo siguiente:
  1. Vamos a comprobar las relaciones de anticonmutación entre las gammas.
  2. Calcularemos sus cuadrados.
  3. Vamos a calcular distintas trazas de distintos productos de gammas.
  4. También vamos a estudiar si estas matrices son hermíticas o no.

Relaciones de Anticonmutación y Cuadrados

1.-  Calcularemos los cuadrados \left(\gamma^0\right)^2=+1\times\mathbb{I}_{4\times 4} y \left(\gamma^i\right)^2=-1\times\mathbb{I}_{4\times 4}
Comprobación:
Emplearemos las definiciones \gamma^0=\beta y \gamma^i=\beta\alpha_i.
Con lo cual \gamma^0\gamma^0=\beta\beta=\mathbb{I}=+1\times\mathbb{I}.
Y para \gamma^i\gamma^i=\beta\alpha_i\beta\alpha_i.  Como sabemos:
\beta\beta=\mathbb{I}  (de ahora en adelante omitiremos el factor 4×4 ya que no estudiaremos otro caso hasta que digamos lo contrario).
\alpha_i\alpha_i=\mathbb{I}
\alpha_i\beta=-\beta\alpha_i  Entonces  podemos concluir:
\gamma^i\gamma^i=\beta\alpha_i\beta\alpha_i=-\beta\beta\alpha_i\alpha_i=-1\times\mathbb{I}
2.-  Ahora vamos a calcular el anticonmutador de dos matrices gamma y obtendremos:
\{\gamma^\mu,\gamma^\nu\}=2\eta^{\mu\nu}\times\mathbb{I}_{4\times 4}
Comprobación:
Lo haremos por casos:
1º caso \mu=\nu=0
\{\gamma^0,\gamma^0\}=\{\beta,\beta\}=\beta\beta+\beta\beta=\mathbb{I}+\mathbb{I}=2\times\mathbb{I}
2º caso \mu=0 y \nu=i
\{\gamma^0,\gamma^i\}=\{\beta,\beta\alpha_i\}=\beta\beta\alpha_i+\beta\alpha_i\beta=
=\beta\beta\alpha_i-\beta\beta\alpha_i=0
3º caso \mu=i\neq\nu=j
\{\gamma^i,\gamma^j\}=\{\beta\alpha_i,\beta\alpha_j\}=\beta\alpha_i\beta\alpha_j+\beta\alpha_j\beta\alpha_i=
=-\beta\beta\alpha_i\alpha_j-\beta\beta\alpha_j\alpha_i=-(\alpha_i\alpha_j+\alpha_j\alpha_i)=-\{\alpha_i,\alpha_j\}=0
Recordemos que las matrices alfa anticonmutan entre ellas.
4º caso \mu=\nu=i  aprovechando los resultados de 1.-) tendremos:
\{\gamma^i,\gamma_i\}=2\gamma^i\gamma^i=-2\times\mathbb{I}
Así pues recolectando todos los casos vemos como el anticonmutador de dos gamma cero nos da 2 x (1) x I y el de dos gamma-i nos da 2 x (-1) x I.  El restod de combinaciones son nulas. Estas son las componentes de la diagonal de la métrica de Minkowski con lo que se puede escribir:
\{\gamma^\mu,\gamma^\nu\}=2\eta^{\mu\nu}\times\mathbb{I}_{4\times 4}
Volveremos a este interesante punto de la relación entre el anticonmutador de las matrices gamma de Dirac y la métrica del espaciotiempo.
3.-  Vamos a comprobar que (\gamma^5)^2=\mathbb{I}:
Comprobación:
Usando la definición tendremos:
(i\gamma^0\gamma^1\gamma^2\gamma^3)(i\gamma^0\gamma^1\gamma^2\gamma^3)=-\gamma^0\gamma^1\gamma^2\gamma^3\gamma^0\gamma^1\gamma^2\gamma^3=
Como matrices gamma diferentes anticonmutan cada vez que cambiemos de orden dos matrices gamma introduciremos un cambio de signo:
=\gamma^0\gamma^1\gamma^2\gamma^0\gamma^3\gamma^1\gamma^2\gamma^3=-\gamma^0\gamma^1\gamma^0\gamma^2\gamma^3\gamma^1\gamma^2\gamma^3=
=\gamma^0\gamma^0\gamma^1\gamma^2\gamma^3\gamma^1\gamma^2\gamma^3=\gamma^1\gamma^2\gamma^3\gamma^1\gamma^2\gamma^3=
=-\gamma^1\gamma^2\gamma^1\gamma^3\gamma^2\gamma^3=\gamma^1\gamma^1\gamma^2\gamma^3\gamma^2\gamma^3=
Recordemos que \gamma^i\gamma^i=-1\times\mathbb{I}:
=-\gamma^2\gamma^3\gamma^2\gamma^3=\gamma^2\gamma^2\gamma^3\gamma^3=(-\mathbb{I})(-\mathbb{I})=\mathbb{I}
4.-  Probaremos que \{\gamma^5,\gamma^\mu\}=0
Comprobación:
Lo haremos en dos casos concretos y el resto se haría análogamente.
1º caso
\{\gamma^5,\gamma^0\}=\{i\gamma^0\gamma^1\gamma^2\gamma^3,\gamma^0\}=i\{\gamma^0\gamma^1\gamma^2\gamma^3,\gamma^0\}=i(\gamma^0\gamma^1\gamma^2\gamma^3\gamma^0+\gamma^0\gamma^0\gamma^1\gamma^2\gamma^3)=
Efectuamos cambios en la posición de gamma-cero de la primera expresión y en la otra empleamos que su cuadrado nos da la identidad:
=i(-\gamma^0\gamma^1\gamma^2\gamma^0\gamma^3+\gamma^1\gamma^2\gamma^3)=i(\gamma^0\gamma^1\gamma^0\gamma^2\gamma^3+\gamma^1\gamma^2\gamma^3)=i(-\gamma^0\gamma^0\gamma^1\gamma^2\gamma^3+\gamma^1\gamma^2\gamma^3)=
=i(-\gamma^1\gamma^2\gamma^3+\gamma^1\gamma^2\gamma^3)=0
2º caso
Usaremos la gamma-5 y la gamma-2, con cualquier otra sirve el argumento:
\{\gamma^5,\gamma^2\}=i\{\gamma^0\gamma^1\gamma^2\gamma^3,\gamma^2\}=i(\gamma^0\gamma^1\gamma^2\gamma^3\gamma^2+\gamma^2\gamma^0\gamma^1\gamma^2\gamma^3)=
=i(-\gamma^0\gamma^1\gamma^2\gamma^2\gamma^3-\gamma^0\gamma^2\gamma^1\gamma^2\gamma^3)=i(\gamma^0\gamma^1\gamma^3+\gamma^0\gamma^1\gamma^2\gamma^2\gamma^3)=
i(\gamma^0\gamma^1\gamma^3-\gamma^0\gamma^1\gamma^3)=0

No hay comentarios:

Publicar un comentario