la paradoja de Gibbs , por Josiah Willard Gibbs, quien propuso este experimento mental en 1874-1875. [1] [2] La paradoja permite que disminuya la entropía de los sistemas cerrados, violando la segunda ley de la termodinámica . Una paradoja relacionada es la " paradoja de la mezcla ".". Si se toma la perspectiva de que la definición de entropía debe cambiarse para ignorar la permutación de las partículas, se evita la paradoja.
Ilustración del problema [ editar ]
El propio Gibbs consideró el siguiente problema que surge si la entropía del gas ideal no es extensa. [1] Dos recipientes idénticos de un gas ideal se sientan uno al lado del otro. Hay una cierta cantidad de entropía Sasociada con cada contenedor de gas, y esto depende del volumen de cada contenedor. Ahora se abre una puerta en las paredes del contenedor para permitir que las partículas de gas se mezclen entre los contenedores. No se producen cambios macroscópicos, ya que el sistema está en equilibrio. La entropía del gas en el sistema de dos recipiente puede ser calculada fácilmente, pero si la ecuación no es extenso, la entropía no sería 2 S . De hecho, la cantidad de entropía no extensa definida y estudiada por Gibbs predeciría una entropía adicional. Cerrando la puerta, se reduce de nuevo la entropía a 2.S , en supuesta violación de la Segunda Ley de la Termodinámica .
Según lo entendido por Gibbs, [2] y enfatizado más recientemente, [3] [4] esta es una aplicación incorrecta de la cantidad de entropía no extensa de Gibbs. Si las partículas de gas son distinguibles, cerrar las puertas no devolverá el sistema a su estado original, ya que muchas de las partículas tendrán contenedores intercambiados. Hay una libertad en lo que se define como ordenado, y sería un error concluir que la entropía no había aumentado. En particular, la cantidad no extensiva de entropía de Gibbs para un gas ideal no fue diseñada para números variables de partículas.
La paradoja se evita al concluir la indistinguibilidad (al menos la indistinguibilidad efectiva) de las partículas en el volumen. Esto da como resultado la extensa ecuación de Sackur-Tetrode para la entropía, como se deriva a continuación.
Cálculo de la entropía del gas ideal y su extensión [ editar ]
En la mecánica clásica, el estado de un gas ideal de energía U , volumen V y con N partículas, cada partícula que tiene una masa m , se representa especificando el vector de momento p y el vector de posición x para cada partícula. Se puede pensar que esto especifica un punto en un espacio de fase de 6N dimensiones , donde cada uno de los ejes corresponde a una de las coordenadas de momento o posición de una de las partículas. El conjunto de puntos en el espacio de fase que podría ocupar el gas está especificado por la restricción de que el gas tendrá una energía particular:
y estar contenido dentro del volumen V (digamos que V es un cubo del lado X, de manera que V = X 3 ):
para y
La primera restricción se define la superficie de un 3N-dimensional hiperesfera de radio (2 mU ) 1/2 y la segunda es un 3N-dimensional hipercubo de volumen V N . Estos se combinan para formar un hipercilindro 6N-dimensional. Del mismo modo que el área de la pared de un cilindro es la circunferencia de la base por la altura, el área area de la pared de este hipercilindro es:
La entropía es proporcional al logaritmo del número de estados que el gas podría tener al mismo tiempo que satisface estas restricciones. En la física clásica, el número de estados es infinitamente grande, pero según la mecánica cuántica es finito. Antes del advenimiento de la mecánica cuántica, este infinito se regularizaba haciendo que el espacio de fase fuera discreto. El espacio de fase se dividió en bloques de volumen.. La constante h apareció como resultado de un truco matemático y se pensó que no tenía importancia física. Sin embargo, utilizando la mecánica cuántica, uno recupera el mismo formalismo en el límite semiclásico, pero ahora con h es la constante de Planck. Uno puede ver esto cualitativamente desde el principio de incertidumbre de Heisenberg ; un volumen en N espacio de fase más pequeño que h 3N ( h es la constante de Planck) no se puede especificar.
Para calcular el número de estados, debemos calcular el volumen en el espacio de fase en el que se puede encontrar el sistema y dividirlo por . Esto nos lleva a otro problema: el volumen parece acercarse a cero, ya que la región en el espacio de fase en que puede estar el sistema es un área de grosor cero. Este problema es un artefacto de haber especificado la energía U con una precisión infinita. En un sistema genérico sin simetrías, un tratamiento cuántico completo produciría un conjunto discreto de estados propios de energía no degenerados. Una especificación exacta de la energía fijaría entonces el estado preciso en el que se encuentra el sistema, por lo que la cantidad de estados disponibles para el sistema sería uno, la entropía sería, por lo tanto, cero.
Cuando especificamos que la energía interna sea U, lo que realmente queremos decir es que la energía total del gas se encuentra en algún lugar en un intervalo de longitud alrededor de u. aquí se considera que es muy pequeño, resulta que la entropía no depende en gran medida de la elección de para grandes N. Esto significa que el "área" anterior debe extenderse a una cubierta de un grosor igual a una incertidumbre en el momento , así que la entropía está dada por:
donde la constante de proporcionalidad es k , la constante de Boltzmann . Usando la aproximación de Stirlingpara la función Gamma que omite términos de menos del orden N , la entropía para N grande se convierte en:
Esta cantidad no es extensa como se puede ver al considerar dos volúmenes idénticos con el mismo número de partículas y la misma energía. Supongamos que los dos volúmenes están separados por una barrera al principio. La remoción o reinserción de la pared es reversible, pero la entropía aumenta cuando la barrera se elimina por la cantidad
lo que está en contradicción con la termodinámica si reinserta la barrera. Esta es la paradoja de Gibbs.
La paradoja se resuelve postulando que las partículas de gas son de hecho indistinguibles. Esto significa que todos los estados que difieren solo por una permutación de partículas deben considerarse como el mismo estado. Por ejemplo, si tenemos un gas de 2 partículas y especificamos AB como un estado del gas donde la primera partícula ( A ) tiene un momento p 1 y la segunda partícula ( B ) tiene un momento p 2 , entonces este estado, así como el estado BA donde la partícula B tiene el momento p 1 y la partícula A tiene el momento p 2 sedebe contar como el mismo estado.
Para un gas de partículas N , hay N! Estados que son idénticos en este sentido, si se supone que cada partícula está en un estado de partícula única diferente. Uno puede hacer esta suposición de manera segura siempre que el gas no tenga una densidad extremadamente alta. En condiciones normales, se puede calcular el volumen del espacio de fase ocupado por el gas, dividiendo la Ecuación 1 por N! . Usando la aproximación de Stirlingnuevamente para N grande , ln ( N! ) ≈ N ln ( N ) - N , la entropía para N grande es:
La paradoja de mezcla [ editar ]
Una paradoja estrechamente relacionada con la paradoja de Gibbs es la paradoja de la mezcla . De hecho, la paradoja de Gibb es un caso especial de la "paradoja de la mezcla" que contiene todas las características sobresalientes. La diferencia es que la paradoja de la mezcla trata con arbitrarios. distinciones en los dos gases, no solo distinciones en el ordenamiento de partículas como Gibbs había considerado. En este sentido, es una generalización directa del argumento presentado por Gibbs. De nuevo, tome una caja con una partición, con el gas A en un lado, el gas B en el otro lado, y ambos gases están a la misma temperatura y presión. Si los gases A y B son gases diferentes, existe una entropía que surge una vez que se mezclan los gases. Si los gases son iguales, no se calcula ninguna entropía adicional. La entropía adicional de la mezcla no depende del carácter de los gases; Solo depende del hecho de que los gases son diferentes. Los dos gases pueden ser arbitrariamente similares, pero la entropía de la mezcla no desaparece a menos que sean el mismo gas, una discontinuidad paradójica.
Esta "paradoja" se puede explicar considerando cuidadosamente la definición de entropía. En particular, como lo explicó brevemente Edwin Thompson Jaynes , [2] las definiciones de entropía son arbitrarias.
Como lo señala un ejemplo central en el documento de Jaynes, uno puede desarrollar una teoría que trate dos gases como similares, incluso si esos gases en realidad pueden distinguirse a través de una medición suficientemente detallada. Mientras no realicemos estas mediciones detalladas, la teoría no tendrá inconsistencias internas. (En otras palabras, no importa que llamemos a los gases A y B con el mismo nombre si aún no hemos descubierto que son distintos). Si nuestra teoría llama a los gases A y B iguales, entonces la entropía no cambia cuando nosotros mézclalos. Si nuestra teoría llama a los gases A y B diferentes, entonces la entropía hace aumento cuando se mezclan. Esta idea sugiere que las ideas de "estado termodinámico" y de "entropía" son algo subjetivas.
El aumento diferencial en la entropía (dS) como resultado de la mezcla de diferentes gases, multiplicado por la temperatura (T), es igual a la cantidad mínima de trabajo que debemos hacer para restaurar los gases a su estado original separado. Supongamos que dos gases son diferentes, pero que somos incapaces de detectar sus diferencias. Si estos gases están en una caja, separados entre sí por una partición, ¿cuánto trabajo se necesita para restaurar el estado original del sistema después de que eliminamos la partición y dejamos que los gases se mezclen?
Ninguno - simplemente vuelva a insertar la partición. A pesar de que los gases se han mezclado, nunca hubo un cambio de estado detectable en el sistema, porque según la hipótesis, los gases son experimentalmente indistinguibles.
Tan pronto como podamos distinguir la diferencia entre los gases, el trabajo necesario para recuperar la configuración macroscópica de premezcla del estado de post-mezcla se convierte en no nulo. Esta cantidad de trabajo no depende de qué tan diferentes sean los gases, sino solo de si son distinguibles.
Esta línea de razonamiento es particularmente informativa cuando se consideran los conceptos de partículas indistinguibles y el conteo correcto de Boltzmann . La expresión original de Boltzmann para el número de estados disponibles para un gas asumió que un estado podría expresarse en términos de una cantidad de "subniveles" energéticos, cada uno de los cuales contiene un número particular de partículas. Mientras que las partículas en un subnivel dado se consideraron indistinguibles unas de otras, las partículas en diferentes subniveles se consideraron distinguibles de las partículas en cualquier otro subnivel. Esto equivale a decir que el intercambio de dos partículas en dos subniveles diferentes dará como resultado un "macroestado de intercambio" detectable diferente del gas. Por ejemplo, si consideramos un gas simple con Npartículas, a una densidad suficientemente baja para que sea prácticamente seguro que cada subnivel contenga una partícula o ninguna (es decir, un gas Maxwell-Boltzmann), esto significa que un recipiente simple de gas estará en uno de N! Diferentemente detectables "macroestados de intercambio", uno para cada posible intercambio de partículas.
Al igual que la paradoja de la mezcla comienza con dos contenedores detectables diferentes, y la entropía adicional que resulta de la mezcla es proporcional a la cantidad promedio de trabajo necesario para restaurar ese estado inicial después de la mezcla, la entropía adicional en la derivación original de Boltzmann es proporcional a la media cantidad de trabajo requerido para restaurar el gas simple de un "macroestado de intercambio" a su "macroestado de intercambio" original. Si asumimos que de hecho no hay una diferencia detectable experimentalmente en estos "macroestados de intercambio" disponibles, entonces el uso de la entropía que resulta de asumir que las partículas son indistinguibles dará como resultado una teoría consistente. Esto es "conteo de Boltzmann correcto".
A menudo se dice que la resolución de la paradoja de Gibbs se deriva del hecho de que, de acuerdo con la teoría cuántica, las partículas similares en principio son indistinguibles. Según el razonamiento de Jaynes, si las partículas son experimentalmente indistinguibles por cualquier razón, la paradoja de Gibbs se resuelve, y la mecánica cuántica solo proporciona la seguridad de que en el ámbito cuántico, esta indistinguibilidad será verdadera por principio, en lugar de ser debida a una Capacidad experimental insuficientemente refinada.
La entropía no extensiva de dos gases ideales y cómo solucionarlo [ editar ]
En esta sección, presentamos a grandes rasgos una derivación puramente clásica de la entropía no extensa para un gas ideal considerado por Gibbs antes de que se tenga en cuenta el "conteo correcto" (indistinguibilidad de las partículas). A esto le sigue una breve discusión de dos métodos estándar para extender la entropía. Finalmente, presentamos un tercer método, debido a R. Swendsen, para un resultado extenso (aditivo) para la entropía de dos sistemas si se les permite intercambiar partículas entre sí. [5] [6]
Configuración [ editar ]
Presentaremos una versión simplificada del cálculo. Se diferencia del cálculo completo en tres formas:
- El gas ideal consiste en partículas confinadas a una dimensión espacial.
- Mantenemos únicamente las condiciones de pedido. , eliminando todos los términos de tamaño n o menos, donde n es el número de partículas. Para nuestros propósitos, esto es suficiente, porque aquí es donde aparece la paradoja de Gibbs y donde debe resolverse. Los términos descuidados desempeñan un papel cuando el número de partículas no es muy grande, como en la simulación por computadora y la nanotecnología . Además, son necesarios para derivar la ecuación de Sackur-Tetrode .
- La subdivisión del espacio de fase en unidades de la constante de Planck (h) se omite. En cambio, la entropía se define utilizando una integral sobre la porción "accesible" del espacio de fase. Esto sirve para resaltar la naturaleza puramente clásica del cálculo.
Comenzamos con una versión de la entropía de Boltzmann en la que el integrando es todo espacio de faseaccesible :
La integral está restringida a un contorno de regiones disponibles del espacio de fase, sujeto a la conservación de la energía. En contraste con las integrales de línea unidimensionales encontradas en la física elemental, el contorno de la energía constante posee un gran número de dimensiones. La justificación para la integración en el espacio de fase utilizando la medida canónica implica el supuesto de igual probabilidad. El supuesto puede hacerse invocando la hipótesis ergódica , así como el teorema de Liouville de los sistemas hamiltonianos .
(La hipótesis ergódica subyace a la capacidad de un sistema físico para alcanzar el equilibrio térmico , pero esto no siempre es válido para simulaciones por computadora (ver el problema Fermi-Pasta-Ulam-Tsingou ) o en ciertos sistemas del mundo real, como los plasmas no térmicos. .)
El teorema de Liouville asume un número fijo de dimensiones que el sistema "explora". En los cálculos de entropía, las dimensiones numéricas son proporcionales a la cantidad de partículas en el sistema, lo que obliga al espacio de fase a cambiar abruptamente la dimensionalidad cuando se agregan o restan partículas. Esto puede explicar las dificultades en la construcción de una derivación clara y simple para la dependencia de la entropía del número de partículas.
Para el gas ideal, el espacio de fase accesible es una esfera ( n-1) (también llamada hiperesfera) en eldimensional espacio:
Para recuperar el resultado paradójico de que la entropía no es extensa, integramos el espacio de fase para un gas de partículas monoatómicas confinadas a una sola dimensión espacial por. Dado que nuestro único propósito es iluminar una paradoja, simplificamos la notación tomando la masa de la partícula y la constante de Boltzmann igual a la unidad:. Representamos puntos en el espacio de fase y sus partes x y v mediante n y 2n vectores tridimensionales:
- dónde y
Para calcular la entropía, utilizamos el hecho de que la esfera (n-1), tiene un "volumen de hipersuperficie" tridimensional ( n - 1 ) de,
Por ejemplo, si n = 2, la esfera 1 es el círculo , una "hipersuperficie" en el plano. Cuando la esfera es par-dimensional ( n impar), será necesario usar la función gamma para dar significado al factorial; vea abajo.
La paradoja de Gibb en un gas unidimensional [ editar ]
La paradoja de Gibb surge cuando la entropía se calcula utilizando un espacio de fase dimensional, donde También es el número de partículas en el gas. Estas partículas están limitadas espacialmente al intervalo unidimensional.. El volumen de la superficie de energía fija es
Los subíndices de se utilizan para definir las 'variables de estado' y se analizarán más adelante, cuando se argumenta que el número de partículas, carece de estado completo como variable de estado en este cálculo. La integral sobre el espacio de configuración es. Según lo indicado por el subespacio, el espacio integral sobre la velocidad está restringido al "área de superficie" de la hiperesfera de radio n - 1 dimensional, y por lo tanto es igual al "área" de esa hipersuperficie. Así
MostrarClic para ver los pasos algebraicos.
Después de aproximar el factorial y soltar los términos pequeños, obtenemos
En la segunda expresión, el término fue restado y agregado, usando el hecho de que . Esto se hizo para resaltar exactamente cómo la "entropía" definida aquí no es una propiedad extensa de la materia. Los primeros dos términos son extensos: si el volumen del sistema se duplica, pero se llena con la misma densidad de partículas con la misma energía, entonces cada uno de estos términos se duplica. Pero el tercer término no es extenso ni intensivo y, por lo tanto, es incorrecto.
La constante arbitraria se ha agregado porque la entropía generalmente se puede ver como definida hasta una constante aditiva arbitraria. Esto es especialmente necesario cuando la entropía se define como el logaritmo de un volumen de espacio de fase medido en unidades de posición de momento. Cualquier cambio en la forma en que se definen estas unidades agregará o restará una constante del valor de la entropía.
Dos formas estándar de hacer extensiva la entropía clásica [ editar ]
Como se discutió anteriormente , una forma extensa de entropía se recupera si dividimos el volumen del espacio de fase,, por n. Un enfoque alternativo es argumentar que no se puede confiar en la dependencia del número de partícula sobre la base de que el cambioTambién cambia la dimensionalidad del espacio de fase. Tales cambios en la dimensionalidad quedan fuera del alcance de la mecánica hamiltoniana y el teorema de Liouville . Por esa razón es plausible permitir que la constante arbitraria sea una función de. [7] Definiendo la función a ser,, tenemos:
- ,
Enfoque de intercambio de partículas de Swendsen [ editar ]
Luego de Swendsen, [5] [6] permitimos que dos sistemas intercambien partículas. Esto esencialmente "deja espacio" en el espacio de fase para que las partículas entren o salgan sin requerir un cambio en el número de dimensiones del espacio de fase. El número total de partículas es:
- las partículas tienen coordenadas .
-
- La energía total de estas partículas es
- las partículas tienen coordenadas .
-
- La energía total de estas partículas es
- El sistema está sujeto a las restricciones, y
Tomando el espacio integral sobre la fase, tenemos:
Los signos de interrogación (?) Sirven como un recordatorio de que no podemos suponer que las primeras partículas n A (es decir, 1 a pesar de n A ) están en el sistema A, mientras que las otras partículas (n B a N) están en el sistema B. (Esto se discute más a fondo en la siguiente sección).
Tomando el logaritmo y manteniendo solo los términos más grandes, tenemos:
Esto puede interpretarse como la suma de la entropía del sistema-A y el sistema-B, ambos extensos. Y hay un término,, eso no es extenso.
Visualizando el enfoque de intercambio de partículas en tres dimensiones [ editar ]
Las fórmulas correctas (extensas) para los sistemas A y B se obtuvieron porque incluimos todas las formas posibles en que los dos sistemas podrían intercambiar partículas. El uso de combinaciones (es decir, N partículas eligen N A ) se utilizó para determinar el número de formas en que las partículas N se pueden dividir en el sistema A que contiene partículas n A y el sistema B quecontiene partículas n B. Este conteo no se justifica por razones físicas, sino por la necesidad de integrarse en el espacio de fase. Como se ilustrará a continuación, el espacio de fase no contiene una sola esfera n A y una única esfera n B , sino que
pares de n-esferas, todas situadas en el mismo espacio de velocidad N + 1-dimensional. La integral sobre el espacio de fase accesible debe incluir todas estas n esferas, como puede verse en la figura, que muestra el espacio de fase de velocidad real asociado con un gas que consta de tres partículas. Además, este gas se ha dividido en dos sistemas, A y B.
Si ignoramos las variables espaciales, el espacio de fase de un gas con tres partículas es tridimensional, lo que permite hacer un bosquejo de las n esferas sobre las cuales se debe tomar la integral sobre el espacio de fase. Si las tres partículas están juntas, la división entre los dos gases es 3 | 0. El espacio de fase accesible está delimitado por una esfera ordinaria ( 2 esferas ) con un radio que puede ser o (Dependiendo de qué sistema tenga las partículas).
Si la división es 2 | 1, entonces el espacio de fase consta de círculos y puntos . Cada círculo ocupa dos dimensiones, y para cada círculo, dos puntos se encuentran en el tercer eje, equidistantes del centro del círculo. En otras palabras, si el sistema A tiene 2 partículas, el espacio de fase accesible consta de 3 pares de n esferas , cada par es una esfera 1 y una esfera 0 :
Tenga en cuenta que
No hay comentarios:
Publicar un comentario