lunes, 13 de mayo de 2019

TERMODINÁMICA


función de Massieu , símbolo. (Psi), se define por la siguiente relación:
donde para cada sistema con grado de libertad r se puede elegir r variables, por ejemplo,, para definir un sistema de coordenadas, donde X e Y son variables extensas e intensivas , respectivamente, y donde al menos una variable extensa debe estar dentro de este conjunto para definir el tamaño del sistema. La ( r  + 1) -th variable,, se llama entonces la función de Massieu. [1]
La función de Massieu fue introducida en el documento de 1869 "Sobre las diversas funciones características de los fluidos" por el ingeniero francés Francois Massieu (1832-1896) y algunas veces se llama función de Massieu-Gibbs, potencial de Massieu o función de Gibbs, o "función característica" en Su terminología original. El nombre "función de Gibbs" es el epónimo del físico estadounidense Willard Gibbs (1839-1903), quien citó a Massieu en su 1876 Sobre el equilibrio de sustancias heterogéneas . Massieu, como se discute en la primera nota al pie del resumen del equilibrio de Gibbs., "Parece haber sido el primero en resolver el problema de representar todas las propiedades de un cuerpo de composición invariable que se ocupa de procesos reversibles mediante una sola función". El documento de Massieu de 1869 parece ser la fuente de la concepción matemática generalizada. de la energía de un sistema que es igual a las sumas de los productos de pares de variables conjugadas .








la termodinámica de entropía máxima (coloquialmente, la termodinámica de MaxEnt ) ve la termodinámica de equilibrio y la mecánica estadística como procesos de inferencia . Más específicamente, MaxEnt aplica técnicas de inferencia enraizadas en la teoría de la información de Shannon , la probabilidad bayesiana y el principio de máxima entropía . Estas técnicas son relevantes para cualquier situación que requiera predicción a partir de datos incompletos o insuficientes (por ejemplo, reconstrucción de imágenes , procesamiento de señales , análisis espectral y problemas inversos)). La termodinámica MaxEnt comenzó con dos artículos de Edwin T. Jaynes publicados en 1957 Physical Review .

Máxima entropía de Shannon editar ]

Central para la tesis de MaxEnt es el principio de máxima entropía . Exige, como se indica, un modelo parcialmente especificado y algunos datos específicos relacionados con el modelo. Selecciona una distribución de probabilidad preferida para representar el modelo. El estado de datos dado "información verificable" [3] [4]sobre la distribución de probabilidad , por ejemplo , valores de expectativa particulares , pero no son en sí mismos suficientes para determinarla de manera única. El principio establece que uno debería preferir la distribución que maximiza la entropía de información de Shannon ,
.
Esto se conoce como el algoritmo de Gibbs , que fue introducido por J. Willard Gibbs en 1878, para establecer conjuntos estadísticos para predecir las propiedades de los sistemas termodinámicos en el equilibrio. Es la piedra angular del análisis estadístico mecánico de las propiedades termodinámicas de los sistemas de equilibrio (ver función de partición ).
De este modo, se establece una conexión directa entre la entropía termodinámica de equilibrio Th , una funciónde estado de presión, volumen, temperatura, etc., y la entropía de información para la distribución predicha con incertidumbre máxima condicionada solo por los valores de expectativa de esas variables:
B , la constante de Boltzmann , aquí no tiene un significado físico fundamental, pero es necesario mantener la coherencia con la definición histórica anterior de entropía de Clausius (1865) (ver la constante de Boltzmann ).
Sin embargo, la escuela MaxEnt argumenta que el enfoque MaxEnt es una técnica general de inferencia estadística, con aplicaciones que van mucho más allá. Por lo tanto, también se puede usar para predecir una distribución para "trayectorias" Γ "durante un período de tiempo" maximizando:
Esta "entropía de información" no tiene necesariamente una correspondencia simple con la entropía termodinámica. Pero puede usarse para predecir características de sistemas termodinámicos sin equilibrio amedida que evolucionan con el tiempo.
Para los escenarios de no equilibrio, en una aproximación que asume el equilibrio termodinámico local , con el enfoque de máxima entropía, las relaciones recíprocas de Onsager y las relaciones de Green-Kubo caen directamente. El enfoque también crea un marco teórico para el estudio de algunos casos muy especiales de escenarios lejos del equilibrio, lo que hace que la derivación del teorema de fluctuación de la producción de entropía sea sencilla. Para los procesos de no equilibrio, como lo es para las descripciones macroscópicas, también falta una definición general de entropía para las cuentas mecánicas estadísticas microscópicas.
Nota técnica : Por las razones discutidas en el artículo entropía diferencial , la definición simple de entropía de Shannon deja de ser directamente aplicable para variables aleatorias con funciones de distribución de probabilidad continua En cambio, la cantidad adecuada para maximizar es la "entropía de información relativa".
c es el negativo de la divergencia de Kullback-Leibler , o información de discriminación, de m ( x ) de p ( x ), donde m ( x ) es una medida invariante anterior para la variable (s). La entropía relativa c es siempre menor que cero, y puede considerarse como (el negativo de) el número de bits de incertidumbre perdidos al fijar en p ( x) en lugar de m ( x ). A diferencia de la entropía de Shannon, la entropía relativa ctiene la ventaja de permanecer finito y bien definido para la x continua , e invariante en las transformaciones de coordenadas 1 a 1. Las dos expresiones coinciden para distribuciones de probabilidad discretas , si se puede suponer que m ( i ) es uniforme, es decir, el principio de probabilidad a priori igual , que subyace a la termodinámica estadística.

Implicaciones filosóficas editar ]

Los adherentes al punto de vista de MaxEnt adoptan una posición clara sobre algunas de las cuestiones conceptuales / filosóficas de la termodinámica. Esta posición se esboza a continuación.

La naturaleza de las probabilidades en la mecánica estadística editar ]

Jaynes (1985, [5] 2003, [6] y passim ) discutió el concepto de probabilidad. De acuerdo con el punto de vista de MaxEnt, las probabilidades en la mecánica estadística están determinadas conjuntamente por dos factores: mediante modelos específicos especificados respectivamente para el espacio de estado subyacente (por ejemplo , espacio de fase liouviliano ); y por las descripciones parciales particulares del sistema especificadas respectivamente (la descripción macroscópica del sistema utilizada para restringir la asignación de probabilidad MaxEnt). Las probabilidades son objetivas.en el sentido de que, dadas estas entradas, resultará una distribución de probabilidad definida de manera única, lo mismo para cada investigador racional, independientemente de la subjetividad u opinión arbitraria de personas particulares. Las probabilidades son epistémicas en el sentido de que se definen en términos de datos específicos y se derivan de esos datos mediante reglas de inferencia definidas y objetivas, las mismas para todos los investigadores racionales. [7] Aquí, la palabra epistémica, que se refiere al conocimiento científico objetivo e impersonal, la misma para cada investigador racional, se usa en el sentido que la contrasta con la opinión, que se refiere a las creencias subjetivas o arbitrarias de personas particulares; Este contraste fue utilizado por Platón y Aristóteles , y se mantiene confiable hoy.
Jaynes también usó la palabra "subjetivo" en este contexto porque otros lo han usado en este contexto. Aceptó que, en cierto sentido, un estado de conocimiento tiene un aspecto subjetivo, simplemente porque se refiere al pensamiento, que es un proceso mental. Pero enfatizó que el principio de máxima entropía se refiere solo al pensamiento que es racional y objetivo, independientemente de la personalidad del pensador. En general, desde un punto de vista filosófico, las palabras "subjetivo" y "objetivo" no son contradictorias; A menudo una entidad tiene aspectos tanto subjetivos como objetivos. Jaynes rechazó explícitamente la crítica de algunos escritores de que, solo porque uno puede decir que el pensamiento tiene un aspecto subjetivo, el pensamiento es automáticamente no objetivo. Rechazó explícitamente la subjetividad como base para el razonamiento científico, la epistemología de la ciencia;[8] Sin embargo, los críticos continúan atacando a Jaynes, alegando que sus ideas son "subjetivas". Un escritor llega incluso a etiquetar el enfoque de Jaynes como "ultrasubjetivista", [9] y mencionar "el pánico que el término subjetivismo creó entre los físicos". [10]
Las probabilidades representan tanto el grado de conocimiento como la falta de información en los datos y el modelo utilizado en la descripción macroscópica del sistema por parte del analista, y también lo que dichos datos dicen sobre la naturaleza de la realidad subyacente.
La idoneidad de las probabilidades depende de si las restricciones del modelo macroscópico especificado son una descripción suficientemente precisa y / o completa del sistema para capturar todo el comportamiento reproducible experimentalmente. Esto no se puede garantizar, a priori . Por esta razón, los proponentes de MaxEnt también llaman el método mecánico estadístico predictivo . Las predicciones pueden fallar. Pero si lo hacen, esto es informativo, porque señala la presencia de nuevas restricciones necesarias para capturar el comportamiento reproducible en el sistema, que no se había tenido en cuenta.

¿Es la entropía "real"? editar ]

La entropía termodinámica (en equilibrio) es una función de las variables de estado de la descripción del modelo. Por lo tanto, es tan "real" como las otras variables en la descripción del modelo. Si las restricciones del modelo en la asignación de probabilidad son una "buena" descripción, que contiene toda la información necesaria para predecir resultados experimentales reproducibles, eso incluye todos los resultados que uno podría predecir usando las fórmulas que involucran la entropía de la termodinámica clásica. En ese sentido, el MaxEnt Th es tan "real" como la entropía en la termodinámica clásica.
Por supuesto, en realidad solo hay un estado real del sistema. La entropía no es una función directa de ese estado. Es una función del estado real solo a través de la descripción del modelo macroscópico (subjetivamente elegido).

¿Es la teoría ergódica relevante? editar ]

El conjunto gibbsiano idealiza la idea de repetir un experimento una y otra vez en diferentes sistemas, no una y otra vez en el mismo sistema. Por lo tanto, los promedios de tiempo a largo plazo y la hipótesis ergódica , a pesar del intenso interés en ellos en la primera parte del siglo XX, en términos estrictos no son relevantes para la asignación de probabilidad para el estado en el que se puede encontrar el sistema.
Sin embargo, esto cambia si hay conocimiento adicional de que el sistema se está preparando de una manera particular algún tiempo antes de la medición. Entonces se debe considerar si esto proporciona información adicional que aún es relevante en el momento de la medición. La cuestión de cómo se 'mezclan rápidamente' las diferentes propiedades del sistema se vuelve muy interesante. La información sobre algunos grados de libertad del sistema combinado puede quedar inutilizable muy rápidamente; La información sobre otras propiedades del sistema puede seguir siendo relevante durante un tiempo considerable.
Si nada más, las propiedades de correlación de mediano y largo plazo del sistema son temas interesantes para la experimentación en sí mismos. El hecho de no predecirlos con precisión es un buen indicador de que puede faltar en el modelo la física relevante que se puede determinar macroscópicamente.

La segunda ley editar ]

De acuerdo con el teorema de Liouville para la dinámica hamiltoniana , el hipervolumen de una nube de puntos en el espacio de fase permanece constante a medida que el sistema evoluciona. Por lo tanto, la entropía de la información también debe permanecer constante, si condicionamos la información original, y luego seguimos cada uno de esos microestados en el tiempo:
Sin embargo, a medida que el tiempo evoluciona, la información inicial que teníamos se vuelve menos accesible. En lugar de ser fácilmente resumible en la descripción macroscópica del sistema, se relaciona cada vez más con correlaciones muy sutiles entre las posiciones y los momentos de las moléculas individuales. (Comparado con el teorema H de Boltzmann ). Equivalentemente, significa que la distribución de probabilidad para todo el sistema, en el espacio de fase de 6N dimensiones, se vuelve cada vez más irregular, extendiéndose en dedos largos y delgados en lugar del volumen inicial de posibilidades estrechamente definido.
La termodinámica clásica se basa en el supuesto de que la entropía es una función de estado de las variables macroscópicas , es decir, que nada de la historia del sistema es importante, por lo que se puede ignorar todo.
La distribución de probabilidad desarrollada, tenue y extendida, que todavía tiene la entropía de Shannon inicial Th (1) , debe reproducir los valores de expectativa de las variables macroscópicas observadas en el tiempo 2 . Sin embargo, ya no será necesariamente una distribución de entropía máxima para esa nueva descripción macroscópica. Por otra parte, el nuevo entropía termodinámica Th (2) seguramente será medir la distribución de entropía máxima, por construcción. Por lo tanto, esperamos:
En un nivel abstracto, este resultado implica que parte de la información que originalmente teníamos sobre el sistema se ha vuelto "no útil" a nivel macroscópico. A nivel de la distribución de probabilidad N- dimensional, este resultado representa un granulado general , es decir, la pérdida de información al suavizar los detalles de escala muy fina.

Advertencias con el argumento editar ]

Algunas advertencias deben considerarse con lo anterior.
1. Como todos los resultados estadísticos mecánicos de acuerdo con la escuela MaxEnt, este aumento en la entropía termodinámica es solo una predicción . Se supone en particular que la descripción macroscópica inicial contiene toda la información relevante para predecir el estado macroscópico posterior. Este puede no ser el caso, por ejemplo, si la descripción inicial no refleja algún aspecto de la preparación del sistema que luego se vuelve relevante. En ese caso, el "fallo" de una predicción de MaxEnt nos dice que hay algo más relevante que podemos haber pasado por alto en la física del sistema.
Algunas veces también se sugiere que la medición cuántica , especialmente en la interpretación de la decoherencia , puede dar una reducción aparentemente inesperada de la entropía según este argumento, ya que parece implicar que la información macroscópica esté disponible, lo que antes era inaccesible. (Sin embargo, la contabilidad de la entropía de la medición cuántica es complicada, ya que para obtener la plena decoherencia uno puede estar asumiendo un entorno infinito, con una entropía infinita).
2. El argumento hasta ahora ha pasado por alto la cuestión de las fluctuaciones . También ha asumido implícitamente que la incertidumbre predicha en el tiempo 1 para las variables en el tiempo 2 será mucho menor que el error de medición. Pero si las mediciones actualizan significativamente nuestro conocimiento del sistema, nuestra incertidumbre en cuanto a su estado se reduce, dando un nuevo I (2) que es menor que I (1) . (Tenga en cuenta que si nos permitimos las habilidades del demonio de Laplace , las consecuencias de esta nueva información también pueden asignarse al revés, por lo que nuestra incertidumbre sobre el estado dinámico en el momento1 ahora también se reduce de I (1) a I (2)  ).
Sabemos que Th (2) > S I (2) ; pero ahora ya no podemos estar seguros de que es mayor que Th (1) = S I (1) . Esto deja abierta la posibilidad de fluctuaciones en Th . La entropía termodinámica puede descender y descender. Un análisis más sofisticado viene dado por el teorema de fluctuación de entropía , que puede establecerse como consecuencia de la imagen de MaxEnt dependiente del tiempo.
3. Como se acaba de indicar, la inferencia de MaxEnt funciona igualmente bien a la inversa. Entonces, dado un estado final particular, podemos preguntarnos, ¿qué podemos "retrodictir" para mejorar nuestro conocimiento sobre estados anteriores? Sin embargo, el argumento de la Segunda Ley anterior también funciona a la inversa: dada la información macroscópica en el tiempo 2 , debemos esperar que también sea menos útil. Los dos procedimientos son simétricos en el tiempo. Pero ahora la información será cada vez menos útil en tiempos anteriores y anteriores. (Comparar con la paradoja de Loschmidt.) La inferencia de MaxEnt predeciría que el origen más probable de un estado actual de baja entropía sería como una fluctuación espontánea de un estado anterior de alta entropía. Pero esto entra en conflicto con lo que sabemos que sucedió, a saber, que la entropía ha aumentado constantemente, incluso en el pasado.
La respuesta de los defensores de MaxEnt a esto sería que tal fallo sistemático en la predicción de una inferencia de MaxEnt es una cosa "buena". [11] Esto significa que, por lo tanto, hay pruebas claras de que se ha perdido alguna información física importante en la especificación del problema. Si es correcto que las dinámicas "son" simétricas en el tiempo , parece que debemos incluir manualmente la probabilidad de que las configuraciones iniciales con una entropía termodinámica baja sean más probables que las configuraciones iniciales con una entropía termodinámica alta. Esto no puede explicarse por la dinámica inmediata. Muy posiblemente, surge como un reflejo de la evolución evidente del tiempo asimétrico del universo en una escala cosmológica (ver flecha del tiempo ).

No hay comentarios:

Publicar un comentario