Entropía

La entropía (del griego antiguo ἐν en , "adentro", y τροπή tropé , "transformación") es, en mecánica estadística , una cantidad (más específicamente una coordenada generalizada ) que se interpreta como una medida del desorden presente en un sistema cualquiera física , incluyendo, como caso extremo, el Universo . Generalmente se representa con la letra . En el Sistema Internacional se mide en julios divididos por kelvin (J/K).

En la termodinámica clásica , el primer campo en el que se introdujo la entropía es una función de estado de un sistema en equilibrio termodinámico , que, al cuantificar la indisponibilidad de un sistema para producir trabajo , se introduce junto con la segunda ley de la termodinámica [1] . A partir de esta definición se puede decir, de forma no rigurosa pero explicativa, que cuando un sistema pasa de un estado de equilibrio ordenado a uno desordenado , su entropía aumenta; este hecho proporciona una indicación de la dirección en la que un sistema evoluciona espontáneamente, por lo tanto, también la flecha del tiempo (como ya afirmó Arthur Eddington [2] ).

El enfoque molecular de la mecánica estadística generaliza la entropía a estados de no equilibrio correlacionándola más estrechamente con el concepto de orden, precisamente con los posibles arreglos diferentes de los niveles moleculares y por lo tanto las diferentes probabilidades de los estados en los que un sistema puede estar macroscópicamente [3] .

El concepto de entropía se ha extendido a áreas que no son estrictamente físicas, como las ciencias sociales , la teoría de señales , la teoría de la información , ganando una gran popularidad.

Historia y definición

El concepto de entropía se introdujo a principios del siglo XIX , en el campo de la termodinámica, para describir una característica (cuya generalidad fue observada por primera vez por Sadi Carnot en 1824) de todos los sistemas entonces conocidos, en los que se observó que las transformaciones ocurrían espontáneamente en una sola dirección, hacia el mayor desorden.

En particular, el término "entropía" fue introducido por Rudolf Clausius en su Abhandlungen über die mechanische Wärmetheorie ( Tratado sobre la teoría mecánica del calor ), publicado en 1864. En alemán Entropie deriva del griego ἐν en , "adentro", y de τροπή tropé , "cambio", "punto de inflexión", "convulsión" (sobre el modelo de Energie , " energía "): para Clausius indicaba dónde acaba la energía suministrada a un sistema. Propiamente Clausius pretendía referirse al vínculo entre el movimiento interno (al cuerpo o sistema) y la energía interna o calor, vínculo que explicitaba la gran intuición de la Ilustración , que de alguna manera el calor debería referirse al movimiento mecánico de las partículas en su interior. el cuerpo. De hecho, la definió como la relación entre la suma de los pequeños ( infinitesimales ) aumentos de calor , dividida por la temperatura absoluta durante el cambio de estado.

Para aclarar el concepto de entropía podemos presentar algunos ejemplos:

El concepto de entropía cobró gran popularidad en los siglos XIX y XX, gracias a la gran cantidad de fenómenos que ayuda a describir, hasta salir del ámbito puramente físico y ser adoptado por las ciencias sociales, en la teoría de las señales , en informática teórica y en economía . Sin embargo, cabe señalar que existe una clase de fenómenos, denominados fenómenos no lineales (por ejemplo , fenómenos caóticos ) para los cuales las leyes de la termodinámica (y por tanto también de la entropía) deben ser profundamente revisadas y ya no tienen validez general.

Entropía y desorden

El concepto de "entropía" es bastante complejo y se requiere al menos un conocimiento básico de termodinámica y mecánica cuántica para comprender completamente su significado ; de hecho, existen al menos dos definiciones rigurosas de entropía: una definición macroscópica, proporcionada por la termodinámica, y una definición microscópica, proporcionada por la mecánica cuántica.

Sin embargo, es posible dar una explicación simplificada de la entropía, interpretándola como el "grado de desorden" de un sistema . Así, un aumento del "desorden" de un sistema se asocia con un aumento de la entropía, mientras que una disminución del "desorden" de un sistema se asocia con una disminución de la entropía; sin embargo, es necesario aclarar que el desorden es relativo, por lo que la explicación simplificada no equivale a la exacta; sin embargo, esto sirve para representar el concepto.

Para mayor claridad, la siguiente figura muestra tres configuraciones de un mismo sistema formado por 24 objetos, en las que se produce un aumento del desorden (es decir, un aumento de la entropía) de izquierda a derecha y una disminución del desorden (es decir, una disminución de la entropía ) de derecha a izquierda.

La siguiente figura muestra un ejemplo práctico en termodinámica en el que hay un aumento del desorden (es decir, un aumento de la entropía). En este caso los "objetos" son moléculas de dos gases (cada gas tiene un color diferente), por ejemplo supongamos que las bolas azules son moléculas de oxígeno y las bolas rojas son moléculas de nitrógeno.

Inicialmente los gases se ubican en dos compartimentos estancos; por lo tanto, en cada compartimento solo hay moléculas del mismo tipo de gas. Si los dos compartimentos se ponen en comunicación (por ejemplo abriendo una válvula ), los dos gases se mezclan entre sí y se produce un aumento del desorden, o un aumento de la entropía (que en este caso se denomina “cambio de entropía de mezcla”). ").

En el ejemplo anterior asistimos a un aumento "espontáneo" de entropía (fue suficiente para poner en comunicación los dos compartimentos). Este aumento de entropía espontáneo siempre ocurre en la naturaleza, mientras que no ocurre una disminución de entropía espontánea. Este hallazgo empírico se traduce en que las configuraciones "desordenadas" son las más probables y corresponde a la llamada " Segunda Ley de la Termodinámica ".

Otros sistemas que pueden adquirir diversos grados de desorden son los materiales metálicos . De hecho, pueden asumir las siguientes estructuras:

El desorden de las estructuras de los materiales metálicos también aumenta en presencia de los llamados " defectos cristalinos " (incluyendo la inclusión de otro tipo de átomos o la falta de un átomo en una posición de la red), cuya presencia determina una aumento en el contenido entrópico del material.


Postulado de entropía

Una propiedad fundamental, también llamada (impropiamente [4] ) el postulado de la entropía , establece que en un sistema aislado la entropía del sistema nunca decrece y, durante un proceso irreversible ordinario, aumenta. La prueba es la siguiente: considérese un sistema aislado tanto mecánica como térmicamente que, debido a una perturbación interna, pasa de un estado a otro . Dado que la entropía es una función de estado, por definición su variación no depende del camino seguido, sino únicamente del estado inicial y final, es posible concebir un proceso reversible que nos lleve de regreso de a . Para la desigualdad de Clausius tenemos:

Pero este circuito se puede descomponer en la suma de las dos integrales, de estado a y viceversa:

La primera integral es cero ya que el proceso es adiabático , es decir, al estar aislado el sistema, no sufre transferencias de calor con el exterior. La segunda integral se puede escribir en la forma:

Asi que:

Es decir:

Definición termodinámica

La variación de la función de estado de entropía fue introducida en 1864 por Rudolf Clausius en el campo de la termodinámica como: [5]

donde es la cantidad de calor absorbido o liberado de manera reversible e isotérmica por el sistema a temperatura .

En forma diferencial, la ley se ve así: [6]

Incluso si no es un diferencial exacto , dividirlo por la temperatura lo hace: por lo tanto, es el factor de integración . Además, es un diferencial exacto si y solo si la segunda ley de la termodinámica es válida .

En una de sus varias formulaciones, la segunda ley de la termodinámica establece que en un sistema aislado la entropía solo puede aumentar, o al menos permanecer constante durante ciclos termodinámicos reversibles.

Gases perfectos

Transformación isotérmica reversible

Dado que para un gas ideal la energía interna es función únicamente de la temperatura, en condiciones isotérmicas , entonces aplicando el primer principio de la termodinámica tenemos la igualdad del calor y el trabajo intercambiado, es decir:

se sigue que para una transformación entre estados y en ausencia de trabajo isocórico , tenemos:

[7]

para un mol de gas ideal, de la ecuación de estado de los gases ideales :

es decir:

asi que:

Podemos reescribir la ecuación anterior en función de la presión, si consideramos que en este caso particular (transformación isotérmica reversible de un gas ideal) [8] .

es decir:

asi que:

Transformación isocórica reversible

De la definición de entropía:

donde es el calor específico molar a volumen constante (función de la temperatura) y es su promedio entre temperaturas y .

Entonces, para un mol de gas perfecto:

Transformación isobárica reversible

Siguiendo el mismo procedimiento, podemos escribir:

donde es el calor específico molar a presión constante (función de la temperatura) y es su promedio entre temperaturas y .

Entonces, para un mol de gas perfecto:

Transformación reversible

Dado que la entropía es una función de estado , considerando cualquier transformación reversible de un estado a otro , con presión , temperatura y volumen ocupado definidos , es posible calcular la variación de entropía realizando la integral de Clausius

en cualquier camino reversible , por ejemplo en la composición de una isocora reversible con una isoterma reversible . Se obtiene para n moles (dependiendo únicamente de los estados y ):

de donde, aplicando la noción de función de estado, obtenemos una formulación analítica para la entropía en función de variables de estado, hasta una constante aditiva:

Equivale, a través de la ecuación de estado de los gases ideales , a las otras dos formas, a veces útiles, siempre definidas hasta una constante aditiva:

Donde es el coeficiente del politrópico . Se observa así que en las transformaciones adiabáticas reversibles la entropía permanece constante (por eso también se les llama isentrópicas).

Sistemas materiales

Para calcular la entropía asociada a los sistemas materiales, es posible realizar una integración que también tenga en cuenta las contribuciones por cambios de estado. Para una sustancia gaseosa a una temperatura , la entropía molar se puede derivar de

donde ,, son respectivamente los calores específicos de la sustancia en estado sólido, líquido y gaseoso mientras que , son respectivamente el calor latente de fusión y el calor latente de ebullición .

Energía y entropía

Suponiendo que todo el universo es un sistema aislado , es decir, un sistema para el cual es imposible intercambiar materia y energía con el exterior, el primer y segundo principios de la termodinámica se pueden resumir de la siguiente manera:

la energía total del universo es constante y la entropía total aumenta continuamente hasta que se alcanza un equilibrio

declaración válida para cualquier sistema aislado.

Esto significa que la energía no solo no se puede crear ni destruir, sino que no se puede transformar completamente de una forma a otra sin que una parte se disipe en forma de calor. Es decir, la energía utilizada se transforma en energía cada vez menos aprovechable.

Por ejemplo, si se quema un trozo de carbón , su energía se conserva y se convierte en energía contenida en dióxido de carbono , dióxido de azufre y otros residuos de la combustión, así como en forma de calor. Aunque no se perdió energía en el proceso, no podemos revertir el proceso de combustión y recrear la pieza original de carbón a partir de sus desechos.

Por tanto, la segunda ley de la termodinámica puede redefinirse como sigue: «Es imposible realizar una transformación cuyo único resultado sea la conversión en trabajo de todo el calor absorbido por una fuente homogénea» (formulación de Kelvin-Planck).

El estado en el que la entropía alcanza su valor máximo y ya no hay más energía libre disponible para realizar trabajo se denomina estado de equilibrio. Para todo el universo, concebido como un sistema aislado, esto significa que la conversión progresiva de trabajo en calor (por el principio de aumento de la entropía total), frente a una masa finita del universo, conducirá finalmente a un estado en el que la el universo entero estará en condiciones de temperatura uniforme; la llamada muerte térmica del Universo .

La entropía caracteriza la dirección (de baja entropía a alta entropía) de cualquier transformación real como una transformación irreversible: de hecho, incluso volviendo de un estado final a uno idéntico al estado inicial para temperatura, volumen, presión u otros parámetros, como ocurre continuamente en los ciclos de un motor térmico, al menos una variable física diferiría del punto de partida: la entropía (que inevitablemente ha aumentado).

Toda transformación real es una transformación irreversible porque aumenta la entropía; viceversa, la hipótesis de idealidad es equivalente a la hipótesis de una variación de entropía cero.

Definición cuántica de entropía

Mientras que en la visión antrópica la entropía siempre se expresa en términos de variación, y nunca en términos absolutos, en la mecánica cuántica es posible definir la entropía en términos absolutos, por ejemplo a través del entrelazamiento .

Considere dos sistemas y , cada uno con un espacio de Hilbert asociado ,. Entonces el estado del sistema compuesto es:

En general, no es posible asociar un estado puro con el componente . Sin embargo, todavía es posible asociarle una matriz de densidad . Definamos el operador de proyección

.

El estado de es el rastro parcial de sobre la base del sistema :

.

Por ejemplo, para el estado entrelazado "clásico" de e , cada uno de los cuales consta de dos estados puros "0" y "1"

la matriz de densidad es

y la matriz de densidad en estado puro de es

eso es simplemente la proyección del operador . Tenga en cuenta que la matriz de densidad del sistema compuesto tiene la misma forma. Esto no es sorprendente, ya que el estado entrelazado clásico es un estado puro.

Dada cualquier matriz de densidad, podemos calcular la cantidad

donde es la constante de Boltzmann , y se toma la traza sobre el espacio en el que está definida . Resulta que es exactamente la entropía del sistema correspondiente a .

La entropía de cualquier estado puro es cero, ya que no hay incertidumbre sobre el estado del sistema. La entropía de cada uno de los dos subsistemas y entrelazados es simplemente la máxima permisible para un sistema de dos estados.

Si el sistema en su conjunto es puro, la entropía de cada subsistema se puede utilizar para medir el grado de "entrelazamiento" con los otros subsistemas.

También se puede mostrar cómo los operadores unitarios que actúan sobre un estado, como el operador de evolución temporal obtenido de la ecuación de Schrödinger , dejan la entropía sin cambios. La reversibilidad de un proceso está por tanto asociada a su variación de entropía, lo que confirma la teoría termodinámica y, al mismo tiempo, la entropía de una señal según la teoría de la información .

Definición estadística

En mecánica estadística, el estudio de la entropía es un medio para obtener información macroscópica a partir de configuraciones microscópicas. Intuitivamente, se imagina que ante una determinada condición de equilibrio macroscópico del sistema (macroestado o estado termodinámico del sistema, definido por valores precisos de magnitudes como presión y temperatura), diferentes configuraciones microscópicas (estados dinámicos o microestados, definidos únicamente si se conocen la posición y la velocidad) de todas las moléculas del sistema).

Tales configuraciones microscópicas ocupan un volumen en el espacio de fase que se indica con . Entonces podemos definir la entropía según el principio de Boltzmann como: [5] [9]

donde es la constante de Boltzmann .

Podemos definirlo como la medida de todas las disposiciones posibles (o probabilidades a nivel macroscópico) de los niveles moleculares: representa por tanto el número de estados totales accesibles al sistema a temperatura . Esta medida tiene en cuenta la indistinguibilidad entre partículas mediante la introducción del factor de corrección de Gibbs.

Para entender el significado físico de vamos a tomar como ejemplo un caso de entropía por mezcla refiriéndose a un cristal de átomos . Supongamos que insertamos átomos (similares en tamaño y electrónicamente) en los sitios de sustitución simple: de esta manera tenemos un número de átomos y un número de átomos que se distribuyen en los sitios del cristal. A medida que introducimos los átomos en los sitios de , aumenta el número de configuraciones posibles entre los átomos y , es decir, aumenta la posibilidad de obtener diferentes distribuciones: este hecho coincide con un aumento en el grado de desorden del sistema, y ​​por tanto con un aumento de la entropía. El número máximo de configuraciones corresponde al número de formas posibles de distribuir aleatoriamente objetos en los sitios y es válido:

En general, si en el cristal de A ( , , etc.) se introducen varios tipos de átomos similares , el número máximo de configuraciones posibles es:

A temperaturas ordinarias, en gases, estos arreglos siguen la distribución de Maxwell-Boltzmann , pero el enfoque puede extenderse adecuadamente, de una manera más compleja, a líquidos y sólidos donde, por ejemplo, la indistinguibilidad de partículas individuales no se aplica (ya que son restringido espacialmente, por ejemplo, a la red cristalina). A bajas temperaturas, cercanas al cero absoluto , las distribuciones, en virtud de que las partículas se concentran en los niveles de energía más bajos, seguirán diferentes distribuciones, como la de Fermi-Dirac o la de Bose-Einstein (según caigan o no bajo el principio de exclusión de Pauli ).

La definición de estadística molecular se considera la definición fundamental de entropía, ya que todas las demás pueden derivarse matemáticamente de ella, pero no al revés. En las lecciones de teoría de gases de Boltzmann de 1896, se demostró la expresión de la medida entrópica para sistemas de átomos y moléculas en fase gaseosa, proporcionando así una medida de la entropía en la termodinámica clásica.

Puede demostrarse que la entropía así definida posee todas las características de la entropía termodinámica y, en particular, puede demostrarse que es extensiva, es decir, tiene la propiedad de aditividad (y diferencia: por lo que la variación de entropía y la función de entropía pueden calcularse es diferenciable, es decir, tiene sentido hablar de entropía en términos microscópicos). La fórmula muestra que es extremadamente improbable, si no imposible, que un sistema regrese de una configuración final a una idéntica al estado inicial. La diferencia de significado físico entre entropía y temperatura es que la primera mide el estado de desorden (físico) del sistema, la segunda el estado (energético) de agitación molecular .

A partir de la ecuación , con algunas consideraciones combinatorias sobre y a partir de la distribución de Boltzmann de los estados posibles, llegamos a:

donde es la temperatura , la energía térmica , la constante de los gases , la función de partición y la constante de Avogadro . La fórmula es útil para el cálculo de en gases.

Si queremos información macroscópica del sistema, basta con derivar la entropía con respecto a una de sus variables naturales , e (energía, número de partículas y volumen) manteniendo constantes las demás. Es necesario tener en cuenta que este tratamiento descansa en la hipótesis ergódica que postula que es posible reemplazar el promedio temporal sobre las configuraciones microscópicas por el promedio sobre las configuraciones mismas (reemplazar propiamente los promedios temporales por los de -Gibbs- conjunto).

Entropía de Gibbs

El estado macroscópico de un sistema se puede describir mediante la distribución de una serie de microestados . La entropía de este sistema se calcula con la fórmula de Willard Gibbs .
Para un sistema de física clásica (por ejemplo, una colección de partículas) que tiene un número discreto de microestados, si denotamos con la energía del i-ésimo microestado, y con la probabilidad relativa de que ocurra durante las fluctuaciones del sistema, entonces l La entropía de este sistema está dada por:

,

donde:
cantidad es la constante de Boltzmann, que, como la entropía, se mide en unidades de capacidad calorífica , mientras que el logaritmo es un número adimensional. Esta entropía también se denomina indistintamente entropía estadística o entropía termodinámica . Esta fórmula es la versión discreta de la Entropía de Shannon . La entropía de Von Neumann es a su vez una extensión de la entropía de Gibbs al fenómeno de la mecánica cuántica . Se ha demostrado [10] que la Entropía de Gibbs es completamente equivalente a la definición clásica de entropía:

Ecuación presupuestaria

En un sistema aislado , la segunda ley de la termodinámica afirma que la entropía solo puede aumentar. En un sistema abierto , donde cantidades como el calor, la energía y la masa pueden fluir hacia y desde el exterior, la entropía del sistema también puede disminuir. En un sistema abierto, a menudo es útil escribir una ecuación de equilibrio .

Un sistema abierto generalmente se define por un volumen de control , que es una porción del espacio que determina el sistema bajo consideración. Todo lo que no esté contenido en este volumen es externo al sistema. La entropía del sistema varía con el tiempo y su derivada está determinada por una ecuación de equilibrio del tipo

donde , denota respectivamente la corriente de entropía neta y la generada dentro del sistema. Todas estas cantidades son derivadas del tiempo. En una ecuación de balance normalmente el segundo término puede ser negativo, pero aquí no puede estar de acuerdo con la segunda ley de la termodinámica .

Los términos de los estados financieros se pueden explicar de la siguiente manera:

En esta expresión, cada una de las corrientes de entropía se descompone en dos sumandos:

En un sistema cerrado el término convectivo es nulo, por lo que la relación se convierte en:

En un sistema aislado también se anulan los términos entrópicos ligados al flujo térmico, por lo que:

Entropía en la información

A Claude Shannon le debemos el estudio de la entropía en la teoría de la información, su primer trabajo sobre el tema se encuentra en el artículo Una teoría matemática de la comunicación de 1948. En el primer teorema de Shannon, o teorema de Shannon sobre la codificación de fuentes, demostró que una fuente aleatoria de información no puede representarse con un número de bits inferior a su entropía, es decir, su autoinformación media.

En la teoría de la información , y en relación con la teoría de la señal , la entropía mide la cantidad de incertidumbre o información presente en una señal aleatoria, que también puede interpretarse como la complejidad descriptiva mínima de una variable aleatoria , es decir, el límite inferior de compresión de datos. La conexión con la entropía termodinámica radica entonces en la relación de compresión: a medida que disminuye la temperatura, disminuye la redundancia de la señal y, por lo tanto, aumenta la compresión. La entropía de la información alcanza un mínimo, que en general es distinto de cero, a diferencia de la entropía termodinámica (ver tercera ley de la termodinámica ).

Este resultado estaba implícito en la definición estadística de entropía de John Von Neumann , incluso si el mismo Von Neumann, cuestionado al respecto por Shannon en quizás el único intercambio de puntos de vista entre ellos, no lo consideró digno de atención. Como Shannon recordó más tarde sobre el resultado que encontró:

“Mi mayor preocupación era cómo llamarlo. Pensé que lo estaba llamando información , pero la palabra se usaba demasiado, así que decidí llamarlo incertidumbre . Cuando discutí esto con John Von Neumann, tuvo una mejor idea. Me dijo que debería llamarlo entropía , por dos razones: "Primero, su función de incertidumbre ya se conoce en mecánica estadística con ese nombre. Segundo, y más significativo, nadie sabe con certeza qué es la entropía , por lo que en una discusión usted siempre tendra una ventaja""

Entropía en la economía

Georgescu-Roegen aplicando el segundo principio de la termodinámica a la economía , y en particular a la economía de producción, introdujo una teoría económica que discute los fundamentos del decrecimiento : todo proceso de producción no disminuye (y por lo tanto aumenta irreversiblemente o deja igual) la entropía. del sistema- Tierra : cuanta más energía se transforme en un estado no disponible, más se sustraerá a las generaciones futuras y más desorden proporcional se verterá en el medio ambiente [11] .

Notas

  1. ^ https://www.garzantilinguistica.it/ricerca/?q=entropía
  2. ^ Arthur Eddington, La naturaleza del mundo físico , Cambridge University Press, 1927
  3. ^ Gordon M. Barrow, Química física , WCB, McGraw-Hill, 1979
  4. ^ Dado que es demostrable, no es un postulado verdadero .
  5. ^ a b Libro de oro de la IUPAC , " entropía"
  6. ^ JM Smith, HC Van Ness ; MM Abbot, Introducción a la Termodinámica de Ingeniería Química , 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7
  7. ^ indica el volumen molar, igual al volumen en relación al número de moles, es decir:
  8. ^ De hecho , de la definición de entalpía :; y en términos diferenciales :. Pero dU y dH son cero ya que la transformación es a temperatura constante, por lo tanto , eso es
  9. ^ JM Smith, HC Van Ness ; MM Abbot, Introducción a la Termodinámica de la Ingeniería Química , 4ª ed., McGraw-Hill, 1987, págs. 159-163. ISBN 0-07-100303-7
  10. ^ ET Jaynes; Entropías de Gibbs vs Boltzmann; Revista estadounidense de física, 391, 1965
  11. ^ Nicholas Georgescu-Roegen, Bioeconomía. Hacia otra economía ecológica y socialmente sostenible , capítulo II La ley de la entropía y el problema económico , Turín, Bollati Boringhieri, 2003, ISBN 978 88 339 1467 1

Bibliografía

Artículos relacionados

Otros proyectos

Enlaces externos