La ley de Hess, propuesta en 1840, establece que
la variación del calor en una reacción es la misma independiente del número de etapas.
La ley de Hess se utiliza para predecir el cambio de entalpía en una reacción ΔHr.
El cambio de entalpía de una reacción química es siempre el mismo, independientemente de la ruta escogida para la reacción. Esto se llama la
función de estado.
La ley de Hess dice que los cambios de entalpía son aditivos. ΔHneta = ΣΔHr.
Si la ecuación química es invertida, el signo de ΔH se invierte también.
Si los coeficientes son multiplicados, multiplicar ΔH por el mismo factor.
Si los coeficientes son divididos, dividir ΔH por el mismo divisor.
Entalpía (H)
Es una magnitud de termodinámica. La variación de entalpía (ΔH) expresa una medida de la cantidad de energía absorbida o cedida por un sistema termodinámico, o, lo que es lo mismo, la cantidad de energía que tal sistema puede intercambiar con su entorno.
El primero que definió y utilizó término "entalpía" fue el holandés Heike Kamerlingh Onnes, a principios del siglo XX.
La entalpía es numéricamente igual al calor intercambiado con el ambiente exterior al sistema en cuestión.
Usualmente la entalpía se mide, dentro del Sistema Internacional de Unidades, en julios.
Entropía (S)
Es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural.
Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850.
El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
Leyes de la Termodinámica
La función termodinámica entropía es central para la
Segunda Ley de la Termodinámica o Segundo Principio de la Termodinámica expresa: "La cantidad de entropía de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo". Cuando una parte de un sistema cerrado interacciona con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un equilibrio térmico.
La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema.
Se dice que un sistema altamente distribuido al azar tiene alta entropía.
Puesto que un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad.
Primera Ley de la Termodinámica
(Principio de conservación de la energía para la termodinámica)
Establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará. El calor es, entonces, la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. (Sadi Carnot - 1824).
La ecuación general de la conservación de la energía es la siguiente:
Eentra − Esale = ΔEsistema
Que aplicada a la termodinámica teniendo en cuenta el criterio de signos termodinámico, queda de la forma:
U = Q − W
(U= energía interna) (Q= cantidad de calor) (W= trabajo)
En física, la energía interna (U) es la suma de:
- la energía cinética interna, es decir, de las sumas de las energías cinéticas de las individualidades que lo forman respecto al centro de masas del sistema,
y de
- la energía potencial interna, que es la energía potencial asociada a las interacciones entre estas individualidades.