Tenet es una película de ciencia ficción de Christopher Nolan, quien a lo largo de su carrera ha impresionado con cintas muy bien documentadas desde el punto de vista científico. Ya lo hizo con Interestellar, donde nos presenta una alucinante propuesta de los viajes en el tiempo, con conceptos tan increíbles como balas que salen del cuerpo y vuelven a entrar en la pistola, gente conduciendo al revés... En Tenet lo que nos plantea el director tiene como protagonista a la entropía, un concepto de la física un poco complicado de entender pero que, a su vez, alude a nuestro sentido común a la hora de imaginarnos cómo deberían disponerse los objetos en el universo o, mejor dicho, cómo deberían manifestarse los sistemas en sus distintos estados posibles. ¿Qué es la entropía, entonces? ¿Qué tiene que ver con los viajes en el tiempo?
Entropía: Más Allá del Desorden
En el ámbito de la física, la entropía es un concepto fundamental que ha capturado la imaginación de científicos y filósofos por igual. A menudo se describe como una medida del desorden, pero esta descripción simplificada no hace justicia a la complejidad y relevancia del término. La entropía está profundamente arraigada en la termodinámica y la teoría de la información, y desempeña un papel crucial en nuestra comprensión del universo y del tiempo. A través de este artículo, exploraremos qué es la entropía, cómo se manifiesta en diferentes contextos y cómo influye en nuestra percepción del mundo.
Definición y Significado de la Entropía
La Entropía como Medida del Desorden
Tradicionalmente, la entropía se ha definido como una medida del desorden dentro de un sistema. Esta idea proviene de la observación de que los sistemas tienden a evolucionar hacia estados más desordenados, donde las partículas están distribuidas de manera más aleatoria. Sin embargo, esta visión simplista ha sido objeto de debate entre los físicos, ya que no captura completamente el significado del término. La entropía es, en realidad, una medida de la probabilidad de los estados de un sistema. Así, un estado con alta entropía es aquel que tiene muchas configuraciones posibles, lo que lo hace más probable.
En la práctica, esto significa que la entropía está relacionada con la cantidad de microestados que pueden dar lugar a un mismo macroestado. Por ejemplo, cuando un gas se expande en un recipiente, las moléculas pueden estar en muchas posiciones diferentes, aumentando la entropía del sistema. Este enfoque probabilístico es fundamental para entender por qué los procesos naturales tienden a ser irreversibles y por qué la entropía siempre tiende a aumentar en sistemas aislados.
Perspectiva Física de la Entropía
Desde un punto de vista físico, la entropía es una magnitud central en la termodinámica, la rama de la física que estudia las relaciones entre el calor, la energía y el trabajo. En este contexto, la entropía se utiliza para describir cómo los sistemas evolucionan de manera espontánea hacia estados de equilibrio, donde la entropía es máxima. Este principio está en el corazón de la segunda ley de la termodinámica, que establece que la entropía de un sistema aislado nunca disminuye.
Además, la entropía también se relaciona con la teoría de la información, donde se utiliza para medir la cantidad de incertidumbre o sorpresa asociada a un conjunto de datos. Esta conexión entre la entropía física y la teoría de la información es especialmente relevante en el estudio de fenómenos como los agujeros negros, donde el concepto desempeña un papel crucial en la comprensión de la información contenida en el universo. La entropía, por tanto, no solo describe el desorden, sino que también cuantifica la incertidumbre y la probabilidad en diferentes contextos.

Entropía y Termodinámica
Relación con la Segunda Ley de la Termodinámica
La segunda ley de la termodinámica es uno de los pilares de la física moderna y establece que la entropía de un sistema aislado nunca disminuye. Esto implica que los procesos naturales son irreversibles y siempre tienden hacia un estado de mayor entropía. En otras palabras, un sistema aislado evolucionará naturalmente hacia un estado de equilibrio donde la entropía es máxima, y no habrá más cambios espontáneos que puedan aumentarla.
Este principio es fundamental para comprender muchos fenómenos naturales, desde la expansión de gases hasta la transferencia de calor. La segunda ley también implica que el cambio de entropía en un proceso reversible es cero, lo que significa que, en teoría, es posible revertir un proceso sin cambiar la entropía del sistema. Sin embargo, en la práctica, todos los procesos reales son irreversibles y resultan en un aumento de la entropía.
Entropía en Procesos Irreversibles
La entropía juega un papel crucial en la comprensión de los procesos irreversibles, es decir, aquellos que no pueden revertirse de manera espontánea. Estos procesos son comunes en la naturaleza y abarcan desde la disolución de una sustancia en un líquido hasta la combustión de un material. En todos estos casos, el aumento de la entropía es una indicación de que el proceso es irreversible y que el sistema ha evolucionado hacia un estado de mayor probabilidad.
Un ejemplo clásico de un proceso irreversible es la mezcla de dos gases en un recipiente. Cuando se abren las compuertas que separan los gases, estos se mezclan espontáneamente hasta alcanzar un estado de equilibrio en el que la entropía es máxima. Este proceso no puede revertirse sin aplicar trabajo externo, lo que ilustra la naturaleza irreversible de los procesos naturales. La irreversibilidad de los procesos también está relacionada con la pérdida de información. A medida que un sistema evoluciona hacia un estado de mayor entropía, se pierde información sobre su estado inicial.
Ejemplos de Entropía en Acción
El Gas en una Caja y la Probabilidad de Estados
Para comprender la entropía, pongamos un ejemplo al alcance de todos nosotros. Imaginemos que tenemos una caja dividida en dos mitades por una barrera, con gas en un lado y vacío en el otro. Al retirar la barrera, las moléculas de gas se expanden rápidamente para llenar todo el espacio disponible. Este fenómeno es un ejemplo clásico de cómo la entropía influye en los sistemas físicos.

El ejemplo del gas en una caja ilustra cómo la entropía está relacionada con la probabilidad de estados. Antes de retirar la barrera, el gas está en un estado de baja entropía, ya que las moléculas están confinadas a un lado de la caja. Al expandirse, el sistema alcanza un estado de mayor entropía, pues hay muchas más formas posibles de distribuir las moléculas en la caja. Este aumento de entropía es un reflejo de la tendencia natural de los sistemas a evolucionar hacia estados más probables.
Irreversibilidad en el Jarrón Roto
Veamos otro ejemplo. Un jarrón de cristal quieto sobre una mesa tenderá a conservar su estado, a menos que alguna fuerza incida sobre él. Si tiramos el jarrón al suelo, éste se partirá, y los pedazos se esparcirán. Si agrupamos todos esos pedazos y los volvemos a lanzar al suelo, ¿qué probabilidad hay de que vuelvan a adoptar la forma del jarrón? Por el principio de entropía, lo más probable es que adopten cualquier otra distribución (que nosotros consideramos subjetivamente como caótica o desordenada). Hay muy pocas probabilidades de que los pedazos vuelvan a reconstruir el jarrón, pero no hay ninguna ley física que lo impida. Simplemente es extremadamente improbable.
Ahora volvamos a nuestro ejemplo. ¿Cuántos microestados tiene el sistema ‘jarrón’ hecho pedazos? Una cantidad ingente. Que, espontáneamente, los pedazos vuelvan a adoptar la forma original del jarrón (a no ser que nosotros los volvamos a unir con pegamento), sería tan improbable que, matemáticamente, no podría darse ni en toda la edad del universo. Mientras, el sistema tenderá a configurarse de la manera más probable.

La Flecha del Tiempo y la Entropía
Entropía Definiendo el Pasado y el Futuro
La entropía desempeña un papel crucial en nuestra comprensión del tiempo. La noción de la "flecha del tiempo" se refiere a la dirección en la que el tiempo parece avanzar, y está directamente ligada al aumento de la entropía. En un universo donde la entropía siempre aumenta, el tiempo avanza hacia estados de mayor entropía, lo que nos permite distinguir el pasado del futuro.
El concepto de la "flecha del tiempo" se manifiesta en la vida cotidiana. Por ejemplo, podemos recordar el pasado, pero no el futuro, porque los procesos naturales que aumentan la entropía son irreversibles. Esta irreversibilidad es lo que nos permite percibir el paso del tiempo y entender que el pasado es diferente del futuro.
Entropía en el Contexto del Universo
La Entropía como Indicador de Imposibilidad
En el vasto contexto del universo, la entropía actúa como un indicador de imposibilidad. Nos dice qué procesos son improbables y cuáles son más probables. Por ejemplo, es improbable que las estrellas y los planetas se formen espontáneamente a partir del caos. Sin embargo, es más probable que un sistema evolucione hacia un estado de equilibrio térmico, donde la energía esté distribuida uniformemente. Esta tendencia hacia el equilibrio es una manifestación de la segunda ley de la termodinámica a escala cósmica.
Además, la entropía es un concepto clave en la cosmología, donde se utiliza para describir la evolución del universo desde el Big Bang hasta su estado actual. A medida que el universo se expande, la entropía total aumenta. Esto ayuda a explicar por qué el universo parece estar en un estado de desorden creciente. Esta tendencia hacia el aumento de la entropía es una característica fundamental de la evolución cósmica.
Conexión con la Teoría de la Información
En la teoría de la información, la entropía se utiliza para medir la cantidad de incertidumbre o sorpresa asociada a un conjunto de datos. Este enfoque ha sido útil en campos como la criptografía y la codificación de datos, donde el concepto se ha utilizado para evaluar la eficiencia de los sistemas de comunicación. La conexión entre la entropía y la teoría de la información también tiene implicaciones en la cosmología y la física cuántica. En estos campos, se utiliza para describir la distribución de la información en el universo y para entender cómo evolucionan los sistemas cuánticos.
Historia y Evolución del Concepto de Entropía
Aportes de Rudolf Clausius y Ludwig Boltzmann
El concepto de entropía tiene sus raíces en el trabajo de dos físicos destacados del siglo XIX: Rudolf Clausius y Ludwig Boltzmann. Clausius fue el primero en introducir el término "entropía" en la década de 1850, como parte de su trabajo sobre la termodinámica. Su objetivo era formalizar el concepto de irreversibilidad en los procesos naturales y proporcionar una base teórica para el segundo principio de la termodinámica.
Ludwig Boltzmann, por su parte, desarrolló una expresión matemática para la entropía en 1877. Esta formulación, conocida como la ecuación de Boltzmann, relacionaba la entropía de un sistema con el número de microestados posibles. Demostró que la entropía es una medida de la probabilidad de los estados de un sistema, lo que revolucionó nuestra comprensión de los procesos termodinámicos. Sus ideas sobre la entropía han influido en una amplia gama de campos, desde la química y la biología hasta la cosmología y la teoría de la información.
Entropía en la Física Moderna y la Información
Desde los trabajos pioneros de Clausius y Boltzmann, el concepto de entropía ha evolucionado significativamente en la física moderna. En el siglo XX, la entropía se convirtió en un componente clave de la teoría de la información, gracias al trabajo de científicos como Claude Shannon. Shannon utilizó la entropía para describir la cantidad de información contenida en un mensaje y para desarrollar la teoría de la comunicación moderna.
En la física cuántica, la entropía ha adquirido un nuevo significado en el contexto de los sistemas cuánticos. La entropía cuántica se utiliza para describir la incertidumbre y la correlación entre los estados cuánticos. Esto ha llevado a desarrollos importantes en el campo de la computación cuántica y la criptografía cuántica. Los cosmólogos, por su parte, utilizan la entropía para describir la evolución del universo desde el Big Bang hasta su estado actual.
Entropía y la Teoría de la Información
Medida de Incertidumbre en Sistemas
La entropía, en el contexto de la teoría de la información, se utiliza para cuantificar la incertidumbre o sorpresa asociada a un conjunto de datos. Esta medida es esencial para evaluar la eficiencia de los sistemas de comunicación y para optimizar la transmisión de información. Claude Shannon, considerado el padre de la teoría de la información, fue pionero en la aplicación de la entropía para describir la cantidad de información contenida en un mensaje y para desarrollar técnicas de codificación que minimizan la pérdida de datos.
En la práctica, la entropía se calcula en función de la probabilidad de ocurrencia de los diferentes mensajes dentro de un sistema de comunicación. Un sistema con alta entropía tiene una mayor incertidumbre, lo que significa que es menos predecible y, por lo tanto, contiene más información. Esta noción de entropía como medida de incertidumbre ha sido fundamental para el avance de la teoría de la información y ha encontrado aplicaciones en campos tan diversos como la criptografía, la inteligencia artificial y la biología.
Aplicaciones en la Física Cuántica
En la física cuántica, la entropía adquiere un significado especial en relación con el entrelazamiento cuántico y la correlación entre los estados cuánticos. La entropía cuántica se utiliza para describir la incertidumbre y la correlación en sistemas cuánticos, lo que ha llevado a desarrollos importantes en el campo de la computación cuántica y la criptografía cuántica. En estos contextos, la entropía cuántica se emplea para medir la cantidad de información que puede ser compartida o transferida entre partículas cuánticas entrelazadas.
La entropía cuántica también juega un papel crucial en la comprensión de fenómenos como la decoherencia cuántica, donde la pérdida de coherencia cuántica en un sistema se asocia con un aumento de la entropía. Este enfoque ha permitido a los físicos explorar nuevas formas de manipular y controlar sistemas cuánticos, lo que podría revolucionar la tecnología de la información en el futuro. La relación entre la entropía y la física cuántica sigue siendo un área activa de investigación, con implicaciones potenciales para nuestra comprensión de la naturaleza fundamental del universo.
Entropía: Filosofía y Ciencia
Significado Filosófico de la Entropía
Más allá de su significado científico, la entropía también ha capturado la atención de filósofos y pensadores en busca de una comprensión más profunda del universo. La idea de que la entropía siempre aumenta en un sistema aislado ha llevado a reflexiones sobre el destino del universo y el significado del tiempo. Algunos filósofos han interpretado el aumento de la entropía como una manifestación del paso inexorable del tiempo y del envejecimiento del cosmos.
Desde una perspectiva filosófica, la entropía también plantea preguntas sobre la naturaleza del orden y el caos. La tendencia de los sistemas a evolucionar hacia estados de mayor entropía ha sido vista como una metáfora de la lucha entre el orden y el desorden en el universo. Esta visión ha influido en diversas corrientes filosóficas, desde el existencialismo hasta el pensamiento posmoderno, y ha llevado a debates sobre el papel de la entropía en la evolución de la vida y la conciencia.
La Entropía en la Comprensión del Universo
En el contexto de la cosmología, la entropía desempeña un papel crucial en nuestra comprensión de la evolución del universo. A medida que el universo se expande, la entropía total aumenta, lo que ayuda a explicar por qué el cosmos parece estar en un estado de desorden creciente. Esta tendencia hacia el aumento de la entropía es una característica fundamental de la evolución cósmica y ha llevado a teorías sobre el destino final del universo, como el "gran enfriamiento" o el "gran desgarramiento".
La entropía también ha sido utilizada para describir la estructura y la organización de los sistemas complejos, desde las galaxias hasta los ecosistemas. En biología, por ejemplo, la entropía influye en procesos como la replicación del ADN y la evolución por selección natural. En este sentido, la entropía se convierte en una herramienta poderosa para comprender la complejidad y la diversidad del universo. A medida que los científicos y filósofos continúan explorando el significado de la entropía, este concepto sigue siendo un puente entre la ciencia y la filosofía, ofreciendo nuevas perspectivas sobre la naturaleza del tiempo, el orden y el caos en el cosmos.
Referencias:
- Clausius, R. (1865). "Über verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie". Annalen der Physik und Chemie, 125(7), 353–400.
- Boltzmann, L. (1877). "Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht". Wiener Berichte, 76, 373–435.
- Shannon, C. E. (1948). "A Mathematical Theory of Communication". The Bell System Technical Journal, 27(3), 379–423.
- Hawking, S. W. (1976). "Black Holes and Thermodynamics". Physical Review D, 13(2), 191–197.
- Penrose, R. (1979). "Singularities and Time-Asymmetry". En General Relativity: An Einstein Centenary Survey (pp. 581–638). Cambridge University Press.