
Las piedras, los huesos y las piezas metálicas suelen soportar bien el paso del tiempo y, por ello, se han convertido en preciados aliados de la arqueología y la historia. Los materiales orgánicos, por el contrario, se deterioran con rapidez, por lo que no siempre pueden ser estudiados. Por eso, este rarísimo sombrero romano de 2.000 años de antigüedad, que se ha restaurado y expuesto recientemente al público por primera vez en el Bolton Museum (Inglaterra) resulta tan excepcional. Fabricado en lana y con un diseño adaptado para soportar las duras condiciones del desierto egipcio, este ejemplares el que muestra un mejor estado de conservación de los tres que se conocen en todo el mundo.
El sombrero y su contexto histórico
El sombrero se ha fechado hacia el año 30 a. C., poco después de la muerte de Cleopatra VII y de la transformación de Egipto en provincia del Imperio romano. Tras la derrota de Marco Antonio y Cleopatra en la batalla de Accio, el país pasó a estar gobernado directamente por Roma, razón por la que se enviaron destacamentos militares para asegurar el control político y económico de la región. Entre esos soldados romanos, algunos tuvieron que enfrentarse a un clima muy diferente al del territorio itálico y de otras provincias imperiales: el calor extremo del desierto, el sol abrasador y las tormentas de arena.
El ejemplar hallado parece haber sido una adaptación de un tipo de tocado militar estándar de la época, modificado para ofrecer protección frente a la intensa radiación solar y las partículas en suspensión. De los tres sombreros de este tipo que han sobrevivido, uno se conserva en la Whitworth Art Gallery de Mánchester, otro en un museo de Florencia, y el tercero —el de Bolton— es, según los especialistas, el mejor preservado de todos.

De Egipto a Inglaterra: un viaje arqueológico
El arribo de esta pieza a Inglaterra se debe al trabajo de William Matthew Flinders Petrie, uno de los arqueólogos más influyentes del siglo XIX y principios del XX. Apodado “el hombre que descubrió Egipto”, Petrie revolucionó las prácticas arqueológicas en una época en la que muchas excavaciones eran poco más que expediciones de saqueo. Frente al interés de conseguir objetos valiosos y espectaculares con los que llenar los expositores de los museos, Petrie introdujo métodos de excavación sistemáticos, registros meticulosos y la valoración de piezas en apariencia insignificantes, como cerámicas rotas o textiles deteriorados, que aportaban información esencial sobre la vida diaria de las sociedades antiguas.

En 1911, Petrie donó el sombrero al Chadwick Museum, el primer museo de la ciudad de Bolton. Desde entonces y durante décadas, el artefacto permaneció guardado en una caja, lejos del público.

Un desafío para la restauración textil
Cuando la conservadora textil Jacqui Hyman vio por primera vez el sombrero romano, la pieza no era más que un fragmento plano y quebradizo, con daños serios provocados por las polillas. Recuperar su volumen y estabilizar los restos requería un trabajo minucioso y un profundo conocimiento de las técnicas de conservación de fibras antiguas.
Con casi cinco décadas de experiencia trabajando para museos y colecciones de todo el mundo, Hyman planificó un tratamiento a medida que respetara la fragilidad de la pieza. Para estabilizar las zonas donde el fieltro original había desaparecido, utilizó un tejido similar, teñido a mano para igualar el color y la textura. Con este soporte interno, el sombrero recuperó su forma original. Así, pasó de ser un objeto aplastado y frágil a convertirse en una prenda tridimensional que permite apreciar su forma y función.

Un testimonio de la vida militar romana en Egipto
Más allá de su rareza, el sombrero constituye un testimonio tangible del día a día de los soldados romanos destinados a las provincias lejanas. Las legiones movilizadas en Egipto, además de mantener la seguridad y el control político, tuvieron que adaptarse a condiciones ambientales que ponían a prueba su resistencia física. En este contexto, vestir la indumentaria adecuada resultaba tan importante como las armas. Protegerse del sol y del calor podía marcar la diferencia entre seguir en servicio o sucumbir a las duras condiciones.
Este inusual tocado revela cómo el ejército romano era capaz de adaptar los materiales y diseños de su equipamiento a las necesidades específicas de cada territorio. En Egipto, la lana trabajada como fieltro, ligera y transpirable, cumplía la doble función de bloquear la radiación solar y ofrecer cierta protección frente la arena.

Del almacén a la vitrina
En la actualidad, el sombrero rescatado por Petrie se exhibe en las galerías egipcias del Bolton Museum. La institución considera que su valor no radica únicamente en la conexión con la historia global, sino también en la capacidad de inspirar a las nuevas generaciones. El montaje expositivo, addemás, permite a los visitantes observar de cerca los detalles de la pieza, su textura y las secciones que se han restaurado. Ofrece, así, una oportunidad única para reflexionar sobre la vida cotidiana en la antigüedad y sobre las técnicas de conservación que permiten que objetos tan frágiles lleguen hasta nosotros.
Una historia de adaptación encerrada en un sombrero
La restauración del sombrero romano de Bolton supone la recuperación de una historia que conecta el Egipto de Cleopatra con la Inglaterra contemporánea, pasando por las manos de un arqueólogo visionario y de una restauradora experimentada. Ilustra la adaptación de un soldado a un medio hostil, la pervivencia de un objeto humilde frente al paso del tiempo y el valor de la colaboración entre museos, especialistas y comunidad. Desde los desiertos bañados por el Nilo hasta las neblinosas tierras británicas, dos milenios después, este singular objeto vuelve a ver la luz.
Referencias
- Bolton Library and Museum. URL: https://www.boltonlams.co.uk/bolton-museum
- Chaudhari, Saiqa. 2025. "Bolton Museum display Ancient Eygptian relic for the first time". The Bolton News. URL: https://www.theboltonnews.co.uk/news/25369974.bolton-museum-display-ancient-eygptian-relic-first-time/
- Puiu, Tibi. 2025. "A Rare 2,000-Year-Old Roman Hat From Cleopatra’s Egypt Has Been Restored to Its Former Glory". ZME Science. URL: https://www.zmescience.com/science/archaeology/a-rare-2000-year-old-roman-hat-from-cleopatras-egypt-has-been-restored-to-its-former-glory/
En 2019, el detector LIGO captó una señal que parecía provenir de la fusión de dos agujeros negros. Nada fuera de lo común, si no fuera porque esta fusión tenía una particularidad que desconcertó a los científicos: las masas de los objetos involucrados eran muy diferentes, algo extremadamente raro en este tipo de eventos. Lo que parecía una simple anomalía se convirtió, años más tarde, en una pista crucial para entender un fenómeno más complejo: la posible existencia del primer sistema triple de agujeros negros jamás detectado.
Un nuevo estudio, publicado en The Astrophysical Journal Letters, ha reanalizado aquella señal de 2019, conocida como GW190814. Gracias a técnicas de modelado avanzadas, los investigadores han descubierto indicios sólidos de que una tercera presencia invisible —posiblemente un agujero negro supermasivo— estaba influenciando el movimiento del par de agujeros negros que se fusionaron. Es como si dos bailarines hubieran chocado en plena danza, empujados por una fuerza silenciosa desde la penumbra del escenario.
Un evento que no encajaba en los modelos clásicos
El evento GW190814 se caracterizó por la colisión entre dos objetos de 23 y 2,6 veces la masa del Sol, respectivamente. Esta diferencia extrema desconcertó a los astrofísicos. Normalmente, cuando dos agujeros negros se fusionan, sus masas son más similares, lo cual facilita la pérdida de energía gravitacional necesaria para que se acerquen y colapsen juntos. Sin embargo, en este caso, la asimetría era tan inusual que resultaba difícil de explicar con los modelos tradicionales.
El nuevo análisis, liderado por investigadores del Observatorio Astronómico de Shanghái y otras instituciones, propone una explicación basada en la presencia de un tercer objeto cercano. Este objeto habría generado una aceleración adicional en la línea de visión del sistema, algo que deja una huella detectable en la señal de ondas gravitacionales. Según los autores del estudio, "concluimos que esta es la primera indicación que muestra que agujeros negros binarios en proceso de fusión están situados cerca de un tercer objeto compacto" .
Los resultados se obtuvieron aplicando un modelo que considera la llamada aceleración en la línea de visión (LSA, por sus siglas en inglés). Esta técnica permite detectar pequeñas variaciones en la frecuencia de la señal debido al efecto Doppler causado por la aceleración del sistema en su entorno gravitacional. El análisis estadístico arrojó un valor de 58/1 a favor del modelo con LSA frente al modelo sin aceleración, lo cual representa una evidencia contundente según los criterios científicos actuales.

¿Cómo se puede "ver" un objeto que no emite luz?
Los agujeros negros, por definición, no emiten luz. Detectarlos requiere observar sus efectos sobre el entorno. En este caso, el tercer objeto no fue observado directamente, sino a través de las sutiles alteraciones que provocó en la señal de las ondas gravitacionales.
Estas ondas son ondulaciones en el espacio-tiempo que se producen cuando ocurren eventos extremadamente energéticos, como la fusión de agujeros negros. El detector LIGO (y su homólogo europeo Virgo) ha registrado decenas de estos eventos desde 2015. Pero GW190814 destacaba por sus características únicas. El equipo de investigación desarrolló simulaciones detalladas para predecir cómo sería la señal si hubiera un tercer cuerpo ejerciendo influencia. La coincidencia entre la señal real y la predicción del modelo fue sorprendente.
En palabras del artículo científico, "una fuente que se acelera produce una masa que varía con el tiempo en el marco del detector, lo que deja una huella en la forma de onda gravitacional". Esto significa que no solo se detectó la fusión, sino también los efectos dinámicos de un cuerpo adicional cuya existencia fue inferida gracias a su firma gravitacional.

¿Un agujero negro supermasivo escondido?
Aunque no se ha podido determinar con precisión qué tipo de objeto era el tercero en discordia, los autores consideran que la opción más plausible es un agujero negro supermasivo. Este tipo de cuerpos celestes puede superar los 100.000 soles en masa y suele encontrarse en el centro de las galaxias. Su inmensa gravedad puede capturar objetos cercanos y alterar significativamente sus trayectorias.
Los datos obtenidos sugieren que el sistema binario de agujeros negros estaba orbitando alrededor de este coloso, de forma similar a como la Tierra y la Luna giran mientras se mueven juntas en torno al Sol. Según los investigadores, la aceleración estimada del sistema (de aproximadamente 0,0015 c/s, donde c es la velocidad de la luz) solo puede explicarse si hay un objeto muy masivo ejerciendo influencia desde las cercanías .
No se descarta, sin embargo, que el tercer objeto pueda ser un agujero negro de masa estelar especialmente denso, aunque esto requeriría condiciones muy específicas. En cualquier caso, la detección abre nuevas posibilidades para estudiar los entornos donde nacen y evolucionan los sistemas de agujeros negros.
Implicaciones para el estudio del universo
Este hallazgo tiene un enorme valor para la astrofísica moderna. Hasta ahora, se pensaba que la mayoría de las fusiones de agujeros negros ocurrían en sistemas aislados. La posibilidad de que estén interactuando con otros cuerpos más grandes, como agujeros negros supermasivos o estrellas densas, cambia el enfoque de muchas teorías sobre su formación.
Además, este tipo de estudios ayuda a afinar los modelos de detección de ondas gravitacionales. La presencia de un tercer objeto introduce variaciones sutiles en las señales que pueden ser confundidas con otros fenómenos si no se tienen en cuenta. Al perfeccionar los modelos y las técnicas de análisis, será posible identificar con mayor precisión futuros sistemas complejos.
También se abre la puerta a una nueva clase de sistemas: los triples gravitacionales. Hasta ahora, los sistemas de tres agujeros negros eran solo una posibilidad teórica. Este trabajo representa el primer indicio firme de su existencia. La frase del estudio, "este es el primer indicio que muestra que agujeros negros binarios en proceso de fusión están situados cerca de un tercer objeto compacto", resume la trascendencia del hallazgo.
El futuro de la observación gravitacional
Con la próxima generación de detectores, como el Telescopio Einstein o la misión espacial LISA, será posible observar señales aún más débiles y lejanas. Esto permitirá detectar sistemas múltiples con mayor facilidad y, probablemente, confirmar de forma directa la existencia de tríos gravitacionales como el descrito en este estudio.
Por otro lado, las observaciones combinadas —las llamadas “multimensajero”— que integran ondas gravitacionales con emisiones electromagnéticas (como rayos X o estallidos gamma), permitirán estudiar estos eventos de forma más completa. Esto podría confirmar, por ejemplo, si el entorno del sistema era un disco de acreción activo alrededor de un agujero negro supermasivo, como se sospecha.
Este caso demuestra cómo una anomalía en los datos puede convertirse, años después, en una pista clave para avanzar en nuestra comprensión del cosmos. Un evento que parecía desconcertante ha terminado revelando una compleja coreografía de tres gigantes invisibles bailando en la oscuridad del universo.
Referencias
- Shu-Cheng Yang, Wen-Biao Han, Hiromichi Tagawa, Song Li, Chen Zhang. Indication for a Compact Object Next to a LIGO–Virgo Binary Black Hole Merger. The Astrophysical Journal Letters. DOI: 10.3847/2041-8213/adeaad.
En un contexto tan burocratizado como el mesopotámico, en el que la escritura servía para registrar la producción de bienes, la tasación de actividades y las transacciones económicas y comerciales, los escribas detentaban un rol fundamental. Es a través de la labor escritural de los copistas, los estudiosos y los funcionarios letrados que tenemos acceso a las preocupaciones cotidianas que ocupaban los días de los antiguos mesopotámicos.
Reclutados de entre las familias de la elite, los aspirantes a escriba adquirían los rudimentos del cuneiforme en la edubba, la casa de las tablillas de barro, donde un maestro los instruía siguiendo un currículum preestablecido. En la edubba se aprendía a elaborar tablillas, a reconocer los signos cuneiformes y sus valores a través de silabarios y listas, se memorizaba vocabulario, se aprendía a redactar textos legales y administrativos, se estudiaban composiciones literarias y se adquirían nociones de matemática.
Tanto en la didáctica como en la práctica cotidiana de la escritura, se utilizaban materiales comunes y fácilmente disponibles en Mesopotamia: barro para las tablillas y caña para la elaboración del cálamo con el que se incidía la superficie todavía blanda de la arcilla. También podían utilizarse tableros cubiertos de cera. Otros materiales comunes que se utilizaban como soportes de la escritura eran el metal, el marfil y, para las inscripciones monumentales, la piedra, que los lapicidas incidían siguiendo las indicaciones de los escribas.
Los escribas se empleaban en las administraciones del palacio o del templo, se dedicaban a la gestión de actividades económicas, legales y burocráticas de todo tipo o proseguían su especialización en algunos de los campos de pericia dominados por adivinos, literatos o sacerdotes responsables del culto. Aunque la mayoría de los escribas que conocemos por su nombre eran hombres, también sabemos de la existencia de mujeres escribanas, responsables de la gestión de instituciones religiosas y empresas comerciales, cuando no secretarias al servicio de mujeres de la aristocracia.

La medicina mesopotámica
Mesopotamia cuenta con una larga tradición escrita en los campos de la medicina, la profilaxis y la diagnosis de males. Las tablillas cuneiformes de contenido médico más antiguas datan del 2500 a. C. y recogen encantamientos y rituales terapéuticos destinados a tratar afecciones tan diversas como los males del vientre, los problemas oculares y las dificultades durante el parto. El interés de las elites cultas por recoger en forma escrita y sistematizar el vasto acerbo de remedios, procedimientos diagnósticos y prontuarios de materia médica se mantuvo inalterado hasta las últimas fases de vida del cuneiforme, en un dilatado periodo que se extendió a lo largo de tres milenios. Prueba de esa tradición recibida se encuentra en las colecciones de tablillas procedentes de Nimrud, Asur y Uruk, y en bibliotecas como la que Asurbanipal creó en Nínive.
Las tablillas cuneiformes revelan la existencia de dos especialistas médicos que operaban en los contextos de poder: el āšipu y el asû. El āšipu se caracterizaba por ser un operador ritual especialista en la expulsión y remoción de los agentes malignos, como los demonios y los espectros, que causaban enfermedades e infortunios. Su relación con la esfera de los dioses, de los que el āšipu había recibido su conocimiento, le permitía actuar en aquellas circunstancias que anunciaban penurias y desgracias para el rey, el país y su población.
Contribuía con su sabiduría, pues, a mantener el orden de las cosas tanto humanas como divinas. Sabemos que también tenía conocimientos de fitoterapia y podía recurrir a remedios farmacológicos para el tratamiento de pacientes. El asû, por su parte, se ocupaba de tratar heridas, contusiones, huesos rotos y, en general, afecciones que se manifestaban principalmente en el exterior del cuerpo, para lo que aplicaba ungüentos, emplastos y vendajes. Disponía de conocimientos relativos a las plantas medicinales, que utilizaba en su práctica cotidiana. Otras figuras especialistas en el cuidado de enfermos, infantes y parturientas, como las comadronas, las enfermeras y las nodrizas, así como los veterinarios y los curanderos locales, aparecen menos documentadas en el registro escrito.
Las enfermedades
El elenco de enfermedades que los mesopotámicos intentaban tratar con sus remedios abarca desde picaduras y ataques de serpientes y escorpiones hasta dolencias oculares, pasando por las afecciones dérmicas, los problemas intestinales, el miedo y los trastornos de comportamiento, las consecuencias de los excesos alcohólicos, la impotencia sexual, la ayuda al parto o el dolor de dientes. Los peligros que acechaban a los vivos a lo largo de sus vidas, desde la más tierna infancia hasta la edad vetusta, se condensan en estas tablillas que revelan una lucha constante por recuperar la salud, congraciarse con la divinidad y reescribir el propio destino.
Los tipos de remedios a los que se recurría incluían medicamentos como pomadas, ungüentos, pociones y sahumerios, y en su elaboración se utilizaban ingredientes cotidianos como la harina, la cerveza o los dátiles, así como plantas medicinales, resinas y minerales. Las referencias en los textos a intervenciones quirúrgicas superficiales, suturas, entablillamientos y otros tratamientos similares son raros, cuando no inexistentes. Aunque sin duda se practicaron, apenas han dejado huella en el registro escrito.
Conocemos los pormenores de un buen número de rituales de diversa complejidad en los que se buscaba expulsar, revertir o eliminar la causa que había propiciado la enfermedad del paciente. Así, se recurría a la recitación de encantamientos, la invocación de divinidades como Ištar, Gula y Šamaš, la manipulación de objetos como mechones de lana colorida, frutos y enseres domésticos, y el empleo de figurillas que representaban al paciente y al agente causante del mal.
También se utilizaban amuletos de diverso tipo: conchas marinas y piedras como la cornalina, el lapislázuli y la diorita se enhebraban y se aplicaban alrededor de la garganta, los brazos o las piernas; minerales y plantas se combinaban dentro de bolsitas de cuero que luego se portaban colgadas del cuello, y lo mismo se hacía con las cabezas de piedra o arcilla que representaban a Pazuzu o con las pequeñas placas inscritas con fórmulas para prevenir los ataques de la mortífera Lamaštu y que, a menudo, también se acompañaban con representaciones de esta peligrosa divinidad.
No era infrecuente que se realizasen ofrendas votivas a los dioses para que estos proporcionasen protección, salud y larga vida a los miembros de las familias pudientes. Los objetos ofrendados incluían estatuas, copas o figurillas de perros, el animal sacro de la divinidad médica Gula.
Los agentes causantes
En cuanto a los agentes que se reconocían como causantes de enfermedad, las artes médicas mesopotámicas hacían hincapié en las acciones nocivas de figuras suprahumanas. De demonios como los utukkū lemnūtu, el rābiŞu merodeador y la Lamaštu, codiciosa de bebés y gestantes, se decía que golpeaban, apresaban e incluso se vestían con el cuerpo del enfermo. Los fantasmas furiosos de aquellos que no recibían el obligado culto fúnebre o de los que habían sufrido una muerte violenta o acerba atosigaban a los vivos con apariciones espectrales, tinitos y dolores de cabeza. Los dioses podían enviar variados males a la humanidad y, cuando decidían despojar a los fieles de su divina protección, los abocaban a sufrir pérdidas económicas, familiares y de salud. La brujería era igualmente causa de disturbios que se caracterizaban con frecuencia por afectar el vientre, los intestinos y la potencia sexual.
De hechiceros y brujas se decía que ungían con sustancias ponzoñosas a la víctima, a la que también daban de beber y comer inmundicias. También se atribuía el origen de ciertos males y disfunciones a factores climáticos, atmosféricos y circunstanciales (insolación, intoxicación, vejez, etc.) y se manejaban conceptos de transmisión de enfermedades por contacto y contagio. Esto escribía Zimri-Lim, rey de Mari, a su esposa Šībtu hace más de tres milenios y medio: «He oído que Nanname está enferma de simmu [una enfermedad de la piel] y, aun así, sigue frecuentando mucho el palacio. Acabará contagiando a muchas mujeres con lo suyo. Ahora, da órdenes severas para que nadie beba de su copa ni se siente en la silla que ella usa ni se tumbe en su cama para evitar que contagie a muchas mujeres con lo suyo. La enfermedad simmu es muy contagiosa».

La astrología y otras mancias
Desde la perspectiva mesopotámica, las divinidades utilizaban el mundo y todo lo que él contenía para comunicarse con los humanos. Así, las potencias divinas utilizaban los cielos, el comportamiento animal o el mismo cuerpo humano para escribir sus mensajes y advertencias. Esto explica la existencia de las técnicas adivinatorias: son mecanismos que permiten desentrañar los mensajes ocultos de los dioses y, en caso de que fuese necesario, aplicar las medidas apotropaicas indispensables para que el mal anunciado no golpee. Por ello, los astrólogos y los expertos en distintas artes adivinatorias se dedicaban a escrutar la vastedad del cielo y de la tierra en busca de estos signos divinos.
La observación celeste en Mesopotamia tenía una doble finalidad. Por un lado, servía para marcar el tiempo, determinar los meses lunares y las estaciones, algo necesario en la organización del calendario agrícola. Por otro, el escrutinio del firmamento facultaba el reconocimiento de los signos fastos y nefastos que anunciaban peligros políticos, sociales y militares. Es de esa observación que nacieron las colecciones de profecías solares y lunares, el registro de eclipses y las conjeturas sobre el significado que determinadas conjunciones, fenómenos atmosféricos y presencias celestes albergaban para el individuo y la comunidad.
La extispicia constituía otra mancia muy recurrida en la Mesopotamia antigua. Se basaba en la observación del hígado (y, a veces, también de los pulmones y las entrañas) de una oveja sacrificada. Se utilizaba esta disciplina para determinar si empresas como la construcción de un templo, una campaña militar o la evolución de la enfermedad que atenazaba a un miembro de la familia real serían propicias. El bārûtu era el especialista encargado de interpretar los signos presentes en cada una de las secciones del órgano con base en un complejo conocimiento técnico recogido en colecciones de presagios y modelos de hígados de arcilla.
El cuerpo humano encerraba mensajes reveladores. La adivinación fisionómica exploraba rasgos de la persona como el color de los cabellos, la forma de los pechos o los modos de comportamiento para determinar sus cualidades morales, su valía como esposo o esposa y la prosperidad o la desdicha que le aguardaba en la vida.
Música, danza y espectáculo
La música formaba parte del paisaje sonoro de las ciudades. Se interpretaban canciones en ambientes cotidianos, durante la realización de tareas agrícolas o en las plazas, pero las actuaciones musicales también ocupaban un lugar relevante en contextos militares (durante los desfiles que festejaban victorias, por ejemplo) y como parte de las funciones religiosas, en rituales de construcción de edificios y templos, en tratamientos terapéuticos, durante los funerales y en muchas otras circunstancias tanto públicas como privadas.
Los escribas que entraban al servicio de la institución templaria recibían formación musical que les permitía interpretar cantos religiosos durante festividades y ceremonias. Altos cargos como los que detentaba el kalû, el responsable de la ejecución de determinadas liturgias que requerían la ejecución de cantos y piezas musicales, aprendían así las claves de la versificación, la interpretación con instrumentos y la notación musical.
Hombres y mujeres podían ejercer la profesión de músico. Estudiaban canto e interpretación con instrumento con un maestro y los instrumentos musicales podían ser de cuerda, viento o percusión. Tenemos constancia de la existencia de aerófonos en caña, madera o metales preciosos como la plata; de tamboriles, tímpanos, grandes tambores y panderos, así como de sistros y címbalos; y de laúdes, salterios, liras y arpas, que el músico podía tañer de pie o sentado. Se han conservado, además, algunas tablillas con notación musical para cordófonos.
La música acompañaba también espectáculos de lucha y danza que, en ocasiones, se integraban en ceremonias de corte religioso. Los saltos ocupaban un lugar predominante en las coreografías y eran habituales los bailes con espadas. Los músicos ambulantes se exhibían solos o en compañía de cómicos, bufones, acróbatas y animales, en especial monos.

El refinamiento culinario
Comer pan y beber cerveza constituyen los dos pilares de la alimentación y la base cultural de la civilización mesopotámica. Los alimentos básicos de la dieta en Mesopotamia incluían los cereales y muy especialmente la cebada, las legumbres, los vegetales y las frutas como granadas, uvas, ciruelas, dátiles e higos cultivados en los huertos, y las especias y plantas aromáticas, que se utilizaban comúnmente en la preparación de platos y bebidas.
Además de la leche y sus derivados, otras fuentes de proteína procedían de los peces, las tortugas y los crustáceos que se capturaban en los ríos y canales, de las aves apresadas en los pantanos y zonas fluviales, así como de la carne de animales domésticos (ovejas, cabras, cerdos, bueyes) y de las viandas de caza que se servían en la mesa del rey. Todos estos ingredientes se utilizaban en la preparación de panes, dulces como el mersu (a base de dátiles y pistachos), sopas, potajes y asados de variado tipo.
El descubrimiento de varias tablillas del siglo xvii a. C., en las que se recogían unas cuarenta recetas para preparar caldos y carnes cocidas, han proporcionado un testimonio inapreciable sobre el refinamiento culinario de las clases pudientes mesopotámicas. A base de carne de ciervo, gacela, cabrito, cordero, francolín y otros animales, estas recetas demuestran un marcado gusto por el uso de plantas aliáceas como el puerro, el ajo y la cebolla, así como la tendencia a usar la grasa, los menudillos y, a veces, la sangre del animal en la elaboración.
Algunas recetas incluso proporcionan información minuciosa de las distintas fases en la preparación del guiso, desde la limpieza y descarne del animal hasta la fase final de la cocción, así como del modo de presentar y servir el plato en la mesa. Estos testimonios dan cuenta, por tanto, de la suntuosidad de la que gozaba la mesa del rey, pero también de la abundancia y variedad de platos que se sucedían durante la celebración de las festividades político-religiosas.
Durante años, la cafeína se ha estudiado casi siempre en laboratorios. Allí se comprobó que mejora el rendimiento mental, la atención y la sensación de energía. Sin embargo, faltaba una pieza clave: entender cómo actúa en la vida real, en el día a día, cuando la gente bebe café en la oficina, té en casa o refrescos en la calle. ¿Realmente cambia nuestro ánimo o todo se reduce a una ilusión de estar más despiertos?
Para responder, investigadores de Alemania y Estonia realizaron dos estudios con jóvenes adultos en su vida cotidiana. En lugar de pruebas de laboratorio, usaron un método llamado experience sampling (muestreo de experiencias). Este consiste en pedir a los participantes que contesten encuestas cortas varias veces al día, durante varias semanas, sobre cómo se sienten y si habían tomado cafeína recientemente.
La idea era sencilla pero potente: observar qué ocurre con las emociones en los 90 minutos posteriores a consumir cafeína. Así se podía evaluar si la bebida realmente influía en el estado afectivo y en qué momentos del día ese efecto era más fuerte. Lo innovador del trabajo es que, en lugar de situaciones artificiales, recogió datos en entornos naturales: en el trabajo, en la universidad, con amigos o en casa.

Miles de encuestas para seguir el pulso al café
El primer estudio se realizó con 115 participantes, de entre 18 y 25 años, durante dos semanas. Cada día, recibían siete avisos en el móvil para rellenar un cuestionario: si habían consumido cafeína, cómo de cansados se sentían y cuál era su estado emocional en ese momento. En total, se recogieron más de 8.300 encuestas.
El segundo estudio fue aún más ambicioso. Participaron 121 jóvenes, de 18 a 29 años, a lo largo de 28 días. Con el mismo sistema de recordatorios, se acumularon casi 20.000 encuestas. Con este volumen de datos, los investigadores pudieron analizar de manera muy precisa la relación entre el consumo de cafeína y los cambios en el estado de ánimo.
Los resultados fueron claros: tras tomar cafeína, las personas declararon sentirse más positivas. No se trataba solo de estar menos cansados, sino de experimentar emociones concretas como entusiasmo, felicidad y satisfacción.
Aunque el efecto no era enorme, sí era consistente, y se repetía en distintos días y contextos. En definitiva, la evidencia mostraba que la cafeína estaba vinculada a una mejora real del estado de ánimo en la vida cotidiana.
El mejor momento: las primeras horas del día
Uno de los hallazgos más interesantes fue que el efecto positivo de la cafeína era más fuerte en las primeras dos horas y media después de despertar. Ese café de la mañana no solo ayuda a abrir los ojos: también parece potenciar las emociones agradables de manera especial en ese intervalo.
Después de ese pico inicial, la asociación entre cafeína y emociones positivas disminuía a lo largo del día. Aunque podía volver a aparecer de forma leve por la tarde o la noche, ya no tenía la misma intensidad que en la mañana. Los investigadores interpretan que esto podría deberse a varios factores, entre ellos la reversión de síntomas de abstinencia tras la noche sin cafeína.
En otras palabras: para quienes beben café todos los días, la primera taza actúa como un “reinicio” que no solo combate la somnolencia, sino que también restaura un ánimo más positivo. No se trata únicamente de química, sino también del ritual matutino y de la expectativa de que el café ayudará a empezar el día con mejor pie.
"La cafeína funciona bloqueando los receptores de adenosina, lo que puede aumentar la actividad de la dopamina en regiones clave del cerebro, un efecto que los estudios han relacionado con un mejor estado de ánimo y una mayor alerta", dijo Anu Realo, autor del estudio y profesor de la Universidad de Warwick.

¿Reduce la tristeza o solo aumenta la alegría?
El estudio no solo analizó emociones positivas, sino también negativas, como sentirse triste, molesto o preocupado. Aquí los resultados fueron más matizados. En el segundo estudio, con más participantes y encuestas, se observó que la cafeína se asociaba a una ligera disminución de la tristeza y el enfado. Sin embargo, esa relación no apareció en el primer estudio.
Esto sugiere que los efectos de la cafeína sobre el afecto negativo son menos consistentes y probablemente más débiles. Mientras que el impulso positivo es claro y repetido, la reducción de emociones desagradables no parece ser tan directa ni tan fuerte. Dicho de otro modo: la cafeína te ayuda a sentirte más animado, pero no necesariamente a librarte de las preocupaciones.
Los autores destacan que esto podría deberse a que las emociones negativas suelen estar más ligadas a factores duraderos —como el estrés, los problemas personales o las circunstancias externas—, que no se resuelven con un café. En cambio, las emociones positivas pueden ser más sensibles a pequeños estímulos cotidianos, como el acto de consumir cafeína.
Cansancio, compañía y contexto: factores que cambian el efecto
La investigación también exploró qué otros factores podían moderar la relación entre cafeína y estado de ánimo. Un hallazgo notable fue que el efecto positivo era mayor cuando los participantes estaban más cansados de lo habitual. En esos momentos, la cafeína parecía aportar un extra de energía emocional, no solo física.
Otro aspecto llamativo fue la influencia del contexto social. Cuando los participantes estaban acompañados, la relación entre cafeína y afecto positivo era más débil. Esto podría deberse a que las interacciones sociales ya influyen en el estado de ánimo, reduciendo la percepción del “subidón” de la cafeína. Por el contrario, cuando las personas estaban solas, el efecto del café sobre el ánimo era más evidente.
Además, los investigadores analizaron si el consumo habitual, la dependencia de la cafeína, la calidad del sueño o síntomas de ansiedad y depresión modificaban la relación. Sorprendentemente, no encontraron diferencias importantes: el efecto positivo aparecía de forma bastante uniforme en todos los grupos. Esto refuerza la idea de que la cafeína actúa como un modulador general del ánimo en situaciones cotidianas.
"Nos sorprendió un poco no encontrar diferencias entre personas con diferentes niveles de consumo de cafeína o diferentes grados de síntomas depresivos, ansiedad o problemas de sueño. Los vínculos entre la ingesta de cafeína y las emociones positivas o negativas fueron bastante consistentes en todos los grupos", dijo el autor del estudio Justin Hachenberger, de la Universidad de Bielefeld en Alemania.

Lo que nos dice el estudio sobre el café y la vida diaria
El trabajo aporta varias conclusiones útiles. La principal es que la cafeína está asociada con un aumento del afecto positivo en la vida real, especialmente en la mañana.
Este hallazgo va más allá de lo que ya se sabía en laboratorio, porque confirma que la bebida más popular del mundo influye en cómo nos sentimos en nuestros entornos naturales.
Al mismo tiempo, los investigadores subrayan que los efectos no son milagrosos. La cafeína no elimina de golpe el cansancio acumulado ni las emociones negativas fuertes. Tampoco sustituye un buen descanso, ni resuelve problemas de ansiedad o depresión. Más bien, su papel parece ser el de un pequeño “empujón emocional” que, en momentos adecuados, ayuda a sentir más entusiasmo y alegría.
En definitiva, este estudio pone en cifras lo que muchos ya intuían en su rutina: que esa primera taza de café por la mañana no solo despeja, sino que también mejora el humor. Y lo hace de forma tan consistente que se convierte en uno de los rituales cotidianos más influyentes en nuestro bienestar emocional.
Referencias
- Hachenberger, J., Li, YM., Realo, A. et al. The association of caffeine consumption with positive affect but not with negative affect changes across the day. Sci Rep. (2025). doi: 10.1038/s41598-025-14317-0
La muerte para los etruscos, al igual que para muchas otras poblaciones de la antigüedad, era un tránsito que requería de una serie de rituales preparatorios que facilitasen el tránsito del difunto. Aunque no poseemos textos escritos por los propios etruscos que detallen sus creencias sobre el más allá, la abundancia de tumbas decoradas, ajuares funerarios y restos arqueológicos permite reconstruir, al menos en parte, su particular imaginario fúnebre. El estudio de la iconografía funeraria de las necrópolis, por tanto, ofrece un panorama fascinante y enigmático sobre el destino del alma.
La dificultad de conocer el más allá etrusco
La ausencia de fuentes escritas directas ha obligado a los etruscólogos a interpretar la religión funeraria etrusca a través de sus monumentos. A menudo, los investigadores han proyectado sobre estas imágenes ideas tomadas de la mitología griega, como la travesía en barca hacia las Islas de los Bienaventurados o la estancia en el Hades. Sin embargo, la evidencia iconográfica muestra que estas nociones no siempre se aplican de manera sistemática en el caso etrusco.
En la época arcaica (siglos VII-V a. C.), los etruscos parecen haber concebido un destino post mortem donde la parte inmaterial del difunto —su “sombra” o espíritu— continuaba existiendo, en un lugar distinto al de la sepultura física. No obstante, las representaciones de ese más allá no siempre proporcionan la imagen de un inframundo poblado de dioses o criaturas demoníacas, sino, más bien, se expresan a través de símbolos y escenas rituales.
La visión que emerge, por tanto, es compleja. Por un lado, comparte elementos con las concepciones griegas arcaicas, como la idea de un viaje post mortem. Por otro, revela interpretaciones propias que no se reducen ni a los Campos Elíseos ni al sombrío Hades. El análisis de las puertas falsas pintadas en las tumbas, de los rituales representados y de los objetos simbólicos sugiere que los etruscos creían en un más allá, pero que este no siempre implicaba un trayecto peligroso hacia tierras lejanas.

Las puertas falsas: umbrales simbólicos
Uno de los motivos más reveladores en las tumbas pintadas de Tarquinia es la representación de la puerta falsa. Estas puertas, que comenzaron a incluirse en la arquitectura funeraria en la primera mitad del siglo VI a. C., no podían abrirse, ya que carecían de bisagras, cerraduras o llamadores. Situadas casi siempre en la pared opuesta a la entrada, parecían invitar al paso hacia un espacio invisible.
La hipótesis más aceptada apunta que estas puertas no eran para los vivos, sino para el alma del difunto. Constituían un umbral hacia un espacio simbólico, el lugar al que se dirigía el espíritu tras abandonar el cuerpo. La decoración que acompañaba a las puertas podía variar. Así, en la Tumba de los Augures, en la necrópolis de Monterozzi, por ejemplo, dos hombres en actitud de duelo flanquean el vano, mientras que, en la Tumba de las Olimpíadas, figuras mitológicas como Hermes, Hera, Atenea y Afrodita parecen desligarse de las connotaciones funerarias.
En algunos casos, la puerta era el especio elegido para llevar a cabo rituales específicos, como el threnos o canto fúnebre, o la deposición de objetos (por lo general, un ánfora y una crátera para el vino) junto al umbral. Estos recipientes enmarcaban el paso al otro lado del alma a través de ceremonias de libación o banquetes que acompañaban el tránsito espiritual.

El papel de los rituales y el banquete funerario
Algunas pinturas funerarias de Tarquinia muestran que, para los etruscos, la despedida del alma se acompañaba de música, danzas y consumo de vino. Las escenas de komos (procesiones festivas con bebedores y músicos) pueden rodear las puertas falsas o las entradas a las cámaras mortuorias. En algunos casos, los participantes están identificados por nombre, lo que sugiere que, durante las celebraciones, se conmemoraba personajes reales y no simples figuras simbólicas.
La combinación de luto y celebración festiva formaba parte de un mismo rito de paso. Los banquetes podían evocar la idea de una vida que continúa en el más allá, pero, al mismo tiempo, cumplían una función de cohesión social y de homenaje a la memoria del difunto.
Dioniso y otros dioses en el imaginario funerario
Las escenas dionisíacas son frecuentes en la iconografía funeraria etrusca. Sátiros, hiedra, grandes cráteras y gestos de embriaguez decoran frontones y paredes, y sugieren la influencia del dios del vino y la fertilidad en la concepción etrusca de la muerte. Sin embargo, no todos los elementos de estas tumbas remite a Dioniso. En los bosquecillos sagrados que aparecen pintados, cuelgan joyas, telas y guirnaldas que evocan a Turan (Afrodita) o Aplu (Apolo). Este lucus o arboleda sagrada funcionaba como espacio liminal, lugar de ofrenda y comunión con lo divino. El hecho de que los bosques aparezcan combinados con banquetes o procesiones subraya la interconexión entre lo sagrado y lo social en el contexto funerario.

El cambio en el siglo V a. C. y la desaparición de las puertas falsas
A partir del segundo cuarto del siglo V a. C., las puertas falsas comienzan a desaparecer del programa decorativo de las tumbas. En su lugar, algunos sepulcros muestran el marco dórico pintado en la puerta real de acceso a la cámara, quizá como una alusión simbólica al umbral del más allá. Con todo, este cambio no implica, necesariamente, una sustitución directa de las creencias. De hecho, las escenas pintadas siguen mostrando banquetes, músicos y ritos, pero la disposición espacial y la iconografía se adaptan a nuevas tendencias artísticas.
La aparición, hacia finales del siglo V a. C., de demonios de la muerte en la pintura etrusca sugiere una transformación en la concepción del destino post mortem. Estas figuras, ausentes en la etapa arcaica, introducen una imaginería más cercana al control divino o sobrenatural del tránsito del alma.

¿Un viaje largo y peligroso?
Contrariamente a otras tradiciones religiosas que presentan el tránsito del alma como un viaje marítimo, la iconografía etrusca arcaica no confirma ese trayecto épico. Las tumbas no muestran al difunto cruzando mares ni enfrentándose a pruebas, sino escenas que subrayan el umbral simbólico (la puerta falsa) y los ritos que acompañaban el paso del alma a un lugar invisible.
El silencio que guarda la pintura etrusca sobre el paisaje del más allá parece reforzar la idea de que lo importante era el acto de la separación, el momento en que la parte espiritual dejaba el espacio físico del cadáver para dirigirse a un destino que, desde el punto de vista etrusco, bien podía tratarse de un auténtico lugar físico. La religión etrusca, por tanto, concebía la muerte como un tránsito ritualizado hacia un espacio invisible, marcado por umbrales simbólicos y acompañado de ceremonias complejas. Las puertas falsas, los banquetes, la música y las procesiones no describen tanto los espacios del más allá como la importancia del rito de paso que aseguraba el viaje del alma.
Referencias
- Weber-Lehmann, "Where Does the Soul Go? Some Thoughts on Etruscan Afterlife", en Karolina Sekita, y Katherine E. Southwood(eds.), Death Imagined: Ancient Perceptions of Death and Dying, pp. 201-236. Liverpool University Press, 2025.
Durante más de seis décadas, una pregunta ha flotado sin respuesta en la paleoantropología europea: ¿quién fue el homínido que habitó la cueva de Petralona, en Grecia, y por qué su cráneo no encaja del todo ni con los neandertales ni con los humanos modernos? Descubierto en 1960 por un habitante local mientras exploraba una cueva kárstica al sur de Tesalónica, el fósil ha sido motivo de controversia científica, hipótesis enfrentadas y dataciones contradictorias que oscilaban entre los 170.000 y los 700.000 años. Hasta ahora.
Un equipo internacional de investigadores liderado por el Institut de Paléontologie Humaine de París ha logrado aplicar con éxito una técnica de datación basada en series de uranio a los depósitos calcíticos que cubren directamente el cráneo. El resultado, publicado recientemente en el Journal of Human Evolution, no solo reduce radicalmente el rango de edad estimado, sino que apunta a una cronología que cambia, una vez más, nuestra comprensión sobre la evolución humana en Europa.
Una cueva, un cráneo y un misterio persistente
La cueva de Petralona, situada en la región de Calcídica, no parecía muy distinta de otras formaciones kársticas del Mediterráneo. Pero en su interior, en una pequeña cámara conocida como el “Mausoleo”, apareció incrustado en una pared un cráneo humano casi completo, aunque sin mandíbula. Lo que siguió fue una larga historia de investigaciones, debates y desacuerdos. El problema no era solo su extraña morfología, distinta tanto de Homo sapiens como de los neandertales clásicos, sino también la imposibilidad de determinar con precisión su edad.
El fósil no estaba asociado a un estrato arqueológico claro. Tampoco se encontraron herramientas ni restos del esqueleto que permitieran contextualizarlo cultural o temporalmente. Y para complicar aún más las cosas, el cráneo estaba cubierto por una gruesa capa de calcita, resultado de procesos de sedimentación propios del ambiente subterráneo. Aquello que parecía un obstáculo, sin embargo, se ha convertido en la clave para resolver el enigma.

Cómo el uranio resolvió el dilema
La técnica que ha permitido este avance se conoce como datación por series de uranio (U-series). A grandes rasgos, consiste en medir la proporción entre isótopos de uranio y torio presentes en depósitos minerales como estalactitas o costras calcíticas. En un entorno cerrado como una cueva, donde el agua filtra lentamente minerales disueltos que luego se cristalizan en forma de calcita, es posible calcular el momento en que comenzó ese proceso. Y si esa calcita recubre un fósil, como ocurre con el cráneo de Petralona, se puede establecer con exactitud una edad mínima para el mismo.
El equipo de investigadores analizó no solo la calcita del cráneo, sino también otras formaciones en diferentes zonas de la cueva: el Mausoleo, el pasadizo que conduce a él —conocido como el “Paso de los Dardanelos”— y varias secciones más. Los resultados son reveladores: el depósito calcítico más interno que cubre el cráneo empezó a formarse hace al menos 286.000 años, con un margen de error de ±9.000 años. Esto implica que el fósil ya estaba allí en ese momento, probablemente desde mucho antes.
¿Una especie olvidada o un ancestro compartido?
Este hallazgo no es solo una cuestión de datación. Lo que vuelve fascinante al cráneo de Petralona es que no encaja fácilmente en ninguna categoría. A lo largo de los años ha sido clasificado —y reclasificado— como Homo erectus, Homo heidelbergensis, Homo neanderthalensis e incluso Homo sapiens arcaico. Su morfología recuerda más al cráneo de Broken Hill (Zambia), también conocido como Kabwe, que a otros fósiles europeos de su misma época. Esto ha llevado a algunos expertos a plantear que Petralona podría pertenecer a una población distinta, más primitiva, que coexistió con los primeros neandertales en Europa durante el Pleistoceno medio.
Los nuevos datos parecen apoyar esa idea. Según los investigadores, el cráneo se habría depositado en la cueva entre 410.000 y 277.000 años atrás si fue arrastrado allí, o incluso entre 539.000 y 277.000 años si realmente estaba unido a la pared del Mausoleo, como se creyó originalmente. Sea cual sea el caso, estamos ante un fósil anterior al surgimiento definitivo de los neandertales como los conocemos, pero posterior a los primeros Homo erectus del continente.
Esto sugiere un escenario más complejo para la evolución humana en Europa, con diferentes linajes conviviendo durante miles de años, compartiendo territorios, recursos y quizás incluso genética. Un panorama menos lineal y más ramificado, en el que especies arcaicas persistieron más tiempo del que creíamos.

El contexto europeo: una época de transición
Entre hace 500.000 y 300.000 años, Europa vivió una etapa crucial en la evolución humana. Los fósiles de esta época —como los de la Sima de los Huesos en Atapuerca, Mauer en Alemania o Ceprano en Italia— muestran una gran diversidad morfológica y nos hablan de una transición progresiva desde formas más primitivas hacia los neandertales clásicos. Algunos individuos presentan rasgos derivados, otros conservan características ancestrales, y muchos no encajan del todo en las categorías convencionales.
El cráneo de Petralona encaja en este mosaico evolutivo como una pieza singular. No parece haber sido un ancestro directo de los neandertales, pero tampoco de los Homo sapiens. Su edad, combinada con su morfología, apunta a una población europea que evolucionó de forma paralela y probablemente independiente. Una rama que pudo coexistir con otras formas humanas, adaptándose a su entorno, pero que finalmente desapareció sin dejar descendencia directa.
Reescribiendo la historia desde una cueva griega
El caso de Petralona ilustra a la perfección lo difícil que es construir la historia de nuestros orígenes. Los fósiles son escasos, el tiempo los entierra y los transforma, y los contextos se pierden con facilidad. Pero también demuestra cómo la ciencia, incluso décadas después de un descubrimiento, puede ofrecer nuevas respuestas gracias al desarrollo de nuevas tecnologías.
Más allá del debate taxonómico, el estudio del Institut de Paléontologie Humaine aporta una certeza fundamental: el cráneo de Petralona tiene al menos 286.000 años. Y con eso, se convierte en uno de los fósiles humanos más antiguos del continente europeo con una datación directa confiable.
Una historia que comenzó en una cueva olvidada de Grecia se transforma, hoy, en una pieza clave para entender cómo fue realmente la evolución de nuestra especie en el Viejo Mundo. Quizás, como ocurre a menudo en la ciencia, las respuestas definitivas nunca lleguen. Pero cada nueva fecha, cada capa de calcita, cada miligramo de uranio nos acerca un poco más a comprender quiénes fuimos… y quiénes no llegamos a ser.
Cuando pensamos en Leonardo da Vinci, solemos imaginar al pintor de la Mona Lisa o al inventor visionario, pero Leonardo también se adentró en el maravailloso mundo de las matemáticas. Uno de sus aportes menos conocidos es una elegante demostración del teorema de Pitágoras, la célebre relación a2+b2=c2 entre los lados de un triángulo rectángulo. En este artículo exploraremos cómo concibió Leonardo su propia prueba de este teorema y qué nos revela sobre su manera de pensar en la confluencia de arte, ciencia y geometría.
La relación pitagórica (que dice que el área del cuadrado sobre la hipotenusa equivale a la suma de las áreas de los cuadrados sobre los catetos) se conocía desde la antigüedad, pero recibió el nombre de teorema de Pitágoras porque se cree que fue el filósofo griego Pitágoras quien aportó la primera demostración formal en el siglo VI a.C.. A lo largo de la historia han surgido decenas de demostraciones distintas —desde las recopiladas por Euclides hasta ingeniosas construcciones modernas—, pero pocas son tan originales y accesibles como la que ideó Leonardo da Vinci en pleno Renacimiento.
Un artista fascinado por las matemáticas
La imagen típica de Leonardo es la del maestro pintor e ingeniero, pero tras esa faceta artística había también una mente profundamente atraída por la matemática. Aunque nunca recibió educación formal en matemáticas y jamás llegó a dominar el álgebra, Leonardo poseía una notable intuición geométrica y habilidad espacial, cualidades presentes en muchos de sus proyectos e inventos. Para él, conceptos como la proporción, la simetría y la perspectiva eran clave para comprender la belleza de la naturaleza y las leyes del universo. De hecho, Leonardo llegó a describir la aritmética y la geometría como la “belleza de las obras de la naturaleza y ornato del mundo”, dejando claro el valor que otorgaba a las matemáticas para descifrar la realidad.
La obsesión de Leonardo por el rigor numérico quedó plasmada en sus propios escritos. En sus cuadernos afirmó que “no existe ninguna certeza cuando no se pueda aplicar alguna de las ciencias matemáticas”, subrayando que las ciencias solo eran verdaderas si se fundamentaban en demostraciones matemáticas. Fiel a esta filosofía, estudió con ahínco las obras clásicas de geometría. Hacia 1496, durante su estancia en Milán, entabló amistad con el fraile matemático Luca Pacioli, quien lo guio en el estudio de Euclides y con quien colaboró en tratados como De divina proportione (1509), un célebre compendio sobre la sección áurea que Leonardo ilustró con meticulosos dibujos de poliedros. Gracias a Pacioli, Leonardo profundizó más formalmente en la geometría (llegando incluso a ayudar en una edición de Los Elementos de Euclides), pero siempre la abordó desde una óptica visual y práctica, acorde con su formación autodidacta.

Una prueba visual e ingeniosa
La demostración pitagórica de Leonardo da Vinci aprovecha al máximo el razonamiento geométrico. Su planteamiento es sumamente gráfico: Leonardo dibujó un triángulo rectángulo con los tradicionales cuadrados adosados a cada lado y luego añadió elementos a la figura para reorganizar las áreas de manera reveladora. El resultado fue una argumentación visual tan clara que se ha dicho que “casi no necesita explicación” al contemplarla.
En su construcción, Leonardo agregó dos copias del triángulo inicial a la figura (el ECF y el HIJ en la imagen de abajo), colocándolas junto a los cuadrados ya dibujados. De este modo formó dos polígonos compuestos de igual superficie: uno incluye el cuadrado de la hipotenusa junto con dos triángulos, y el otro reúne los dos cuadrados de los catetos más dos triángulos. Si ambas figuras comparten el mismo área total, al retirar de cada una los dos triángulos añadidos (idénticos en ambas), las porciones restantes deben ser equivalentes. Esas porciones no son otras que el gran cuadrado construido sobre la hipotenusa en un caso, y la suma de los dos cuadrados menores construidos sobre los catetos en el otro. Así quedaba demostrado de forma puramente gráfica que c2=a2+b2, confirmando el teorema de Pitágoras sin necesidad de fórmulas.

La genialidad de esta demostración reside en su simplicidad: más que cálculos, emplea comparaciones de forma y área. Leonardo había creado una suerte de rompecabezas geométrico que prueba el teorema de forma visual e intuitiva. Cabe destacar que esta preferencia por lo gráfico no es casual: al no estar versado en las técnicas algebraicas de su época, Leonardo confió en su poderosa percepción espacial para resolver el problema. Su prueba de Pitágoras es, en efecto, un ejemplo de “matemáticas sin palabras”, alineado con su talento de artista para comunicar ideas mediante imágenes.
Paso a paso
- Se parte del triángulo rectángulo ABC, con los cuadrados construidos sobre sus lados.
- Leonardo añade dos triángulos idénticos al original, llamados ECF y HIJ, que encajan en la figura sin alterar sus proporciones.
- Con estas piezas forma dos polígonos compuestos:
- El polígono ADEFGB, que incluye los dos cuadrados de los catetos.
- El polígono ACBHIJ, que incluye el cuadrado de la hipotenusa.
- Cada polígono puede dividirse en dos mitades simétricas, y Leonardo demuestra que esas mitades son equivalentes comparando lados y ángulos.
- Para reforzar la equivalencia, muestra que un simple giro de la figura convierte una mitad en la otra, garantizando que son congruentes.
- De esa manera concluye que los dos polígonos completos tienen la misma área total.
- Finalmente, si a cada polígono se le quitan los triángulos añadidos (que son iguales), lo que queda es:
- En un caso, los dos cuadrados de los catetos.
- En el otro, el cuadrado de la hipotenusa.
- El resultado es la igualdad buscada: la suma de las áreas de los catetos equivale al área de la hipotenusa.

No entiendo que al ser dos polígonos iguales se demuestre el teorema... ¡te lo explicamos!
- El polígono ADEFGB está formado por:
- Los dos cuadrados de los catetos (el de AB y el de AC).
- Más dos copias del triángulo inicial (los que Leonardo añadió).
- El polígono ACBHIJ está formado por:
- El cuadrado de la hipotenusa (el de BC).
- Más esas mismas dos copias del triángulo inicial.
- Leonardo demuestra que los dos polígonos enteros tienen la misma área total.
- Como ambos incluyen las mismas dos copias del triángulo, si quitamos esos triángulos de cada polígono lo que queda debe seguir siendo igual.
- ¿Y qué queda?
- En el polígono ADEFGB, al quitar los triángulos, solo quedan los dos cuadrados de los catetos.
- En el polígono ACBHIJ, al quitar los triángulos, solo queda el cuadrado de la hipotenusa.
- Por lo tanto, queda demostrado que la suma de las áreas de los cuadrados de los catetos equivale al área del cuadrado de la hipotenusa, que es exactamente el teorema de Pitágoras.
Arte, ciencia y legado renacentista
La demostración pitagórica de Leonardo ilustra a la perfección la unión entre arte y ciencia propia del Renacimiento. Un mismo hombre podía pintar una obra maestra y, a la vez, razonar sobre principios geométricos. Leonardo concebía la pintura como una ciencia, que debía apoyarse en principios matemáticos al igual que la óptica o la mecánica. Su interés por el teorema de Pitágoras no fue un capricho aislado, sino parte de un empeño mayor por encontrar armonía y orden numérico en el mundo. En su famoso dibujo del Hombre de Vitruvio, por ejemplo, explora las proporciones ideales del cuerpo humano mediante figuras y medidas geométricas, reflejando la convicción renacentista de que el universo está regido por patrones matemáticos.
Aunque la demostración de Leonardo no se publicó en su época en ningún tratado matemático, hoy la recordamos como una curiosidad histórica que reúne pedagogía y arte. Su valor reside, más que en aportar un avance técnico, en ejemplificar la brillantez multidisciplinar de Leonardo. Nos muestra cómo un artista e inventor podía también incursionar en la geometría teórica, guiado por la misma pasión de descubrir las verdades de la naturaleza. En última instancia, esta ingeniosa prueba visual refuerza la imagen de Leonardo da Vinci como el arquetipo del genio renacentista: un espíritu universal capaz de ver la profunda interconexión entre los números, las formas y la realidad.
Los smartphones de gama media están alcanzando prestaciones de gama alta sin disparar el precio. Cada vez más usuarios buscan potencia, buena pantalla, cámaras de calidad y gran autonomía por debajo de los 1.000 euros.
En un mercado cada vez más competitivo, Google refuerza su estrategia con una agresiva rebaja del Pixel 8 Pro, un smartphone de gama media con prestaciones premium que compite directamente con rivales como Samsung, Huawei y Realme.

Aunque su precio habitual supera los 519€ en tiendas como Miravia o PcComponentes, la alianza entre la marca americana y AliExpress lo deja ahora en solo 427,99 euros, marcando una de las rebajas más atractivas del momento.
Incorpora un sistema de cámaras profesionales con sensor principal de 50 MP, ultra gran angular de 48 MP y teleobjetivo de 48 MP con zoom óptico 5x y digital hasta 30x. Su cámara frontal de 10,5 MP ofrece selfies más nítidos y gran angular mejorado con Visión Nocturna, Astrofotografía y Controles Pro.
En vídeo, destaca por el Optimizador de Vídeo, el Borrador Mágico para Audio y Tono Real. Con 128 GB de almacenamiento, traducción instantánea en 49 idiomas y seguridad avanzada gracias a Tensor G3 y Titan M2, este smartphone ofrece además 7 años de actualizaciones, VPN integrada y alertas inteligentes.
Realme contraataca con una fuerte rebaja en su Realme 14T para ganar terreno en el mercado
Después de la jugada de Google, Realme reacciona sin demora y lanza una agresiva rebaja en su Realme 14T, que ahora se puede conseguir por solo 142,99 euros. Una oportunidad difícil de dejar pasar, teniendo en cuenta que en tiendas como Miravia, PcComponentes o Amazon su precio supera habitualmente los 185€.

Destaca por su procesador Dimensity 6300 de última generación, que ofrece potencia, fluidez y descargas ultrarrápidas en multitarea, gaming y navegación. Su pantalla AMOLED de 120 Hz brinda colores vivos, gran nitidez y protección ocular. Todo ello acompañado por 8 GB de RAM y 256 GB de almacenamiento.
En autonomía, equipa una batería Titan de 6000 mAh con carga rápida de 45 W, asegurando energía para todo el día y recargas veloces. Su sistema de cámaras con IA incluye un sensor principal de 50 MP con mejoras nocturnas y retratos optimizados, además de una cámara frontal de 16 MP para selfies y videollamadas claras. Completan la experiencia Android 15, conectividad 5G, Wi-Fi rápido y doble SIM.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Cada vez más jóvenes y adolescentes mueren por suicidio en España. Aunque sigue siendo un fenómeno difícil de comprender y de aceptar, los datos no mienten: entre 2012 y 2022, más de 3.300 menores de 30 años perdieron la vida por esta causa. Y lo más preocupante es que el número no deja de crecer, especialmente entre chicos de 15 a 29 años. ¿Qué está ocurriendo? ¿Por qué se disparan los casos en ciertas comunidades? ¿Qué papel juega la edad, el género o incluso el mes del año?
La salud mental de la infancia y la adolescencia se ha convertido en una prioridad en las agendas públicas de numerosos países. En España, la evolución reciente de las cifras de suicidio en población menor de 30 años ha suscitado preocupación entre profesionales de la salud, la educación, la psicología y el trabajo social. Aunque el suicidio sigue siendo un fenómeno relativamente infrecuente en esta etapa vital, su tendencia ascendente, junto con su fuerte impacto individual, familiar y comunitario, lo convierten en un fenómeno de alto interés desde el punto de vista preventivo y social.
¿Quiénes son las víctimas?
En España, entre 2012 y 2022, se registraron 3.368 suicidios entre personas menores de 30 años. De ellos, 118 correspondieron a niños y niñas menores de 15 años, y 3.250 al grupo de 15 a 29 años. Aunque los casos infantiles son menos frecuentes, su impacto social es profundo: cada muerte representa una pérdida devastadora para familias, centros escolares y comunidades enteras y ponen en evidencia situaciones de sufrimiento profundo en edades tempranas que exigen una respuesta estructural por parte de los sistemas de salud y protección.
El análisis por sexo muestra una clara desigualdad: los varones presentan tasas de suicidio notablemente superiores a las de las mujeres. En el grupo de 15 a 29 años, aproximadamente el 74 % de los casos fueron hombres. Esta diferencia, coherente con patrones internacionales, ha sido constante en el tiempo. En menores de 15, el patrón se repite, aunque en algunos años, como 2017 o 2020, las cifras entre chicas igualaron o incluso superaron a las de los chicos.

Tendencias que preocupan
La evolución de los datos a lo largo de la década muestra un aumento progresivo de casos en población joven, con picos destacados en 2021 y 2022. El grupo de 15 a 19 años, en particular, ha experimentado un crecimiento llamativo: en 2022 se registraron 75 suicidios en este grupo, frente a los 53 del año anterior. El incremento fue especialmente notable entre los chicos.
También se observan patrones estacionales significativos. Entre los menores de 15 años, los meses con mayor número de suicidios son mayo, marzo y octubre. En jóvenes de 15 a 29 años, destacan los meses de septiembre, julio y junio. Estos momentos del año podrían estar asociados a transiciones académicas que podrían generar estrés escolar, periodos de soledad en época estival o cambios vitales que aumentan la vulnerabilidad emocional.
Identificar estos periodos de mayor riesgo puede ser útil para concentrar esfuerzos preventivos y mejorar la planificación de recursos en momentos clave del calendario escolar y familiar.
Dónde se concentra el problema
El suicidio juvenil no afecta por igual a todas las regiones. Cataluña, Andalucía y Madrid concentran los mayores números absolutos, lo que es esperable por su volumen de población. Pero si analizamos las tasas por cada 100.000 habitantes, la situación cambia. Comunidades como Aragón, Murcia, Navarra y Asturias presentan tasas especialmente altas en el grupo de 15 a 29 años.
Otro hallazgo llamativo es que los municipios más pequeños, con menos de 10.000 habitantes, presentan tasas elevadas de suicidio juvenil en proporción a su población. Aunque las grandes ciudades concentran el mayor número absoluto de casos, las tasas más altas en proporción a la población se registran en municipios pequeños, con menos de 10.000 habitantes. Esto pone de manifiesto la importancia de no concentrar todos los esfuerzos preventivos en entornos urbanos y de garantizar la accesibilidad de recursos de salud mental en el ámbito rural o semirrural.

¿Cómo se quitan la vida los jóvenes?
El estudio de los métodos empleados en los suicidios aporta información clave para el diseño de políticas de prevención.
Los métodos más frecuentes varían según la edad y el sexo. En menores de 15 años, el ahorcamiento y el salto desde lugares elevados son los más comunes. En el grupo de 15 a 29 años, predominan el envenenamiento y el ahorcamiento. La diferencia por género también es relevante: los chicos tienden a emplear métodos más letales.
Este dato es crucial para diseñar estrategias de prevención. Limitar el acceso a medios letales (por ejemplo, instalar barreras en puentes o regular ciertas sustancias) ha demostrado ser eficaz en otros países.
¿Qué factores están detrás?
No hay una única causa que explique el suicidio juvenil, sino que estamos ante un fenómeno complejo, multicausal y profundamente relacionado con el contexto social y emocional.
Entre los factores más relevantes destacan:
- Trastornos de salud mental (especialmente depresión, trastornos de ansiedad y consumo de sustancias)
- Adversidades familiares y violencia intrafamiliar
- Acoso escolar y ciberacoso
- Problemas de identidad y discriminación
- Falta de acceso a atención psicológica especializada
- Estigmatización del sufrimiento emocional y de la búsqueda de ayuda
La pandemia de COVID-19 ha amplificado muchas de estas vulnerabilidades, alterando rutinas escolares, reduciendo las redes de apoyo y afectando a la estabilidad emocional de niños, adolescentes y jóvenes.
También se ha documentado el llamado efecto de imitación o “efecto Werther”: la exposición a casos de suicidio (especialmente si se trata de personas conocidas, celebridades o compañeros) puede actuar como desencadenante en jóvenes con una situación emocional frágil. De ahí la importancia de que los medios de comunicación y redes sociales sigan pautas responsables al tratar estas noticias.

¿Qué se puede hacer?
Prevenir el suicidio en población joven requiere una respuesta integral, sostenida y multisectorial, con medidas como:
- La creación de un Plan Nacional de Prevención del Suicidio, que garantice la coordinación entre territorios y promueva estándares comunes.
- El refuerzo de los servicios de salud mental infantojuvenil, especialmente en atención primaria y ámbito escolar.
- La incorporación de protocolos específicos en centros educativos, con formación para docentes, orientadores y personal de apoyo.
- Campañas institucionales que visibilicen el sufrimiento emocional sin estigmas y promuevan el acceso a la ayuda profesional.
Un reto compartido
Hablar de suicidio no es sencillo. Pero callarlo es aún más peligroso. Este análisis basado en diez años de datos nos muestra un escenario complejo, donde la juventud sufre y, en ocasiones, no encuentra salidas. Comprender las cifras no significa normalizarlas, sino reconocer la responsabilidad colectiva de actuar con anticipación, sensibilidad y compromiso La prevención del suicidio juvenil requiere empatía, compromiso institucional y una acción sostenida que involucre a familias, escuelas, profesionales y medios de comunicación.
Referencias
- Instituto Nacional de Estadística (INE). (2022). Defunciones según la causa de muerte. https://www.ine.es
- Organización Mundial de la Salud (2024). Suicidio. https://www.who.int/es/news-room/fact-sheets/detail/suicide
- Zalsman, G., et al. (2016). Suicide prevention strategies revisited: 10-year systematic review. The Lancet Psychiatry. doi: 10.1016/s2215-0366(16)30030-x
- Falcó, R., Piqueras, J. A., et al. (2023). Let’s Talk About Suicide Spectrum in Spanish Adolescents. Psicothema. doi: 10.7334/psicothema2022.287
- Meade, J. (2021). Mental health effects of the COVID-19 pandemic on children and adolescents. Pediatric Clinics of North America. doi: 10.1016/j.pcl.2021.05.003

Noelia Navarro Gómez
Doctora en Psicología y Doctora en Educación

Ford Pro amplía hoy la capacidad de su furgoneta eléctrica E-Transit Custom con el anuncio de una variante con tracción total (AWD), diseñada para elevar su rendimiento en condiciones difíciles. Este nuevo modelo llega acompañado por la versión AWD de la E-Tourneo Custom, ambas previstas para su lanzamiento en primavera de 2026. Son soluciones pensadas tanto para profesionales que trabajan en zonas con nieve, barro o pendientes pronunciadas—como regiones nórdicas, alpinas o tierras altas—como para usuarios de vehículos de ocio que buscan movilidad fiable en cualquier terreno (media.ford.com).
Este anuncio se enmarca dentro de la ofensiva eléctrica de Ford, que no deja de sumar hitos en distintos segmentos. Primero fue la llegada de propuestas urbanas como el Ford Puma Gen-E, que muchos ya definen como ¿el mejor Ford urbano hasta la fecha?. Después, la reinterpretación de iconos históricos como el Capri, que vuelve convertido en un SUV eléctrico bajo la premisa Un clásico rebelde de Ford renace como SUV eléctrico. Ahora, con la E-Transit Custom AWD, Ford demuestra que también el mundo de los vehículos comerciales y profesionales puede beneficiarse de soluciones innovadoras y capaces.
La novedad técnica consiste en dotar al chasis existente, de propulsión trasera, con un motor eléctrico adicional en el eje delantero. El sistema de doble motor permite repartir el par de manera óptima en las cuatro ruedas, mejorando significativamente la tracción, la dinámica del vehículo y su capacidad para moverse en condiciones extremas. Además, Ford anuncia que la variante Trail —con estética más robusta— estará disponible en la gama AWD, reforzando la imagen aventurera del modelo.

Tracción total para condiciones extremas
La incorporación de un motor adicional para las ruedas delanteras convierte al E-Transit Custom en un vehículo capaz de enfrentarse sin miedo al hielo, al barro, a las cuestas pronunciadas o a superficies resbaladizas.
Esta mejora de tracción le permite mantener una dinámica más estable y segura, sin comprometer sus capacidades de carga ni su funcionalidad diaria.

Ingeniería optimizada y modular
Ford ha desarrollado una arquitectura que complementa el sistema RWD sin necesidad de rediseñar por completo el vehículo. El motor trasero se mantiene y se añade uno delantero, lo que facilita la producción y mantenimiento.
Además, el sistema permite entregar par a cada eje de forma independiente, mejorando la eficiencia energética y el rendimiento dinámico bajo condiciones de carga y pendiente.

Concepto Trail: estética y robustez
Entre los acabados disponibles, el E-Transit Custom AWD incluirá la versión Trail, con un enfoque más aventurero y robusto. Esta versión añade detalles estéticos y prácticos que refuerzan la presencia del vehículo y su capacidad para entornos exigentes.

Lanzamiento simultáneo con E-Tourneo Custom AWD
Ford lanza de forma coordinada el E-Tourneo Custom AWD, un vehículo destinado al ocio y transporte de pasajeros. Esto permite compartir plataforma, tecnologías y mantener coherencia en la oferta comercial eléctrica de Ford Pro.

Productividad todo terreno
La variante AWD está pensada para ampliar la productividad en entornos adversos. Ya sea para reparto logístico, obras o caravanas, esta motorización garantiza movilidad allí donde las ruedas traseras no bastarían.
Además, fortalece el compromiso de Ford con el cliente profesional, ofreciendo una herramienta fiable en cualquier condición.

Sin datos técnicos definitivos aún
Todavía se desconocen datos tan importantes como potencia total, autonomía reducida debido al peso adicional, o capacidad de carga específica en versiones AWD. Ford promete revelar estas cifras más cerca de la comercialización en 2026.

Ampliación estratégica de la gama eléctrica
La integración de la tracción total es un paso más en la estrategia de Ford Pro por diversificar su gama eléctrica. Se suma al catálogo junto a versiones diésel, híbridas e híbridas enchufables de la Transit Custom.
Este movimiento responde a las crecientes exigencias de flexibilidad, electrificación y rendimiento integral.

Plataformas compartidas con VW
La E-Transit Custom se fabrica en Turquía junto a su primo, el VW e-Transporter. Es probable que la versión AWD también se reproduzca en sus homólogos, aunque aún no se ha confirmado oficialmente.
Esto sugiere una evolución conjunta del segmento en el que ambas marcas se benefician de economías de escala.

Versatilidad industrial y de ocio
El AWD hace atractivo al E-Transit Custom tanto para flotas corporativas como para conversiones en ocio o camperización. La mejora permite diseñar vehículos de uso mixto, capaces de combinar carga con rendimiento todo terreno sin miedo a quedar atrapados.

Sustentabilidad sin renunciar a capacidades
La motorización eléctrica ya reduce huella. Con la AWD, Ford refuerza su visión hacia una movilidad limpia que no sacrifica la resiliencia ni el rendimiento en mando 4x4. Esto conecta con los objetivos Ford+ y su enfoque diferencial para el mercado profesional.

Lista para el 2026
Ford ha previsto la llegada al mercado del E-Transit Custom AWD en primavera de 2026, en línea con el modelo base. Será crucial observar cómo evoluciona la red de carga, el precio y las variantes disponibles cuando comience su venta.

Posicionamiento y futuro eléctrico
Con esta ampliación, Ford Pro posiciona al E-Transit Custom como un modelo líder en versatilidad eléctrica para Europa.

La integración del AWD lo consolida como alternativa potente y fiable en el segmento, abriendo nuevas posibilidades para clientes que exigen movilidad plena en todo tipo de terrenos.
Una figura pixelada de un gato se dibuja lentamente en la pantalla, pero no con tinta ni luz, sino con átomos individuales manipulados con láseres. No se trata de una animación común, sino de una construcción física a escala atómica que representa al célebre gato de Schrödinger. En un laboratorio, un equipo de físicos ha logrado mover con precisión 2.024 átomos de rubidio para crear lo que ya se conoce como el vídeo más pequeño del mundo, y con él, han dado un paso importante hacia la computación cuántica funcional.
Este avance está descrito en un estudio publicado en Physical Review Letters, donde se demuestra una nueva técnica para manipular átomos con una rapidez y precisión sin precedentes. El vídeo del gato, además de ser un guiño al icónico experimento mental de Erwin Schrödinger, sirve como prueba visible de una tecnología que permite reordenar miles de átomos en apenas 60 milisegundos. Este sistema, controlado por inteligencia artificial, promete revolucionar el campo de la información cuántica al permitir la creación de arquitecturas escalables para computadoras cuánticas.
El experimento del gato que está vivo y muerto… y hecho de átomos
El gato de Schrödinger no es un experimento real, sino una idea planteada para ilustrar las paradojas de la mecánica cuántica. Plantea un escenario en el que un gato encerrado en una caja puede estar simultáneamente vivo y muerto, dependiendo de un evento cuántico que ocurre o no ocurre… hasta que alguien abre la caja y observa. Aunque el concepto fue formulado en 1935, sigue siendo una herramienta poderosa para explicar la superposición cuántica, un estado en el que una partícula puede tener múltiples valores al mismo tiempo.
Para representar este concepto, los investigadores construyeron una serie de imágenes utilizando átomos de rubidio atrapados en matrices ópticas, una tecnología que utiliza haces láser para inmovilizar partículas diminutas en el espacio. Cada punto del dibujo es un átomo que ha sido colocado con precisión para formar la silueta del gato y elementos asociados al experimento, como el símbolo de radiación. Como explica el estudio, "el proceso de reorganización atómica se ilustra en un vídeo suplementario utilizando una caricatura del gato de Schrödinger como ejemplo ilustrativo", donde "cada punto es la imagen de un solo átomo".
Este resultado no es solo visualmente impresionante: demuestra que es posible mover más de dos mil átomos con extrema precisión, sin defectos y en tiempos récord. El reto era no perder ni dañar átomos en el proceso, algo que hasta ahora limitaba las escalas de trabajo en los sistemas de computación cuántica basados en átomos.

Tecnología que mueve átomos como si fueran píxeles
Para lograr esta proeza, el equipo combinó dos tecnologías de vanguardia: las llamadas “pinzas ópticas” y un algoritmo basado en inteligencia artificial. Las pinzas ópticas son haces láser fuertemente focalizados que pueden atrapar partículas muy pequeñas sin necesidad de contacto físico. En este caso, los científicos las usaron para sostener y mover átomos de rubidio uno a uno.
La clave del éxito estuvo en la rapidez y la coordinación de los movimientos. Según explica el artículo, "el protocolo de reorganización logra un alto nivel de paralelismo y, por lo tanto, un rendimiento en tiempo constante", sin importar el número de átomos involucrados. Esto significa que mover 500 o 2.000 átomos lleva el mismo tiempo: unos 60 milisegundos.
La inteligencia artificial se encargó de calcular los caminos más eficientes para cada átomo, evitando colisiones y minimizando pérdidas. La IA genera hologramas que el modulador espacial de luz (SLM, por sus siglas en inglés) traduce en órdenes precisas para los láseres. Según detallan los autores, "nuestro modelo de IA calcula el holograma como una red neuronal convolucional completamente convolucional", una estructura que permite generar comandos en tiempo real con un control milimétrico sobre cada átomo.
En términos prácticos, esto significa que ahora se puede reorganizar una matriz de átomos como si fuera una imagen digital, píxel a píxel, pero a escala cuántica. Una hazaña de ingeniería que permite construir configuraciones tridimensionales, representar patrones o, como en este caso, formar una animación del gato más famoso de la física.

Un paso hacia la computación cuántica confiable
Este tipo de control abre la puerta a uno de los desafíos más importantes de la computación cuántica: la corrección de errores. A diferencia de los ordenadores clásicos, los sistemas cuánticos son extremadamente sensibles al entorno, lo que hace que los errores se acumulen y comprometan los cálculos. Para que una computadora cuántica funcione a gran escala, necesita formas de detectar y corregir esos errores constantemente.
Según los autores, "este protocolo puede utilizarse para generar arreglos sin defectos de decenas de miles de átomos con las tecnologías actuales y convertirse en una herramienta útil para la corrección de errores cuánticos". No se trata solo de mover átomos por capricho, sino de crear estructuras regulares y estables donde cada átomo actúe como un cúbit, la unidad básica de información cuántica.
Además, el sistema demostró ser estable en configuraciones tridimensionales complejas, como cuboides multicapa y estructuras similares al grafeno trenzado, con tasas de éxito cercanas al 99,6 % tras dos rondas de reorganización. Esto indica que la técnica podría aplicarse no solo en computación, sino también en simulaciones cuánticas que ayuden a entender materiales exóticos o nuevas fases de la materia.
La constancia del tiempo de procesamiento es otro aspecto fundamental. En el estudio se detalla que el emparejamiento de rutas lleva 5 ms, el cálculo del holograma 52 ms y la actualización del SLM otros 20 ms, pero como los procesos son paralelos, el total no supera los 60 milisegundos, incluso si se trabaja con 10.000 átomos.
Más allá del experimento: aplicaciones y próximos pasos
Aunque el vídeo del gato cuántico es el rostro más llamativo del estudio, su verdadero valor está en demostrar una capacidad tecnológica que hasta ahora no existía a esta escala. La posibilidad de manipular átomos individuales con rapidez y precisión podría ser la base para nuevas arquitecturas cuánticas.
En el futuro cercano, los autores del trabajo ven factible ensamblar arreglos sin defectos con decenas de miles de átomos, utilizando sistemas ópticos de mayor potencia, cámaras más sensibles y entornos más estables. Con estos avances, se podría crear un procesador cuántico de gran escala que supere por fin los límites de los actuales prototipos.
Además, estas técnicas podrían aprovecharse en la investigación de nuevos materiales o en la simulación de sistemas cuánticos difíciles de estudiar por otros medios. Por ejemplo, el montaje de estructuras como líquidos de espín cuántico o materiales topológicos requiere exactamente este tipo de control a nivel atómico. La precisión alcanzada en este trabajo es un indicador de que esos objetivos están cada vez más cerca.
Mientras tanto, el gato cuántico se convierte en una estrella inesperada de la divulgación científica: una animación microscópica que pone cara a uno de los conceptos más desconcertantes de la física y, al mismo tiempo, a las promesas de la tecnología cuántica.
Referencias
- Rui Lin, Han-Sen Zhong, You Li, Zhang-Rui Zhao, Le-Tian Zheng, Tai-Ran Hu, Hong-Ming Wu, Zhan Wu, Wei-Jie Ma, Yan Gao, Yi-Kang Zhu, Zhao-Feng Su, Wan-Li Ouyang, Yu-Chen Zhang, Jun Rui, Ming-Cheng Chen, Chao-Yang Lu, Jian-Wei Pan. AI-enabled rapid assembly of thousands of defect-free neutral atom arrays with constant-time-overhead, Physical Review Letters 135, 060602 (2025). DOI: 10.1103/PhysRevLett.135.060602.
La medicina Kampo es uno de los grandes tesoros terapéuticos de Japón, una práctica que, combinando tradición y observación clínica, ha conseguido adaptarse al presente. Basada, en sus orígenes, en la medicina tradicional china, el Kampo logró transforamarse en un sistema propio que reflejaba las particularidades ambientales y culturales japonesas. Su desarrollo histórico, que ha desembocado en su incorporación en la medicina contemporánea del país nipón, ha hecho de esta disciplina un ejemplo de cómo lo ancestral puede coexistir con la ciencia moderna.
En la actualidad, se estima que más del 70% de los médicos japoneses prescribe fórmulas Kampo, no como alternativa a la biomedicina occidental, sino como un complemento que refuerza otras intervenciones terapéuticas. Comprender sus orígenes, fundamentos y aplicaciones clínicas, por tanto, permite valorar tanto su papel actual en la salud pública japonesa como su creciente proyección internacional.

Orígenes e historia del Kampo
El Kampo cuenta con unos 1500 años de historia. Tiene su origen en un momento en el que el conocimiento médico procedente de China llegó a Japón, a través de la península de Corea, durante los siglos V y VI d. C. En un principio, los médicos japoneses siguieron fielmente los principios de la medicina china tradicional desarrollada en la dinastía Han. Sin embargo, las diferencias en la flora, el clima y las condiciones sociales propiciaron una progresiva adaptación a la realidad japonesa que daría lugar a un sistema propio.
Durante el periodo Edo (1602-1868), el Kampo alcanzó un alto grado de desarrollo. Con la Restauración Meiji (finales del siglo XIX), sin embargo, se produjo un giro decisivo hacia la medicina occidental. Esta orientación provocó que el Kampo quedara relegado y casi desapareciera. No obstante, tras la Segunda Guerra Mundial, un grupo de especialistas recuperó y modernizó la tradición, hasta conseguir incorporarla en el sistema sanitario del país.
Desde 1971, los productos Kampo —sobre todo los extractos de hierbas— se inclyen en la lista de medicamentos cubiertos por el Seguro Nacional de Salud de Japón. Actualmente, forman parte del arsenal terapéutico oficial 148 fórmulas estandarizadas. Además, también existe la posibilidad de preparar medicamentos personalizados a partir de 243 tipos de hierbas reconocidas.

Fundamentos diagnósticos: la noción de Sho
A diferencia de la medicina occidental, que se centra en la enfermedad concreta, el Kampo se centra en el estado global del paciente. Su diagnóstico se basa en el concepto de Sho, equivalente simplificado del Zheng chino, que describe el patrón de desequilibrio del organismo en un momento determinado.
El Sho se determina a partir de varios factores, como el qi, el sangre y el agua, que representan la energía vital, la circulación y los fluidos corporales; y los ocho principios opuestos del yin-yang, interior-exterior, frío-calor y deficiencia-exceso. Además, tiene en cuenta el equilibrio dinámico de los cinco órganos viscerales (hígado, corazón, bazo, pulmón y riñón) y las seis etapas de la enfermedad, desde la fase superficial (taiyang) hasta las más profundas (jueyin).
La fase de exploración clínica incluye la conversación con el paciente, la inspección de la lengua y la piel, la palpación abdominal y de los antebrazos, y el examen olfativo. Este enfoque permite diseñar tratamientos a medida que buscan restablecer el equilibrio global y no solo suprimir los síntomas.

Las aplicaciones clínicas del Kampo
El Kampo se emplea en un amplio abanico de patologías, muchas de ellas de difícil manejo con terapias convencionales. Entre sus campos de aplicación, destacan los trastornos gastrointestinales, las enfermedades de la piel y las patologías oculares. Formulaciones como saireito (que contiene 12 plantas, entre ellas, la raíz de Bupleurum chinense y el ginseng) o hangeshashinto, por ejemplo, se prescriben para inflamaciones intestinales y colitis, mientras que a preparaciones como tokishakuyakusan se le atribuye la capacidad de mejorar la circulación ocular en casos de glaucoma o en la recuperación posquirúrgica.
Según los practicantes de este tipo de medicina, el Kampo tambien ha mostrado eficacia en casos de dermatitis atópica y alergias cutáneas, asma y hepatitis crónica. Fórmulas como hainosankyuto han demostrado aumentar la resistencia frente a bacterias como el Streptococcus pyogenes, y en oncología, el Kampo se emplea para aliviar efectos adversos de la quimioterapia y la radioterapia. Los investigadores reportan una mejora en la energía, el apetito y el sueño de los pacientes.

Integración en el sistema médico japonés
Una de las particularidades de la implementación del Kampo en el Japón contemporáneo es que solo médicos con licencia para practicar medicina occidental pueden prescribirlo. Esto asegura que el tratamiento pueda combinarse de forma segura con la medicina moderna. Más del 70% de los médicos japoneses integra fórmulas Kampo en su práctica diaria, lo que convierte a Japón en un caso singular de coexistencia terapéutica. La disponibilidad de extractos granulados, listos para disolver, ha sustituido en gran parte a las decocciones y preparados elaborados con métodos tradicionales.
Además, el mercado japonés de medicamentos Kampo está estrictamente regulado. Son más de 15 las empresas que producen extractos Kampo siguiendo l as normativas de buenas prácticas de fabricación. Este control garantiza estándares de calidad y seguridad muy elevados.
Proyección internacional
En Occidente, el Kampo ha ganado visibilidad, sobre todo en Alemania y Estados Unidos. En este último, se están desarrollando ensayos clínicos a partir de algunos preparados y extractos japoneses que cumplen con las normasde buenas prácticas. Aunque su difusión es menor respecto a la medicina tradicional china, su enfoque centrado en el individuo y su sólida base regulatoria podrían favorecer su expansión global.

Retos y perspectivas futuras
La integración creciente del Kampo en la medicina moderna abre retos científicos y educativos. Es necesaria ampliar la investigación básica y clínica para explicar sus mecanismos desde la biomedicina y establecer protocolos estandarizados. Además, los expertos e investigadores han insistido en que la formación universitaria en Kampo en Japón debe fortalecerse con docentes expertos, capaces de enseñar tanto la teoría tradicional como la aplicación clínica contemporánea.
La OMS reconoce el valor de la medicina tradicional en la atención primaria. El Kampo, con su doble naturaleza de tradición adaptada y práctica moderna, se perfila como un modelo exportable para otros sistemas sanitarios que buscan integrar terapias complementarias con todas las garantías de seguridad.
Referencias
- Arumugam, Somasundaram y Kenichi Watanabe (eds.). 2017. Japanese Kampo Medicines for the Treatment of Common Diseases: Focus on Inflammation. Academic Press.
La memoria espacial —esa que nos permite recordar dónde dejamos las llaves o cómo volver a casa— siempre ha intrigado a los científicos. Se sabe que el hipocampo, una región profunda del cerebro, es fundamental en este proceso. Pero lo que aún estaba en debate era cómo las neuronas se coordinan para lograrlo.
El estudio —publicado en Nature Communications— analizó directamente la actividad de neuronas individuales en personas sometidas a registros intracraneales. Se observó que, durante las tareas de memoria espacial, muchas neuronas se alineaban con oscilaciones theta (entre 4 y 8 hercios), un tipo de ritmo cerebral muy presente en el hipocampo.
Esta alineación, conocida como theta-phase locking, no significa simplemente que las neuronas disparen impulsos eléctricos, sino que lo hagan en momentos específicos del ciclo theta. Es como si las neuronas tocaran notas en el instante justo de una melodía interna, reforzando así la memoria.

La importancia de las oscilaciones theta
Las oscilaciones cerebrales se pueden imaginar como ondas que organizan la comunicación neuronal. Entre ellas, las de frecuencia theta se han relacionado desde hace tiempo con el aprendizaje y la memoria. Sin embargo, hasta ahora se desconocía si neuronas individuales en el cerebro humano se ajustaban realmente a este ritmo durante la recuperación de recuerdos espaciales.
El estudio encontró pruebas claras: las neuronas se sincronizan con la fase de la onda theta de forma más marcada cuando la persona intenta recordar la posición de un objeto o un lugar previamente aprendido. Este patrón no aparece con la misma fuerza en momentos en que no se necesita recordar.
Esto sugiere que el cerebro utiliza las oscilaciones theta como una especie de marco temporal que organiza cuándo cada neurona debe activarse. De este modo, la información se procesa y almacena de manera más eficiente, como músicos que siguen el mismo metrónomo.
"Las células prefieren disparar en momentos específicos dentro de estas ondas cerebrales, un fenómeno conocido como bloqueo de fase theta", dijo el Dr. Tim Guth, autor del estudio, investigador postdoctoral de la Universidad de Bonn y parte del grupo de Neurociencia Cognitiva de la Universidad de Friburgo.
Cómo se midió la memoria en acción
Para descubrirlo, los investigadores trabajaron con pacientes que, por motivos clínicos, tenían electrodos implantados en el cerebro. Durante el experimento, los participantes realizaron tareas de memoria espacial, como recordar la posición de estímulos en una pantalla.
Mientras lo hacían, se registró la actividad de cientos de neuronas individuales. Los datos mostraron que, en las fases de mayor demanda de memoria, las neuronas se “enganchaban” al ritmo theta. En otras palabras, no disparaban de manera aleatoria, sino en momentos concretos de la onda cerebral.
Este hallazgo no solo confirma teorías previas sobre el papel de las oscilaciones, sino que lo hace con una precisión inédita: en cuanto a neuronas únicas. Es la primera vez que se observa en humanos de forma tan directa que la memoria depende de esta especie de “baile neuronal sincronizado”.

Un puente entre humanos y animales
Hasta ahora, gran parte de lo que se sabía sobre la relación entre oscilaciones theta y memoria provenía de experimentos en roedores. En ellos, el hipocampo mostraba un claro acoplamiento entre las neuronas y el ritmo theta durante la navegación espacial. Pero quedaba la duda de si el cerebro humano funcionaba igual.
Este estudio responde a esa incógnita: los humanos también muestran theta-phase locking en el hipocampo y en áreas relacionadas con la memoria espacial. Es decir, nuestro cerebro parece compartir con otros mamíferos un mismo mecanismo fundamental para organizar recuerdos.
La confirmación en humanos es clave, porque aporta evidencia de que los modelos animales no solo eran una aproximación, sino un reflejo real de cómo funciona nuestra propia memoria. Esto abre la puerta a aplicar lo aprendido en laboratorio al diseño de nuevas terapias y herramientas clínicas.
"Esto sugiere que el bloqueo de la fase theta es un fenómeno general del sistema de memoria humana, pero no solo determina el recuerdo exitoso", dijo el Dr. Lukas Kunz, autor del estudio, jefe del grupo de trabajo de Neurociencia Cognitiva y Traslacional en la Clínica de Epileptología del UKB y miembro del Área de Investigación Transdisciplinaria (TRA) "Vida y Salud" de la Universidad de Bonn.
Qué nos dice sobre la memoria y el olvido
El hallazgo también ayuda a entender por qué a veces recordamos y otras no. Si las neuronas se sincronizan correctamente con el ritmo theta, la memoria se activa y la información se recupera con éxito. Pero si esta sincronización falla, el recuerdo puede perderse o ser más difícil de acceder.
"Esto apoya la teoría de que nuestro cerebro puede separar los procesos de aprendizaje y recuperación dentro de una onda cerebral, similar a los miembros de una orquesta que comienzan a tocar en diferentes momentos en una pieza musical", dijo Guth.
Esto podría tener implicaciones en el estudio de trastornos como la enfermedad de Alzheimer o la epilepsia, en los que se sabe que las oscilaciones cerebrales se ven alteradas. Comprender la base rítmica de la memoria puede orientar nuevas estrategias para mejorar la función cognitiva en estos pacientes.
Además, el concepto de que la memoria depende de un “ritmo neuronal” sugiere que, en el futuro, podría ser posible estimular el cerebro con técnicas no invasivas —como la estimulación magnética o eléctrica— para reforzar esta sincronización y, con ello, la memoria.

Un futuro guiado por el ritmo cerebral
Aunque el estudio no propone aún aplicaciones inmediatas, ofrece una pista poderosa: la memoria no es solo una cuestión de qué neuronas se activan, sino también de cuándo lo hacen en relación con un compás cerebral. Esta dimensión temporal resulta esencial para entender cómo almacenamos y evocamos recuerdos.
El siguiente paso será comprobar si esta sincronización también se observa en otros tipos de memoria, más allá de la espacial, y si puede manipularse de manera segura para mejorar el rendimiento cognitivo. También será relevante explorar cómo cambia este mecanismo a lo largo de la vida, desde la infancia hasta la vejez.
En definitiva, este estudio nos recuerda que el cerebro funciona como una orquesta: cada neurona es un instrumento que puede tocar sola, pero solo cuando todas se coordinan siguiendo el ritmo theta surge la sinfonía de la memoria. Una melodía silenciosa que, sin saberlo, marca cada recuerdo que guardamos.
Referencias
- Guth, T.A., Brandt, A., Reinacher, P.C. et al. Theta-phase locking of single neurons during human spatial memory. Nat Commun. (2025). doi: 10.1038/s41467-025-62553-9
Durante millones de años, un rincón tropical del actual norte de Australia fue hogar de unas criaturas tan peculiares que, incluso hoy, resultan difíciles de clasificar. Tenían dientes con forma de martillo, eran del tamaño de un petauro del azúcar y, sorprendentemente, adoraban comer caracoles. Ahora, gracias a un nuevo estudio publicado en Historical Biology y liderado por investigadores de la Universidad de Nueva Gales del Sur (UNSW), se han identificado tres nuevas especies de estos enigmáticos marsupiales extintos que vivieron entre el Oligoceno tardío y el Mioceno temprano, hace entre 25 y 17 millones de años.
Estas criaturas forman parte de una familia poco conocida y fascinante: los malleodéctidos. Su nombre, derivado del latín, significa literalmente "dientes martillo", y no es una exageración. Sus premolares estaban altamente especializados para romper conchas duras, lo que indica que desarrollaron una dieta centrada en moluscos, algo prácticamente único entre los marsupiales conocidos.
Un pasado más diverso de lo que imaginábamos
El hallazgo no solo añade tres nuevas especies —Exosmachus robinbecki, Chitinodectes wessechresti y Protamalleus stevewroei— al escaso pero creciente árbol genealógico de Malleodectidae. También desplaza hacia atrás en el tiempo su origen y su diversidad. Hasta ahora, se pensaba que estos animales habían surgido más tarde, en un momento concreto de expansión de bosques tropicales. Pero este estudio demuestra que existieron al menos 10 millones de años antes de lo que se creía y que evolucionaron en una amplia gama de formas y estilos de vida.
Uno de los aspectos más interesantes del estudio es cómo estos marsupiales se fueron adaptando progresivamente al consumo de presas con caparazón. A través del análisis detallado de sus mandíbulas y dentaduras fósiles —recogidas en los depósitos de Riversleigh, una de las regiones paleontológicas más ricas del mundo—, los investigadores pudieron reconstruir la historia funcional de su evolución. Algunas de las nuevas especies parecen haber sido hipócarnívoras, es decir, no se alimentaban exclusivamente de carne, sino que complementaban su dieta con moluscos. Otras eran más generalistas, comparables en comportamiento a los actuales quoles o gatos marsupiales.

El estudio, que combinó técnicas de análisis morfológico, filogenético y funcional, ha permitido establecer relaciones más precisas entre los malleodéctidos y otros marsupiales carnívoros extintos, como Barinya o los antiguos tilacínidos.
Una fauna que recuerda a otro planeta
Hace 25 millones de años, el norte de Queensland no era el paisaje árido que hoy conocemos. En su lugar, predominaban los bosques húmedos, con una rica biodiversidad. Junto a estos marsupiales con dientes de martillo, convivían otros depredadores marsupiales: desde criaturas del tamaño de un gato —conocidas como “leones marsupiales”— hasta animales semejantes a los extintos tigres de Tasmania. La variedad de tamaños y estilos de vida de estos carnívoros indica un ecosistema extraordinariamente complejo y dinámico.
Los nuevos fósiles hallados son pequeños, con un peso estimado entre 110 y 250 gramos. A pesar de su tamaño reducido, jugaban un papel importante en la cadena alimentaria de su tiempo. Además, parecen haber ocupado nichos ecológicos hoy inexistentes en la fauna australiana. Por ejemplo, su especialización en caracoles no tiene equivalente moderno. Esta ausencia de especies actuales con dietas similares sugiere que parte de la diversidad funcional de los ecosistemas australianos se perdió con la extinción de estas especies.
Un rompecabezas paleontológico que apenas empieza
Los fósiles, hallados en yacimientos del Patrimonio Mundial de Riversleigh, muestran no solo dientes y mandíbulas, sino también evidencias de cómo se distribuían las fuerzas de mordida, la forma en que crecían los dientes y cómo se relacionaban con otras especies de su entorno. Los investigadores usaron métodos de modelado funcional y análisis estadístico para comparar estas criaturas con otros marsupiales tanto extintos como actuales.
Uno de los descubrimientos más intrigantes del estudio es que Protamalleus stevewroei representa la forma más primitiva conocida del grupo. Esto sugiere que los malleodéctidos no fueron una rama efímera y especializada de la evolución marsupial, sino una línea duradera y diversa que evolucionó durante al menos 15 millones de años.

El equipo científico destaca que la historia de la evolución de los marsupiales en Australia está aún lejos de ser comprendida completamente. Cada nueva especie descrita no solo amplía nuestro conocimiento del pasado, sino que obliga a replantearse ideas preconcebidas sobre cómo se formaron y diversificaron estos grupos animales.
Un tesoro oculto en los cajones
Según los autores del estudio, cada vez que revisan una colección fósil en los museos o laboratorios, nuevas especies salen a la luz. Este descubrimiento ha sido posible gracias a décadas de trabajo meticuloso, y es probable que aún haya muchas más sorpresas esperando en los depósitos de Riversleigh.
La investigación es un recordatorio del potencial que todavía tienen los fósiles australianos para revelar secretos ocultos de la evolución. Más allá de los dinosaurios y los mamíferos placentarios que suelen protagonizar los titulares, los marsupiales australianos representan una historia evolutiva paralela y no menos fascinante.
Con estos nuevos hallazgos, el rompecabezas de la evolución marsupial comienza a tomar forma… aunque es evidente que muchas piezas aún faltan por encontrar.
El estudio ha sido publicado en Historical Biology.
En el mundo romano, la muerte era un hecho omnipresente y, al mismo tiempo, una experiencia cuyo dramatismo de veía matizado por la edad, el género, la condición social y las expectativas de vida. Entre las múltiples formas de nombrar y representar el final de la existencia, entre los romanos destacó la noción de mors acerba, la muerte que ocurría antes de tiempo, en una edad temprana de la vida. A través de la literatura, las inscripciones funerarias y otros testimonios históricos, es posible reconstruir cómo se conceptualizaba la muerte infantil y juvenil, y cómo se vivían el luto y el duelo en un contexto en el que la mortalidad temprana era frecuente. Este recorrido muestra que la amargura de la muerte temprana derivaba, sobre todo, por las expectativas truncadas de quienes perdían la vida antes de llegar a la edad adulta.
La metáfora del fruto verde: la vida truncada antes de madurar
Desde la antigüedad, los autores latinos emplearon la comparación entre el ser humano y el fruto del árbol para reflexionar sobre la vida. Así, mientras que los frutos maduros caen de forma natural, los verdes requieren un acto de fuerza para ser arrancados. Cicerón y otros escritores usaron esta imagen para expresar que la muerte de los jóvenes era equiparable a un desgarro violento y antinatural, frente a la aceptación de la muerte que llegaba con la vejez.
El adjetivo acerbus, que, en origen, describía el sabor agrio del fruto inmaduro, pasó a designar lo cruel, lo doloroso e intempestivo. Aplicado a la muerte, evocaba no solo la prematuridad del final, sino también la pérdida de oportunidades, la frustración de los planes futuros y la intensidad del sufrimiento de aquellos que sobrevivían al infante fallecido.
En la literatura romana, desde Plauto hasta Virgilio, pasando por Ovidio, Séneca y Quintiliano, acerbus aparece vinculado tanto a la experiencia de quien muere como a la de quienes lo lloran. La muerte podía ser amarga porque arrebataba una vida prometedora, porque había sido dolorosa en lo físico o porque dejaba a los vivos sumidos en un pesar desgarrador. La amargura, desde este punto de vista, aludía tanto al difunto como al vínculo emocional roto.

Mors acerba en los epitafios: la voz de quienes sobreviven
Aunque, en proporción, no sean numerosos, los epitafios latinos que incluyen el término acerbus ofrecen un acceso directo a las expresiones de dolor por la muerte prematura. La mayor parte de ellos procede de la península itálica de los siglos I y II d.C. Las inscripciones, además, aparecen en una amplia gama de soportes, desde urnas cinerarias hasta sarcófagos.
En la epigrafía latina, acerbus se asocia sobre todo a mors (muerte) y funus (funeral), pero también a expresiones como dies acerba o fatum acerbum, fórmulas que refuerzan la idea de un destino que truncó la vida demasiado pronto. Los epitafios transmiten que la amargura no solo recaía sobre el difunto, sino también sobre los padres, los cónyuges o los amigos que conmemoraban la pérdida. Así, las inscripciones mencionan las "lágrimas amargas" (lacrimae acerbae), las "quejas amargas" (acerbae querimoniae) y los "lutos muy acerbos" (acerbissimus luctus).
En algunos casos, el epitafio deja constancia de que el fallecido “no causó amargura en vida, salvo con su muerte”, una forma poética de subrayar la bondad del difunto y la injusticia de su pérdida. En otros, la metáfora del fruto se menciona de forma explícita, como en la inscripción dedicada por Domitias Tatias a su hija, que compara su muerte con la caída súbita de una manzana aún verde.

Quiénes eran los muertos acerbos
La aplicación de acerbus a una determinada muerte implicaba, más que un criterio de edad rígido, una cuestión de percepción. En la literatura, se usaba con más frecuencia para referirse a los varones adultos jóvenes, situados en el umbral de sus carreras, matrimonios o vidas públicas, que a los niños pequeños.
Sin embargo, en las inscripciones fúnebres, el término se aplica con frecuencia a los adolescentes, los niños e incluso los lactantes. Esto refleja una sensibilidad diferente en los contextos familiares y domésticos respecto a aquellos de elite. De entre los epitafios que especifican la edad, la mayoría corresponden a personas de entre 5 y 24 años, aunque no faltan ejemplos de bebés fallecidos antes de cumplir un año.

El posible funus acerbum: funerales distintos para muertes tempranas
La expresión funus acerbum (funeral acerbo) plantea la cuestión de si existió un tipo de funeral específico para enterrar a los fallecidos de forma prematura. El comentarista tardoantiguo Servio decía de estos funerales que eran nocturnos y que se realizaba a la luz de las antorchas. Según esta fuente, se realizaba especialmente en el caso de hijos bajo la potestas paterna o de vástagos de los magistrados, con el fin de evitar la contaminación ritual de la casa. Otros autores antiguos, como Séneca o Tácito, también vinculan la muerte temprana con la celebración de funerales rápidos o discretos.
No obstante, tal interpretación no está libre de polémica. Algunos especialistas consideran que los funerales de los niños pudieron carecer de determinados elementos presentes en las ceremonias fúnebres de los adultas, como la oratio fúnebre en el foro o largos periodos de duelo femenino. Una inscripción del siglo I a.C. procedente de Puteoli, por ejemplo, confirma que los funera acerba tenían prioridad para acceder a los servicios funerarios públicos. Esto podría indicar, quizás, un reconocimiento especial más que un desprecio.

El luto y el duelo: entre el dolor privado y la ceremonia pública
El estudio de la muerte prematura en Roma muestra la importancia de diferenciar entre el duelo emocional, por un lado, y el luto ritual y público, por otro. El dolor de los padres podía ser intenso incluso cuando las normas reducían o limitaban las manifestaciones públicas de duelo, sobre todo en el caso de niños de corta edad, para los que las leyes romanas establecían tiempos de luto más breves o casi inexistentes. Las fuentes jurídicas y literarias pueden transmitir la impresión de que las muertes infantiles se trataban con cierta frialdad. Los epitafios y otros testimonios arqueológicos, sin embargo, desmienten esa idea: revelan expresiones de un duelo íntimo y sincero que no siempre resultaba visible en la esfera pública.
Memoria, consuelo y persistencia de la “muerte amarga”
La mors acerba funcionaba como una categoría cultural que legitimaba la expresión de dolor y, a la vez, ofrecía un marco para aceptar la muerte de los más jóvenes. Algunos epitafios intentaban consolar a los supervivientes recordando que incluso los hijos de los reyes y poderosos morían jóvenes, o que la muerte era universal. Sin embargo, la mayoría de las inscripciones fúnebres subraya la singularidad y la intensidad de la pérdida. En este sentido, la “muerte amarga” se convirtió en un patrón de medida del dolor, frente al cual otras pérdidas podían parecer menores.
La categoría misma de la muerte acerba reforzaba la percepción de que estos fallecimientos eran emocionalmente devastadores. En última instancia, llorar a quienes morían jóvenes era, para los romanos, un acto de amor y de memoria, que podía manifestarse tanto en lágrimas silenciosas como en epitafios poéticos o funerales singulares.
Referencias
- Hope, Valerie M. 2025. "The bitter taste of death: mourning for the young in ancient Rome", en Karolina Sekita, y Katherine E. Southwood(eds.), Death Imagined: Ancient Perceptions of Death and Dying, pp. 119-142. Liverpool University Press, 2025.
En las tranquilas montañas Świętokrzyskie, en el corazón de Polonia, un grupo de científicos acaba de destapar un capítulo fascinante de la historia de la vida en la Tierra. Lo que a simple vista parecía una colección de marcas extrañas en la roca resultó ser un conjunto de huellas fósiles con una historia que desafía lo que creíamos saber sobre la conquista de la tierra firme por parte de los vertebrados.
Publicado recientemente en la revista Scientific Reports, el estudio liderado por investigadores del Instituto Geológico Nacional de Polonia documenta las huellas más antiguas conocidas de peces que comenzaron a arrastrarse fuera del agua. Estas marcas, dejadas hace aproximadamente 400 millones de años por peces pulmonados en los sedimentos costeros del Devónico inferior, podrían representar el primer intento documentado de un vertebrado por moverse en tierra firme. Y lo más sorprendente: estas huellas anteceden en unos 10 millones de años a los primeros rastros conocidos de los tetrápodos, los vertebrados de cuatro patas que acabarían colonizando el planeta.
Las huellas que lo cambiaron todo
El descubrimiento tuvo lugar en dos antiguos yacimientos de arenisca, ya abandonados, en Ujazd y Kopiec, al sur de Varsovia. En estas rocas, formadas en ambientes marinos marginales, los investigadores identificaron una superficie de más de 45 metros cuadrados plagada de impresiones fosilizadas: surcos alargados, marcas en forma de coma y extrañas depresiones bilobuladas. Todo indicaba que algo había estado arrastrándose sobre ese terreno húmedo hace cientos de millones de años.
La clave estuvo en la comparación con las huellas que hoy dejan los peces pulmonados modernos, como Protopterus annectens, un curioso pez africano que puede respirar aire y moverse por tierra firme en busca de agua durante las sequías. Mediante escaneos 3D y experimentos en laboratorio, los científicos descubrieron que las huellas fósiles coincidían notablemente con las que deja este pez cuando se arrastra por superficies húmedas.

El conjunto principal de huellas recibió el nombre científico de Reptanichnus acutori, y refleja una locomoción terrestre sorprendentemente compleja. El pez arrastraba el cuerpo mientras se impulsaba con la boca, que utilizaba como punto de anclaje en el sedimento. Las aletas dejaban marcas paralelas a ambos lados del cuerpo, lo que sugiere un movimiento coordinado más cercano al “gateo” que a un mero deslizamiento azaroso.
Junto a estas huellas de locomoción, se identificó otro tipo de marca, bautizada como Broomichnium ujazdensis, que representa a peces en reposo, apoyados sobre una o dos parejas de aletas. Estas impresiones muestran que no solo se desplazaban por tierra, sino que también descansaban fuera del agua, un comportamiento que no se había documentado en fósiles de esta antigüedad.
Una vida entre dos mundos
Este hallazgo sitúa a los peces pulmonados como pioneros en el difícil tránsito del mar a la tierra, adelantándose al linaje de los tetrápodos. Si bien estos peces no forman parte directa de la línea evolutiva que llevó a los humanos y otros animales terrestres, sí muestran que la adaptación a ambientes semiterrestres ocurrió en más de un grupo de vertebrados. No fueron intentos aislados, sino parte de un proceso evolutivo mucho más amplio y complejo de lo que se pensaba.
Los investigadores destacan que los peces no se lanzaron a tierra firme por azar. Era una estrategia adaptativa: salir del agua durante la marea baja les permitía explorar nuevos territorios, evitar depredadores o alimentarse de invertebrados que quedaban atrapados en el lodo. Era una ventaja evolutiva, una forma de ampliar el hábitat sin abandonar por completo el medio acuático.
Uno de los datos más curiosos del estudio es la posible existencia de lateralidad —o "preferencia manual"— en estos antiguos peces. De los más de 240 rastros analizados, 36 mostraban marcas torcidas hacia un lado, y 35 de ellas giraban hacia la izquierda. Este patrón, estadísticamente significativo, podría ser la evidencia más antigua de lateralidad en vertebrados. En otras palabras, estos peces eran “zurdos”.
La lateralidad es común hoy en día, no solo en los humanos, sino también en otras especies de vertebrados. Sin embargo, encontrarla en un pez del Devónico añade una capa inesperada de complejidad al comportamiento de nuestros antiguos ancestros acuáticos.

Un fósil que reabre el debate
Este descubrimiento también reaviva la discusión sobre otros rastros fósiles encontrados en el yacimiento de Zachełmie, también en Polonia, que durante años se consideraron los más antiguos testimonios de locomoción terrestre de tetrápodos. Con el nuevo estudio, los científicos argumentan que algunos de estos rastros podrían haber sido creados por peces como los dipnoos, y no por verdaderos animales de cuatro patas.
Además, el excelente estado de conservación de las huellas —protegidas durante millones de años bajo una fina capa de ceniza volcánica solidificada— ha permitido documentar con un detalle sin precedentes las primeras tentativas de locomoción terrestre. Este tipo de yacimientos, denominados “substratos verdaderos”, son extremadamente raros y valiosos, ya que muestran la interacción directa entre un organismo y su entorno en un momento específico.
Un nuevo capítulo de la evolución
Este hallazgo en las montañas polacas no solo retrasa la línea de tiempo de la colonización terrestre por parte de los vertebrados, sino que también sugiere que dicha transición fue más diversa y experimental de lo que creíamos. Diferentes linajes de peces habrían probado suerte en tierra firme antes de que los tetrápodos se impusieran.
Aunque aquellos antiguos dipnoos no dejaron descendientes terrestres, sí nos muestran que el impulso de explorar, adaptarse y conquistar nuevos hábitats ha estado presente en la historia de la vida desde mucho antes de que los primeros anfibios comenzaran a andar.
En palabras de los investigadores, este tipo de estudios nos obliga a replantear el relato clásico de la evolución. No se trató de un único momento de conquista, sino de un proceso largo, tortuoso, con múltiples protagonistas y muchos fracasos olvidados por el tiempo. Y quizás eso sea lo más fascinante de todo: que la historia de la vida en la Tierra sigue llena de sorpresas, aún por descubrir, justo bajo nuestros pies.
El estudio ha sido publicado en la revista Scientific Reports.
A los matemáticos nos gusta decir que las matemáticas son las que nos ayudan a descifrar el universo que nos rodea. Y esta idea no es nueva, sino que ha sido una constante a lo largo de la historia de la humanidad. El primer apologista de las matemáticas es sin duda Platón (el de los hombros anchos, que eso significa su nombre). Platón considera al demiurgo como el artesano que construye el universo. El demiurgo parte del caos y lo ordena para construir el mundo, así como un artesano crea una vasija a partir de un montón de barro. El demiurgo, pues, construye una copia del mundo ideal, copia esta basada en los elementos esenciales: el fuego, la tierra, el agua y el aire. Y estos elementos se relacionan con los llamados sólidos platónicos.
Platón y los sólidos que explican el mundo
Los sólidos regulares (platónicos o pitagóricos, que así son también denominados) son poliedros convexos cuyas caras son polígonos regulares iguales entre sí y cuyos ángulos sólidos son iguales. Solo existen cinco sólidos regulares: el tetraedro, el cubo (o hexaedro regular), el octaedro, el dodecaedro y el icosaedro. Y esto es así como una consecuencia de una de las maravillosas fórmulas que Leonard Euler legó a la humanidad, la de:
Caras+Vértices = Aristas + 2
En el diálogo Timeo (350 a.C.), Platón afirma: «El fuego está formado por tetraedros; el aire, de octaedros; el agua, de icosaedros; la tierra de cubos; y como aún es posible una quinta forma, Dios ha utilizado esta, el dodecaedro pentagonal, para que sirva de límite al mundo». Es decir, asocia a cada elemento primordial un sólido regular, reservando el dodecaedro para aquello que no es perteneciente a nuestro planeta, la quintaesencia, el quinto elemento.
Platón concluye que, en consecuencia, el elemento esencial del mundo son los triángulos. Y no cualesquiera triángulos, sino los rectángulos isósceles y los rectángulos escalenos donde la hipotenusa es el doble del cateto más pequeño. Y esto es así porque las caras de un tetraedro, un octaedro y un icosaedro son triángulos equiláteros que se pueden dividir en dos triángulos rectángulos, y las del cubo son cuadrados que se pueden también dividir en dos triángulos rectángulos. Es decir, el mundo está hecho a base de una escuadra y un cartabón, lo que enlaza con la tradición masónica. El lector no debe olvidar que Platón defendía fundamentalmente la geometría, y en la entrada de su Academia figuraba la leyenda: «No entre aquí quien no sepa geometría».

Galileo: el universo escrito en matemáticas
Un paso más en esta visión geométrica del mundo lo da Galileo Galilei. En su obra Il Saggiatori, publicada en 1623, decía: «La filosofía está escrita en este vasto libro que continuamente se ofrece a nuestros ojos (me refiero al universo), el cual, sin embargo, no se puede entender si no se ha aprendido a comprender su lengua y a conocer el alfabeto en que está escrito. Y está escrito en el lenguaje de las matemáticas, siendo sus caracteres triángulos, círculos y otras figuras geométricas, sin las cuales es imposible entender una sola palabra; sin ellos solo se conseguiría vagar por oscuros laberintos».
Galileo Galilei ya habla de una geometría más compleja donde no solo están presentes los triángulos. Y debemos remontarnos a 1959 para encontrar otro elemento importante de nuestro relato. En ese año, el físico Eugene Wigner, Premio Nobel en 1964, impartió una conferencia en la Universidad de Nueva York, que apareció publicada al año siguiente en un artículo con el mismo título: The unreasonable effectiveness of mathematics in the natural sciences (La irrazonable eficacia de la matemática en las ciencias naturales) en la revista Communications on Pure and Applied Mathematics.
Wigner y la eficacia “milagrosa” de las matemáticas
En su artículo, Wigner recuerda cómo los conceptos matemáticos tienen una aplicabilidad que va mucho más allá del contexto en el que se desarrollaron originalmente, que podría haber sido un puro interés matemático. El ejemplo que usa es la ley fundamental de la gravitación, que más allá de los experimentos de Galileo Galilei, sirvió, con poca experimentación, para describir los movimientos planetarios (no se pueden hacer experimentos con los planetas), gracias a los trabajos de Johannes Kepler y Sir Isaac Newton. Wigner concluye en su artículo que «la enorme utilidad de las matemáticas en las ciencias naturales es algo que roza el misterio y que no tiene una explicación racional».
Aún más, afirma: «El milagro de la idoneidad del lenguaje matemático para la formulación de las leyes de la física es un regalo maravilloso que no entendemos ni merecemos. Debemos estar agradecidos por ello y esperar que siga siendo válido en las investigaciones futuras y que se extienda, para bien o para mal, para nuestro placer, aunque quizás también para nuestro desconcierto, a amplias ramas del saber».
Este artículo abrió un amplio debate que dura hasta nuestros días sobre las relaciones entre la Física y las matemáticas. Incluso, el gran matemático Israel Gelfand, fue más lejos cuando afirmó con ironía: «Solo hay una cosa más irracional que la irracional eficacia de las matemáticas en la física, y es la irracional ineficacia de las matemáticas en la biología».
Lo cierto es que, no tenía mucha razón Gelfand, ya que hoy en día no se puede comprender la biología sin las matemáticas, modelos SIR, teoría de nudos y proteínas, ecología y grafos, etc.
Pero a pesar de todas estas aplicaciones, las matemáticas tienen límites, y son los propios matemáticos los que los han identificado y, en algunos casos, roto; en otros, han conducido a una convivencia pacífica y obligada con los mismos.
El infinito y más allá
Uno de los conceptos más elusivos en matemáticas es el del infinito. Podemos pensar en números grandes, y algunos se han inventado hasta nombres muy interesantes. Los niños juegan a esto y dicen «pues yo, infinito más uno», pero no saben que eso sigue siendo infinito.
El hombre que nos abrió este mundo a los matemáticos y por ende a todos los humanos fue Georg Ferdinand Ludwig Philipp Cantor. Matemático de ascendencia danesa-alemana, aunque nació en San Petersburgo, el 3 de marzo de 1845. Sin duda, Cantor fue uno de los matemáticos más geniales del siglo xix y comienzos del xx, al que le debemos la creación de los fundamentos modernos de las matemáticas.
Cantor estudió matemáticas en Zürich, y se trasladó después a la Universidad de Berlín, donde tuvo profesores de la talla de Ernst Kummer, Karl Weierstrass y Leopold Kronecker. Con 27 años se convirtió en catedrático de la Universidad de Halle. Entre 1874 y 1884, Cantor trabajó sobre la teoría de conjuntos. Hasta entonces, no había una teoría formal, y el concepto de infinito era una noción más filosófica que matemática.

Cantor y el infinito
Cantor probó que había diferentes tipos de conjuntos infinitos: por ejemplo, el de los números naturales (el aleph 0) era diferente al de los números reales (el continuo). La manera de distinguirlos fue con el concepto de cardinal. Los conjuntos pueden ser finitos o infinitos, y estos últimos numerables (su cardinal o número de elementos es el de los naturales) o no numerables (en caso contrario). Por ejemplo, el conjunto de los números pares es numerable (se puede establecer una correspondencia uno a uno con los naturales, simplemente considerando el doble de cada número natural). Y lo mismo ocurre, aunque nos sorprenda, con los números racionales (las fracciones). Pero ya no pasa así con los irracionales (los no racionales) y con todos los números reales (racionales e irracionales).
Entre los irracionales, podemos distinguir entre los algebraicos (aquellos que se obtienen como una solución de una ecuación algebraica, como ocurre con el número áureo), y trascendentes, cuando no, como el número π o el número e. Cantor fue mucho más allá. Construyó toda una aritmética de números infinitos, que llamó transfinitos.
Estos números seguían unas reglas similares a las de los números naturales. Uno de sus logros fue probar que había el mismo número de puntos en un segmento que en un cuadrado o en cubo construidos con ese segmento. Cantor le escribió a Dedekind: «Lo veo, pero no me lo creo». Este logro llevó a David Hilbert a comentar en una conferencia en Münster a la Sociedad Matemática Alemana el 4 de junio de 1925 lo siguiente: «Nadie será capaz de expulsarnos del paraíso que Cantor creó para nosotros».
Las reacciones
Las reacciones a los resultados de Cantor fueron violentas. El propio Leopold Kronecker (su director de tesis) llegó a decir de Cantor que era «un charlatán, un renegado y un corruptor de la juventud», como si se tratara de un nuevo Sócrates. El mismo Wittgenstein lamentó que las matemáticas se vieran dirigidas por «el pernicioso idioma de la teoría de conjuntos». Pero a la vez, muchos de sus colegas le demostraron una admiración sin límites, especialmente tras su conferencia en el primer Congreso Internacional de Matemáticos, celebrado en Zürich en 1897.
Las ideas de Cantor fueron vistas por algunos intelectuales de la época como un desafío a la infinitud de Dios, y fue acusado de panteísmo, él, que era un devoto luterano. Su visión teológica se confundía con la matemática, y creía que esos resultados eran inspirados en su mente por el propio Dios.
No es de extrañar que Cantor sufriera depresiones muy fuertes a lo largo de su vida, con varios internamientos en hospitales psiquiátricos. Finalmente, falleció el 6 de enero de 1918, en el sanatorio donde había pasado su último año de un ataque al corazón. Durante la Primera Gran Guerra sus condiciones de vida habían sido muy precarias.
Pero sí hay límites …
Sin embargo, las matemáticas sí tienen límites. Uno de los logros de Cantor fue probar que el cardinal del conjunto de partes de un conjunto era estrictamente mayor que el del conjunto dado, algo evidente en conjuntos finitos, pero no tanto en los infinitos. Esto le llevó a formular lo que se llama la …«hipótesis del continuo»: no hay ningún número entre aleph 0 (representado por el símbolo ℵ₀ ) y el continuo (que es la cantidad de números reales), o dicho con más rigor, el aleph siguiente al aleph 0, el aleph 1 ( ℵ₁) es igual al continuo. David Hilbert propuso esto como uno de los 23 problemas que expuso en su célebre conferencia en el Congreso Internacional de Matemáticos de París en 1900.
La hipótesis del continuo llevó a Kurt Gödel en 1940 a probar que había proposiciones que no se podían probar o negar en términos de la aritmética (el famoso teorema de incompletitud).
Kurt Friedrich Gödel fue un matemático alemán que trabajó sobre los fundamentos de las matemáticas, cerrando un debate terrible sobre este tema que motivó a matemáticos y filósofos como Bertrand Russell, Alfred North Whitehead, David Hilbert, Richard Dedekind, Georg Cantor y Gottlob Frege.

Gödel y los teoremas de incompletitud
El gran descubrimiento de Gödel fueron los llamados teoremas de incompletitud en 1929, que eran parte de su disertación para obtener un doctorado en la Universidad de Viena. El primer teorema de incompletitud afirma que para cualquier sistema axiomático consistente lo suficientemente potente como para describir la aritmética de los números naturales (por ejemplo, la aritmética de Peano), existen proposiciones verdaderas sobre los números naturales que no pueden probarse ni refutarse a partir de los axiomas. Para demostrarlo, Gödel desarrolló una técnica ahora conocida como numeración de Gödel, que codifica expresiones formales como números naturales. El segundo teorema de incompletitud, que se deriva del primero, establece que el sistema no puede probar su propia consistencia.
Estos resultados echaron por tierra las pretensiones de David Hilbert, que había propuesto en su famosa conferencia de 1900 en el Congreso Internacional de Matemáticos de París probar la consistencia de las matemáticas. Como ironía del destino, Gödel anunció sus resultados cuando Hilbert había manifestado públicamente su credo de «Debemos saber y sabremos».
Gödel también demostró que ni el axioma de elección ni la hipótesis del continuo pueden refutar la teoría de conjuntos aceptada de Zermelo-Fraenkel, suponiendo que sus axiomas sean consistentes. El primer resultado abrió la puerta para que los matemáticos asumieran el axioma de elección en sus demostraciones.
¿Existen límites externos?
Un matemático de la talla de John von Neumann dijo sobre estos logros de Gödel: «El logro de Kurt Gödel en la lógica moderna es singular y monumental; de hecho, es más que un monumento, es un hito que seguirá siendo visible en el espacio y el tiempo (...) El tema de la lógica ciertamente cambió completamente su naturaleza y sus posibilidades con el logro de Gödel».
En 1963, Paul Cohen volvió sobre el tema del continuo y encontró que la aritmética era consistente tanto si admitimos la hipótesis del continuo como si no (y recibió una medalla Fields por ello).
Teniendo en cuenta todo lo expuesto, ¿Existen límites externos? Si creemos como decía Wigner que las matemáticas se adelantan muchas veces a los fenómenos que ayudan a describir, ¿qué podríamos decir de la construcción de los números transfinitos de Georg Cantor? De ese paraíso que él creó, nadie podrá expulsarnos (Hilbert dixit), pero la pregunta es, ¿dónde está el correlato físico?
La historia de la informática tiene episodios que despiertan cierta nostalgia. A mediados de los años noventa, las tiendas de informática ofrecían la posibilidad de armar ordenadores clónicos por piezas, eligiendo la placa base, el procesador, la memoria RAM o la tarjeta gráfica según las necesidades de cada usuario. Aquella práctica se convirtió en un fenómeno: permitía actualizar el sistema cambiando un componente defectuoso o añadir más potencia sin necesidad de empezar de cero. Hoy, esa misma filosofía de construcción modular podría estar abriendo las puertas a la siguiente gran revolución tecnológica: la computación cuántica.
Un equipo de la Universidad de Illinois Urbana-Champaign ha presentado un trabajo pionero que propone diseñar ordenadores cuánticos modulares, capaces de conectarse como piezas intercambiables. En lugar de construir enormes procesadores de un solo bloque, la investigación muestra cómo módulos de cúbits superconductores pueden unirse mediante cables desmontables, logrando transmitir información cuántica con una precisión inédita. El estudio, publicado en Nature Electronics, marca un paso decisivo hacia la creación de ordenadores cuánticos escalables y reconfigurables.
El reto de la escalabilidad cuántica
Uno de los grandes obstáculos en este campo es cómo pasar de pequeños prototipos a sistemas con millones de cúbits, suficientes para realizar cálculos útiles en criptografía, simulación de materiales o inteligencia artificial. Los diseños monolíticos, fabricados en un solo chip, resultan difíciles de ampliar y tienden a degradar la fidelidad de las operaciones a medida que aumenta el número de cúbits.
Los autores del trabajo explican que “la arquitectura modular permite superar este desafío mediante un ensamblaje tipo Lego, reconfiguración y expansión, en un espíritu similar al de los ordenadores clásicos modernos”. La comparación no es gratuita: igual que los clónicos de los años noventa podían adaptarse a cada necesidad, un ordenador cuántico modular podría crecer añadiendo unidades previamente probadas, optimizando el rendimiento sin sacrificar calidad.
La propuesta se basa en un principio sencillo pero poderoso: intercambiabilidad. Cada módulo contiene sus propios cúbits superconductores y puede conectarse a otro mediante un cable coaxial desmontable. Ese cable actúa como un “bus cuántico” que permite transferir excitaciones y generar entrelazamiento entre los cúbits de diferentes módulos. La clave está en lograr que esta conexión mantenga la fidelidad al nivel exigido por la corrección de errores cuánticos.

Un enlace desmontable con menos del 1 % de pérdida
El equipo liderado por Michael Mollenhauer y Wolfgang Pfaff diseñó un interconector que combina un cable coaxial superconductor con un esquema de bombeo rápido. Gracias a esta técnica, pudieron realizar puertas SWAP entre cúbits en menos de 100 nanosegundos con apenas un 1 % de error. En palabras del artículo: “hemos demostrado puertas SWAP entre módulos con un 1 % de pérdida en menos de 100 ns”.
Este resultado es especialmente relevante porque se sitúa justo en el umbral necesario para considerar una arquitectura como tolerante a fallos. En computación cuántica, alcanzar un error de aproximadamente el 1 % por operación es el requisito mínimo para que los códigos de corrección de errores funcionen de manera eficaz. Hasta ahora, la mayoría de intentos de conectar módulos había sufrido pérdidas muy superiores, en torno al 15 %.
Los investigadores también comprobaron que podían entrelazar cúbits de diferentes módulos con una fidelidad del 97,4 %, lo que representa un nivel comparable al de las operaciones dentro de un mismo chip. Esto significa que, en términos prácticos, la distancia física entre módulos deja de ser una limitación insalvable. El sistema, además, es reconfigurable: el cable puede desmontarse y volver a conectarse sin que el rendimiento se degrade de forma irreversible.
La lógica de los clónicos aplicada a la era cuántica
En la informática doméstica de los años noventa, la modularidad supuso una auténtica revolución. Un PC clónico podía adaptarse a distintos bolsillos y necesidades, permitiendo que los usuarios más avanzados personalizaran su máquina pieza a pieza. En cierto modo, la propuesta del equipo de Illinois busca lo mismo para la computación cuántica: máquinas flexibles, actualizables y escalables que no dependan de un único bloque cerrado.
Pfaff lo explica con claridad en la propia investigación: la idea es poder construir un sistema que se pueda montar, desmontar y volver a montar, manteniendo al mismo tiempo operaciones de muy alta calidad. Esto permite probar componentes de manera independiente, detectar fallos antes de integrarlos y realizar sustituciones sin perder todo el trabajo previo. Es, esencialmente, la filosofía de los ordenadores clónicos trasladada al terreno cuántico.
El paralelismo va aún más lejos. Igual que en los años noventa las tarjetas gráficas o los discos duros variaban en calidad y era posible elegir las piezas más fiables, los módulos cuánticos podrán fabricarse, testarse individualmente y conectarse solo si cumplen estándares de fidelidad. De este modo, el rendimiento global de la máquina no dependerá de que todos los componentes sean perfectos, sino de la capacidad de integrarlos de forma eficiente.

Cúbits, fidelidad y puertas cuánticas
Para comprender la importancia de este logro conviene detenerse en algunos conceptos clave. Los cúbits son las unidades básicas de información cuántica. A diferencia de los bits clásicos, que solo pueden valer 0 o 1, un cúbit puede estar en una superposición de ambos estados. Esto abre la puerta a cálculos mucho más potentes, pero también introduce gran fragilidad: cualquier mínima perturbación puede provocar errores.
Por eso, los investigadores miden continuamente la fidelidad de las operaciones. Una fidelidad del 100 % implicaría cero errores, un ideal todavía inalcanzable. En la práctica, se busca superar el 99 % para que la corrección de errores haga viable el sistema. El equipo de Illinois alcanzó una fidelidad del 99 % en las puertas SWAP entre módulos, un valor que coloca a su propuesta en la frontera de lo posible.
Además de las puertas SWAP, los científicos mostraron que podían generar entrelazamiento cuántico entre cúbits situados en módulos distintos, un requisito esencial para construir redes cuánticas distribuidas. Tal como señala el paper, “este esquema permite la generación de entrelazamiento de alta fidelidad y la operación de un cúbit lógico distribuido”. Esto significa que, en el futuro, varias unidades modulares podrían trabajar juntas como un único procesador lógico.
Perspectivas de futuro
Aunque los resultados son prometedores, todavía quedan retos importantes. Los propios autores reconocen que el diseño mecánico del conector debe mejorar para reducir el impacto sobre la coherencia de los cúbits. En las pruebas realizadas, los tiempos de coherencia —la duración durante la cual un cúbit mantiene su estado cuántico— fueron algo inferiores a los habituales en dispositivos sin cables desmontables. Aun así, la repetibilidad de los experimentos demostró que el sistema es robusto y que las conexiones pueden montarse y desmontarse múltiples veces manteniendo buen rendimiento.
El potencial de esta arquitectura va más allá de los transmones, el tipo de cúbit utilizado en este estudio. Según el artículo, “nuestro interconector no requiere elementos de circuito adicionales más allá de la no linealidad intrínseca de los cúbits, lo que lo hace aplicable también a otros tipos”. Esto significa que la propuesta podría extenderse a tecnologías emergentes como los cúbits fluxonium o incluso a sistemas híbridos que combinen distintos tipos de dispositivos cuánticos.
En el futuro inmediato, los investigadores planean conectar más de dos módulos manteniendo la capacidad de verificar errores y de reconfigurar la red. El objetivo es construir procesadores distribuidos que, como aquellos ordenadores clónicos, puedan ampliarse pieza a pieza hasta alcanzar una potencia inalcanzable para los diseños monolíticos.
Referencias
- Mollenhauer, M., Irfan, A., Cao, X. et al. A high-efficiency elementary network of interchangeable superconducting qubit devices. Nature Electronics 8, 610–619 (2025). https://doi.org/10.1038/s41928-025-01404-3.
Es impresionante pensar que cada vez que en un quirófano un bisturí corta la piel de un paciente, estamos al final de un proceso histórico que se remonta a la prehistoria. Y es que hace miles de años, los seres humanos se atrevieron a intervenir sobre el cuerpo humano en busca de curación. Era la medicina antes de la medicina, en la que el conocimiento sanador se mezclaba con ritos, tabúes y creencias que constituían una forma de ver el mundo que ya no recordamos. La arqueología ha desenterrado por todo el mundo cráneos con orificios que muestran signos de supervivencia, amputaciones exitosas y evidencias de tratamientos con plantas medicinales incluso en neandertales, hace más de 40 000 años, que demuestra un conocimiento de las prácticas quirúrgicas y las propiedades medicinales de ciertas sustancias que nos hace reflexionar sobre las sociedades del pasado.
¿Cómo sabían nuestros ancestros cómo actuar sin entender del todo el funcionamiento del cuerpo humano? ¿Qué motivó los primeros intentos quirúrgicos: la sanación, los ritos o una mezcla de ambas que hoy se nos antoja difícil de comprender? Y, sobre todo, ¿qué nos dice sobre nosotros mismos estas prácticas?
La Paleopatología, ciencia que busca entender la interacción entre la vida y la enfermedad en el pasado, explora a través de los restos arqueológicos cómo nos hemos enfrentado en la historia a dolencias o traumatismos. En este artículo, os invitamos a recorrer un viaje de miles de años de la mano de evidencias paleopatológicas que nos ayudan a comprender cómo hemos intervenido en nuestros cuerpos con el objetivo de sanar desde la Prehistoria. Un viaje arqueológico en el que la incorporación de otras ciencias del ámbito médico nos brinda la oportunidad de escribir la biografía más antigua de las prácticas médicas.
¿Existe la primera cirugía?
Es lícito preguntarnos sobre las primeras veces de cualquier cosa en la historia de la humanidad, ya que situar cronológicamente el inicio de un comportamiento aporta perspectiva, biológica o social, de cómo hemos evolucionado. Sin embargo, en muchos casos esto es muy complejo. En su libro, Nuestras primeras veces (2024), el prehistoriador francés Nicolas Teyssandier nos advierte de que en arqueología la evidencia primera de algo no implica que esta sea la prueba más antigua de un comportamiento, sino que nos habla de hasta dónde la ciencia ha llegado con sus descubrimientos.
En el caso de la primera cirugía, esto es todavía más complejo. Imaginemos un parto de un Homo habilis en el momento justo de cortar el cordón umbilical hace unos 2 millones de años. ¿Podría constituir esto la primera cirugía no solo a la que nos enfrentamos como pacientes, sino también como género Homo? Podría ser, pero muchos otros mamíferos placentarios, casi siempre la madre, cortan el cordón umbilical de forma instintiva. Además, este procedimiento no suele considerarse como una cirugía estrictamente. ¿Habría sido entonces sacar un diente picado, extraer una espina o drenar un absceso? Son preguntas que por ahora desde la arqueología no tienen respuesta, pero que ilustran la complejidad del tema.

Si nos centramos en las evidencias osteoarqueológicas, la cirugía más antigua es una amputación prehistórica identificada en un esqueleto de la isla de Borneo, en el sudeste asiático. Los restos, provenientes de la cueva de Liang Tebo, hablan de que hace la friolera de 31 000 años un grupo cazador-recolector realizó un corte limpio y certero, sin duda quirúrgico, que amputó la pierna izquierda de un niño que luego sobrevivió hasta la edad adulta. El fragmento de tibia y peroné cicatrizados, en lo que en vida habría sido un muñón, demuestra un conocimiento médico capaz de controlar infecciones y asegurar la supervivencia.
Lo mismo ocurre con las trepanaciones, los orificios artificiales practicados desde la Prehistoria que constituyen la mejor y más abundante cirugía que identificamos. Sin duda una práctica que dejó estupefacta a la comunidad arqueológica, que no aceptó hasta mediados del siglo XIX que en el pasado más remoto las sociedades consideras entonces primitivas en su acepción más negativa, pudieran realizar una intervención de tal calibre en el cráneo de sujetos vivos ¡y sobrevivir! Tenemos que pensar que en el siglo XIX las muertes por infección postoperatoria, por las condiciones de higiene limitada, eran una causa común de fallecimiento. Fue el famoso anatomista francés Paul Brocca (1824-1880) quien a través de un cráneo precolombino abrió el melón. Desde aquella, se han descubierto cientos de trepanaciones.

Algunas de estas intervenciones son tan antiguas que se remontan a hace unos 11 000-7 000 años, durante el periodo Mesolítico, y encontramos ejemplos en Marruecos (Cueva de Taforalt), Ucrania (yacimeintos de Vasiliyevka II y Vovnigo II), o Portugal (conchero de Moita do Sebastião), entre otros casos a debate. La técnica de trepanación casi siempre es la misma, por perforación, abrasión o incisión con un instrumento de piedra tallada. Estas técnicas perdurarán en el tiempo, y a partir del Neolítico encontramos, especialmente en Europa, un aumento de la práctica trepanatoria.
A partir de la Prehistoria reciente, en la Edad de los Metales y a las puertas de la Historia, las trepanaciones se vuelven muy comunes y hay lugares como en las Islas Baleares, especialmente en Mallorca y Menorca, en las que esta práctica se convierte en algo especialmente llamativo. Entre las muchas que se han encontrado, las hay hechas en vida, con signos evidentes de supervivencia, y otras realizadas postmortem. Nuestro equipo de investigación, interesado en la evolución de las prácticas quirúrgicas, ha tenido la oportunidad de estudiar alguna de ellas, como la procedente del Barranc d’ Algendar, en el Museo Diocesà de Menorca (Ciutadella), que consiste en un cráneo con cinco perforaciones ¡cinco! Algunas de ellas presentan regeneración ósea, lo que indica cierto tiempo de supervivencia.

También las hemos estudiado en la Península, como la que se puede observar en un cráneo de Los Blanquizales de Lébor (Totana, Murcia) en el Museo de Almería. En ese caso, la trepanación se practicó en el hueso frontal, posiblemente por abrasión, y muestra claras evidencias de supervivencia. A este cráneo, además, le hemos extraído un cálculo dental, eso que también llamamos sarro, para explorar posibles usos de plantas medicinales. No es una locura, ya se han encontrado en casos que van desde el Paleolítico Medio a la Edad Media, desde neandertales a sapiens. Uno de los ejemplos más extraordinarios del posible tratamiento de dolencias que se asocian a intervenciones quirúrgicas que se ha observado en restos humanos, es el caso de un esqueleto hallado en las Minas prehistóricas de Gavà, en el que a partir de estudios paleotoxicológicos se demostró el consumo de adormidera (Papaver somniferum) durante el Neolítico.

Por cierto, si alguien se pregunta si el uso de este opiáceo sería como anestésico durante la trepanación, la respuesta posiblemente sea negativa. Uno de nosotros tuvo la oportunidad de cenar en una ocasión con una dama inglesa que se había realizado una auto-trepanación en los 70, influenciada por el excéntrico Bart Huges defensor de la trepanación para alcanzar estados de conciencia superiores. Una patraña, vamos. A la pregunta de si le dolió la experiencia, la noble señora respondió que “no, ni lo más mínimo”. Tiene sentido, en ciertas zonas de la cabeza no hay más que piel, el cuero cabelludo, y periostio cubriendo el cráneo.
Locuras aparte, poco sabemos sobre las trepanaciones, aunque no lo parezca. Las podemos catalogar, diferenciar y localizar en el mapa de la anatomía humana. Sin embargo, siguen siendo una práctica de la que poco conocemos. No ya la cuestión de si se han realizado con fines rituales o médicos, algo que trataremos en un momento, sino cómo se realizaban. Para avanzar al respecto, nosotros hemos optado por la experimentación con cadáveres humanos.
¿Cómo estudiamos hoy las trepanaciones?
La donación de cadáveres a la ciencia ha hecho avanzar a pasos agigantados campos como la medicina. Y aunque poco habitual, la generosidad de ciertas personas para con el destino de sus restos, también contribuye a la comprensión del pasado, algo que agradecemos infinitamente. Actualmente, en la Universidad de Santiago de Compostela, estamos realizando trepanaciones experimentales con réplicas de utensilios de distintas épocas.
La recreación de las intervenciones quirúrgicas usando técnicas prehistóricas, pero también de la Antigüedad Clásica o la Edad Media, están aportando información valiosísima para una mejor comprensión de las cirugías. Aspectos como la preparación previa a la perforación, los movimientos quirúrgicos empleados, o las posiciones de los intervinientes en una trepanación, son algunas de las cuestiones que estamos comprendiendo, gracias también a posteriores análisis microscópicos.
Es pronto todavía para avanzar resultados, los preliminares los anunciaremos en el XVIII Congreso Nacional de Paleopatología que se celebrará en octubre en San Sebastián, pero sin duda este enfoque experimental está cambiando nuestra forma de entender las trepanaciones en el pasado.
¿Trepanaciones rituales o terapéuticas?
¿Y qué podemos decir sobre el porqué de las trepanaciones? Uno de los decanos de la Paleopatología en España, el Prof. Domènech Campillo, autor de una de las mejores publicaciones que existen sobre el tema (os dejamos la referencia en la bibliografía), pensaba que las intervenciones craneales en la Prehistoria no tienen una razón médica. Es decir, su práctica no tiene una motivación terapéutica, sino más bien ritual. Actualmente, sabemos que esto es mucho más complejo, ya que hemos podido vincular lesiones patológicas, ya sea por enfermedad o traumatismo, a algunas trepanaciones.
Para la Antigüedad y épocas posteriores, se conservan fuentes documentales que vinculan la práctica de la trepanación con fines curativos como, por ejemplo, el tratado hipocrático Sobre las heridas en la cabeza. En este sentido, hay evidencia para pensar que la cirugía craneal está ligada a la sanación, especialmente cuando se vincula con traumatismos, ya que la presión intracraneal se reduciría con la práctica de un orificio, tal y como recomienda actualmente la neurocirugía.

No obstante, hay muchas trepanaciones que no tienen explicación médica, y no nos referiremos únicamente a aquellas que se realizaron postmortem. Sin duda, las creencias y ritos prehistóricos están en la base de la trepanación. E incluso cuando la razón trepanatoria era médica, la práctica se vincularía con explicaciones no científicas. Y es que la medicina en el pasado, al igual que la medicina tradicional, es otra forma de explicación de la enfermedad, más social que biológica. Y no debería extrañarnos, hay muchas cirugías que no tienen una base médica, como la extracción de la piedra de la locura en la Edad Media, la circuncisión, las amputaciones punitivas, o las actuales rinoplastias o mamoplastias de aumento.
Lo que nos cuentan realmente estas intervenciones quirúrgicas
Sin embargo, pese a la complejidad del tema, sí que hay algo que nos cuentan las cirugías craneales sobre las sociedades prehistóricas que las practicaron: tenían un conocimiento de la anatomía excepcional así como de las propiedades medicinales de ciertas sustancias como para evitar infecciones, y dolores. Pero lo más importante es que ponían ese conocimiento al servicio de algo que es muy humano, los cuidados. Toda cirugía va pareja a unos cuidados que nos hablan de una sociedad compleja y cooperativa que destina energía y tiempo al cuidado de ciertos individuos.
La medicina actual se define por el uso de técnicas y conocimientos en pro de promover, mantener y restaurar la salud. La verdad es que esta definición subyace en muchas de las trepanaciones prehistóricas que hemos estudiado, pudiendo afirmar que las cirugías craneales en el pasado son de alguna forma medicina, pero antes de la medicina. Así que lo que están haciendo ahora mismo en un quirófano sujetando un bisturí en vez de un pedernal, es algo que se pierde en la oscuridad del tiempo.
Referencias
- Campillo, D. (2007). La trepanación prehistórica. Edicions Bellaterra. ISBN 9788472903531
- Crubézy, E., Bruzek, J., Guilaine, J. et al. (2001). The antiquity of cranial surgery in Europe and in the Mediterranean basin. Comptes Rendus de l'Académie des Sciences-Series IIA-Earth and planetary science, 332 (6): 417-423. Doi:10.1016/S1251-8050(01)01546-4
- Isidro, A., Burdeus, J.M., Loscos, S. et al. (2017). Surgical treatment for an uncommon headache: A gap of 4800 years. Cephalalgia, 37(11):1098-1101. Doi: 10.1177/0333102416665227
- Maloney, T.R., Dilkes-Hall, I.E., Vlok, M. et al. (2022). Surgical amputation of a limb 31,000 years ago in Borneo. Nature, 609: 547–551. Doi: 10.1038/s41586-022-05160-8

Edgard Camarós
Investigador Ramón y Cajal y Profesor de Prehistoria de la Universidad de Santiago de Compostela

Renault da un nuevo paso en la electrificación práctica y accesible con la llegada del cargador bidireccional de 22 kW en corriente alterna al Scenic E-Tech eléctrico. Este avance no solo reduce a la mitad el tiempo de carga frente al cargador de 11 kW, sino que refuerza la apuesta de la marca por ofrecer soluciones que combinen eficiencia, innovación y comodidad en el día a día.
Con esta incorporación, los conductores pueden recuperar hasta 80 kilómetros de autonomía en apenas 30 minutos en puntos de carga convencionales de corriente alterna, un tiempo que hasta hace poco solo era alcanzable en cargadores rápidos de corriente continua. Además, este nuevo sistema es compatible con la carga en corriente continua de hasta 150 kW, lo que otorga al Scenic E-Tech eléctrico una enorme flexibilidad para adaptarse a distintas infraestructuras.
Pero Renault no se limita a mejorar la carga: gracias a la tecnología V2L (vehicle-to-load), el Scenic puede transformarse en una fuente de energía móvil, capaz de alimentar dispositivos externos con hasta 3,7 kW de potencia. Desde enchufar una cafetera o una bicicleta eléctrica hasta montar una barbacoa en plena naturaleza, el vehículo demuestra que puede ser mucho más que un medio de transporte.
Este cargador bidireccional puede configurarse en cualquiera de los acabados del Scenic (evolution, techno, esprit Alpine e iconic) por un coste adicional de 1.000 euros. Una inversión que mejora la experiencia de uso diario y amplía las posibilidades del vehículo eléctrico en entornos urbanos, periurbanos y en actividades al aire libre.
A todo ello se suman otras innovaciones recientes: la función One Pedal con cinco niveles de frenada regenerativa, el reconocimiento facial del conductor para ajustar automáticamente la configuración y detectar signos de fatiga, así como el sistema multimedia openR link con Google integrado, que ofrece rutas optimizadas para eléctricos y acceso a más de 50 aplicaciones.
Con una autonomía de hasta 625 km WLTP, el Scenic E-Tech eléctrico se consolida como uno de los SUV familiares más avanzados del mercado. Y con la llegada de este nuevo cargador, Renault reafirma su liderazgo en electrificación práctica y en soluciones energéticas que miran más allá del propio coche, dentro de una estrategia global en la que también se pregunta: ¿Pueden dos híbridos plantar cara al diésel y al eléctrico?
Carga más rápida y eficiente
El cargador bidireccional de 22 kW reduce a la mitad el tiempo de recarga frente a la opción de 11 kW. Esto significa menos esperas y mayor libertad de movimiento en el día a día. Gracias a esta mejora, los usuarios pueden recuperar autonomía suficiente para trayectos urbanos o interurbanos en apenas media hora de carga en alterna.

Flexibilidad con corriente continua
Aunque la gran novedad está en la carga AC de 22 kW, el Scenic E-Tech eléctrico sigue siendo compatible con cargadores rápidos en corriente continua de hasta 150 kW.
Esto otorga al conductor la posibilidad de elegir la infraestructura más conveniente en cada momento, optimizando tiempos de recarga en viajes largos o escapadas.

Energía bidireccional al servicio del usuario
La funcionalidad V2L convierte al Scenic en una auténtica batería sobre ruedas. Con un adaptador, el coche puede suministrar energía a dispositivos externos con hasta 3,7 kW.Este sistema resulta ideal para actividades al aire libre, emergencias o simplemente para dar un plus de comodidad en el día a día.

Compatibilidad en toda la gama Scenic
El cargador de 22 kW puede equiparse en cualquiera de los acabados disponibles: evolution, techno, esprit Alpine e iconic. De este modo, la mejora no está limitada a versiones premium, sino que se extiende a toda la gama, democratizando el acceso a la tecnología.

Un coste equilibrado
Por 1.000 euros adicionales, los clientes pueden sumar esta innovación a su Scenic E-Tech eléctrico. El sobrecoste se compensa rápidamente con la reducción de tiempos de espera y la mayor comodidad que ofrece en el uso cotidiano.

Autonomía líder en el segmento
El Scenic E-Tech eléctrico ofrece hasta 625 km WLTP, lo que lo sitúa entre los SUV eléctricos con mayor alcance real del mercado. Combinado con la carga rápida en alterna y continua, esta autonomía convierte al modelo en un vehículo polivalente y apto para todo tipo de desplazamientos.

Innovaciones al servicio de la seguridad
Entre las últimas incorporaciones destacan el reconocimiento facial del conductor, que adapta automáticamente la configuración personal y detecta signos de fatiga. Estas soluciones refuerzan el enfoque de Renault hacia una conducción más segura y personalizada.

Confort en cada trayecto
El Scenic incorpora la función One Pedal, que permite gestionar aceleración y frenada con un solo pedal en cinco niveles de regeneración. Esto aumenta la comodidad en entornos urbanos y maximiza la eficiencia energética del vehículo.

Tecnología conectada con openR link
El sistema multimedia openR link, con Google integrado, ofrece acceso a más de 50 aplicaciones y planifica rutas optimizadas para eléctricos. Esto convierte al Scenic en un coche hiperconectado, preparado para responder a las demandas de un conductor moderno y digital.

Un modelo sostenible
Más allá de la tecnología, el Scenic E-Tech eléctrico se construye bajo un enfoque de sostenibilidad, con materiales reciclados y procesos responsables. La incorporación del cargador bidireccional refuerza esa visión de movilidad útil, flexible y respetuosa con el entorno.

Llegada a España
Las primeras unidades del Scenic equipadas con el cargador de 22 kW llegarán a España en los últimos meses del año. Esto permitirá a los conductores disfrutar de la nueva funcionalidad antes de que acabe 2025, consolidando a Renault en la vanguardia de la electrificación.

Beneficios adicionales con Iberdrola
Gracias al acuerdo entre Renault Group e Iberdrola, los compradores de un vehículo eléctrico de la marca pueden beneficiarse de hasta 800 euros de descuento si entregan un coche de combustión.
Esta ayuda es acumulable con las subvenciones estatales, autonómicas o locales, lo que facilita aún más el acceso a la movilidad eléctrica.

Renault: un líder en transformación
Con el plan estratégico “Renaulution”, la marca avanza hacia una gama competitiva, equilibrada y 100 % electrificada. El Scenic E-Tech eléctrico con cargador bidireccional es una muestra tangible de esa ambición: un coche que une innovación tecnológica, sostenibilidad y practicidad para la movilidad del presente y del futuro. Un movimiento que enlaza con El SUV que inaugura la nueva era de Renault, confirmando que la firma francesa está decidida a marcar tendencia en todas las direcciones posibles de la movilidad.

Los quipus incas siempre han fascinado por su carácter enigmático, tanto que los astrónomos usaron la palabra para nombrar una superestructura cósmica. Aquellos cordones con nudos, más que simples registros, eran sistemas de comunicación que guardaban la memoria de un imperio. Se han descrito como “bibliotecas anudadas” capaces de almacenar información numérica, censos y tributos. Lo que pocas veces se cuestionaba era quiénes podían crear estos objetos. La tradición académica los atribuía a una casta reducida de especialistas estatales, los khipukamayuq, considerados burócratas de alto rango en el engranaje imperial.
Un reciente estudio publicado en Science Advances derriba esta visión exclusiva. Analizando un quipu de unos 500 años de antigüedad, los investigadores demostraron que su cordón principal estaba tejido con cabello humano. Gracias a técnicas de isótopos estables, pudieron reconstruir la dieta y el modo de vida de la persona a la que pertenecía ese cabello. El resultado fue claro: no era un noble ni un funcionario estatal, sino alguien del pueblo. Esta revelación abre la posibilidad de que los quipus no fueran patrimonio exclusivo de las élites, sino herramientas también empleadas y producidas por campesinos andinos.
El valor simbólico del cabello en los Andes
Los investigadores centraron su atención en el quipu identificado como KH0631, fechado en torno a 1498 d. C. y conservado en la Universidad de St Andrews. Su particularidad radica en que el cordón principal estaba compuesto de una trenza de más de un metro de cabello humano. En la tradición andina, el cabello era una sustancia cargada de poder, capaz de representar la esencia de una persona incluso cuando estaba separado de su cuerpo. Según el estudio, “cuando el cabello humano se incorporaba en el cordón principal de un quipu, servía como una ‘firma’ para indicar la persona que lo había creado”.
Este uso tiene paralelos etnográficos más recientes. En aldeas de Perú, hasta el siglo XX los pastores incluían mechones de su propio cabello en los quipus, como señal de responsabilidad personal sobre la información que contenían. De esta manera, el cabello no era un simple material: era un marcador de autoría. En el caso de KH0631, ese autor resultó ser alguien con una dieta muy distinta a la de los festines imperiales.

Una dieta campesina en los nudos imperiales
El equipo científico recurrió a un análisis de isótopos de carbono, nitrógeno y azufre presentes en el cabello. Estos elementos permiten reconstruir la dieta de un individuo, diferenciando entre alimentos de alto prestigio —como la carne o el maíz— y los productos más comunes de subsistencia, como tubérculos y verduras. Los resultados fueron inequívocos. La persona asociada al quipu consumía escasa carne y muy poco maíz, alimentos básicos en la dieta de las élites. En cambio, predominaban los recursos vegetales de zonas altas, propios de campesinos.
Los propios autores destacan en su trabajo que “es difícil imaginar un escenario en el que un khipukamayuq oficial hubiera podido abstenerse de consumir grandes cantidades de maíz en forma de cerveza”. Esta observación refuerza la idea de que el creador de KH0631 no formaba parte de los burócratas privilegiados que servían en la administración estatal, sino de los sectores populares del imperio.

La geografía también habla
El estudio no solo examinó la dieta. Al analizar isótopos de oxígeno e hidrógeno presentes en el cabello, los investigadores lograron inferir la procedencia geográfica del individuo. Los valores indicaron que había vivido en la cordillera andina, entre los 2.600 y 2.800 metros de altitud, en regiones que hoy corresponderían al sur de Perú o al norte de Chile. La escasa presencia de recursos marinos en su dieta coincide con esta localización alejada del litoral.
Este detalle es relevante porque conecta el objeto con un contexto campesino y rural, alejado de los centros políticos donde tradicionalmente se situaba la producción de quipus oficiales. El hallazgo refuerza la hipótesis de que existían diferentes niveles de uso y producción de quipus, no todos ligados al aparato administrativo central del Cuzco.

Mujeres, campesinos y diversidad de autores
La visión tradicional, sostenida por crónicas coloniales, describía a los khipukamayuqs como hombres de alta posición que recibían privilegios estatales. Sin embargo, había voces disidentes. El cronista indígena Felipe Guaman Poma de Ayala afirmaba que las mujeres también podían confeccionar quipus, en especial aquellas que vivían en instituciones conocidas como aqllawasi, las casas de las “mujeres escogidas”. El hallazgo de KH0631 ofrece por primera vez una prueba física que respalda la idea de una autoría más amplia y variada de la que se pensaba.
Este descubrimiento se suma a otros hallazgos arqueológicos que muestran mujeres enterradas con quipus en contextos de prestigio. Pero KH0631 va más allá: no se trata de una élite local ni de un especialista del Estado, sino de un común campesino. Esto cambia la forma en que entendemos la circulación de estos objetos en la vida cotidiana del Tawantinsuyu.
La técnica científica detrás del hallazgo
El análisis del quipu requirió aplicar espectrometría de masas de relación isotópica, una técnica que mide las proporciones de elementos químicos en muestras biológicas antiguas. El cabello humano, gracias a su proteína resistente llamada queratina, conserva durante siglos información precisa sobre la dieta y el ambiente de vida de una persona. En este caso, los investigadores contaban con un mechón de 104 centímetros, lo que permitió estudiar más de ocho años de la vida del individuo.
La calidad del material fue clave: los valores de carbono, nitrógeno y azufre se encontraban dentro de los rangos esperados para cabello bien conservado. Esto garantizó la fiabilidad de los resultados. Además, la datación por radiocarbono del cordón de fibra de camélido asociado al quipu situó su fabricación en el periodo Inca tardío, hacia finales del siglo XV.
Lo que significa para la historia andina
El hallazgo tiene un impacto mayor que el simple detalle anecdótico. Si un campesino pudo ser autor de un quipu con estructura “inca imperial”, significa que la alfabetización en este sistema de nudos no estaba restringida a unos pocos burócratas. La “escritura anudada” podría haber estado más difundida socialmente de lo que se creía. Esto obliga a reconsiderar la forma en que se transmitía el conocimiento y cómo diferentes sectores de la sociedad participaban en la construcción de la memoria colectiva.
Los autores del estudio lo señalan con cautela: aunque KH0631 es solo un caso, sus datos apuntan a una participación más inclusiva y diversa en la producción de quipus de la que aceptaba la historiografía clásica. Este tipo de evidencias abre nuevas preguntas sobre el papel de campesinos y mujeres en el mantenimiento de la información en el imperio.
Entre la memoria y el ritual
El propio trabajo de Hyland y su equipo reconoce que todavía no está claro qué información específica guardaba KH0631. Podría tratarse de un registro administrativo, como censos o cuentas de tributo, o bien de un objeto con función ritual. La posibilidad de que el quipu combinara ambas dimensiones —práctica y simbólica— está sobre la mesa. En palabras de los investigadores, “el análisis isotópico de cabello humano en KH0631 indica que los comunes participaron en la producción de quipus del Horizonte Tardío”.
De confirmarse con otros ejemplos, la historia de los quipus tendría que reescribirse: de instrumentos de élite a herramientas compartidas por comunidades enteras para registrar, transmitir y recordar.
Un nuevo horizonte para la investigación
El estudio de KH0631 no cierra la discusión, la abre. Los propios autores reconocen que un solo quipu no basta para cambiar toda la narrativa histórica. Pero sí constituye una evidencia inédita que invita a ampliar la investigación con más análisis isotópicos en otros ejemplares conservados en museos y colecciones. Cada nuevo dato puede ayudar a reconstruir un mapa más preciso de quiénes tejían, usaban y comprendían este sistema de comunicación.
La arqueología de los Andes se enfrenta así a un reto apasionante: integrar la ciencia más avanzada con las tradiciones indígenas y los testimonios coloniales para dar una imagen más fiel de cómo los pueblos andinos gestionaban su memoria. Los quipus, lejos de ser un enigma cerrado, se muestran ahora como un campo de estudio en plena transformación.
Referencias
- Hyland, S., Lee, K., Koon, H., Laukkanen, S., & Spindler, L. (2025). Stable isotope evidence for the participation of commoners in Inka khipu production. Science Advances, 11(33), eadv1950. https://doi.org/10.1126/sciadv.adv1950.
Las profundidades marinas siguen proporcionando evidencias arqueológicas clave para reconstruir la historia humana, desde barcos corsarios de la Edad moderna hasta cargamentos de cerámica fina de hace siglos. Uno de los hallazgos más significativos para la arqueología subacuática de las últimas décadas tiene nombre propio: el pecio de Kumluca. Descubierto en 2018 por un equipo de la Universidad de Akdeniz y excavado entre 2019 y 2024, este barco mercante de la Edad del bronce ha dejado al descubierto un cargamento excepcional de lingotes de cobre, objetos metálicos, pesos de plomo y cerámicas que apuntan a un estrecho vínculo con la cultura cretense. La investigación, aún en curso, está consiguiendo reconstruir las redes comerciales, tecnológicas y culturales del Mediterráneo oriental hace unos 3600 años.
El descubrimiento y las campañas de excavación
El hallazgo del pecio se produjo en 2018, cuando un equipo de la Universidad de Akdeniz localizó los restos de un barco a una profundidad de entre 39 y 53 metros. Situado en la vertiente oriental del cabo Gelidonya, en el distrito turco de Kumluca (provincia de Antalya), los arqueólogos identificaron el pecio como un mercante de la Edad del bronce que transportaba, sobre todo, lingotes de cobre.
La primera campaña de excavación se realizó en 2019. Tras un largo parón producido por la pandemia de COVID-19, un equipo interdiciplinar de arqueólogos subacuáticos, especialistas en medicina hiperbárica y conservadores retomaron las campañas en 2022. Durante las inmersiones, se emplearon buques de investigación equipados con cámaras hiperbáricas, robots submarinos y sistemas de monitorización 24 horas para intervenir de forma segura y meticulosa en un entorno de gran complejidad técnica.

El cargamento: lingotes de cobre
A finales de 2024, el equipo ya había recuperado 52 lingotes de cobre en forma de almohada, 19 lingotes discoidales y 8 fragmentos menores. Según la clasificación de Bucholz-Bass, los lingotes almohada corresponden a los tipos 1a y 1b, lo que sugiere que se produjeron en el mismo periodo en talleres vecinos.
Su peso medio ronda los 25 kilos, una cifra coherente con lo que se conoce de los estándares de transporte de cobre en el Mediterráneo oriental durante el Bronce medio. Aunque no se han realizado aún análisis de isótopos de plomo (un impedimento derivado de las restricciones legales y la carga de trabajo en los laboratorios turcos), la comparación con otros yacimientos sugiere que los lingotes proceden de minas chipriotas. Es más: se hipotetiza que su lugar de origen está en la región de los montes Troodos. Según los estudiosos, la presencia de este tipo de material en los contextos minoicos de Creta refuerza la hipótesis de que los palacios de la isla eran el destino final de tan preciada carga.

La evidencia minoica de los pesos de plomo
En la campaña de 2022 se recuperaron dos pesos de plomo, uno de 22 g y otro de 45 g. Determinadas características, como su forma discoidal, la ausencia de inscripciones y la semejanza con ejemplares hallados en el asentamiento de Akrotiri (1700–1625 a.C.) apuntan a un origen minoico o egeo. Estos pesos probablemente se utilizaron para pesar con precisión el metal y asegurar, de este modo, transacciones justas en los intercambios comerciales del Bronce medio. Los estudios sobre metrología antigua sugieren que estos valores (22 g y 45 g) podrían corresponder a múltiplos de unidades de peso cretenses, lo que añade un dato más a la conexión cultural y económica entre el pecio de Kumluca y Creta.
Las cerámicas: testigos del comercio regional
El material cerámico recuperado hasta el momento asciende a 38 fragmentos en total. Entre ellos, se incluyen un asa de ánfora de tipología muy común en el Mediterráneo oriental entre el Bronce temprano y el Bronce tardío. Ejemplares similares se han hallado en áreas como Israel, el Egeo y, en particular, Creta. Este patrón de distribución confirma la intensa circulación de bienes y personas en la región, y respalda la idea de que el barco foperaba dentro de las rutas marítimas que conectaban Chipre, Anatolia y el mundo minoico.

La daga cretense y los objetos de uso cotidiano
Uno de los descubrimientos más significativos se produjo en 2024: una daga de bronce de tipo cretense XIV, fechada entre 1700 y 1600 a.C. Según la tipología metálica establecida por Keith Branigan, este tipo de arma, estrechamente vinculado a la élite minoica, representaría una evolución de modelos anteriores. Su hallazgo en Kumluca sugiere la presencia de un mercader o tripulante cretense, o bien la participación del barco en un intercambio que incluía armas de prestigio. Junto a la daga, se documentaron un anzuelo, una aguja de bronce y un cuenco hemisférico de paredes finas, todos ellos objetos vinculados a la vida cotidiana a bordo.
Evidencias del comercio y las conexiones culturales bajo las aguas
El Mediterráneo oriental del siglo XVI a.C. era un espacio de intensas interacciones comerciales. Chipre se había consolidado como productor y exportador clave de cobre, mientras que Creta se encontraba en plena fase neopalacial, en la que palacios como Cnosos, Malia y Zakros actuaban como centros redistributivos. Anatolia, por su parte, ofrecía recursos minerales y era un punto de paso estratégico.
En este contexto, el pecio de Kumluca ha revelado una nave mercante de unos 11 o 12 metros de eslora que se dedicaba a transportar cobre desde Chipre hacia Creta, con escalas en los puertos anatolios. El naufragio pudo deberse a una tormenta. Esto explicaría que se hubiese hundido cerca de un cabo conocido por su peligrosidad para la navegación.

Importancia arqueológica y perspectivas futuras
El estado de conservación del pecio y la calidad de los hallazgos lo convierten en un referente para el estudio del comercio marítimo en la Edad del bronce. A diferencia de otros yacimientos subacuáticos, los objetos de Kumluca se encuentra adheridos al lecho rocoso, lo que, por un lado, dificulta su extracción, pero, por otro, garantiza su integridad.
Hasta ahora, solo se ha excavado una parte del yacimiento. Es probable que las futuras campañas de excavación ofrezcan más datos sobre el origen exacto de la carga, la identidad de la tripulación y las rutas comerciales.
Referencias
- Öniz, H. 2025. "Traces of Mynos in Kumluca Bronze Age Shipwreck: 2022, 2023, 2024 Excavation Seasons". Journal of Maritime Archaeology. DOI: https://doi.org/10.1007/s11457-025-09453-7
Un usuario avanzado de internet puede aprender cómo funciona casi cualquier aparato. Además, es probable que en la red haya un vídeo tutorial que le enseñe a construírselo él mismo. Hoy, el conocimiento se ha diversificado tanto que prácticamente todo el mundo tiene acceso a todo. Pero cuando se levantaron las pirámides egipcias hace unos 4500 años, el saber era exclusivo de unos pocos y se transmitía de forma oral de maestro a aprendiz. No había rollos de papiro donde se explicara cómo levantar un bloque de quinientas toneladas o cómo perforar con paciencia el granito para vaciar un sarcófago. Ese conocimiento era práctico y se basaba en la experiencia adquirida durante generaciones.
Es habitual leer o escuchar que toda esa sabiduría se encontraba en la Biblioteca de Alejandría y que se perdió tras el incendio que sufrió esta en tiempos de Julio César. Pero puede que no fuera así. Los métodos de trabajo en el transporte de piedra, el desarrollo de planos para la construcción de edificios o los trabajos en las canteras para extraer material eran conocimientos que, para los egipcios, no tenía sentido poner por escrito y conservar. De lo contrario, habría llegado alguna copia hasta nosotros, al igual que se han preservado papiros médicos, matemáticos, mágicos y de otras muchas cuestiones.
El icono de los iconos
Algo así debió de suceder con el paradigma de las antiguas construcciones egipcias, la Gran Pirámide que el faraón Keops ordenó erigir en la meseta de Guiza. Gracias a los textos, sabemos que fue este rey su impulsor hacia el año 2550 a. C. Según las últimas dataciones, su gobierno se prolongó durante unas tres décadas. Conocemos los lugares de donde proceden los bloques de caliza de la colosal construcción –la cantera de Tura– y los de granito –la cantera de Asuán–. Pero todo lo que rodea a cómo se construyó es aún mera suposición. La pregunta sigue esperando quien la responda: ¿cómo lo hicieron?
Para resolver el enigma, lo mejor que podemos hacer es empezar por la elección de los emplazamientos. En el Egipto de los faraones, el espacio que iba a albergar una construcción era lo más importante. Antes que pensar en el tipo de edificio y su tamaño había que escoger cuidadosamente la ubicación, que no se elegía ni por las vistas ni por la facilidad que pudiera suponer para la ejecución de las obras. Cada sitio recreaba un escenario sagrado y divino; el lugar donde la divinidad se manifestaba a los mortales.

El significado de esos lugares se ha perdido, pero la sacralidad de los espacios que acogían templos o necrópolis es innegable. En el caso de la Gran Pirámide, conocemos por textos posteriores a Keops que la meseta de Guiza fue un centro de peregrinaje a lo largo de milenios, vinculado primero al culto del sol y luego a Osiris, el dios de la muerte. Allí debió de haber una suerte de horizonte mágico en el que los ritos de adoración al sol y al faraón como encarnación de la divinidad jugaban un papel importante.
No conservamos planos de la Gran Pirámide, pero podemos imaginarnos cómo eran por los que sí nos han llegado de otros monumentos. Algunas tumbas de la necrópolis tebana, en el actual Luxor, ofrecen pistas al respecto. Poseemos papiros y ostraca –lascas de piedra caliza usadas como soporte para el dibujo– con los planos de varias tumbas del Valle de los Reyes. Contamos, entre otros, con uno casi completo de la tumba de Ramsés IX, y varios papiros del Museo Egipcio de Turín nos describen el interior de la que fue la última morada de Ramsés IV.
Pero estos planos de la dinastía XX (hacia 1000 a. C.) son meros bocetos que solo muestran el dibujo de las galerías o el trazado de las cámaras y los contenidos que pudieran albergar tras el funeral. Por desgracia, no hay referencias sobre las medidas de sus pasillos, la altura de las paredes o la orientación del monumento. Muy posiblemente, los planos con toda esta información existieron, pero el tiempo nos los ha arrebatado.
No menos enigmático es saber quién los diseñaba. Si hablamos de arquitectos, la ambigüedad en los títulos empleados en Egipto nos plantea muchas dudas. No existía el término arquitecto, tal y como lo entendemos hoy. Tenemos que deducir que el cargo de jefe de las obras del faraón debía de ser ostentado por la persona que realizaba este tipo de tareas, pero no resulta seguro. Tres nombres protagonizan la historia egipcia en este campo.
Tres reyes de la arquitectura
El primero de ellos es Imhotep, mano derecha del faraón Zoser (2650 a. C.), a quien se le atribuye la construcción de la pirámide escalonada en Saqqara, el primer gran edificio de piedra de la historia. Poco después nos encontramos con el jefe de las obras del faraón Keops, Hemiunu, a quien se responsabiliza de la Gran Pirámide, en cuyo sector oeste se encuentra su propia tumba. Mucho más clara es la función como arquitecto de Ineni.
En el texto autobiográfico que podemos leer en su tumba de Luxor, Ineni asegura que él realizó algunas de las ampliaciones del templo de Karnak para Tutmosis I (1525 a. C.) y, lo más importante, que fue elegido por ese mismo faraón para excavar en la roca de la montaña de Tebas la primera tumba del Valle de los Reyes: «Nadie oyó nada y nadie vio nada», nos relata Ineni para resaltar el total secretismo con el que se llevaron a cabo los trabajos. Por todo ello deducimos que este individuo era arquitecto, pero no deja de extrañar que también se nos presente como administrador de los graneros de Amón.
Ineni se vanagloria de haber construido el sepulcro del faraón y ampliado sus templos, pero ese pavoneo es una excepción. Un ejemplo: el mencionado Hemiunu no saca pecho en su tumba señalando que él es el constructor de la Gran Pirámide de Keops. No nos dice absolutamente nada.
Uno de los problemas que han traído de cabeza a los ingenieros desde que el arqueólogo inglés Flinders Petrie se acercara a él, a finales del siglo xix, es el trabajo de la piedra. El resultado salta a la vista. Del mismo modo que nos preguntamos cómo levantaron las pirámides, habría que preguntarse cómo pudieron trabajar piedras tan duras.

Sin roca que se resista
La respuesta resulta más sencilla de lo que parece a simple vista. No reconocerla, en muchos casos, es una prueba más de nuestra arrogancia a la hora de afrontar estos enigmas históricos. Nuestra tendencia a comparar cómo lo hicieron ellos con cómo lo haríamos nosotros nos desvía por completo de la realidad. Los antiguos egipcios emplearon herramientas de cobre, sierras, cinceles, mazos de madera o bolas de dolerita o granito negro, una roca durísima. Con ellas podían rebajar y perforar el granito.
Se trata de un proceso muy lento y costoso, pero el resultado es prodigioso, como podemos admirar todavía. Estas herramientas han llegado hasta nosotros y, lo más importante de todo, también contamos con minuciosas y realistas representaciones de los talleres y de las canteras en donde se nos describe el trabajo con la piedra y su posterior transporte.
Se piensa que el cobre es un metal blando y que no puede utilizarse para cortar materiales como el granito. Sin embargo, el cobre endurecido puede ser un arma extraordinariamente dura, tanto como el hierro. Prueba de ello es que en muchos de los bloques han quedado las marcas dejadas por la herramienta; huellas que coinciden con las logradas en investigaciones de arqueología experimental modernas con las que se ha reproducido al detalle el trabajo de los antiguos talleres. No, no usaban rayos láser ni licuaban la piedra, como algunos proclaman.
Denys Allen Stocks, un ingeniero y egiptólogo de Mánchester, es tal vez la persona que mejor ha trabajado este asunto. A partir de réplicas exactas de las herramientas descritas en las tumbas, ha podido reproducir paso a paso el vaciado, por ejemplo, de un bloque de granito para crear un sarcófago, o el cortado de un enorme sillar de piedra caliza destinado a una gran pirámide.
Batir el cobre
En opinión de Stocks, los antiguos egipcios empleaban principalmente dos tipos de herramientas de cobre. Por un lado se encuentran las sierras, algunas de las cuales se han preservado en muy buen estado; y por otro, los tubos dentados para vaciar, herramientas que solo conocemos por sus antiguas representaciones.
Grosso modo, para fabricar un sarcófago de granito primero se extraía la piedra de la cantera, seguramente usando cuñas de madera humedecidas que iban resquebrajando la veta poco a poco. Después, el bloque se perfilaba con sierras de cobre. Una vez obtenido un sillar del tamaño deseado, se vaciaba su interior por medio de tubos de cobre que iban penetrando en la piedra con la ayuda de un arco.
Al sacar el tubo, dentro quedaba un tarugo que se rompía fácilmente con un mazo y dejaba un espacio vacío. Repitiendo esta operación a lo largo de todo el interior se conseguía vaciar por completo el sarcófago. El resultado final se obtenía con el pulido de la piedra mediante arena y otros abrasivos, que eliminaban todas las impurezas y dejaban un aspecto reluciente.
Este proceso que se explica en unas pocas líneas llevaba muchos meses de exigente y tedioso trabajo. En la actualidad, una sierra con punta de diamante puede cortar un bloque de granito en pocas horas, pero hace 4500 años el trabajo era increíblemente más lento. Al basarse en herramientas de cobre, el afilado y la puesta a punto debían ser continuos.
Finalmente, «solo» quedaba mover los bloques desde las canteras o los talleres de los artesanos hasta la ubicación que se había determinado. Aunque parezca mentira, de este dato contamos con más información que de cualquier otra fase de la construcción. Y debemos tener clara una cosa: hay que olvidar la idea legendaria de cientos de esclavos arrastrando los sillares sobre rodillos de madera, forzados a latigazos. La información de las aldeas de constructores de las pirámides que ha llegado hasta nosotros nos habla de obreros muy cualificados y bien remunerados. De lo contrario, no podríamos explicarnos la extraordinaria precisión en el acabado del monumento.

Transportistas de alto nivel
Contamos con varias representaciones en donde se aprecia con claridad cómo era el transporte de los bloques. En Deir El-Bersha, la tumba de Djehutihotep, un importante personaje que vivió hace casi 4000 años, nos muestra a cerca de 180 obreros, repartidos en cuatro hileras, arrastrando un enorme coloso de piedra.
Lo hacen sobre un trineo. En el regazo del coloso, un hombre marca el ritmo del arrastre y a los pies de la figura podemos contemplar a otro obrero que se encarga de derramar líquido sobre la arena de la calzada para evitar que el trineo se queme por la fricción. No es el único ejemplo del empleo de trineos incluso para pequeños bloques de piedra. En Guiza, la conocida tumba de Idu, un funcionario real, también cuenta con una imagen similar.
Pero existían otros bloques mucho más grandes, como el obelisco inacabado de Asuán, que tiene 42 metros de longitud y pesa casi 1300 toneladas. Ni los egiptólogos ni los ingenieros tienen la menor idea de cómo pretendían moverlo hasta su emplazamiento.
Una vez fabricados los bloques y transportados hasta el lugar en donde se iban a usar, quedaba otra complicada tarea: colocarlos en su sitio.
Sabemos que las pirámides se orientaban según los puntos cardinales o hacia los equinoccios, en función de la posición de ciertas estrellas. Lo que desconocemos aún es cómo se construían.
Existen decenas de teorías, muchas descabelladas, pero lo cierto es que solo podemos intuir la fórmula. Lo más aceptado y probable es que se apoyaran en el uso de rampas, pero infinidad de preguntas permanecen sin respuesta. Algunas son tan aparentemente sencillas como saber cómo hacían girar las piedras en las rampas al llegar a una esquina. Parece sencillo, pero cuando la arqueología experimental intentó hacerlo en los años 90 en una maqueta de casi 20 m de alto de la Gran Pirámide, los bloques se venían abajo.
Cuesta arriba
Algunos textos antiguos citan las rampas como el método empleado para subir los bloques a medida que la pirámide crecía en altura. Incluso la tumba en Luxor de Rejmira, noble cortesano de la XVIII dinastía, parece representar la erección de una rampa en la construcción de un edificio. Restos de una de ellas se han encontrado junto a la Gran Pirámide en Giza.
El ingeniero francés Jean-Pierre Houdin, famoso por sus novedosas teorías sobre la forma de erigir estos descomunales monumentos, ha propuesto recientemente la existencia de una rampa interior; no deja de ser una hipótesis más, muy plausible pero igual de indemostrable que el resto.
Como dice el egiptólogo estadounidense Mark Lehner, cuando hablamos de la construcción de pirámides y otros grandes edificios faraónicos, quizá olvidamos el factor más importante: el tiempo. Y lleva razón: ¿qué prisa tienes cuando estás trabajando para la eternidad?
El síndrome de fatiga crónica, también conocido como encefalomielitis miálgica (ME/CFS), sigue siendo un enigma médico. Quienes lo padecen describen la sensación de vivir con las baterías descargadas: cansancio extremo, dolor persistente, problemas de memoria y concentración, y un empeoramiento de los síntomas incluso después de un esfuerzo mínimo. Aun así, muchos pacientes pasan años sin diagnóstico o son acusados de exagerar o inventar sus síntomas.
La ausencia de una prueba de laboratorio que confirme la enfermedad ha alimentado el escepticismo. Hoy en día, el diagnóstico se basa en la exclusión de otras patologías y en la narración de síntomas, un proceso largo y frustrante que deja a miles de personas en la incertidumbre.
Pero la ciencia empieza a ofrecer un cambio de rumbo: investigadores de la Universidad de Cornell han identificado un patrón molecular en la sangre que distingue a los pacientes con ME/CFS de las personas sanas. No se trata todavía de una prueba clínica lista para usarse, pero sí de un hallazgo que marca un antes y un después.

El descubrimiento en la sangre
El equipo analizó muestras de plasma de 93 pacientes con ME/CFS y 75 individuos sanos. La clave estuvo en estudiar el RNA libre circulante (cfRNA): fragmentos de material genético que las células liberan al torrente sanguíneo durante su funcionamiento normal o cuando están bajo estrés.
Este cfRNA funciona como una huella digital de lo que ocurre en los tejidos. Si el organismo está inflamado, agotado o respondiendo a una infección, esa información se refleja en estos pequeños fragmentos. Los científicos secuenciaron el RNA y aplicaron modelos de aprendizaje automático para buscar patrones característicos.
El resultado fue un modelo basado en 21 genes capaces de distinguir a pacientes y controles con una precisión del 77 %. Es decir, por primera vez se ha logrado una señal biológica clara que podría servir de base para un futuro test diagnóstico.
Un sistema inmunitario alterado
Más allá de la precisión del modelo, el hallazgo ofrece pistas sobre la propia enfermedad. Los investigadores encontraron diferencias importantes en el origen del cfRNA: los pacientes mostraban más fragmentos derivados de células del sistema inmunitario, como monocitos, células T y células dendríticas plasmocitoides.
Estas últimas son conocidas por producir interferones, moléculas clave en la defensa frente a virus. Su exceso en sangre sugiere que el sistema inmunitario de los pacientes podría estar en una especie de estado de activación crónica, como si luchara contra una infección invisible.
Por el contrario, los pacientes presentaban menos cfRNA derivado de plaquetas, lo que podría estar relacionado con alteraciones en la coagulación y la circulación sanguínea, algo que ya se ha descrito en otros estudios sobre ME/CFS.

Lo que no encontraron: virus ausentes
Durante años se ha sospechado que infecciones virales podrían ser el desencadenante del síndrome. Por eso, el equipo buscó en las muestras fragmentos de RNA de virus comunes, como los herpesvirus. Aunque sí detectaron señales de estos virus, no había diferencias entre pacientes y personas sanas. Es decir, la presencia de restos virales no parece explicar por sí sola la enfermedad.
Esto no significa que los virus queden descartados como disparadores iniciales —muchos pacientes relatan que sus síntomas comenzaron tras una infección—, pero sí que el cuadro crónico no se sostiene en una infección activa, sino en un sistema inmune que parece no volver a la normalidad.
Esperanza y cautela
El hallazgo de un marcador en sangre ofrece esperanza a millones de pacientes que llevan décadas reclamando una prueba objetiva. Un diagnóstico más rápido y certero podría mejorar el acceso a tratamientos, prestaciones y apoyo médico, además de reducir el estigma social.
Sin embargo, los propios autores del estudio subrayan que el test aún no está listo para la práctica clínica. El 77 % de precisión implica que alrededor de uno de cada cuatro pacientes sería mal clasificado. Se necesita más investigación con cohortes más amplias y diversas, incluidas personas con ME/CFS asociado a la COVID prolongada.
También falta estudiar cómo cambian estos patrones tras el esfuerzo, cuando los síntomas suelen empeorar drásticamente. Analizar el cfRNA durante esos episodios podría ofrecer todavía más pistas.

Un paso hacia el reconocimiento científico
Aunque no es el final del camino, este trabajo representa un avance decisivo: demuestra que el síndrome de fatiga crónica tiene bases biológicas medibles. Esto supone un golpe a la idea de que es un trastorno “psicológico” o “imaginario”, y valida lo que los pacientes han defendido durante años.
La posibilidad de contar con una prueba de sangre abre no solo la puerta al diagnóstico, sino también al diseño de tratamientos dirigidos. Si el problema está en un sistema inmunitario sobrecargado o agotado, tal vez se puedan desarrollar terapias específicas.
Para una enfermedad que afecta a millones de personas en todo el mundo y que hasta ahora ha sido invisibilizada, este estudio es un rayo de esperanza. La ciencia empieza, por fin, a escuchar lo que los pacientes han dicho siempre: no es todo psicológico, está en la sangre.
Referencias
- Gardella, A. E., Eweis-LaBolle, D., Loy, C. J., Belcher, E. D., Lenz, J. S., Franconi, C. J., ... & De Vlaminck, I. (2025). Circulating cell-free RNA signatures for the characterization and diagnosis of myalgic encephalomyelitis/chronic fatigue syndrome. Proceedings of the National Academy of Sciences. doi: 10.1073/pnas.2507345122
En el competitivo mercado de los smartphones de gama media y alta, las marcas se ven forzadas a acelerar la innovación tecnológica. Para ellos aplican estrategias de precios agresivas para seguir siendo relevantes y captar la atención de los usuarios.
Con el fin del verano, Xiaomi sorprende con una fuerte rebaja en su nuevo POCO X7 Pro, una estrategia para plantar cara a la competencia y atraer a los usuarios que buscan un smartphone potente a precio reducido en la vuelta al cole.

En tiendas como Amazon o Miravia su precio habitual se sitúa en torno a los 247,89€. Sin embargo, la empresa china ha decidido rebajarlo en AliExpress hasta solo 203,60 euros. Esto supone uno de los descuentos más agresivos de este verano.
Cuenta con un potente procesador Dimensity 8400-Ultra de 4 nm y la tecnología WildBoost Optimization 3.0, acompañado de 8 GB de RAM y 256 GB de almacenamiento interno. Su pantalla AMOLED CrystalRes de 6,67 pulgadas brilla con resolución 1.5K, un brillo máximo de 3200 nits y refresco de hasta 120 Hz.
En fotografía, equipa una cámara principal de 50 MP Sony IMX882 con OIS y apertura f/1,5, garantizando capturas nítidas incluso en baja luz. Todo ello respaldado por una batería de 6000 mAh con carga ultrarrápida de 90W, junto a conectividad de última generación con Wi-Fi 6 y Bluetooth 5.4.
Realme aprieta a la competencia con una rebaja histórica en el 14 Pro Plus
Después de la ofensiva de Xiaomi, Realme no se queda atrás y contraataca con una rebaja contundente en su 14 Pro Plus, que ahora puede conseguirse por solo 231,99 euros. Una oportunidad difícil de dejar pasar, ya que en tiendas como Miravia o PcComponentes su precio habitual supera los 299€.

Integra una pantalla curva 1.5K de 6,83 pulgadas con refresco de 120 Hz, brillo máximo de 1500 nits y protección ocular AI con atenuación PWM de 3840 Hz. En su interior equipa el procesador Qualcomm Snapdragon 7s Gen 3 junto a la GPU Adreno 810. Acompañado de 8 GB de RAM y 256 GB de almacenamiento.
En el apartado fotográfico, destaca su cámara principal Sony IMX896 OIS de 50 MP, junto a un sensor periscópico Sony IMX882 de 50 MP con zoom óptico 3X y estabilización OIS. Además suma una lente ultra gran angular de 8 MP. Su batería de 6000 mAh con carga rápida SUPERVOOC de 80W. En el apartado relacionado con la conectividad, se completa con Wi-Fi 6, Bluetooth 5.2, NFC y 5G dual.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El gato de Schrödinger es uno de esos ejemplos que se han colado en la cultura popular para mostrar lo extraño de la física cuántica. Un animal encerrado en una caja, vivo y muerto al mismo tiempo hasta que alguien lo observe. Lo que nació como una paradoja para subrayar lo absurdo de la mecánica cuántica aplicada a lo cotidiano se ha convertido en un símbolo. Su fuerza como imagen es tan grande que casi todo el mundo, incluso sin formación científica, lo reconoce.
En un nuevo artículo subido al repositorio arXiv, un grupo de investigadores da un paso que podría cambiar la manera en que entendemos la materia: muestran cómo un tipo especial de luz, preparada en un estado cuántico semejante al del gato de Schrödinger, puede inducir superposiciones en sistemas electrónicos. Los autores lo expresan con claridad: “la irradiación con un campo de luz en estado de gato permite proyectar superposiciones macroscópicas en la materia”. Esta idea coloca a la luz en un papel activo y creativo, capaz de transferir su carácter cuántico a los electrones de un sólido.
De paradoja mental a experimento real
Cuando Erwin Schrödinger planteó su experimento mental en 1935, no buscaba una receta experimental, sino remarcar lo extraño que resultaba el formalismo cuántico. En su ejemplo, un átomo radiactivo podía desintegrarse o no, y ese azar se trasladaba a un mecanismo que decidía la vida del gato. Así, antes de observarlo, el animal se encontraba en una superposición. El objetivo de Schrödinger era poner en evidencia la dificultad de aceptar la coexistencia de estados opuestos en la vida cotidiana.
Hoy, sin embargo, el término “estado de gato” se usa de manera técnica para describir superposiciones cuánticas de gran tamaño. En el paper se indica: “un estado de gato consiste en una superposición coherente de dos estados macroscópicamente distinguibles”. Esa definición muestra cómo una metáfora se ha convertido en un concepto operativo. Ahora no hablamos de animales, sino de electrones, fotones o materiales enteros que pueden ocupar configuraciones diferentes de manera simultánea.
El avance más llamativo de este trabajo es que el estado de gato ya no se limita a sistemas de luz o de pocos átomos, sino que se traslada a sólidos con muchos electrones. El reto es enorme porque en sistemas grandes suele aparecer la decoherencia, un proceso que destruye las superposiciones y devuelve al sistema a un estado clásico.

La luz como transmisora de lo cuántico
La idea central del artículo es que la luz no solo ilumina ni excita, sino que puede transmitir sus propiedades cuánticas a la materia. Para ello, los investigadores utilizan un tipo de campo luminoso en superposición, conocido como “estado de gato de Schrödinger de la luz”. Ese campo es capaz de proyectar su carácter dual sobre los electrones de un material.
Los autores explican que “la proyección de superposiciones de luz en sistemas de electrones permite preparar estados que no son accesibles con irradiación clásica”. En otras palabras, la luz clásica, como la de un láser común, nunca conseguiría este efecto. Solo la luz en estado cuántico especial puede inducir a los electrones a comportarse de manera no convencional.
Este mecanismo abre un escenario totalmente nuevo. Hasta ahora, la óptica cuántica se había centrado en controlar los fotones, mientras que la física de la materia condensada estudiaba los electrones y sus fases. Este trabajo actúa como un puente entre ambos campos, mostrando que la luz cuántica puede convertirse en una herramienta para fabricar materia en estados imposibles de lograr por otros medios.
La frontera de lo macroscópico
La dificultad de llevar superposiciones al terreno macroscópico es bien conocida. En sistemas grandes, la interacción con el entorno destruye la coherencia rápidamente. Por eso, la propuesta de transferir estados de gato de la luz a los electrones resulta tan audaz.
Los investigadores señalan que la clave está en que la luz ya contiene la superposición. Así, al interactuar con el material, esa condición cuántica se proyecta directamente en el sistema electrónico. El resultado es un estado que, en principio, debería conservarse el tiempo suficiente como para ser medido. Según el artículo, “la irradiación con estados de gato ofrece una vía para preparar superposiciones electrónicas robustas en sólidos”.
Este aspecto es crucial porque sugiere que no hablamos de un fenómeno efímero o meramente teórico. Con la tecnología actual, podría observarse en experimentos reales. Y de confirmarse, supondría un salto en la capacidad de manipular sistemas con muchos grados de libertad en régimen cuántico.

Posibles aplicaciones
Más allá del logro conceptual, este tipo de control tiene implicaciones prácticas. En el ámbito de la computación cuántica, los estados de gato ya se utilizan para codificar información de forma redundante, lo que ayuda a corregir errores. Si se consigue inducir gatos electrónicos en sólidos, podría abrirse un camino hacia nuevos tipos de qubits más estables y resistentes al ruido.
El artículo sugiere también que la proyección de superposiciones podría utilizarse para diseñar fases electrónicas novedosas. Esto significa que no se trataría solo de reproducir efectos conocidos, sino de crear nuevos estados de la materia inducidos por la luz. Este tipo de materia exótica sería imposible de alcanzar sin el ingrediente cuántico del campo luminoso.
Otro punto a destacar es que, dado que la luz puede sintonizarse en frecuencia, intensidad y polarización, ofrece un control muy versátil. Eso permitiría explorar un amplio abanico de configuraciones y materiales. En la práctica, se trataría de una nueva forma de “ingeniería cuántica de materiales”.
Hacia una nueva era de experimentación
El trabajo no se limita a proponer una idea abstracta. Describe con detalle escenarios concretos en los que podría verificarse el fenómeno, incluyendo materiales y parámetros experimentales que están al alcance de laboratorios avanzados. Los autores subrayan que “nuestro esquema es directamente accesible con la tecnología actual de óptica cuántica y sistemas electrónicos”.
Esa accesibilidad lo convierte en un resultado impactante. No se trata de esperar décadas, sino de que en los próximos años podríamos ver demostraciones experimentales de gatos cuánticos electrónicos. Esto marcaría un antes y un después en la relación entre luz y materia.
El artículo también apunta a la posibilidad de extender esta estrategia a otros sistemas cuánticos, como vibraciones en sólidos o modos colectivos más complejos. La idea general es clara: usar la luz cuántica como catalizador de fenómenos que hasta ahora estaban fuera de nuestro alcance.
Referencias
- A. R. Kuzmak, M. Schüler, M. Kiffner, D. Jaksch. Schrödinger-cat light induces Schrödinger-cat electronic states in solids. arXiv (2024). doi: 10.48550/arXiv.2404.07272.
Durante un proyecto de reurbanización en la ciudad de Vence, en pleno corazón de la Provenza, los arqueólogos encontraron una serie de restos que los pusieron sobre aviso de inmediato. Las excavaciones arqueológicas subsiguientes revelaron lo improbable: los vestigios, excepcionalmente conservados, de un edificio religioso paleocristiano del siglo V, acompañado por un baptisterio y más de una treintena de sepulturas de alto rango. El hallazgo, que los especialistas han calificado como único en Europa por su estado de conservación y relevancia histórica, reescribe la historia religiosa de la región y confirma el papel central de Vence en la difusión del cristianismo en el sur de la actual Francia.
Un hallazgo excepcional en el centro de Vence
Las excavaciones comenzaron en marzo de 2025, en el marco de los trabajos de remodelación de las Halles Surian, el histórico mercado cubierto de la ciudad. Fue durante el desmontaje de los pavimentos cuando el equipo arqueológico, dirigido por el Servicio Arqueológico de la Metrópolis Niza Costa Azul y supervisado por la Dirección Regional de Asuntos Culturales (DRAC) de la región Provenza-Alpes-Costa Azul, descubrió las estructuras de una catedral paleocristiana cuya localización exacta se desconocía hasta entonces. Se trataba de un edificio de grandes dimensiones, de unos treinta metros de longitud. Datado en el siglo V, permaneció en uso hasta su demolición en el siglo XI, momento en el que se erigió la actual catedral románica.
Descubrir los restos de una catedral que permita seguir su evolución arquitectónica entre el siglo V y el XI es un acontecimiento quepocas veces ocurre. Además de por su relevancia artística. este hallazgo es crucial para comprender los inicios del cristianismo en la Provenza, una región muy ligada a figuras episcopales influyentes.

El baptisterio: testimonio de los ritos de iniciación cristiana
Este no ha sido el único descubrimiento relevante en la zona. Junto a la catedral y a escasa distancia de su nave principal, apareció un baptisterio coetáneo. Su estado de conservación era extraordinario, con su pila bautismal intacta y sin haber experimentado modificaciones posteriores. Este detalle resulta de particular relevancia, ya que en la antigüedad tardía el bautismo se administraba principalmente a los adultos mediante inmersión total, a diferencia de la aspersión, práctica habitual en la actualidad. El descubrimiento, por tanto, confirma que Vence contaba con un complejo religioso bien estructurado, con un espacio dedicado a los ritos de iniciación cristiana que marcaban la integración de los catecúmenos en la comunidad eclesiástica.
El baptisterio se integrará en el futuro mercado. Gracias a una cubierta de cristal, podrá visitarse in situ como pieza central de un recorrido expositivo sobre la historia del lugar.

Un conjunto de sepulturas de élite
El conjunto arqueológico incluye también una treintena de sepulturas de alto rango, situadas tanto dentro como en las inmediaciones de la catedral. Se trata de enterramientos de una notable calidad arquitectónica. Probablemente, albergaron a obispos, canónigos o notables laicos de la comunidad tardoantigua y altomedieval. Entre los restos recuperados, figuran tres esqueletos infantiles.
Las investigaciones en curso, que incluyen el análisis isotópico de los restos, permitirán determinar la edad, el sexo y posibles detalles biográficos de los individuos enterrados. Los arqueólogos albergan la esperanza de poder vincular algunos de estos restos con personajes documentados en las biografías de los obispos de Vence entre los siglos V y XI. Otros casos similares, como la identificación de sepulturas en Notre-Dame de París, demuestran que tal hipótesis es factible.
Fases de transformación y reutilización del espacio sagrado
El estudio estratigráfico ha permitido reconstruir las distintas fases de ocupación y transformación del sitio. Así, tras la demolición de la catedral paleocristiana en el siglo XI y coincidiendo con la construcción del nuevo templo románico, parte del espacio sagrado se reutilizó con fines artesanales.
En el interior de la antigua nave, por ejemplo, se hallaron dos moldes para la fabricación de campanas. Se atestigua así que algunos elementos arquitectónicos de los edificios religiosos podían encontrar usos funcionales en épocas posteriores. Además de ilustrar la historia de la arquitectura religiosa en Vence, el descubrimiento también permite investigar la adaptación de los espacios a las necesidades de la comunidad a lo largo de más de medio milenio.

Integración en el proyecto urbano de las Halles Surian
El descubrimiento ha impulsado un ambicioso plan de integración patrimonial. La municipalidad de Vence ha anunciado que los restos más relevantes no se volverán a enterrar, sino que se conservarán y expondrán al público. El nuevo mercado se convertirá, por tanto, en un espacio híbrido que combinará actividad comercial y difusión cultural. Además del baptisterio, se prevé preservar y exhibir los basamentos del ábside de la catedral y, posiblemente, una de las sepulturas mejor conservadas.
Este modelo de integración entre desarrollo urbano y conservación patrimonial ha recibido la 43.ª Marianne d’or de la République 2025, distinción que premia los proyectos que combinan función pública y valorización de la memoria histórica. La apertura del renovado mercado de Halles Surian está prevista para febrero de 2026.

Relevancia histórica para Provenza
El hallazgo confirma que Vence fue un centro neurálgico del cristianismo en la antigüedad tardía. Se vinculó a las redes episcopales que extendían su influencia desde las islas de Lérins hasta el interior provenzal. El complejo monumental descubierto, con catedral, baptisterio y necrópolis, no solo aporta datos sobre la arquitectura y la liturgia de la época, sino que también abre nuevas vías de investigación sobre la organización social y religiosa en el sur de la Galia.
La combinación de monumentalidad, excelente estado de conservación y potencial para la investigación histórica convierte este yacimiento en un laboratorio único para el estudio del cristianismo primitivo en el Mediterráneo occidental. Además, en un contexto en el que las intervenciones arqueológicas suelen quedar relegadas a las publicaciones especializadas, Vence propone un modelo innovador: hacer de la arqueología un motor de identidad, memoria y desarrollo urbano, integrando el legado tardoantiguo en un espacio público vivo.
Referencias
- 2025. "Découverte majeure d’une Cathédrale paléochrétienne à Vence". Vence. URL: https://vence.fr/decouverte-majeure-dune-cathedrale-paleochretienne-a-vence/
- 2025. "Cathédrale paléochrétienne : une découverte capitale pour éclairer plusieurs siècles d’histoire". Vence. URL: https://vence.fr/cathedrale-paleochretienne-une-decouverte-capitale-pour-eclairer-plusieurs-siecles-dhistoire/
- Capoccia, Noemi. 2025. "A Vence, in Provenza, è stato scoperto un battistero paleocristiano accanto alla cattedrale del V secolo". Finestre sll'Arte. URL: https://www.finestresullarte.info/archeologia/vence-provenza-scoperto-battistero-paleocristiano-accanto-alla-cattedrale-del-v-secolo
- Melchiorri, Gaspare. 2025. "A Vence in Costa Azzurra scoperta una cattedrale paleocristiana". Il Giornale dell'Arte. URL: https://www.ilgiornaledellarte.com/Articolo/A-Vence-in-Costa-Azzurra-scoperta-una-cattedrale-paleocristiana
Durante una excavación aparentemente rutinaria en el Parque Provincial de los Dinosaurios, en Alberta, Canadá, un grupo de estudiantes universitarios se topó con algo totalmente inesperado: el fósil parcial de un ala. No era de un ave ni de un dinosaurio, como muchos habrían imaginado en uno de los yacimientos paleontológicos más importantes del mundo. Era de una libélula. Pero no una cualquiera: tenía 75 millones de años de antigüedad y no se parecía a ninguna especie conocida.
Este hallazgo, recientemente publicado en el Canadian Journal of Earth Sciences por un equipo de investigadores de la Universidad McGill, no solo supone la primera libélula mesozoica descubierta en Canadá, sino que también ha obligado a los científicos a crear una nueva familia taxonómica, Cordualadensidae, para clasificarla. Así de distinta y enigmática es Cordualadensa acorni, una criatura que ha logrado emerger del silencio geológico con un mensaje revelador: nuestra comprensión de los insectos del Cretácico está aún en pañales.
Una ventana abierta al ecosistema de hace 75 millones de años
Hasta ahora, el Parque Provincial de los Dinosaurios era célebre por su abundancia de fósiles de dinosaurios, plantas y reptiles, pero casi no había rastro del mundo diminuto que convivía con estos gigantes: los insectos. El descubrimiento de Cordualadensa acorni cambia ese panorama de forma radical. Lo hace no solo por ser la primera libélula del Cretácico superior identificada en suelo canadiense, sino por abrir la puerta a un nuevo tipo de conservación fósil en la región: las impresiones fósiles, una forma de preservación extremadamente rara en la zona.
Este tipo de conservación ha permitido que se conserven detalles tan finos como las nervaduras del ala de la libélula, algo que ha sido clave para reconstruir su anatomía y determinar que esta criatura pertenecía a un linaje completamente desconocido. Su estructura alar indica que estaba adaptada al planeo, lo que sugiere comportamientos migratorios o al menos capacidades de vuelo prolongado, similares a algunas especies modernas de libélulas que recorren miles de kilómetros.
Lo más sorprendente es que este fósil llena un vacío evolutivo de más de 30 millones de años en la historia de las libélulas. Una laguna que hasta ahora estaba completamente en blanco en el registro fósil del continente norteamericano.

Un ecosistema más complejo de lo que se pensaba
Que una libélula tan singular haya permanecido oculta hasta ahora en un lugar tan estudiado como el Dinosaur Provincial Park demuestra una vez más que el pasado guarda secretos en los lugares más insospechados. Hasta este descubrimiento, el único insecto registrado en el yacimiento era un áfido microscópico conservado en ámbar. Pero la nueva línea de investigación abierta por los científicos canadienses, centrada en examinar formaciones rocosas que antes se consideraban poco prometedoras, ya está empezando a dar frutos.
El hallazgo también resalta un hecho fundamental en paleontología: la historia de la vida en la Tierra no puede entenderse solamente desde el punto de vista de los grandes depredadores o los herbívoros gigantes. Los insectos, aunque diminutos, desempeñaban un papel esencial en la red ecológica del Mesozoico. Una libélula de unos 12 centímetros de envergadura, como Cordualadensa acorni, no solo sería una presa habitual de reptiles voladores y pequeños dinosaurios, sino también un eficiente depredador de otros insectos, manteniendo en equilibrio un ecosistema que hoy solo podemos imaginar.
Este tipo de descubrimientos, lejos de ser meras curiosidades entomológicas, son piezas claves del rompecabezas que es la vida prehistórica. Ayudan a reconstruir con mayor precisión la biodiversidad de ecosistemas antiguos, sus dinámicas tróficas y su evolución a lo largo del tiempo.

Más allá del fósil: un homenaje a la ciencia y a la divulgación
El nombre no fue elegido al azar. El epíteto “acorni” es un homenaje a John Acorn, un divulgador científico canadiense que durante años ha inspirado a generaciones a interesarse por los insectos y la historia natural de Alberta. Su célebre programa de televisión “Acorn, the Nature Nut” dejó una profunda huella en la divulgación científica del país, y ahora su legado también quedará inscrito en la nomenclatura paleontológica.
El reconocimiento no es anecdótico. Este fósil, hallado por un estudiante de grado durante una práctica de campo, simboliza lo que puede lograrse cuando la ciencia académica, la educación y la curiosidad se dan la mano. En un mundo donde la paleontología a menudo parece territorio exclusivo de grandes equipos y hallazgos espectaculares, Cordualadensa acorni recuerda que los pequeños descubrimientos, los hechos por manos jóvenes y ojos atentos, pueden tener un impacto igual de profundo.
¿Qué más nos puede revelar el pasado?
La identificación de esta nueva especie no es solo un hallazgo puntual. Es, potencialmente, la punta del iceberg de una nueva línea de investigación en la región. Si esta libélula ha sobrevivido grabada en la piedra durante 75 millones de años, ¿qué otras criaturas minúsculas están esperando ser descubiertas en capas geológicas similares? ¿Cuántos vacíos evolutivos más pueden rellenarse si ampliamos los métodos de búsqueda y los horizontes de la investigación?
Este descubrimiento ha reactivado el interés por el estudio de los insectos fósiles en Norteamérica, una rama de la paleontología muchas veces eclipsada por los grandes esqueletos de saurios. Pero cada ala, cada segmento, cada nervadura conservada en piedra, habla del tejido delicado y complejo de la vida antigua. En ese sentido, Cordualadensa acorni no es solo una libélula fósil: es un símbolo de todo lo que aún queda por descubrir, de los silencios del pasado que esperan ser escuchados.
El estudio ha sido publicado en el Canadian Journal of Earth Sciences.
Marchitará la rosa el viento helado,
Todo lo mudará la edad ligera
Por no hace mudanza en su costumbre.
Fragmento del soneto XXIII de Garcilaso de la Vega (1498 – 1536)
Si alguna vez has escuchado a alguien justificar una acción o hecho, de cualquier tipo eso da igual ahora mismo, afirmando que “de toda la vida se ha hecho así”, “que así han sido siempre las cosas” y que eso justifica que sigan siendo así, in saecula saeculorum, seguramente te estés enfrentando a una falacia lógica a la que llamamos “argumento ad antiquitatem” o también “apelación a la tradición”. Demasiado latín para el párrafo de inicio ¿no te parece?
Que durante la mayor parte de la historia humana la esclavitud estuviera presente de manera continua en nuestra realidad no justifica que hoy esté bien, ¿o sí? Seguro que para ciertos casos lo tenemos muy claro y para otros ya no tanto, a ver. ¿Piensas que la festividad del día de Todos los Santos, nuestra tradición centenaria de ir a los cementerios a llevar flores a los nuestros, está en peligro por la irrupción de Halloween? No hace falta que contestes, solo pretendo hacerte ver que hay algo relativo a las tradiciones y costumbres que quizá tenga más fuerza de lo pudieras imaginarte.
Como recordarás, la palabra costumbre en griego es la raíz de ética y en latín de moral, ahí es nada. ¿Algo tendrán entonces que ver las costumbres y las tradiciones con la ética? Pues quizá más de lo que a simple vista podrías imaginarte.
Las morales no solo son la reglamentación del modo de relación de los animales humanos, esto ya lo hemos visto antes. También dotan de un sentido simbólico a nuestro día a día. Ordenan el tiempo y priorizan ciertas acciones en determinado momento concreto, marcando así el año completo, ordenándonos la vida. Te lo explico.
Convendrás conmigo que, por lo menos en esta parte del mundo, la navidad es el gran festejo anual por antonomasia. “La natividad del Señor” es la celebración del nacimiento del hijo de Dios, y en estas fechas la reivindicación de la familia, los buenos deseos, la solidaridad, la caridad, el agasajo a los niños y más desfavorecidos, la alegría y el compartir en general, son los sentimientos que pretendemos honrar en esta festividad. Además, la navidad marca el fin y el inicio del año. El nacimiento de un año nuevo al que aspiramos llegar limpios de vicios y malos hábitos para arrancar con nuevos y mejores propósitos. ¿No te suena arrebatadamente moral? Podrás pensar que estando de por medio la cuestión religiosa es normal que estas fiestas tengan esa tendencia moralista, pero y ¿si no es “tan así” como te imaginas?
El peso de la costumbre trasciende lo religioso, porque esto es advenedizo y transitorio. Es cierto que con el cristianismo llevamos dos mil años mal contados, y no parece tan pasajero. ¿Pero qué pensarías si te digo que si mañana desapareciera el cristianismo seguiríamos festejando más o menos las mimas fiestas bajo cualquier otro nombre? ¿Y si ya lo hemos hecho antes del cristianismo?

Podría ser el año 217 a.C. cuando los romanos comenzaron a festejar la Saturnalia o las Saturnales, esto es, las fiestas en honor al dios Saturno. Durante los días 17 a 23 de diciembre decoraban sus casas con velas y plantas ornamentales y entre amigos y familiares se hacían regalos y se festejaban unos a otros con banquetes y algún que otro revolcón. Las festividades tuvieron tanto éxito que fueron cambiando y ampliándose con el tiempo y se alargaron hasta el día 25 de diciembre. Cuando se introdujo la festividad de la “Natividad del Sol Invicto” que según ellos era de origen persa. Algunos historiadores reconocen en este Sol victorioso al dios solar Mithra del que tenemos noticias desde el año 1.400 a.C. y lo podemos situar en las mitologías persa e indoirania.
Sea como fuere, festejar el nacimiento del Sol en estas fechas tiene todo el sentido del mundo porque, como sabrás, en el hemisferio norte el día 21 de diciembre se produce el solsticio de invierno, esto es, la noche más larga del año y el día más corto. A partir de esa fecha los periodos de luz solar se van ampliando hasta el 20 o 21 de junio que es el solsticio de verano, el día más largo del año y, por ende, la noche más corta… y sí, también se celebra en medio mundo, con las famosas fiestas relacionadas con el fuego.

Algunos historiadores afirman que el ser humano lleva algo más de 12.200 años celebrando el solsticio de invierno. Pues para la cultura neolítica, eminentemente agricultora, esta fecha era fundamental porque marcaba el fin de las pocas siembras de invierno, allí donde se podían dar, y el esperado inicio de un nuevo ciclo, del nuevo año. La fecha del solsticio de invierno era tan importante que numerosos monumentos megalíticos en todo el hemisferio norte están alineados con la salida del Sol en esta fecha tan astronómicamente relevante. Y me niego a creer que las algunas culturas paleolíticas no hubieran identificado también esta fecha del calendario, pues es vital para saber cuándo renace el Sol, cuando reaparece la vida y podemos respirar aliviados. Por supuesto que es una fecha alegre en la que festejar haber sobrevivido a un invierno que ya tiene los días contados, claro que hay que favorecer a los más débiles y los niños por haber conseguido permanecer entre los vivos, claro que es momento de compartir. ¿No ves que cómo animales sociales lo que más nos gusta es comer y beber juntos, y más si hay un motivo justificado para hacerlo? ¿No lo seguimos haciendo hoy?
La fuerza de la costumbre, por tanto, es fundamental en nuestra construcción social y en la forma de ordenarnos la vida, darnos sentido de pertenencia y justificar el porqué de que las cosas sean como deben ser. Y esta es una acción que recae en la moral, en cómo debemos hacer las cosas entre nosotros.
Por cierto, ¿sabías que Halloween es una festividad de origen celta que tiene más de 3.000 años?

En esta fecha los celtas se disfrazaban y hacían hogueras para ahuyentar a los malos espíritus del frío y del invierno que ya llegaban. Llamaban a esta noche de disfraces Samhain, que viene a significar “fin del verano”, para así dar paso a la oscuridad del invierno. Lo que quizá no sabías es que Halloween, o Hallowe’en (según fuentes consultadas) es la contracción de All Hallows’ Eve, que vendría a ser “the evening before All Saints' (or All Hallows') Day”, o lo que es igual en la lengua de Cervantes a “la víspera del Día de Todos los Santos”. Día que en su origen se celebraba el 13 de mayo y honraba a los primeros mártires del cristianismo. Fue el Papa Gregorio IV en el año 835 quien estableció el 1 de noviembre como el Día de Todos los Santos.
Fíjate qué curioso, pues escogió esta fecha porque coincidía con una festividad de los pueblos germánicos, ya que en aquella época el objetivo de la Iglesia era ir eliminando las fiestas paganas del calendario y asimilándolas en su orden de celebraciones propio. Y claro, la fiesta a la que nos referimos era, obviamente, el Samaín o Samhain, esa tradición de origen celta (que todavía se celebra en algunas partes de Galicia) y que es el origen del actual Halloween. ¿Y ahora qué? ¿Está desplazando esta festividad tan “gringa” al Día de Todos los Santos o simplemente está reivindicando su primogenitura? Continuará…
Durante décadas, los científicos se han preguntado qué fue exactamente lo que hizo que el Homo sapiens sobreviviera mientras sus primos evolutivos, los neandertales y los denisovanos, desaparecían para siempre. Las respuestas se han buscado en el clima, en las armas, en la dieta, en la cultura... pero cada vez más miradas se centran en otro terreno más invisible y poderoso: la bioquímica del cerebro.
Un reciente estudio publicado en Proceedings of the National Academy of Sciences (PNAS) y liderado por un equipo internacional de investigadores, entre ellos científicos del Instituto Max Planck y de la Okinawa Institute of Science and Technology (OIST), ha identificado un posible candidato en este enigma evolutivo: el gen ADSL. Este gen codifica una enzima esencial para la síntesis de purinas, compuestos fundamentales para el ADN, el ARN y muchas otras funciones celulares. Pero en los humanos modernos, esa enzima tiene algo que la hace única.
Una diferencia mínima, un cambio potencialmente trascendental
El ADSL es una proteína compuesta por 484 aminoácidos. En el caso del Homo sapiens, uno de esos aminoácidos ha cambiado. Mientras que en los neandertales y denisovanos aparece una alanina en la posición 429, en los humanos modernos hay una valina. Una sola letra diferente en el abecedario proteico. Pero ese pequeño cambio parece suficiente para alterar la estabilidad de la enzima, reduciendo su actividad dentro de las células.
Este cambio, que no está presente en los genomas de neandertales ni de denisovanos, sí se encuentra en prácticamente todos los humanos actuales. Esto sugiere que apareció después de la separación evolutiva entre las especies, pero antes de que los Homo sapiens abandonaran África. El estudio no se queda en la comparación genética: va un paso más allá. El equipo introdujo la variante humana de ADSL en ratones para observar qué efectos provocaba. Y los resultados fueron, cuanto menos, intrigantes.

Cambios en el cerebro y en el comportamiento
Los ratones con la versión "humanizada" del ADSL mostraban una acumulación de sustancias químicas —conocidas como SAICAr y S-Ado— en el cerebro, especialmente en las hembras. Estas sustancias son productos intermedios en la ruta metabólica de las purinas, y su acumulación sugiere que la enzima funciona de manera menos eficiente.
Pero lo más sorprendente fue lo que ocurrió en un experimento de comportamiento. En una prueba donde los ratones debían competir por acceder al agua tras una señal luminosa o sonora, las hembras con la variante humana se mostraban significativamente más rápidas y eficaces que sus compañeras sin la mutación. Los machos, en cambio, no mostraban diferencias destacables.
¿Qué significa esto? Aunque no se puede trasladar de forma directa la conducta de ratones a la especie humana, el experimento sugiere que esta pequeña mutación podría haber afectado funciones cognitivas o motivacionales relevantes, y tal vez, haber conferido una ligera ventaja en situaciones de competencia o aprendizaje.
Lo más llamativo es que, además de la mutación en la proteína, los investigadores han identificado otras variantes genéticas en una región no codificante del mismo gen ADSL que reducen aún más su expresión, especialmente en el cerebro. Estas variantes también están presentes en más del 97% de los humanos actuales, lo que indica que no solo una, sino al menos dos oleadas de cambios genéticos afectaron este gen a lo largo de nuestra evolución reciente.
¿Una ventaja evolutiva?
La hipótesis que se plantea es cautivadora: estos cambios podrían haber modificado sutilmente el funcionamiento cerebral de los Homo sapiens, haciéndolos más eficaces en ciertas tareas cognitivas o sociales, lo que habría facilitado su supervivencia en entornos cambiantes o más competitivos.
No se trata de afirmar que una mutación aislada haya convertido a los sapiens en genios ni que haya causado la extinción de los neandertales. Las diferencias entre especies humanas son complejas, multifactoriales y aún poco comprendidas. Pero lo que este estudio revela es que el cerebro humano podría haberse esculpido no solo por la selección de comportamientos o habilidades, sino también por cambios bioquímicos que actúan a un nivel microscópico, invisible, pero profundamente influyente.
Este hallazgo se suma a una línea de investigación emergente que explora cómo pequeñas modificaciones en genes que regulan el desarrollo y funcionamiento neuronal podrían haber marcado la diferencia entre nosotros y nuestros parientes extintos. Es un enfoque novedoso que combina genética, neurociencia, evolución y comportamiento, y que promete reescribir parte de la historia de nuestra especie.

Un equilibrio delicado entre función y disfunción
Curiosamente, mutaciones que provocan una deficiencia grave en la actividad del ADSL en humanos modernos causan trastornos como discapacidad intelectual, problemas del lenguaje o conductas agresivas. Es decir, el gen está implicado en funciones cerebrales clave. Sin embargo, las modificaciones encontradas en todos los sapiens no eliminan su función, sino que la reducen sutilmente.
Esto plantea la idea de un equilibrio evolutivo: la enzima debía estar suficientemente activa como para no provocar patologías, pero lo bastante disminuida para generar cambios beneficiosos. Es una danza genética de precisión milimétrica.
¿Por qué solo afecta a las hembras en ratones?
Uno de los aspectos más enigmáticos del estudio es que los cambios de comportamiento se observaron solo en las ratonas. Los investigadores no tienen aún una respuesta clara, aunque señalan que la actividad del gen puede estar modulada por niveles hormonales o por diferencias de expresión entre sexos.
Esto abre una puerta fascinante a futuras investigaciones que exploren si ciertos genes afectan de manera diferencial a hombres y mujeres, tanto en animales como en humanos, y cómo esos efectos pudieron haber influido en el desarrollo de sociedades humanas complejas.
Un gen que nos diferencia
El ADSL es ahora uno de los pocos genes identificados que presentan cambios específicos en la evolución de los Homo sapiens y cuyos efectos funcionales se están empezando a comprender. No es una pieza aislada, sino parte de un mosaico más amplio de mutaciones que, juntas, pudieron haber modificado la forma en que pensamos, sentimos y actuamos.
En un mundo en el que cada descubrimiento genético puede aportar una nueva pieza al rompecabezas de nuestra historia, investigaciones como esta nos acercan a entender por qué nosotros estamos aquí... y ellos no.
Hay una primera contestación sencilla que viene rápidamente a mi mente: “claro que sí, utilizamos la gravedad todos los días como fuente de energía”. Utilizamos la gravedad de varias formas. Por ejemplo, tenemos la energía hidroeléctrica. Cuando tenemos agua almacenada en un embalse, es decir, a una altura superior a la del nivel del mar, podemos dejarla caer hacia alturas menores extrayendo de ella energía. El agua de un embalse se queda ahí porque hay paredes que la mantienen encerrada. En el momento en que abrimos una simple compuerta, el agua sale a gran velocidad. El fenómeno es equivalente a tener una manzana en la mano y soltarla. La gravedad hace su papel y hace que el agua o la manzana caigan hacia abajo, es decir, hacia el centro de la Tierra, con gran rapidez.
En términos más técnicos, lleva al agua o a la manzana a situaciones con menos energía potencial, pero con más energía cinética (energía por movimiento), de tal forma que la energía total se conserva. Lo que hacemos, por tanto, es robarle energía a la gravedad. Para conseguirlo, solo tenemos que extraer la energía cinética organizada que posee el movimiento del agua que sale del embalse (o el de la manzana, pero esta lleva muy poca energía en comparación). Esencialmente, lo que hacemos es frenarla un poco a base de transferir su movimiento a otros elementos como una turbina y de ahí al movimiento de electrones en cables eléctricos: ¡una bombilla en nuestra casa se encendió gracias a la gravedad!
En términos más abstractos, la gravedad proporciona enlaces entre la materia, y a esos enlaces se les puede asociar un contenido energético. Cuando una manzana cae de un árbol al suelo, cambia su relación de enlace con toda la Tierra. Por ser la gravedad atractiva su energía de enlace es negativa. La manzana en el suelo está más enlazada con la Tierra que lo estaba en el árbol (por estar más lejos del centro de masa de la Tierra), y esto hace que su energía de enlace sea más negativa. En la caída de la manzana, el aumento de energía negativa se compensa con el aumento de la energía de cinética, positiva, de la manzana. Cuando golpea el suelo, esta energía positiva es convertida en un pequeño aumento de la temperatura en el lugar del golpeo: el cambio en la energía de enlace de la gravedad se ha transferido así al movimiento caótico de la ingente cantidad de partículas microscópicas que constituyen el suelo. De nuevo, otro ejemplo de extracción de energía gravitatoria.

La gravedad reina en el cosmos
Pero la potencia de la gravedad no queda ahí. Donde la gravedad reina de forma absoluta es en los fenómenos astrofísicos. Por ejemplo, las estrellas brillan debido a la gravedad. Dentro de las inmensas nubes de gas que pueblan el universo se generan regiones que caen sobre sí mismas debido a la gravedad. La gravedad comprime el gas de estas regiones, haciendo que este se caliente. Así, se llega a un umbral en el que los átomos de hidrógeno que componen mayoritariamente el gas son capaces de fusionar sus núcleos para formar átomos de helio. En este proceso conocido como fusión nuclear se extrae energía de la propia materia, al cambiar una vez más las energías de enlace que contienen los pilares que soportan su estructura. La energía extraída de la materia es radiada al espacio exterior en todas direcciones en forma de paquetes de luz. No se ha extraído energía directamente de la gravedad, pero esta ha actuado de catalizador fundamental.
Desde las enseñanzas de Albert Einstein, sabemos que masa es equivalente a energía. En la fusión nuclear se llega a convertir alrededor del 1 % de la masa inicial de gas hidrógeno en energía. Es decir, cuando todo el gas se ha convertido en helio, este pesará un 1 % menos que el gas inicial. Es una fuente de energía de una eficiencia espectacular, si la comparamos, por ejemplo, con la energía que podemos extraer de los combustibles fósiles: ¡tan solo una millonésima de su masa!

Gravedad y agujeros negros
Sin embargo, existen otros procesos, también con la gravedad como protagonista, en el que la conversión masa-energía puede llegar a eficiencias todavía mucho mayores que la energía de fusión. La tendencia atractiva de la gravedad hace que en la naturaleza se vayan generando progresivamente objetos más y más compactos. Por compacidad, me refiero esencialmente a la razón entre el radio gravitacional de un objeto (una longitud proporcional a la masa del objeto) y su radio real promedio. El radio gravitacional de la Tierra es de tan solo 1 centímetro, mientras que su radio real es de 6000 kilómetros. Es por esto que podemos decir que, en términos gravitatorios, la Tierra es muy poco compacta: 1 dividido por 600.000.000.
Sabemos que en el universo hay objetos con una compacidad extrema, alrededor de la unidad: son lo que se conoce en astrofísica como agujeros negros. El 14 de septiembre de 2015 se detectó por primera vez la emisión de ondas gravitatorias debida a la colisión de dos de estos objetos con unas 30 veces la masa del Sol cada uno (todo un hito de la ciencia). En ese choque se lanzó al espacio en forma de ondas gravitatorias el equivalente a 3 veces la masa del Sol. Todo en una fracción de segundo. En ese momento, esta colisión “brilló” más que todas las estrellas del universo sumadas. He escrito la palabra brilló entre comillas porque este brillo no se produjo en forma de luz sino en forma de ondas gravitatorias, la otra forma de luz que sabemos existe en el universo.

Aparte de la extracción de energía a partir de colisiones de agujeros negros, también podemos extraer energía gravitatoria si nos encontramos con un agujero negro rotante. Se espera que la mayor parte de los agujeros negros en el universo se encuentren rotando a grandes velocidades. La energía cinética de rotación de estos objetos tiene su equivalente en masa, por lo que estos objetos pesan más que sus homólogos no rotantes.
Esta energía cinética rotacional puede ser extraída del agujero negro, haciendo que este vaya frenando su giro. Se ha calculado que de esta forma se puede llegar a extraer hasta el 29 % de la masa/energía que posee el agujero negro rotante. Es el mecanismo con mayor eficiencia en cuanto a extracción de energía que se conoce (con la excepción de la aniquilación materia anti-materia, con un 100 % de eficiencia; el problema, sin embargo, es encontrar anti-materia la cual no parece existir de forma natural en nuestro universo). Este mecanismo de extracción de energía se cree que es el responsable del gigantesco brillo, durante mucho tiempo inexplicable, de los núcleos de las galaxias activas.
Un eslogan para terminar: no solo se puede extraer energía de la gravedad, sino que esta parece ser la fuente de energía más poderosa del universo.

Carlos Barceló Serón
Doctor en Ciencias Físicas

El descubrimiento de monumentos en lugares remotos siempre ha fascinado, sobre todo cuando parecen haber sido colocados a propósito donde casi nadie va. En lo alto de las montañas de Armenia, en paisajes hoy vacíos y fríos gran parte del año, descansan grandes estelas de piedra con formas de pez o de piel extendida. No están alineadas como los menhires europeos ni parecen casuales. Durante generaciones, los pastores locales las llamaron "vishaps", que en armenio significa "dragones", y su origen estuvo envuelto en leyendas. Ahora, un estudio científico realizado por un astrofísico y un arqueólogo ofrece una explicación más concreta y no menos sorprendente.
El artículo, firmado por Vahe Gurzadyan (astrofísico) y Arsen Bobokhyan (arqueólogo), presenta una investigación detallada sobre estas estelas prehistóricas, su distribución en altitud, su forma y su posible función. Los autores combinan herramientas arqueológicas clásicas con métodos cuantitativos modernos para responder una pregunta clave: ¿por qué estas piedras tan grandes se colocaron en lugares tan difíciles? La respuesta podría estar en el agua, y en un posible culto milenario a su presencia en las alturas.
Qué son los vishaps y dónde se encuentran
Los vishaps son monumentos de piedra tallados que se encuentran en las regiones montañosas de Armenia, a altitudes que van de los 1000 hasta más de 3000 metros sobre el nivel del mar. Pueden medir desde poco más de un metro hasta más de cinco. Según los investigadores, “la mayoría de los vishaps son estelas caídas o situadas en posición horizontal, pero todos presentan tallados en todas sus caras, salvo en la parte inferior, lo que indica que originalmente estaban erguidos”.
Existen tres tipos principales:
- Piscis, con forma de pez
- Vellus, que simulan pieles de buey extendidas
- Hybrida, una combinación de los anteriores.
Lo más llamativo es que la iconografía del pez predomina en las zonas de mayor altitud, lo que sugiere una conexión simbólica con el agua. Estas piedras no están aisladas. Se concentran en ciertas áreas como Tirinkatar, Gegharda Lich o Sakhurak, y se relacionan con otros restos arqueológicos como plataformas, asentamientos, sepulturas y petroglifos.

Cuándo fueron construidos
Determinar la antigüedad de estas estructuras ha sido un reto. Algunos investigadores propusieron fechas en la Edad del Bronce, pero nuevas excavaciones y análisis de carbono han aportado información más precisa. En el yacimiento de Tirinkatar, se tomaron 46 muestras orgánicas en distintos niveles de excavación. Dos de ellas permitieron fechar la erección de vishaps entre 4200 y 4000 a.C., es decir, en pleno Calcolítico, hace más de 6.000 años.
Estas fechas no se pueden generalizar a todos los vishaps, pero indican que al menos algunos pertenecen a una época muy temprana de organización social. La zona continuó siendo usada durante milenios y acumuló otros monumentos, lo que sugiere un paisaje cultural mantenido a lo largo del tiempo. Los autores afirman que Tirinkatar “puede considerarse un modelo para el estudio del uso del paisaje y la datación de los vishaps”.

¿Por qué se colocaron en lugares tan altos?
Uno de los aspectos más sorprendentes del estudio es el análisis estadístico de la altitud a la que se encuentran los vishaps y su tamaño. Lo intuitivo sería pensar que las piedras más grandes se construyeron en zonas accesibles, donde el clima permite trabajar durante más tiempo. Pero los datos no apoyan esa suposición. “No se observa una disminución del tamaño con el aumento de altitud”, señalan los autores. De hecho, algunos de los más grandes están en zonas muy elevadas.
Mover y tallar estas piedras requería un esfuerzo enorme. Solo su transporte podría implicar mover bloques de entre cuatro y siete toneladas. Según el análisis, el trabajo implicado en cada vishap se puede estimar en función de su volumen y peso, y su colocación en altura implica una decisión intencional. Esto lleva a los investigadores a plantear que los vishaps no eran estructuras funcionales simples, sino monumentos ligados a un fuerte significado simbólico.

Una posible conexión con el culto al agua
Los datos recopilados muestran que la mayoría de los vishaps están situados cerca de fuentes de agua: manantiales de altura, zonas húmedas o sistemas de irrigación prehistóricos. Esto no es menor. En una región donde el agua es un recurso limitado y su distribución depende del deshielo, ubicar monumentos cerca de su origen parece tener una intención clara. “La motivación natural para ubicar los vishaps en alturas podría estar relacionada con un culto al agua como fuerza vital en los valles inferiores”.
Además, los autores identificaron un patrón interesante: una distribución bimodal en la altitud de los vishaps, con picos en torno a los 1900 y 2700 metros. Esta doble concentración sugiere que no se trata de una dispersión aleatoria, sino de un patrón estructurado que podría estar relacionado con la migración estacional o con peregrinaciones rituales. En ambos casos, la conexión con el agua y su control como fuente de vida es un eje fundamental del análisis.
Un estudio con herramientas modernas
El trabajo combina el uso de GPS, sistemas de información geográfica (GIS), análisis estadístico, modelado en 3D y datación por radiocarbono. Los autores recopilaron datos de 115 vishaps repartidos por toda Armenia, midiendo con precisión sus dimensiones y localización. Aplicaron modelos de regresión y distribuciones gaussianas para encontrar patrones ocultos en la altitud y el tamaño.
Una de las conclusiones más claras es que “la existencia de vishaps grandes a gran altitud sugiere que hubo motivaciones culturales importantes para su construcción, más allá de la accesibilidad o la facilidad de trabajo”. Lejos de ser monumentos dispersos sin patrón, los vishaps parecen formar parte de un sistema simbólico complejo, posiblemente vinculado a las primeras formas de religiosidad ligadas al paisaje natural.
Lo que nos enseñan los vishaps sobre el pasado humano
Este estudio aporta una visión valiosa sobre cómo los seres humanos prehistóricos usaban el paisaje no solo para sobrevivir, sino también para expresar ideas colectivas. La elección de lugares remotos, el esfuerzo invertido y la iconografía empleada apuntan a una cosmovisión en la que el agua, las estaciones y la montaña formaban parte de un sistema simbólico esencial.
Como concluyen los autores, “los cultos suelen estar asociados a un esfuerzo social considerable, lo cual también se refleja aquí”. El estudio de los vishaps, además de abrir nuevas preguntas sobre el pasado de Armenia, permite comparaciones con otros paisajes rituales de altura en el mundo, como los Andes o el Himalaya. En todos ellos, la combinación de aislamiento, altura y elementos naturales parece haber servido como marco para la expresión religiosa de las primeras comunidades humanas.
Referencias
- Vahe Gurzadyan, Arsen Bobokhyan. Vishap stelae as cult dedicated prehistoric monuments of Armenian Highlands: data analysis and interpretation. DOI: https://doi.org/10.48550/arXiv.2401.00634.
- Marr, N. Y., & Smirnov, Y. I. (1931). Les vichaps. Mémoires de l'Académie d’Histoire de la Culture Matérielle, tome I. Leningrad: Maison d’édition de l’Académie d’Histoire de la Culture Matérielle.
Cuando se habla de París, inevitablemente pensamos en la capital de la moda, la alta costura y el arte de vivir con elegancia. Pero en los últimos años, la ciudad de la luz también se ha convertido en un faro de inspiración para la industria automotriz gracias a DS Automobiles, la marca premium nacida en 2014 bajo el paraguas de Stellantis y que hoy encarna el savoir-faire francés en cada uno de sus vehículos.
Herederos espirituales del icónico DS “Tiburón” de 1955, los modelos de la firma no se limitan a ser medios de transporte, sino que se presentan como auténticas piezas de artesanía rodante. Desde el uso de técnicas ancestrales como el guilloché en superficies metálicas o el point de perle en tapicerías, hasta la selección de los cueros más nobles, cada detalle está pensado para transmitir la misma pasión que un bolso de marroquinería artesanal o un reloj suizo de alta gama.
No es casualidad que DS Automobiles sea patrocinador oficial de la Paris Fashion Week, reafirmando su vínculo con la moda, la innovación y la cultura parisina. La marca busca no solo vender automóviles, sino transmitir un estilo de vida. Un estilo en el que la tecnología avanzada convive con la tradición artesanal, la deportividad con la elegancia y la sostenibilidad con el lujo.
La gama actual, compuesta por los DS 3, Nº4, DS 7 y Nº8, refleja una personalidad iconoclasta que rechaza etiquetas. En un SUV se pueden encontrar rasgos de coupé, y en una berlina, detalles propios de un crossover. Todo ello se combina con interiores refinados que recuerdan a los talleres de marroquinería de París y con un compromiso tecnológico que abarca desde la electrificación total hasta la participación destacada en la Fórmula E, donde la marca acumula títulos y récords.
Viajar en un DS no es simplemente desplazarse: es sumergirse en una experiencia estética y sensorial que conecta con la esencia misma del lujo parisino. Y en un momento en el que el automóvil se reinventa hacia lo eléctrico y lo digital, DS se posiciona como el intérprete más fiel del arte francés de viajar.
El espíritu del lujo parisino sobre ruedas
DS Automobiles se inspira en el alma bohemia y artística de París. Sus avenidas haussmanianas, los talleres de alta costura y la tradición relojera marcan un ADN estético único. Esta visión convierte a cada coche en una extensión del patrimonio cultural francés.

El legado del Tiburón de 1955
El clásico DS “Tiburón” revolucionó la automoción con un diseño adelantado a su tiempo. Hoy, ese espíritu iconoclasta revive en modelos contemporáneos que mantienen la audacia, el refinamiento y la atención al detalle como ejes centrales.

Artesanía: guilloché y point de perle
El guilloché, con sus finísimas incisiones geométricas, aporta un refinamiento visual y táctil a superficies metálicas. El point de perle, inspirado en la alta costura, transforma la tapicería en un trabajo artístico que une tradición y modernidad.

La tapicería Bracelet: un icono de identidad
Inspirada en las pulseras metálicas de relojería, la confección Bracelet se elabora en una sola pieza de cuero Nappa sin costuras en relieve. Este proceso exclusivo garantiza confort, durabilidad y un acabado único en cada asiento.

Materiales de lujo con origen responsable
El cuero Nappa utilizado en los DS proviene de reses criadas con el máximo cuidado en Baviera. Solo se selecciona la parte más noble de la piel, lo que otorga a cada vehículo una textura suave y resistente, auténtico símbolo de savoir-faire.

Influencia de la relojería en el diseño
La precisión y estética de la alta relojería se trasladan a mandos y consolas centrales. Las superficies guilloché no solo embellecen, sino que guían intuitivamente la mano hacia los controles, uniendo ergonomía con elegancia.

DS y la Paris Fashion Week
La presencia de DS como patrocinador oficial de la Paris Fashion Week confirma su vínculo con la moda y la innovación. Esta alianza proyecta a la marca como referente de la elegancia parisina aplicada al automóvil.

Electrificación y alto rendimiento
Todos los modelos de DS cuentan con versiones electrificadas: híbridos enchufables de hasta 360 CV y opciones 100 % eléctricas. El nuevo Nº8 promete hasta 750 km de autonomía, situando a la marca en la vanguardia de la transición energética.

Inspiración sin etiquetas
SUV con rasgos de coupé, berlinas con robustez de todoterreno: DS rompe las categorías clásicas. Esta fusión de estilos genera automóviles que sorprenden por su versatilidad y estética poco convencional. Entre ellos destaca el DS 7, el SUV que está arrasando este verano por su capacidad de aunar lujo, deportividad y espíritu familiar en un mismo vehículo.

Interiorismo de alta costura
Cada habitáculo DS es una pasarela de materiales exclusivos: bordados inspirados en la alta moda, combinaciones de colores innovadoras y atmósferas que remiten directamente al lujo parisino en su máxima expresión. El DS 4 lo ejemplifica como pocos: Deportividad, confort, lujo francés y tecnología de vanguardia: así es el coche que está marcando tendencia, un modelo que encarna el equilibrio perfecto entre diseño rompedor y refinamiento.

El arte francés de viajar
Más que coches, los DS ofrecen una experiencia de viaje. Confort de primera clase, servicios personalizados y un diseño que emociona convierten cada desplazamiento en un ritual estético y cultural.

Presencia global y proyección de marca
Con más de 450 DS Stores en 40 países, la marca ha logrado consolidar un aura de exclusividad global. Su combinación de artesanía, innovación y diseño parisino la sitúa como embajadora del lujo francés en todo el mundo.

DS Automobiles: el lujo parisino que redefine la movilidad
DS Automobiles ha conseguido algo único: trasladar el espíritu del lujo parisino al universo del automóvil. Sus modelos combinan técnicas artesanales centenarias con tecnología de vanguardia, ofreciendo coches que son a la vez arte, innovación y cultura. En plena era de electrificación, DS demuestra que el futuro del automóvil también puede escribirse con la elegancia eterna de París.

En un inusitado cruce entre la historia y la medicina, la figura de Cayo Mario —general y estadista de la Roma republicana— se ha convertido en el inesperado protagonista de un estudio neurológico que reinterpreta sus últimos años de vida. Según un trabajo reciente publicado en Neurosciences and History, la biografía de este persobaje que Plutarco incluyó en sus Vidas paralelas podría contener el primer registro histórico de demencia frontotemporal en su variante conductual. Esta hipótesis, planteada por un equipo de neurólogos gallegos, se apoya en un análisis minucioso de los cambios de comportamiento que el célebre militar experimentó en la vejez, cotejados con los criterios diagnósticos actuales de la enfermedad.
Cayo Mario: de los orígenes humildes a la cúspide del poder
Plutarco describe a Cayo Mario (c. 157-86 a. C.) como el hijo de unos padres indigentes que los criaron en una austeridad conforme a la antigua severidad romana. Desde joven, destacó en la milicia y se ganó el favor de Escipión Emiliano por su valor y disciplina en la reforma de un ejército que había caído en la molicie. Su ascenso fue meteórico. Además de ser siete veces cónsul, un récord en la Roma republicana, venció a enemigos tan temibles como Yugurta y los cimbrios, y protagonizó reformas militares que marcaron un antes y un después en la organización del ejército romano.
En esta etapa de su vida, nada sugiere un trastorno mental. Su comportamiento se caracterizaba por la prudencía, un juicio firme y una disciplina ejemplar. Fue un comandante capaz de inspirar a sus tropas por el ejemplo. Compartía las penurias con sus soldados y recompensaba el mérito con justicia.

El punto de inflexión: los cambios de conducta en la madurez
Sin embargo, en torno a los 65 años, en coincidencia con su sexto consulado, Plutarco menciona un cambio notable. Mario empezó a emplear su influencia para fines cuestionables, como la compra de votos mediante el pago de vastas sumas de dinero o el apoyo a las fechorías de Saturnino, responsable de una rebelión contra Domiciano.
El carácter de Cayo Mario se volvió impredecible. Alternaba momentos de agresividad con accesos de abatimiento. Tanto sus amistades como sus aliados empezaron a temerle, pues ordenaba ejecuciones sumarias por simples ofensas y recibía a la gente con una fiereza que infundía pavor.
Estos cambios se vieron acompañados por un deterioro físico. Ganó peso, se entregó a banquetes y alcohol, y descuidó la higiene y la imagen. Solía presentarse con el cabello y la barba largos, algo impropio de un general romano. Paralelamente, su ambición se tornó irrealista. Quiso encabezar una campaña contra Mitrídates VI a edad avanzada para enseñar a su hijo a ser general, una justificación que sus contemporáneos juzgaron ridícula.

Síntomas compatibles con demencia frontotemporal
La demencia frontotemporal, en su variante conductual, se caracteriza por un inicio habitual entre los 60 y 70 años y por alteraciones persistentes de la personalidad y el comportamiento. Según los criterios de Rascovsky, propuestos para la detección de esta afección el caso de Cayo Mario cumpliría, al menos, cuatro de los seis requisitos principales.
En primer lugar, el cónsul habría dado muestras de desinhibición temprana, caracterizada por una serie de conductas inapropiadas, pérdida de decoro, impulsividad y acciones temerarias. También habría manifestado apatía y tendencia a la inercia, visible, por ejemplo, en su pasividad en campañas como la Guerra Social. La pérdida de empatía, presente en su indiferencia hacia las necesidades y sentimientos ajenos, incluso con amigos cercanos, junto con la hiperoralidad y los cambios dietéticos completarían el cuadro diagnóstico.
Según los autores del estudio,oOtros signos descritos por Plutarco refuerzan la hipótesis. Entre ellos, figurarían la anosognosia (incapacidad para reconocer las propias limitaciones), los delirios (como creerse al mando en batallas imaginarias durante su enfermedad) y las conductas ritualistas.

Descartando otras posibilidades
El estudio descarta de manera razonable otras posibles causas. El trastorno bipolar, la esquizofrenia o el trastorno obsesivo-compulsivo, por ejemplo, suelen comenzar antes y habrían impedido la brillante carrera política y militar previa. Las enfermedades metabólicas, las deficiencias nutricionales o las intoxicaciones crónicas también podrían ser causas posibles de su cambio de comportamiento, aunque menos probables, consideran el cuadro tan coherente con la demencia frontemporal. Los investigadores descartan la enfermedad de Alzheimer por la ausencia de problemas de memoria, lenguaje o habilidades visoespaciales en el relato.
Plutarco: ¿cronista o caricaturista?
El análisis no ignora un problema metodológico fundamental: el único testimonio sobre los síntomas que padeció Cayo Mario procede de una fuente literaria escrita más de un siglo después. Algunos historiadores han acusado a Plutarco de cargar las tintas para retratarlo como un ejemplo de corrupción moral por el abuso de poder. Sin embargo, los neurólogos señalan lo improbable que sería que un autor sin formación médica describiera con tanta precisión un cuadro clínico que, veinte siglos después, encaja con precisión con los criterios biomédicos de la enfermedad.

Implicaciones históricas y políticas
Si la hipótesis planteada fuese correcta, estaríamos ante el caso documentado más antiguo de demencia frontotemporal en un dirigente político. Esto abre una reflexión sobre el impacto que las enfermedades neurodegenerativas pueden tener en la toma de decisiones de los líderes y, por extensión, en el rumbo de los destinos estatales. En el pasado, como también sucede en el presente, el deterioro cognitivo de un gobernante podía poner en riesgo la estabilidad política y la seguridad de la comunidad. Este estudio, por tanto, revela cómo la neurodegeneración de un líder político puede influir en el destino de las sociedades, un fenómeno tan relevante en la Roma republicana como en la política contemporánea.
Un caso de diagnóstico retrospectivo
La biografía de Cayo Mario que nos legó Plutarco es tanto la historia de un hombre que ascendió de soldado raso a cónsul como el relato de un ocaso marcado por la pérdida de juicio y las ambiciones desmesuradas. Interpretados a la luz de la neurología actual, estos signos sugieren que el viejo general pudo padecer demencia frontotemporal, un diagnóstico que, aunque imposible de confirmar con certeza, ilustra cómo la medicina puede ofrecer nuevas lecturas de la historia.
Referencias
- Macías-Arribí, M., et al. 2025. "On dementia and politics: Gaius Marius, frontotemporal dementia in Ancient Rome". Neurosciences and History, 13.1: 38-47. URL: https://nah.sen.es/index.php/en/issues/past-issues/volume-13/issue-1/on-dementia-and-politics-gaius-marius-frontotemporal-dementia-in-ancient-rome
La medicina antigua es el pilar en el que se apoya la moderna, pero en sus inicios progresó de forma lenta y precaria por una razón: no tenía reparo en mezclarse con la magia y la superstición. Además, muchos de los disparates y malas interpretaciones vertidos por los galenos clásicos se perpetuaron durante siglos porque los nuevos alumnos no cuestionaban nunca su veracidad: se limitaban a retener la lección que los profesores les impartían de memoria.
Las veleidades de algunos profesionales de la curación llegaron a tanto que importantes textos de la época cuestionaron la eficacia de la propia medicina. En El Satiricón, ficción del escritor romano Petronio (siglo i), podemos leer: «El médico no es más que un consuelo moral». En esos mismos años, Plinio el Viejo describía así la profesión en su Historia natural: «Al acecho de la fama a costa de cualquier novedad, negocian con nuestra vida sin pensárselo dos veces. De ahí aquellas miserables consultas junto al lecho de los enfermos, en las que ninguno opina lo mismo, para que no parezca una concesión ante el parecer de otro. De ahí también aquella infausta inscripción funeraria: "Murió por exceso de médicos"».
Seis mil demonios malignos
Gracias al Código de Hammurabi, compilado en la ciudad de Babilonia poco después de 1800 a. C., sabemos que la civilización mesopotámica interpretaba las enfermedades como castigos divinos impuestos por criaturas sobrenaturales de diferente jerarquía. Por esa razón, el primer paso en el diagnóstico consistía en identificar cuál de los aproximadamente 6000 demonios existentes era el causante del problema.
Los egipcios alcanzaron un alto grado de conocimientos médicos, del que tenemos referencia gracias a los papiros conservados, y el historiador griego Heródoto los denominó «el pueblo de los sanísimos», debido a su extraordinario sistema sanitario público. Sin embargo, algunos de sus tratamientos resultaban extravagantes, como los que se basaban en la terapia musical, que siguieron sin dudarlo sus discípulos de casa y de fuera. Herófilo (335 a. C.-280 a. C.), médico de la escuela de Alejandría, regulaba el ritmo cardiaco de acuerdo con la escala musical. Los pacientes debían entonar unos cantos específicos para respirar a la velocidad adecuada, pues se creía que muchas dolencias se sanaban con una respiración correcta.

Tratamientos de risa
Para diagnosticar el embarazo, los médicos de la tierra de los faraones contaban el número de vómitos que provocaba a la mujer el oler una mezcla de cerveza y dátiles. Para tratar la diabetes, conocida entonces como inundación de orina, el Papiro Ebers (hacia 1500 a. C.) describe un remedio preparado con una mezcla de hueso, papilla de cebada, granos de trigo, tierra verde de plomo y agua. Esta vasija griega del siglo vi a. C. muestra una sangría, un procedimiento médico muy extendido en la Antigüedad.
Muy lejos de allí también predominaban métodos de escaso carácter científico. Zhang Zhong Jing, que vivió entre los años 150 y 219, se considera el equivalente de Hipócrates en China y es tenido por el creador de la sintomatología y la terapéutica de ese país. En sus obras describió diversos tipos de fiebre y distinguió entre enfermedades agudas y crónicas. Pero a menudo su trabajo no resultaba fiable: al igual que Bian Que, que vivió cinco siglos antes, y otros médicos chinos de esas centurias, se basaba en el diagnóstico visual, superficial por naturaleza. Les bastaba con mirar al paciente, y ya fuera por la forma de andar o moverse de este, por el color de su rostro u otros signos externos, deducían los padecimientos internos que lo acosaban.
Para la medicina tradicional china, el origen de las enfermedades radica en un desequilibrio entre el yin y el yang, dos fuerzas complementarias que se encuentran en todas las cosas del universo. Esa inestabilidad alteraría el flujo del chi o energía vital y afectaría negativamente al organismo. Las terapias para evitar estos problemas se basaban, sobre todo, en la alimentación y las hierbas, pues el cuerpo humano ya dispone de su propio sistema de defensa. En este sentido, uno de los remedios tradicionales para fortalecer este sistema inmunitario natural fue ingerir polvos de cuerno de rinoceronte; pero este no tiene ningún valor terapéutico, porque está formado por queratina, la misma proteína que encontramos en las uñas o el pelo de todos los mamíferos, incluido el ser humano. Sin embargo, esta superstición continúa viva en buena parte de Asia.
Las pifias de un genio
Hipócrates, nacido en el año 460 a. C., fue el médico más venerado de la Grecia clásica y una figura decisiva en la historia de la medicina occidental. El famoso juramento ético al que se acogen los facultativos modernos cuando se gradúan lleva su nombre. Tanto él como sus seguidores fueron pioneros a la hora de describir diversas enfermedades y trastornos, como el cáncer de pulmón, y muchas de sus enseñanzas aún son relevantes para los estudiantes de neumología.
Sin embargo, este clásico de clásicos también cometió un buen número de errores. El mayor de ellos fue considerar que cualquier enfermedad nacía de la desproporción entre los cuatro fluidos que, según él, discurrían por el organismo: sangre, flema, bilis amarilla y bilis negra. Esta teoría de los humores era falsa, pero resultó muy influyente hasta pasada la Edad Media y dio lugar a prácticas ineficientes. Un ejemplo: si bien Hipócrates fue el primero en tratar eficazmente las hemorroides, sostuvo que eran provocadas por un exceso de bilis y flema.
Para recuperar el equilibrio de los fluidos, el paciente debía someterse a un cambio en su dieta o a un régimen de ejercicios. También sostuvo que los varones son engendrados por el semen que fluye de la parte derecha del cuerpo del padre y las niñas por el que procede del lado izquierdo. Y fue un gran defensor de que la lubricación vaginal era semen femenino que, al unirse con el masculino, formaba el embrión.
Durante la Antigüedad, el útero se consideró una especie de animal alojado en el cuerpo de la mujer y capaz de provocarle histeria –término que procede del griego hystéra, que significa ‘matriz’–, un trastorno que derivaba en mal genio o en un exceso de deseo sexual. Esta teoría fue defendida por Hipócrates, Galeno y otros tantos médicos grecorromanos. El heleno Sorano de Éfeso (siglo ii) negó que el útero se desplazara libremente, pero mantuvo que era el responsable de algunos de los supuestos problemas mentales femeninos.
Después de Hipócrates, Galeno fue el médico más importante del mundo clásico. Nacido en el año 129, desempeñó su profesión en la corte romana durante el mandato de tres emperadores. Entre su prolífica producción de literatura científica, sin embargo, encontramos algunas supersticiones extravagantes.

Una sangría tras otra
Griegos y romanos consideraban el cuerpo un templo inviolable, lo que vedaba el progreso consecuente a las disecciones, que estaban prohibidas. Galeno aprendió gracias a su trabajo con monos y cerdos, pero la anatomía de esos animales es distinta a la humana, lo que le condujo a errores respecto al hígado, el conducto biliar y el esternón, entre otros. Estos patinazos anatómicos persistieron hasta que Vesalio realizó la primera disección pública de un cadáver y publicó De humani corporis fabrica (De la estructura del cuerpo humano) en 1543.
Galeno también llegó a la conclusión de que el exceso de sangre era la causa de la mayoría de las enfermedades, lo que popularizaría las ineficaces y perjudiciales sangrías. Tal era su autoridad, que este procedimiento continuó siendo común hasta el siglo xvii, cuando el médico inglés William Harvey describió la circulación arterial y venosa, y no cayó en desuso hasta entrado el siglo xix.
Este médico de los césares fue una paradójica mezcla de erudición bien fundada y pseudociencia. Creía en la eficacia de los crecepelos, en especial en la de un ungüento que se confeccionaba con excrementos de ratón, y consideró que el pus curaba las heridas, idea que siguió viva hasta finales del siglo xix, cuando el cirujano inglés Joseph Lister demostró que era un disparate.
Vaya en su descargo que acertó más que la mayoría de sus predecesores, como el ilustre Erasístrato (304 a. C.–250 a. C.), que estaba convencido de que el cuerpo funcionaba y adquiría su fuerza vital gracias a una especie de soplo o pneuma que corría por las arterias y se fabricaba en el ventrículo izquierdo cardiaco a partir del aire que procedía de los pulmones. Para explicar la contradicción de que, al cortar una arteria, brotara sangre y no aire, supuso que este escapaba en primer lugar, y que la sangre de las venas pasaba a las arterias para llenar el vacío.
Baños de pis
El gran prescriptor de tratamientos estrambóticos fue el romano Catón el Viejo (234 a. C.-149 a. C.). Recomendaba que los niños se lavaran con la orina de una persona que mantuviera una dieta a base de col para crecer sanos y fuertes. En su tratado Sobre la agricultura señala que ponerse una ramita de ajenjo en el ano previene las irritaciones cutáneas propias de un largo viaje a caballo.
La mayoría de estos métodos se nos antojan ridículos, pero no debemos olvidar que estimularon la idea de que el conocimiento sistematizado puede mejorar la salud, permitieron desarrollar la cirugía y otras técnicas y pusieron los cimientos de los primeros grandes hospitales, como los imponentes valetudinaria del Imperio romano.

Magia y supersticiones a granel
Lo sobrenatural y las tradiciones no probadas eran parte de la medicina antigua. La egipcia nos ha legado el Papiro de Londres, de la época de Tutankamón, que contiene numerosas recetas mezcladas con hechizos. Muchos de los tratamientos que se dispensaban en los templos dependían de los presuntos dictados de Sejmet, diosa de la curación.
En el Avesta, una colección de textos sagrados de la antigua Persia, hay descripciones de enfermedades de la piel y quizá la primera referencia al paludismo, además de salmos y palabras curativas, como también pasa en el Cyranides (siglo iv), una compilación en griego de consejos médico-mágicos: «Si coges unos cuantos pelos de las ancas de un asno, los quemas y los mueles, y luego se los das a una mujer mezclados con una bebida, no parará de tirarse pedos».
El historiador romano Tácito cuenta que un ciego de Alejandría se postró ante el césar Vespasiano para pedirle que untara con saliva de su boca sus mejillas y las órbitas de sus ojos para devolverle la vista. Plinio el Viejo afirmaba que la gota y las enfermedades de las articulaciones remiten al tomar cenizas de sapo mezcladas con grasa rancia, y que el hígado de camaleón mezclado con el pulmón de sapo y aplicado en linimento era un eficaz depilatorio. También se creía que tocar los ollares de la nariz de una mula con los labios detenía el hipo y los estornudos.
Los sueños y su significado eran importantes para la salud. En Grecia se elaboraron complicados sistemas para interpretarlos, pues se pensaba que los dioses los podían usar para enviar mensajes personalizados con consejos sanitarios.
Pocas experiencias playeras resultan tan molestas como recibir una inesperada mancha blanca en la cabeza mientras se disfruta del sol. Lo que parece un accidente desafortunado es, en realidad, parte de un comportamiento mucho más complejo de lo que cualquiera sospecharía. Un reciente estudio científico demuestra que ciertas aves marinas han desarrollado un hábito tan peculiar como regular: solo defecan mientras vuelan, nunca cuando descansan en el agua.
La investigación, publicada en Current Biology en 2025, se centra en el comportamiento de los pardelas sombrías (Calonectris leucomelas), unas aves marinas abundantes en aguas del Pacífico occidental. Los resultados no solo confirman que estas aves mantienen un ritmo sorprendentemente constante para expulsar sus desechos, sino que abren la puerta a entender su papel ecológico y hasta sus riesgos sanitarios. Como señaló el investigador principal, Leo Uesaka, “las heces son importantes, pero la gente realmente no piensa en ellas”.
Un hallazgo inesperado en plena investigación
El objetivo inicial del equipo japonés no era observar el baño aéreo de las aves. El proyecto pretendía estudiar cómo las pardelas logran despegar desde la superficie del mar, un proceso que exige un gran gasto de energía. Para ello, colocaron pequeñas cámaras en el abdomen de varios ejemplares, con el fin de registrar la coordinación de sus patas y alas en los despegues.
Sin embargo, al revisar las grabaciones, apareció un patrón imposible de pasar por alto. Las aves expulsaban excrementos cada pocos minutos y siempre en vuelo, incluso cuando habían estado posadas en el agua. Según el propio Uesaka, “me sorprendió lo frecuentes que eran las deposiciones… pensé que era gracioso al principio, pero resultó ser interesante e importante para la ecología marina”.
Este giro fortuito en la investigación convirtió a un estudio sobre biomecánica en un trabajo pionero sobre los ritmos de excreción de aves marinas en alta mar.

Un reloj biológico muy puntual
Los datos recogidos con las cámaras revelaron que las pardelas siguen un intervalo regular de entre 4 y 10 minutos para defecar. Lo más llamativo es que, aun cuando descansan sobre el agua, interrumpen la pausa para alzar el vuelo y evacuar en pleno aire. Este comportamiento, observado en más de 200 eventos registrados, sugiere que no es un gesto al azar, sino una estrategia adaptativa.
El estudio calculó que estas aves expulsan unos 30 gramos de heces por hora, lo que equivale a aproximadamente un 5 % de su masa corporal. La regularidad del proceso es tan marcada que los investigadores hablan de un verdadero “ritmo de excreción periódico”. Aunque aún no se sabe con certeza la razón biológica detrás de esta pauta, todo apunta a que cumple varias funciones vitales.

Posibles razones evolutivas
Entre las hipótesis propuestas se encuentran tres especialmente relevantes. En primer lugar, evitar ensuciar sus propias plumas: si las aves defecaran mientras flotan, el riesgo de que los desechos quedaran adheridos al plumaje sería alto, con consecuencias negativas para su capacidad de vuelo e impermeabilidad.
En segundo lugar, podría tratarse de una estrategia para reducir la atracción de depredadores. Una mancha en el agua puede delatar la presencia de un ave descansando, mientras que en pleno vuelo los restos caen en el mar y se dispersan rápidamente. Finalmente, algunos especialistas plantean que resulta físicamente más sencillo defecar en vuelo que en reposo, dado que la postura de flotación limita ciertos movimientos musculares.
La combinación de estas ventajas explicaría por qué, incluso con el elevado gasto energético de despegar varias veces, las aves siguen prefiriendo evacuar en pleno aire.
Consecuencias para los ecosistemas marinos
Lo que podría parecer una simple curiosidad tiene un trasfondo mucho más amplio. Las heces de aves marinas son ricas en nitrógeno y fósforo, dos nutrientes esenciales para la vida marina. Al caer al océano, estos elementos pueden servir de fertilizante para el fitoplancton, base de la cadena trófica marina.
Con una población estimada de más de 400 millones de pardelas y especies afines, la cantidad de materia orgánica que devuelven al mar es gigantesca. Según los investigadores, esta aportación podría desempeñar un papel crucial en la productividad de amplias zonas del océano. Así, un gesto tan cotidiano para las aves podría estar sosteniendo indirectamente a peces, mamíferos marinos e incluso a las comunidades humanas que dependen de la pesca.
Riesgos asociados a las deposiciones
Aunque las heces tienen un valor ecológico, también implican riesgos sanitarios. El equipo de investigación recuerda que los excrementos son una de las principales vías de transmisión de la influenza aviar y otras enfermedades infecciosas. Comprender con detalle cómo, dónde y con qué frecuencia defecan estas aves puede ayudar a prever la propagación de patógenos en poblaciones silvestres y, eventualmente, su impacto en granjas costeras o incluso en humanos.
En este sentido, el estudio abre un nuevo campo para la vigilancia epidemiológica, ya que los hábitos regulares de excreción pueden ser un indicador de rutas de contagio. No se trata solo de una anécdota graciosa, sino de un dato con valor para la salud pública.
Una técnica ingeniosa para mirar el comportamiento animal
Otro aspecto llamativo del estudio es la metodología empleada. Colocar cámaras minúsculas, del tamaño de una goma de borrar, en el abdomen de las aves permitió captar imágenes únicas de su comportamiento. Aunque el objetivo era estudiar sus despegues, estas grabaciones ofrecieron una ventana inédita a su vida cotidiana.
Esta técnica no solo abre la puerta a investigar el hábito de defecar en vuelo, sino también otros aspectos del día a día de las aves marinas: cómo se alimentan, qué trayectorias siguen o qué interacciones sociales mantienen. La biología de campo se está transformando gracias a estas microtecnologías, que acercan a los investigadores a comportamientos imposibles de observar a simple vista.
Lo que queda por descubrir
A pesar de los avances, los científicos reconocen que aún desconocen la razón última del comportamiento. Como señaló Uesaka, “no sabemos por qué mantienen este ritmo de excreción, pero debe haber una razón”. Los próximos pasos incluyen usar dispositivos con mayor autonomía y GPS integrado, para mapear con precisión los lugares donde las aves liberan sus excrementos.
El equipo espera que estos datos aclaren hasta qué punto la fertilización marina depende de este aporte biológico y si otras especies, como los albatros, siguen patrones similares. Así, lo que comenzó como una observación casual puede convertirse en una pieza clave para comprender los equilibrios ecológicos del océano.
Más que una molestia
La próxima vez que un turista en la playa se lamente por haber sido “blanco” de una gaviota o pardela, conviene recordar que detrás de esa anécdota se esconde un proceso evolutivo y ecológico complejo. Lejos de ser un simple accidente, ese excremento forma parte de una estrategia de supervivencia y, al mismo tiempo, de un ciclo natural que nutre al mar.
Como resume el propio Uesaka, “las heces son importantes, pero la gente realmente no piensa en ellas”. Quizá sea hora de empezar a hacerlo, porque incluso los aspectos menos agradables de la naturaleza tienen un papel esencial en el funcionamiento del planeta.
Referencias
- Leo Uesaka et al. Periodic excretion patterns of seabirds in flight. Current Biology (2025). DOI: 10.1016/j.cub.2025.06.058.
En el corazón de la antigua ciudad de Sición, al sur de Grecia, un equipo de arqueólogos ha hecho un descubrimiento que parece sacado de una novela histórica. Se trata de una antigua tienda de vinos del periodo romano, sellada en el tiempo desde hace más de 1.600 años. Lo sorprendente no es solo su antigüedad, sino el estado en el que fue encontrada: monedas esparcidas por el suelo, mesas de mármol quebradas y restos de vasijas y ánforas como si sus propietarios hubieran salido corriendo… y jamás hubiesen vuelto.
La escena hallada parece más la de un abandono súbito que la de un cierre planificado. Todo apunta a un evento repentino y catastrófico, posiblemente un terremoto o el colapso del edificio por condiciones extremas. Lo cierto es que tras aquel instante, nadie regresó jamás para recuperar lo perdido. La tienda quedó olvidada, sepultada por el tiempo y los escombros, hasta ser redescubierta casi intacta por los arqueólogos actuales.
El establecimiento formaba parte de un complejo más amplio dedicado a la producción y venta de vino y otros productos agrícolas como el aceite de oliva. Se han documentado instalaciones como prensas, hornos y áreas de trabajo que sugieren una economía local vibrante, muy ligada a las tradiciones vinícolas del mundo romano.
El oro escondido bajo el polvo: monedas y pistas
Uno de los aspectos más llamativos del hallazgo, realizado en 2024, es la cantidad de monedas descubiertas: unas 60 piezas de bronce esparcidas por el suelo de la tienda. Su dispersión indica que, en el momento del desastre, las monedas se encontraban agrupadas en una bolsa o recipiente que cayó al suelo y se rompió. La datación de las monedas permite situar el suceso en la segunda mitad del siglo IV d.C., durante el reinado del emperador Constancio II, una época de tensiones tanto internas como externas para el Imperio Romano.
Estas monedas no solo ofrecen una fecha, sino también un retrato del pequeño comercio romano en sus últimas décadas de esplendor. La taberna no era simplemente un local de venta: era un punto de encuentro social, económico y posiblemente ritual. El vino, más que una bebida, era parte del tejido cultural, consumido tanto en celebraciones religiosas como en la vida cotidiana. En tiempos donde el agua potable era un bien escaso, el vino era la alternativa segura y omnipresente.

Entre el lujo y la rutina: el vino en la sociedad romana
Contrario a la imagen de grandes bodegas rústicas, esta tienda muestra cómo el vino estaba presente también en entornos urbanos más modestos. Aunque modesta, la taberna de Sición poseía mesas de mármol, lo que indica un intento por ofrecer cierta elegancia en la experiencia del cliente. Se cree que el comercio del vino no estaba reservado solo a las grandes villas aristocráticas, sino que formaba parte del día a día del ciudadano medio romano.
El hallazgo también revela una verdad más amplia: la importancia del vino en el poder económico del imperio. Desde pequeñas tiendas hasta enormes instalaciones como las de Villa Magna o la Villa de los Quintilios en Roma, donde el vino se producía con fines teatrales y políticos, el negocio vitivinícola era fundamental. El vino se exportaba a todo el Mediterráneo, desde Britania hasta Siria, pasando por Hispania y el norte de África. Su producción y venta estaban estrechamente vinculadas a la riqueza de las élites y al control territorial del imperio.
¿Un último brindis antes del colapso?
El hecho de que nadie regresara al lugar tras el colapso sugiere que el desastre fue más que un simple accidente estructural. Es posible que un terremoto sacudiera la zona y dejara inhabitable todo el complejo. Otra posibilidad es que el contexto político o económico hiciera inviable su reapertura. En el siglo V, el Imperio Romano de Occidente ya mostraba síntomas de fragmentación: invasiones, luchas internas y una economía cada vez más deteriorada. Tiendas como esta pudieron haber sido víctimas colaterales de esa lenta caída.
A pesar de que no se hallaron restos humanos, el ambiente dejado por la catástrofe —con utensilios caídos y monedas regadas por el suelo— permite imaginar el momento con una precisión casi cinematográfica. Una mañana cualquiera, quizá en pleno mercado, la tierra tembló. Las estructuras cedieron, los comerciantes huyeron, y el bullicio de Sición se silenció bajo una nube de polvo.

Una pieza perdida del puzzle romano
Este hallazgo no es una simple anécdota arqueológica. Es una ventana directa al modo de vida, el comercio y la fragilidad del sistema romano en sus últimas centurias. Nos muestra cómo, incluso en las provincias, el Imperio mantenía una red sofisticada de producción y distribución de bienes. También revela cómo esos mundos podían desaparecer en cuestión de segundos y quedar congelados durante siglos, esperando a ser redescubiertos.
A diferencia de las fastuosas villas imperiales, esta tienda representa al comerciante medio, al trabajador de a pie, al romano anónimo que vivía de vender vino y aceite en una ciudad provinciana. Su tienda, destruida pero no saqueada, nos permite rescatar su historia, reconstruir sus días y comprender mejor los últimos latidos de un imperio que, aunque colosal, era profundamente humano.
Cada día estamos rodeados de música, aunque no siempre la busquemos. Suena en cafeterías, gimnasios, tiendas, transporte público… y, por supuesto, en nuestros auriculares. Para muchos, ponerse los cascos es tan automático como abrir el portátil. Pero detrás de ese gesto cotidiano hay una pregunta clave: ¿qué efecto tiene la música de fondo en nuestra atención y emociones?
Un equipo de investigadores de la Universidad de Montreal quiso mirar más de cerca este fenómeno. No se limitaron a estudiar un laboratorio aislado, sino que preguntaron directamente a más de 400 jóvenes adultos por sus hábitos musicales en la vida real. La idea era sencilla: saber cuándo escuchan música, qué tipo prefieren y cómo creen que influye en su concentración, memoria y estado de ánimo.
Los resultados muestran algo claro: la música no es un adorno, sino un recurso que usamos estratégicamente. La elección del estilo, del ritmo o incluso de si lleva letra o no, depende de la tarea que tenemos entre manos.

Con música todo sabe distinto
El estudio distingue entre actividades que exigen mucha cabeza —como estudiar, leer o resolver problemas— y otras más automáticas, como limpiar, cocinar o hacer deporte. En cada contexto, la música cumple un papel distinto.
Cuando se trata de tareas intelectuales, la mayoría prefiere música tranquila, sin cambios bruscos y, mejor aún, sin voces que compitan con el texto que intentamos leer.
De hecho, los participantes señalaron que les resulta más fácil concentrarse si la canción es instrumental, relajante y familiar. Esa combinación parece dar un telón de fondo estable para que la mente se centre en lo importante.
En cambio, cuando la actividad es física o rutinaria, la elección se transforma: entran en juego los ritmos rápidos, energéticos y con letra. Aquí, la música deja de ser discreta y se convierte en combustible. Es el motor que acompaña un entrenamiento, que hace más llevadera la limpieza o que inyecta ánimo en una tarea repetitiva.
El poder de la elección personal
No toda la música funciona igual para todos. Uno de los hallazgos más consistentes del estudio es que la música genera más beneficios cuando la persona elige lo que escucha. La familiaridad con las canciones —conocer la melodía, anticipar los cambios, sentirse cómodo con el estilo— hace que el cerebro se relaje y pueda aprovechar mejor el estímulo.
Escuchar una lista impuesta por otros, en cambio, puede tener el efecto opuesto. En lugar de concentrar, irrita. Este detalle, que parece trivial, resalta una idea importante: el control sobre lo que escuchamos es tan relevante como el tipo de música en sí. La música elegida voluntariamente se percibe como una aliada, no como una intrusa.

Concentración y ánimo en la misma partitura
El equipo de investigadores también exploró los efectos percibidos de la música en dos grandes áreas: el rendimiento cognitivo y el bienestar emocional. Los participantes coincidieron en que escuchar música ayuda a concentrarse mejor y mantener la motivación, además de mejorar el estado de ánimo.
Estos beneficios subjetivos aparecen en todo tipo de actividades, aunque varían en intensidad. Mientras que la música suave apoya la memoria y la atención en tareas exigentes, los ritmos intensos refuerzan la energía y el ánimo en contextos físicos o rutinarios.
En ambos casos, la conclusión es similar: la música actúa como un regulador interno.
Más allá de la ciencia, esto explica por qué tantas personas consideran imposible trabajar en silencio absoluto o entrenar sin una playlist. La música se convierte en una especie de herramienta invisible, ajustada a cada situación.
Música y atención en jóvenes con TDAH
El estudio también exploró cómo la música de fondo es utilizada por personas con síntomas de TDAH, un trastorno caracterizado por dificultades para mantener la atención, regular la impulsividad y gestionar la hiperactividad. Los resultados revelan que este grupo recurre a la música con mayor frecuencia que sus pares neurotípicos, especialmente durante actividades que requieren esfuerzo mental, como estudiar, y también en momentos físicos o rutinarios, como entrenar o hacer tareas del hogar.
Una de las claves está en la preferencia por música estimulante. Mientras que la mayoría de jóvenes prefiere melodías tranquilas al enfrentarse a tareas cognitivas, los participantes con síntomas de TDAH tienden a elegir ritmos más rápidos e intensos.
Según los investigadores, esta elección no es casual: puede estar relacionada con la necesidad de regular el nivel de activación cerebral. En otras palabras, la música serviría como un apoyo externo para alcanzar un estado óptimo de concentración.
Lo más interesante es que, pese a las diferencias en hábitos y estilos elegidos, los efectos percibidos fueron muy similares entre ambos grupos. Tanto quienes tenían síntomas de TDAH como quienes no los tenían afirmaron que la música les ayudaba a mejorar la concentración y el ánimo. Esto sugiere que, aunque cada persona adapta el tipo de música a sus necesidades, el papel de la música como recurso para la atención y el bienestar es ampliamente compartido.

El mecanismo detrás del efecto
¿Por qué la música logra influir tanto en nuestra mente? Los investigadores sugieren una explicación ligada al sistema de recompensa del cerebro. Escuchar música activa circuitos relacionados con la dopamina, el mismo neurotransmisor que refuerza la motivación y el placer.
Cuando la música es estimulante, puede elevar el nivel de alerta y energía, lo que ayuda a enfrentarse a tareas exigentes o prolongadas. En cambio, una melodía suave puede reducir la ansiedad y facilitar un estado de calma propicio para la lectura o el estudio. En ambos casos, la clave está en cómo la música modula el nivel de activación cerebral para ajustarlo a lo que necesitamos en cada momento.
El estudio no pretende dar una receta universal: no hay una playlist mágica que sirva para todo el mundo. Pero sí muestra que la música de fondo es una herramienta flexible y accesible que cada persona adapta a su manera.
La enseñanza es clara: escuchar música mientras hacemos cosas no es una distracción inevitable, sino una estrategia de autorregulación. Elegir qué, cuándo y cómo escuchar puede marcar la diferencia entre una tarea pesada y una experiencia más llevadera.
Quizá por eso, al final del día, muchos sentimos que necesitamos una canción para concentrarnos, otra para correr y otra para relajarnos. La ciencia confirma que no es casualidad: es nuestro cerebro afinando su propia banda sonora.
Referencias
- Lachance, K. A., Pelland-Goulet, P., & Gosselin, N. (2025). Listening habits and subjective effects of background music in young adults with and without ADHD. Frontiers in Psychology. doi: 10.3389/fpsyg.2024.1508181
El mercado de consolas vive una auténtica revolución marcada por la intensa competencia entre las grandes marcas de videojuegos. La llegada de nuevas generaciones de hardware y las constantes bajadas de precio están redefiniendo las preferencias de los jugadores.
Coincidiendo con la temporada de vacaciones, Nintendo sorprende con la segunda gran rebaja de su nueva Switch 2. Esta estrategia no solo impulsa sus ventas, sino que también refuerza su atractivo como una de las consolas portátiles más demandadas del momento.

El precio habitual de esta consola suele superar los 469 €, tal y como se ve en tiendas como Amazon, MediaMarkt o Fnac. Sin embargo, la marca japonesa apuesta por AliExpress, donde gracias al código de descuento ESBS60 es posible conseguirla por solo 411 euros, una oportunidad difícil de dejar pasar.
Esta consola portátil llega equipada con una pantalla táctil LCD de 7,9 pulgadas Full HD (1920x1080), compatible con HDR10, amplia gama cromática y una tasa de refresco variable de hasta 120 Hz. En su interior incorpora un procesador personalizado de NVIDIA con GPU mejorada y 256 GB de almacenamiento interno.
En cuanto a conectividad, cuenta con Wi-Fi 6, Bluetooth y puerto LAN en la base. Sus renovados Joy-Con 2 se acoplan magnéticamente e incluyen controles de alta precisión, sensores de movimiento, función de ratón, vibración HD 2, NFC y un nuevo botón C para GameChat. Además, dispone de audio espacial 3D, altavoces estéreo y micrófono con cancelación de ruido, junto a una batería de 5220 mAh.
Se suma también una rebaja sin precedentes para la Switch Lite en el mercado de consolas portátiles
Nintendo repone este verano la Switch Lite en AliExpress a solo 136,62 euros gracias al código ESBS25. La consola portátil regresa con un precio histórico que refuerza su atractivo frente a la competencia, ya que en tiendas como Amazon o Miravia se mantiene en torno a los 169 €.

La Nintendo Switch Lite integra una pantalla LCD de 5,5 pulgadas con resolución 720p, ofreciendo una experiencia nítida y fluida en títulos como Animal Crossing o Mario Kart 8 Deluxe. Diseñada exclusivamente como consola portátil, destaca por ser más compacta y ligera que el modelo estándar.
Equipada con un procesador NVIDIA Tegra X1 y una batería capaz de ofrecer hasta 7 horas de autonomía según el juego, la Switch Lite se posiciona como la compañera ideal para los jugadores que buscan movilidad y rendimiento sin renunciar a la calidad.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En mitad de una ola de calor abrasadora, un foco se activa en una ladera reseca de Castilla y León. El viento cambia, las temperaturas se disparan y, en cuestión de horas, el fuego se ha convertido en un monstruo indomable. Las llamas se alzan a decenas de metros, saltan barrancos, generan su propio clima y avanzan devorando todo a su paso. ¿Fue provocado? Es probable. Pero la pregunta clave es otra: ¿por qué ahora se comportan de este modo?
La respuesta está en el cambio climático. Porque aunque el origen de la chispa siga siendo, en la mayoría de los casos, humano —ya sea por negligencia, imprudencia o intención—, el contexto en el que prende ese fuego ha cambiado radicalmente. Ahora, cada incendio tiene más probabilidades de convertirse en una tormenta perfecta.
La ciencia lo confirma: los incendios se intensifican
Un análisis riguroso publicado en Environmental Research y liderado por investigadores de la Universidad de Santiago de Compostela ha demostrado que las olas de calor en la península ibérica han aumentado no solo en frecuencia, sino en intensidad y extensión desde 1950. Y esto tiene implicaciones directas en los incendios. Las condiciones climáticas que antes eran excepcionales se han convertido en recurrentes, generando un escenario cada vez más propicio para la propagación del fuego.
Otro estudio global publicado en Nature Communications fue aún más explícito: la frecuencia de los días extremos de calor ha aumentado en casi todas las regiones del mundo, y con ello, la duración e intensidad de los episodios de calor acumulado. Es decir, no solo hace más calor, sino que el calor extremo se mantiene más tiempo y con mayor agresividad. En ese contexto, cualquier chispa encuentra un ecosistema vulnerable, inflamable y sin capacidad de defensa.
Un estudio publicado en 2025 en la revista npj Climate and Atmospheric Science confirma que el aumento en la severidad de los incendios forestales no es solo una percepción social o mediática: es una realidad avalada por datos empíricos. Liderado por un equipo internacional con participación española, este trabajo demuestra que la frecuencia de incendios extremos en el sur de Europa ha aumentado a un ritmo preocupante durante las últimas dos décadas. El análisis, centrado en eventos entre 2003 y 2022, revela que cada vez más incendios superan el umbral de "extremos", definidos por su intensidad energética, tamaño y velocidad de propagación. El estudio alerta de que ya no es necesario un verano excepcionalmente cálido para que aparezcan incendios incontrolables. Basta con que coincidan algunos días secos y calurosos sobre un terreno abandonado y cubierto de vegetación para que el fuego se dispare. Esta situación, según el equipo investigador, es ya una “nueva normalidad” climática. Y la conclusión fue clara: «Los incendios que han tenido lugar en los últimos años en la Península Ibérica se han desarrollado en condiciones ambientales más favorables para su propagación de lo que sería el caso en un clima inalterado por las emisiones antropogénicas de gases de efecto invernadero».

Otro trabajo clave, publicado en Reviews of Geophysics, liderado por expertos del CSIC, reunió más de 500 investigaciones y datos satelitales para analizar cómo el cambio climático está alterando los patrones globales de incendios. El hallazgo más inquietante es que el riesgo climático de incendios se ha duplicado en regiones como la cuenca mediterránea en los últimos 40 años. Y aunque la superficie quemada no siempre aumenta al mismo ritmo —gracias a las políticas de extinción— este éxito aparente podría estar siendo contraproducente: la supresión constante del fuego provoca una acumulación de vegetación, es decir, más combustible, que prepara el terreno para incendios devastadores en el futuro. El informe advierte que si no se actúa con urgencia para mantener el calentamiento global por debajo de los 2 °C, el riesgo de incendios alcanzará niveles sin precedentes en cuestión de décadas.
Pero, además del aumento de temperaturas, los incendios actuales están siendo alimentados por otros factores climáticos agravados por el cambio climático, como el incremento en la intensidad de los vientos y la reducción persistente de la humedad del suelo. En este sentido, un estudio publicado en Theoretical and Applied Climatology señala que la conjunción de viento fuerte, baja humedad y temperaturas extremas ha hecho que la propagación de los incendios sea más rápida y más impredecible que en décadas anteriores. Este fenómeno se refleja en el crecimiento de la llamada “velocidad de propagación crítica”, es decir, el punto a partir del cual un fuego se vuelve prácticamente incontrolable.
No es casualidad que ahora se hable de "incendios de sexta generación"
Los expertos ya no dudan en afirmar que hemos entrado en una nueva era del fuego. Son los llamados incendios de sexta generación: fenómenos extremos que no solo arden con más fuerza, sino que generan su propia meteorología, liberando columnas convectivas tan potentes que pueden formar tormentas pirocúmulos. Estas tormentas, a su vez, pueden generar rayos y provocar nuevos incendios a decenas de kilómetros. Un círculo infernal que antes solo se veía en escenarios catastróficos y que ahora se repite cada verano.
En España, el verano de 2025, que aún no ha acabado, ha sido paradigmático. Con olas de calor extremas y una superficie arrasada que supera los 25.000 hectáreas en apenas una semana, los incendios han sido más intensos, rápidos y destructivos que nunca. El caso de Las Médulas, un paisaje Patrimonio de la Humanidad en León, ha sido uno de los más trágicos: fuego descontrolado, vientos de hasta 50 km/h, evacuaciones masivas y una herencia cultural arrasada por las llamas. Pero, tal y como hemos conocido en el día de hoy, hasta el día 10 de agosto se habían quemado más de 345.000 hectáreas, más del doble de todo lo quemado en 2024.

Pero ¿no eran provocados?
Sí. Y lo siguen siendo. Según datos del Ministerio del Interior, más del 80% de los incendios en España tienen origen humano, ya sea por negligencias, actividades agrícolas mal gestionadas o directamente por intencionalidad. Pero como explican expertos en incendios forestales y clima, hay que distinguir entre la ignición y la propagación. Encender un fuego es fácil. Lo difícil es que ese fuego se vuelva incontrolable. Y eso es precisamente lo que ha cambiado.
En condiciones climáticas normales, muchos de los incendios provocados podrían controlarse en pocas horas. Sin embargo, cuando la vegetación está extremadamente seca, el viento sopla con fuerza y las temperaturas superan los 40 grados durante días, lo que antes era un incendio controlado se convierte en una tragedia. Y la situación es aún peor cuando nos encontramos en medio de una ola de calor. El clima ha dejado de ser un espectador pasivo. Ahora es cómplice del fuego.
Más combustible, más calor, más riesgo
La combinación es letal. Por un lado, el calentamiento global ha reducido la humedad del suelo y ha prolongado los periodos sin lluvia. Por otro, el abandono del medio rural ha incrementado la acumulación de vegetación inflamable. La ecuación es simple: más combustible + más calor = incendios más violentos.
El problema no es solo cuánto arde, sino cómo arde. Estudios recientes han mostrado que el área potencialmente afectada por incendios extremos en la península ibérica ha aumentado un 4% por década desde 1950. Y lo peor: la tendencia no se frena. Las proyecciones climáticas indican que, si no se reducen las emisiones de gases de efecto invernadero, hacia finales de siglo la frecuencia de estos eventos se disparará un 50%.

¿Y la prevención?
El modelo actual de lucha contra incendios está en crisis. Se invierte en medios de extinción, pero se sigue descuidando la prevención estructural. Los cortafuegos se abandonan, las áreas rurales se despueblan y la gestión del monte brilla por su ausencia. Como alertan desde organizaciones como WWF, sin un cambio en el modelo territorial y sin reactivar la vida en el medio rural, el combustible seguirá acumulándose.
Además, muchos de los incendios tienen causas sociales: conflictos ganaderos, vandalismo, resentimientos personales. Entender las motivaciones y patrones de los incendiarios es clave para una estrategia eficaz. No se trata solo de apagar fuegos, sino de comprender por qué arden.
El fuego ya no espera. Responde con furia
Lo que antes era excepcional ahora es habitual. El fuego se ha vuelto más rápido, más agresivo, más imprevisible. Y aunque siga habiendo una mano que lo enciende, es el clima quien lo alimenta y lo convierte en una amenaza nacional.
Frente a esta nueva realidad, no bastan las sanciones ni los helicópteros. Se necesita una estrategia integral: prevención todo el año, ordenación del territorio, reactivación del mundo rural, profesionalización de los equipos y, sobre todo, una apuesta firme por frenar el calentamiento global. Porque mientras la chispa siga siendo inevitable, lo que sí podemos evitar es que el mundo arda sin control.
Entre los siglos III y VI d. C., en el corazón del Japón antiguo surgieron miles de imponentes túmulos funerarios conocidos como Kofun, estructuras que aún hoy sorprenden por sus dimensones y su orientación. Pertenecientes a un periodo crucial para la consolidación del poder imperial, estos monumentos no solo destacan por su arquitectura monumental, sino también por su profunda relación con la cosmovisión japonesa y el culto a la diosa solar Amaterasu. La arqueoastronomía ha explorado las conexiones astronómicas que guiaron la construcción y disposición de estas tumbas, arrojando nueva luz sobre el significado cultural y simbólico de los Kofun.
El periodo Kofun y el origen de los túmulos
El periodo Kofun, que se extiende aproximadamente entre los años 250 y 600 d. C., constituye la última fase de un largo proceso histórico que culminó con la unificación del Japón bajo un poder imperial centralizado. La denominación de esta etapa proviene de las numerosas tumbas monumentales, en ocasiones de dimensiones colosales, que jalonan el paisaje japonés.
La estructura básica de las tumbas Kofun recuerda a la de algunos monumentos neolíticos europeos. Consiste en un montículo artificial atravesado por un pasillo megalítico que conduce a la cámara funeraria.
Sin embargo, una categoría particular de estas tumbas, las llamadas keyholes (en forma de cerradura), resulta única en el mundo tanto por su tamaño —el Daisen Kofun, por ejemplo, alcanza los 486 metros de longitud— como por su perfil geométrico inconfundible cuando se observa desde el aire. La mayor parte de estos grandes túmulos se consideran sepulturas de los primeros emperadores. La naturaleza semilegendaria de estas figuras ha limitado las excavaciones y los estudios directos, pues la ley japonesa protege estos lugares como patrimonio sagrado.

Amaterasu y la legitimación del poder imperial
El análisis arqueoastronómico de los Kofun no puede separarse de la mitología que sustentó el poder imperial. Durante el periodo Kofun, y de forma más marcada a partir del siglo V d. C., la diosa solar Amaterasu se elevó a la categoría de antepasada directa de la familia imperial. Según los primeros textos japoneses, redactados en el siglo VII d. C. por orden de la corte, Amaterasu envió a su nieto a gobernar la Tierra: así, daba inicio la identificación del Japón como “la tierra del sol naciente”. Este vínculo entre el poder político y el culto solar alimenta la hipótesis de que la orientación de las tumbas Kofun podría responder a criterios astronómicos vinculados a la diosa.
Orientaciones solares y lunares
Durante mucho tiempo, la imposibilidad de acceder físicamente a los túmulos más importantes impidió estudiar sistemáticamente sus características y orientación. No obstante, el desarrollo de la teledetección y la disponibilidad de imágenes satelitales de alta resolución han permitido medir con exactitud sus alineamientos. El caso paradigmático lo representa el Daisen Kofun, principal monumento del grupo de Mozu, en la actual Sakai, declarado junto con el cercano grupo de Furuichi Patrimonio Mundial por la UNESCO.

Daisen Kofun y los solsticios
La medición del azimut de la línea de base del Daisen Kofun ha revelado un valor de 119°30′, con una altura de horizonte de unos 2°. Esta disposición corresponde prácticamente a la posición del sol en el amanecer del solsticio de invierno y, en sentido inverso, a la del ocaso del solsticio de verano. El hallazgo confirma que el monumento se concibió con una orientación astronómica precisa.
La relación entre las tumbas, el sol y la luna
Un análisis más amplio, basado en los datos recopilados en 1897 por William Gowland y revisados con técnicas actuales, muestra que el 84 % de los corredores de acceso de los Kofun están alineados entre 125° y 235°. Se trata de un sector del cielo que incluye la salida y la puesta del sol en el solsticio de invierno.
Tal patrón resulta más sugerente si cabe. Este mismo sector coincide con las posiciones extremas de salida y puesta de la luna durante el lunasticio mayor meridional, un fenómeno que ocurre cada 18,6 años. Esto implica que la mayoría de las tumbas recibían luz tanto del sol como de la luna en momentos clave del ciclo anual y mensual. Los estudiosos interpretan esta orientación con relación al simbolismo dual basado en la pareja celestial formada por Amaterasu y su hermano lunar Tsukuyomi.

La orientación específica de las tumbas de cerradura
El estudio de la orientación de 151 Kofun en forma de cerradura, todos ellos de gran tamaño, parece confirmar que el 82 % de estos monumentos se sitúa entre el amanecer del solsticio de verano y el ocaso del solsticio de invierno. Esto refuerza la conexión con el ciclo completo del astro rey a lo largo del año. Esta consistencia en la orientación, que se ha observado en distintas regiones y túmulos de distintos tamaños, indica que la astronomía ocupó un lugar central en la planificación de estos enterramientos. Pudo servir como un medio de legitimar el poder imperial y garantizar la continuidad simbólica entre el soberano fallecido y las fuerzas cósmicas.
El enigma de la forma: ¿un amanecer sobre el monte Fuji?
Si la orientación de los Kofun se vincula al sol y la luna, la forma en cerradura de estos túmulos plantea otro misterio. Una hipótesis novedosa sugiere que esta silueta sería una representación simbólica del sol naciendo detrás de una montaña sagrada, una evocación del territorio protegido por Amaterasu.
La montaña en cuestión podría ser el monte Fuji, el volcán más venerado del Japón, asociado a divinidades de la vida y la naturaleza. La clave para esta interpretación se encuentra en un lugar sagrado: el santuario de Ise, el templo más importante del sintoísmo que está dedicado, precisamente, a la diosa solar.
A pocos kilómetros de Ise, en la costa, se alzan las rocas sagradas Meoto Iwa, un par de peñascos unidos por una shimenawa, una gruesa cuerda de significado religioso para el shintoísmo. En el amanecer del solsticio de verano, el sol aparece alineado entre ambas rocas y su disco se eleva exactamente detrás del perfil distante del monte Fuji, visible a más de 200 kilómetros de distancia. La semejanza entre esta visión y la forma de un Kofun en cerradura abre la posibilidad de que la arquitectura funeraria imitara un motivo visual cargado de simbolismo religioso.

Significado cultural y legado
Los Kofun materializan la conexión entre el orden cósmico y el poder político. Integra la astronomía, la geografía sagrada y la mitología en una misma expresión arquitectónica. En ausencia de textos contemporáneos que expliquen su función exacta, el análisis de su orientación y forma permite reconstruir, al menos en parte, algunos aspectos clave de la ideología que los originó.
Su estrecha relación con el culto solar, su integración de fenómenos lunares y su posible evocación de paisajes sagrados como el monte Fuji refuerzan la idea de que estos monumentos sirvieron como escenarios de legitimación imperial. Diseñados para asegurar la continuidad del linaje y la protección divina, los Kofun articulaban un complejo mensaje de poder, fe y conexión con las fuerzas celestes.
Referencias
- Magli, Giulio. 2025. Archaeoastronomy: Introduction to the science of stars and stones. Springer Nature.
En una región marcada por desafíos geográficos extremos, recursos limitados y desastres naturales recurrentes, un pequeño país asiático ha dado un paso colosal en la historia de la salud pública global. Nepal ha sido declarado libre de rubéola como problema de salud pública, convirtiéndose en el sexto país del sudeste asiático en lograrlo y el primero en hacerlo tras el duro golpe de la pandemia de COVID-19 y los terremotos que sacudieron su territorio en 2015 y 2023.
El anuncio fue realizado por la Organización Mundial de la Salud (OMS) este 18 de agosto de 2025, tras una evaluación técnica realizada por la Comisión Regional de Verificación para la Eliminación del Sarampión y la Rubéola (SEA-RVC). La decisión se basó en una revisión exhaustiva de los datos de vigilancia epidemiológica y de cobertura de vacunación, donde Nepal demostró niveles sostenidos de control y ausencia de transmisión endémica del virus.
Lo que hace aún más notable este logro es que llega un año antes del objetivo regional fijado para 2026, cuando los países del sudeste asiático se comprometieron a erradicar tanto el sarampión como la rubéola. En un contexto donde muchos sistemas de salud aún se están recuperando de los estragos de la pandemia, el caso nepalí sobresale como un modelo de resiliencia, cooperación comunitaria y eficacia en salud pública.
Una amenaza silenciosa
La rubéola, también conocida como sarampión alemán, es una infección vírica altamente contagiosa que suele manifestarse con síntomas leves o incluso pasar desapercibida en los adultos. Sin embargo, en mujeres embarazadas representa una amenaza grave: puede causar abortos espontáneos, muerte fetal o el temido síndrome de rubéola congénita, una condición que deja a los bebés con defectos irreversibles como sordera, cataratas, malformaciones cardíacas y retraso en el desarrollo.
A pesar de ser prevenible con una vacuna segura y económica, la rubéola sigue siendo un riesgo en muchas partes del mundo donde la inmunización no es sistemática o las coberturas son bajas. De ahí que la eliminación del virus en un país no solo proteja a su población, sino que reduce la circulación regional del virus y protege indirectamente a millones de personas en sus países vecinos.

Una década de inmunización intensiva
Nepal inició su cruzada contra la rubéola en 2012, cuando introdujo la vacuna combinada contra sarampión y rubéola en su programa nacional de inmunización. La campaña inicial fue ambiciosa: abarcó a todos los niños y niñas de entre 9 meses y 15 años en una sola jornada masiva. Desde entonces, el país ha mantenido una cobertura superior al 95% en al menos una dosis, y desde 2016 incorporó una segunda dosis al esquema rutinario.
Este esfuerzo sostenido se complementó con campañas nacionales en 2012, 2016, 2020 y 2024, en las que se vacunó de manera intensiva en comunidades rurales, zonas montañosas remotas y contextos de difícil acceso. Incluso durante la pandemia, cuando el mundo entero suspendió o retrasó actividades de salud pública esenciales, Nepal logró mantener el impulso vacunador y garantizar el acceso en todo el territorio.
Una de las estrategias más innovadoras fue la declaración de distritos “totalmente inmunizados”, una etiqueta simbólica que motivaba a autoridades locales y trabajadores sanitarios a alcanzar coberturas óptimas. Además, iniciativas como el "mes de la inmunización" y campañas puerta a puerta permitieron vacunar a niños y niñas que habían quedado rezagados del sistema regular.
Tecnología, vigilancia y ciencia local
Más allá de las campañas de vacunación, Nepal ha invertido en reforzar su sistema de vigilancia epidemiológica y capacidad diagnóstica. En los últimos años, desarrolló un algoritmo de laboratorio avanzado para la detección y confirmación de casos, convirtiéndose en el primer país de la región del sudeste asiático en aplicar esta tecnología. Esto ha permitido una identificación más precisa de los focos de infección y una respuesta más rápida a los brotes potenciales.
Los datos, recopilados por el Comité Nacional de Verificación y revisados por el panel regional de expertos, muestran una caída sostenida de casos confirmados desde 2018, sin evidencia de transmisión sostenida del virus en los últimos años. Esta ausencia de circulación endémica, junto con los altos niveles de inmunidad poblacional, fue clave para que la OMS certificara la eliminación.

Un modelo replicable
Con este logro, Nepal se une a una lista creciente de países de la región que han logrado erradicar enfermedades gracias a programas de inmunización robustos. Antes de Nepal, ya lo habían conseguido Bután, Corea del Norte, Maldivas, Sri Lanka y Timor Oriental.
En un momento en que la confianza en las vacunas enfrenta desafíos globales y las campañas contra las vacunas se amplifican en redes sociales, historias como la de Nepal reafirman el valor de la ciencia, la medicina preventiva y la colaboración comunitaria. No se trata únicamente de una victoria médica, sino de un triunfo colectivo de un país que ha sabido poner la salud de su población infantil en el centro de sus prioridades.
El caso nepalí también envía un mensaje claro a la región: la eliminación es posible incluso en contextos adversos. Con voluntad política, apoyo internacional —en este caso, de la OMS y de Gavi, la Alianza para las Vacunas— y compromiso local, se pueden alcanzar metas ambiciosas de salud pública. Ahora, el reto será sostener esta eliminación y evitar reintroducciones del virus, especialmente desde países donde la rubéola aún es endémica.
El futuro inmediato de Nepal pasa por mantener su red de vigilancia activa, garantizar la cobertura vacunal y preparar respuestas rápidas ante cualquier señal de alerta. Pero hoy, el país puede celebrar con orgullo una de las mayores conquistas sanitarias de su historia reciente.
La imagen parece salida de un cuento de fantasía: un pequeño ser marino de tonos azulados, con formas que recuerdan a las alas de un dragón, aparece en la orilla. No se trata de un mito ni de una invención artística, sino de un animal real: el Glaucus atlanticus, conocido popularmente como “dragón azul”. Este verano de 2025 (igual que ocurrió hace un par de años) varias playas españolas han tenido que prohibir el baño o lanzar advertencias tras detectar su presencia. Lo que para muchos fue un hallazgo curioso, pronto se convirtió en noticia nacional por los riesgos que conlleva acercarse a este nudibranquio.
La Línea de la Concepción: epicentro de la alarma más reciente
El caso más sonado en agosto ha tenido lugar en la Línea de la Concepción (Cádiz). En la playa de Santa Bárbara, el Ayuntamiento izó la bandera roja y prohibió el baño tras localizar al menos cinco ejemplares de dragón azul. La alerta se extendió rápidamente, pues el animal no solo sorprende por su aspecto, sino que puede provocar dolorosas picaduras si se manipula. "Parece que lo han diseñado de la película de Goku", decía en directo y con gracia Paco Campaña, un conocido redactor Área Campo de Gibraltar.
Las autoridades locales pidieron precaución y recordaron que estos organismos acumulan las toxinas de las medusas de las que se alimentan, como la carabela portuguesa. El contacto puede causar escozor, enrojecimiento, hinchazón e incluso reacciones alérgicas en personas sensibles. Aunque no se han registrado muertes en España, los servicios de protección civil insisten en que nunca debe tocarse.

Un verano marcado por avistamientos en distintas costas
El fenómeno no es exclusivo del Campo de Gibraltar. Durante este verano, varias costas españolas han registrado avistamientos de dragones azules:
- Lanzarote. A finales de julio, la playa de Famara cerró el baño tras detectarse seis ejemplares en un charco intermareal.
- Gran Canaria. Protección Civil lanzó comunicados tras varios avisos de bañistas sobre su presencia.
- Mallorca. En junio, en la Serra de Tramuntana, se produjo un hallazgo histórico: no se registraba en Baleares desde 1705.
- Valencia. A finales de julio, en Canet d’en Berenguer, se encontró un ejemplar en el Racó de Mar, lo que obligó a difundir advertencias públicas.
Qué es el dragón azul
El Glaucus atlanticus es un nudibranquio pelágico que mide apenas unos centímetros. Su aspecto es impactante: cuerpo plateado por un lado, azul intenso por el otro, con extensiones que parecen alas. Vive flotando boca arriba en alta mar, desplazándose gracias a la tensión superficial y a las corrientes oceánicas.
Su dieta incluye sifonóforos como la carabela portuguesa. No solo se alimenta de ellos, sino que reutiliza sus células urticantes para su propia defensa. Este mecanismo lo convierte en un animal fascinante y peligroso a la vez. En contacto con la piel humana, puede generar reacciones similares a las de una picadura de medusa, con un dolor que en ocasiones es más intenso y prolongado.

Por qué llegan ahora a las costas
Los especialistas apuntan a una combinación de factores. En primer lugar, el aumento de la temperatura del mar, asociado al cambio climático, favorece la presencia de especies propias de aguas más cálidas.
En segundo lugar, las corrientes y los temporales arrastran a estos organismos. El dragón azul flota en superficie y puede ser desplazado hacia la costa tras oleajes o vientos intensos. Una vez en la orilla, queda atrapado en charcos intermareales, donde llama la atención de bañistas y curiosos.
La suma de estos factores convierte a 2025 en un año propicio para su llegada, y no se descarta que el fenómeno vuelva a repetirse en los próximos veranos.
¿Qué hacer si veo un dragón azul?
Aunque pequeño y bello, el dragón azul no es inofensivo. La primera recomendación es clara: no tocarlo nunca. Puede costar trabajo, porque a muchas personas su aspecto le parece irresistible. No lo hagas. Ni con las manos ni con palas o juguetes, pues incluso un contacto indirecto puede causar urticaria o dolor.
En caso de contacto accidental, los expertos aconsejan:
- Retirar restos con una tarjeta rígida o guantes.
- Lavar con agua de mar, nunca con agua dulce ni con vinagre.
- No rascarse ni frotar la zona.
- Aplicar frío local para aliviar el dolor.
- Acudir al centro de salud si la reacción es intensa o persiste.
Estas medidas son similares a las de una picadura de medusa, pero en el caso del dragón azul la reacción puede ser más fuerte y duradera.
Un visitante que despierta fascinación y temor
La presencia del dragón azul genera sorpresa, fascinación y temor. Para los científicos, cada avistamiento es una oportunidad de estudio. La relación entre sus movimientos, las corrientes y el calentamiento del mar resulta de gran interés.
Para los bañistas, en cambio, supone un choque entre lo bello y lo peligroso. Su aspecto fantástico invita a acercarse, pero el riesgo obliga a mantener distancia. En redes sociales, las imágenes de los ejemplares encontrados en 2025 se han viralizado, lo que ha aumentado la curiosidad y la necesidad de lanzar advertencias claras.
Las autoridades insisten en la importancia de la educación ambiental. Fotografiarlo y admirarlo sí, pero nunca manipularlo.
Una advertencia para el futuro
Los dragones azules no son invasores permanentes, sino visitantes ocasionales. Sin embargo, su llegada masiva en un mismo verano lanza un mensaje inquietante: los ecosistemas marinos están cambiando.
El aumento de la temperatura del agua y la alteración de corrientes modifican la distribución de especies. Hoy hablamos del Glaucus atlanticus, pero mañana podría tratarse de otro organismo inesperado.
Las autoridades deberán reforzar los sistemas de alerta y la divulgación ambiental, para que la ciudadanía aprenda a convivir con estos visitantes ocasionales sin subestimarlos ni caer en el alarmismo.
Cuando el calor aprieta, el cuerpo comienza a librar una batalla silenciosa por mantenerse en equilibrio. Lo que muchos aún no saben es que uno de los primeros órganos en resentir el impacto térmico son los riñones. Solo entre el 23 de junio y el 2 de julio de 2025, una ola de calor extremo se cobró la vida de al menos 2.305 personas en doce grandes ciudades europeas, entre ellas Madrid y Barcelona. El estudio, liderado por investigadores del Imperial College London y la London School of Hygiene & Tropical Medicine, estima que el cambio climático triplicó la mortalidad atribuible al calor en ese período. En España, los datos del Ministerio de Medio Ambiente confirman la gravedad del fenómeno: 1.180 muertes por causas relacionadas con el calor solo entre mayo y mediados de julio, más que el número registrado en el mismo período del año anterior.
En este contexto, la salud renal se perfila como una de las grandes afectadas de un clima cada vez más abrasador. Hablamos con la doctora María Vanessa Pérez Gómez, nefróloga en el Hospital Universitario Fundación Jiménez Díaz, sobre las consecuencias del calor extremo en la función de unos órganos esenciales para el equilibrio del cuerpo. Su preocupación no es infundada: recientes evidencias, como el subanálisis del estudio DAPA-CKD, muestran que los pacientes con enfermedad renal crónica que viven en zonas más cálidas sufren un deterioro acelerado de la función renal. En otras palabras, el calor puede dañar en silencio.
Más allá de los episodios agudos, lo que empieza a alarmar a la comunidad médica es el impacto sostenido de las altas temperaturas en poblaciones vulnerables: personas mayores, niños, pacientes crónicos o trabajadores expuestos al sol durante largas jornadas. Y mientras algunos países intentan adaptarse a la nueva realidad térmica, las políticas de salud pública aún no otorgan a los riñones el protagonismo que merecen en la lucha contra los efectos del cambio climático.

Cuando el termómetro se dispara, ¿también lo hace el riesgo para nuestros riñones? ¿Cómo puede afectar el calor extremo su funcionamiento?
Sí, el calor extremo representa un riesgo claro para nuestros riñones. Durante una ola de calor, el cuerpo pierde más agua y sal mediante el sudor, para intentar regular su temperatura, y esto puede provocar deshidratación. Los riñones, al encargarse de mantener el equilibrio hídrico y filtrar desechos, necesitan un volumen adecuado de sangre para funcionar correctamente. Si ese volumen disminuye, se ven obligados a trabajar en condiciones de estrés. Además, las personas con enfermedad renal crónica tienen una menor capacidad para adaptarse a estos cambios, lo que las hace especialmente vulnerables. Incluso sin síntomas evidentes, el calor puede acelerar el deterioro de la función renal en estos pacientes.
Como nefróloga, esto me preocupa especialmente. Sabemos que la exposición al calor aumenta el riesgo de fracaso renal agudo, es decir, que la función renal puede empeorar en pocos días, pero también que una enfermedad renal crónica —establecida a lo largo del tiempo— progrese más rápidamente.
¿Por qué los riñones son especialmente vulnerables durante olas de calor?
Mediante la producción de orina, los riñones mantienen el equilibrio de agua y sales en nuestro cuerpo y eliminan las toxinas. La orina se forma a partir de un filtrado de la sangre, que pasa por una especie de “coladores” en los riñones y luego se modifica hasta convertirse en orina final. Para que este filtrado ocurra, la sangre debe llegar con una presión suficiente. Si hay deshidratación, disminuye el volumen de líquidos en el cuerpo y también la presión con la que la sangre llega a los riñones. Y, sin esa presión, los riñones no pueden funcionar bien.
¿Qué señales de alarma podrían indicar que el calor está afectando?
La primera señal de alarma es la deshidratación, que puede manifestarse como sed intensa, boca seca, fatiga, mareos o disminución en la cantidad de orina. Si la orina es muy oscura o escasa, es un indicio de que los riñones están intentando retener el volumen en nuestro cuerpo y que están trabajando bajo estrés. En personas con enfermedad renal crónica, estos cambios pueden pasar desapercibidos, pero tener consecuencias graves, ya que un deterioro silencioso de la función renal puede acelerarse con el calor.
¿Qué grupos de personas son más propensos a sufrir complicaciones renales en verano?
Las personas con enfermedad renal crónica son especialmente vulnerables, ya que sus riñones ya funcionan con menor capacidad y tienen menos margen para adaptarse al estrés del calor. También corren más riesgo los adultos mayores, que suelen tener una sensación de sed disminuida, y los niños pequeños, cuyo cuerpo está compuesto en un 80 % por agua, frente al 60 % en los adultos. Las personas con diabetes, enfermedades cardiovasculares, o que toman diuréticos o medicamentos que bajan la tensión o afectan la función renal, también deben extremar precauciones durante el verano. También deben hacerlo quienes trabajan al aire libre o en ambientes calurosos, ya que están más expuestos a la deshidratación sostenida.
¿Cuál es la forma correcta de hidratarse para proteger los riñones? ¿Qué errores comunes se suelen cometer cuando hace calor?
Es importante recordar que la deshidratación no implica solo pérdida de agua, sino también de sales minerales esenciales. Lo correcto sería hablar de deshidratación hidrosalina. Por eso, cuando queremos rehidratarnos, solo beber agua no siempre es suficiente. En situaciones de calor intenso o sudoración prolongada, conviene también reponer sales, ya sea con alimentos salados adecuados o soluciones específicas.
Otro error común es esperar a tener sed para beber. La sed es ya una señal tardía, por lo que conviene anticiparse y mantener una hidratación regular, especialmente en verano. En personas con enfermedad renal avanzada, la cantidad y tipo de líquidos siempre deben individualizarse bajo supervisión médica.

¿Cómo podemos cuidar nuestros riñones durante el ejercicio? ¿Se debe evitar el deporte intenso al aire libre en días de verano muy calurosos?
Durante el ejercicio, el cuerpo pierde gran cantidad de agua y sales a través del sudor, y esto puede comprometer la función renal si no se reponen adecuadamente. Para proteger los riñones, es fundamental hidratarse antes, durante y después de la actividad física, especialmente en días calurosos.
En jornadas de mucho calor, lo ideal es evitar el ejercicio intenso al aire libre durante las horas centrales del día. Si no se puede evitar, el ejercicio debe hacerse con descansos frecuentes, en la sombra y con una hidratación adecuada que incluya también la reposición de sales.
¿Qué bebidas conviene evitar cuando se quiere proteger la salud renal?
A la hora de proteger los riñones, no todas las bebidas hidratan de forma adecuada. Las bebidas alcohólicas no son recomendables, ya que no contribuyen a una hidratación efectiva y pueden interferir con el equilibrio de líquidos en el cuerpo. Por otro lado, las bebidas azucaradas no aportan los electrolitos necesarios y, además, pueden empeorar otros factores de riesgo como la diabetes, que es una de las principales causas de enfermedad renal. En situaciones de mucho calor o sudoración, lo ideal es reponer tanto agua como sales, sin esperar a tener sed para empezar a hidratarse.
Casi siempre se habla solo de la deshidratación, pero ¿se puede beber demasiada agua? ¿Cuándo la sobrehidratación puede ser peligrosa?
Sí, aunque es menos frecuente, beber demasiada agua también puede ser peligroso. Si se ingiere una gran cantidad en un período de tiempo muy corto, los riñones no tienen margen para hacer el ajuste necesario y eliminar el exceso. O si existen factores que impiden esa adaptación, el agua se acumula. El agua en exceso en nuestro organismo diluye el sodio en sangre, provocando una hiponatremia. Esta alteración puede causar náuseas, confusión, convulsiones y, en los casos más graves, incluso la muerte.
Es un tema que me toca muy especialmente, ya que con mi grupo hemos publicado dos artículos clínicos sobre ello. En el primero describimos el caso de una persona que falleció tras ingerir seis litros de cerveza en solo veinte minutos durante un concurso; sus riñones no tuvieron tiempo de adaptarse y eliminar ese volumen. En el segundo analizamos el famoso caso de Bruce Lee: tras revisar y reanalizar toda la información disponible en internet, nuestro grupo propuso la hipótesis de que su muerte pudo deberse a un edema cerebral causado por hiponatremia. Lee tenía varios factores que comprometían la capacidad de sus riñones para regular el agua corporal: seguía una dieta principalmente líquida con muy poco aporte de solutos, tomaba fármacos que afectaban esta función, entre otros factores.
Estos casos extremos sirven para ilustrar que tanto la deshidratación como la sobrehidratación pueden dañar gravemente al organismo. Lo importante es mantener un equilibrio y estar atentos a las señales del cuerpo, especialmente en situaciones de calor o ejercicio intenso.
¿Estamos subestimando el impacto del aumento de las temperaturas globales en la salud renal? ¿Debería ocupar un lugar prioritario en las discusiones sobre crisis climática y salud pública?
Sí. Los efectos del calor sobre la salud renal han sido poco visibles hasta ahora, a pesar de que comienzan a surgir datos sólidos que confirman esta relación. Por ejemplo, el subanálisis del estudio DAPA-CKD, realizado en pacientes con enfermedad renal crónica, mostró que vivir en zonas con temperaturas más altas se asoció con una pérdida más acelerada de función renal, incluso sin que existiera un golpe de calor clínico. Es decir, el calor ambiental puede tener un efecto silencioso y sostenido sobre la progresión de la enfermedad renal crónica.
Además, durante la ola de calor de junio de 2025, se estimaron al menos 458 muertes en Madrid y Barcelona atribuibles al calor, de las cuales una proporción significativa fue directamente atribuida al cambio climático. Aunque este análisis no desglosa causas específicas por órgano, sabemos que los riñones son especialmente vulnerables durante episodios de calor extremo.
Otra manifestación de este problema es la epidemia de fallo renal que requiere diálisis entre los trabajadores nepalíes que vuelven a su país tras trabajar en la construcción en condiciones extremas en países del Golfo Pérsico. O la nefropatía mesoamericana, en cañeros de azúcar, que ha originado expresiones como “la isla de las viudas”. Para recoger la caña, primero se quema, lo que aumenta más el calor ambiental con respecto al calor húmedo ya existente en el trópico.
Por todo esto, el impacto del cambio climático sobre la salud renal debería ocupar un lugar prioritario en las agendas de salud pública. No hablamos solo de eventos extremos, sino del aumento sostenido de las temperaturas, que puede agravar enfermedades crónicas ya muy prevalentes, como la enfermedad renal.

¿Qué recomendaciones puede darnos para cuidar los riñones este verano?
Lo más importante es prevenir la deshidratación, y para ello no basta con beber agua solo cuando tenemos sed. En los días calurosos, especialmente si estamos al aire libre o hacemos ejercicio, es recomendable beber líquidos de forma regular y considerar también la reposición de sales. La deshidratación no es solo pérdida de agua: también perdemos sodio, potasio y otros electrolitos esenciales, y si no los reponemos, los riñones no pueden funcionar adecuadamente.
También debemos prestar atención a las señales de alarma: si notamos fatiga, mareo, boca seca o una orina muy oscura, es posible que ya estemos deshidratados. En esos casos, no solo hay que hidratarse, sino también parar la actividad y buscar un lugar fresco.
Las personas con enfermedad renal crónica, mayores, niños, o quienes toman ciertos medicamentos, como diuréticos o antihipertensivos, deben extremar las precauciones. Y por supuesto, evitar hacer ejercicio intenso en las horas de más calor.
¿Cómo sabes si tienes una enfermedad renal crónica? Todo el mundo debería conocer sus números de salud renal, es decir, su cifra de albuminuria, que indica daño renal, y su cifra de filtrado glomerular, que indica la función renal.
Cuidar los riñones en verano significa anticiparse, escuchar al cuerpo y entender que el calor no solo se siente: también puede afectar órganos que, como los riñones, muchas veces no dan síntomas hasta que ya están dañados.
Referencias
- Perez-Gomez, M. V., Sanchez-Ospina, D., Tejedor, A., & Ortiz, A. (2022). The mysterious death of the beer drinking champ: potential role for hyperacute water loading and acute hyponatremia. Clinical Kidney Journal, 15(6), 1196-1201. doi: 10.1093/ckj/sfac072
- Villalvazo, P., Fernandez-Prado, R., Niño, M. D. S., Carriazo, S., Fernández-Fernández, B., Ortiz, A., & Perez-Gomez, M. V. (2022). Who killed Bruce Lee? The hyponatraemia hypothesis. Clinical Kidney Journal, 15(12), 2169-2176. doi: 10.1093/ckj/sfac071
- Grantham Institute. (2025, July 10). Climate change tripled heat-related deaths in early summer European heatwave. Imperial College London. https://www.imperial.ac.uk/grantham/publications/all-publications/climate-change-tripled-heat-related-deaths-in-early-summer-european-heatwave.php
- Zhang, Z., Heerspink, H. J., Chertow, G. M., Correa-Rotter, R., Gasparrini, A., Jongs, N., ... & Caplin, B. (2024). Ambient heat exposure and kidney function in patients with chronic kidney disease: a post-hoc analysis of the DAPA-CKD trial. The Lancet Planetary Health, 8(4), e225-e233. doi: doi: 10.1016/S2542-5196(24)00026-3
El domingo 17 de agosto de 2025, los bañistas de la Costa Tropical de Granada vivieron un inusual y violento fenómeno meteorológico: un reventón cálido (también conocido como reventón térmico). En cuestión de minutos, poco antes de las 19:20, el cielo se oscureció y el aire se volvió sofocante, hasta que de pronto irrumpió un viento súbito muy caliente y de intensidad casi huracanada. El vendaval levantó arena y arrancó sombrillas –más de una salió volando por la playa–, causando caos y desconcierto entre quienes disfrutaban de una tarde apacible junto al mar. Las autoridades ordenaron desalojar las playas de localidades como Carchuna, Torrenueva, Motril y Salobreña, ante el peligro que representaban las rachas de viento abrasador.
Muchos veraneantes huyeron sorprendidos, atascando las vías de salida de la costa, mientras en el mar varias personas que practicaban paddle surf o nadaban quedaron a la deriva, incapaces de volver a la orilla por la fuerza del viento. De hecho, los servicios de emergencia tuvieron que rescatar al menos a cinco bañistas arrastrados mar adentro frente a las playas de Motril (Torrenueva, Carchuna). Afortunadamente no hubo heridos graves, pero sí escenas de gran tensión. “¡Atención! Estamos sufriendo lo que se denomina un reventón térmico, con vientos casi huracanados. Se recomienda no salir a la calle”, alertó Luisa García Chamorro, la alcaldesa de Motril en sus redes sociales alrededor de las 20:20. En paralelo, el alcalde de Almuñécar advertía que se trataba de una tormenta seca y pedía extrema precaución a la población.
El episodio elevó las temperaturas a valores abrasadores. Según datos de la Agencia Estatal de Meteorología (AEMET), en Motril la temperatura saltó repentinamente hasta 40,1 ºC a las 19:50, acompañada de rachas de viento muy fuertes de hasta 86,8 km/h. Este aumento súbito del calor fue claramente perceptible para los presentes. La sensación era la de un golpe de aire ardiente, como si un horno hubiera expulsado su calor de golpe. Algunos testigos de fenómenos similares lo describen como un aire que “quemaba la piel”. Incluso vecinos veteranos de la zona reconocieron no haber vivido jamás algo así en la costa granadina, evidencia de lo extraordinario del suceso.
¿Qué es un reventón cálido y cómo se forma?
Un reventón cálido es un fenómeno meteorológico extremo caracterizado por la aparición repentina de vientos muy fuertes, secos y cálidos, junto con un incremento brusco de la temperatura ambiental. Se trata de una variante de los llamados reventones o downbursts asociados a tormentas, pero a diferencia de los reventones “fríos” (acompañados de lluvia y enfriamiento del aire), el reventón cálido seca y recalienta el ambiente a su paso. En cuestión de minutos puede desencadenar rachas destructivas de viento –en ocasiones cercanas o superiores a 80-90 km/h– y hacer subir la temperatura decenas de grados, al tiempo que desploma la humedad relativa. Son fenómenos muy breves (típicamente duran entre 5 y 30 minutos) pero intensos, capaces de provocar daños considerables en estructuras ligeras, vegetación y mobiliario urbano, e incluso poner en peligro a personas desprevenidas. En suma, podríamos imaginarlo como una suerte de “golpe de calor atmosférico” instantáneo generado por una tormenta.
¿De dónde surge este soplo recalentado? El mecanismo que origina un reventón cálido está relacionado con la dinámica interna de algunas tormentas eléctricas, especialmente las tormentas secas o en fase de disipación. Todo comienza en altura, dentro de la nube de tormenta: allí se produce precipitación (lluvia) que, al caer, atraviesa una capa de aire inusualmente cálido y seco en niveles bajos de la atmósfera. Esa capa seca provoca que la lluvia se evapore antes de llegar al suelo, un proceso que absorbe calor y por tanto enfría el aire de la parcela en caída. Ahora esa masa de aire es mucho más fría (y por ende más densa y pesada) que el entorno circundante, de modo que se desploma hacia la superficie a gran velocidad bajo la fuerza de la gravedad. A medida que el aire desciende, la evaporación cesa (toda el agua líquida se ha evaporado) y la compresión adiabática entra en juego: al seguir bajando rápidamente, el aire seco aumenta de presión y se calienta de nuevo de forma súbita (como ocurre cuando usamos una bomba de bicicleta y notamos calor al comprimir el aire). En otras palabras, la masa de aire que originalmente era cálida, se enfrió al evaporar lluvia, pero vuelve a recalentarse mientras cae aceleradamente hacia el suelo – y puede llegar incluso más caliente de lo que estaba al inicio, debido a ese calentamiento por compresión.
Cuando esta corriente descendente ardiente choca contra el suelo, no puede penetrarlo y se expande horizontalmente en todas direcciones. Ese impacto violento genera un frente de ráfagas de viento extremadamente secas y cálidas que se propaga por las zonas aledañas, elevando drásticamente la temperatura a su paso. El resultado tangible es el que se observó en Motril y otras localidades: de repente sopla un viento recalentado muy fuerte que recuerda a un golpe de aire desértico, los termómetros pueden dispararse (en Motril subieron hasta ~40 ºC desde valores mucho más bajos en minutos) y la humedad baja en picada. Este contraste súbito puede causar estrés térmico en personas y animales (el cuerpo pasa bruscamente de una temperatura confortable a calor extremo) y suele venir acompañado de daños materiales debidos al viento: techos ligeros, árboles, toldos, embarcaciones, etc., pueden verse afectados por las ráfagas.
Cabe destacar que en meteorología se distinguen reventones húmedos o fríos (cuando el aire que desciende va cargado de lluvia o granizo y provoca un descenso de la temperatura) y reventones cálidos o secos (como el de Granada, sin precipitación efectiva y con aumento térmico). En ambos casos el origen está en una corriente descendente de tormenta, pero el efecto en superficie difiere: el reventón cálido convierte una tormenta aparentemente inofensiva (que quizás ni siquiera estaba dejando lluvia donde impacta) en un vendaval sofocante. Por eso a los reventones cálidos a veces se les llama también tormentas secas – son “tormentas” en las que casi no llueve, pero sopla un viento cálido devastado.

¿Es posible predecir cuándo ocurrirá un reventón cálido?
Anticipar con exactitud un reventón cálido es sumamente difícil. A diferencia de otros fenómenos meteorológicos más amplios o de evolución gradual (como una ola de calor convencional o una borrasca), los reventones son eventos muy localizados y repentinos, que suceden en el transcurso de minutos y sin apenas señales de aviso claras para la población. Los meteorólogos pueden identificar condiciones de riesgo –por ejemplo, días de calor extremo con tormentas aisladas de tarde o noche, y presencia de aire seco en capas bajas– e incluso activar alertas generales por posibles tormentas secas o reventones. De hecho, la AEMET suele advertir de esta posibilidad en episodios de altas temperaturas seguidos de inestabilidad atmosférica. Sin ir más lejos, el día del suceso en Granada estaba catalogado de alto riesgo: una masa de aire muy cálido sobre la península y el desarrollo de tormentas aisladas sugerían el peligro de reventones térmicos en el sur.
No obstante, predecir el momento y lugar exactos en que se producirá un reventón cálido es prácticamente imposible con la tecnología actual. Estos estallidos de viento ocurren típicamente durante la fase final de tormentas eléctricas, a menudo por la noche o de madrugada cuando el aire en superficie se ha enfriado un poco. Son el resultado de microprocesos muy rápidos dentro de una nube (evaporación súbita de lluvia, desplome de aire) que no pueden detectarse con suficiente antelación más que minutos antes en el radar meteorológico. Por ello, suelen tomar por sorpresa incluso a ojos entrenados. En el caso de Motril y Almuñécar, muchos veraneantes fueron sorprendidos porque hasta minutos antes el cielo lucía simplemente nublado y bochornoso, sin una señal evidente de que se desataría un vendaval. Las sirenas de emergencia y avisos de la Policía Local apenas tuvieron tiempo de sonar in situ para desalojar las playas cuando el viento ya estaba encima. En resumen, los reventones cálidos ocurren “sin previo aviso” para el público, lo que aumenta su peligrosidad intrínseca.
La imprevisibilidad y la brevedad de este fenómeno lo hacen especialmente peligroso. Al no haber tiempo para prepararse, los daños pueden ser mayores y las personas tienen poca capacidad de reacción. En 2025, por ejemplo, Granada capital estuvo bajo alerta ese día y aun así no sufrió reventones, mientras que en la costa el fenómeno sí ocurrió de forma puntual; es decir, solo algunas células tormentosas generan reventón y otras no, incluso dentro de la misma región, complicando aún más su pronóstico. Por ello, las recomendaciones de los meteorólogos ante una posible situación de reventón cálido son generales: extremar la precaución si hay tormentas secas en la zona, evitar zonas descubiertas (playas, descampados) en las horas de más riesgo y estar atento a cambios bruscos en el tiempo. Afortunadamente, una vez pasa el frente de rachas cálidas, suele llegar un descenso térmico: tras el reventón, el aire caliente se dispersa y puede entrar aire más fresco, aliviando el calor extremo inicial. Este fue el caso en Granada, donde el “soplo de horno” duró poco y dio paso a temperaturas más razonables tras unos minutos de caos.

Un fenómeno poco común, pero extremo, también registrado en España
Los reventones cálidos no son frecuentes, pero cuando ocurren pueden tener consecuencias graves. El violento episodio de Motril y Almuñécar es uno de los pocos documentados recientemente en España. Otro caso resonante sucedió en agosto de 2022 durante el festival de música Medusa, en Cullera (Valencia). En aquella ocasión, de madrugada, un reventón cálido sorprendió a miles de asistentes con vientos huracanados y aire ardiente, derribando parte del escenario y estructuras del evento. Lamentablemente, aquella vez el fenómeno causó una tragedia, con un fallecido y decenas de heridos entre el público. Varios testigos relataron entonces que el viento “quemaba la piel” y que empezaron a caer fragmentos como si fuesen ceniza incandescente. Aquella noche, en el aeropuerto de Alicante se registraron rachas de hasta 80 km/h junto a un aumento de temperatura hasta 40,5 ºC pasada las 3 de la madrugada, evidencia de otro reventón cálido ocurrido casi simultáneamente en la región. También en Murcia y otras zonas del sureste peninsular se han observado reventones cálidos nocturnos en condiciones de calor extremo seguidas de tormentas aisladas. Estos episodios, al igual que el de Granada, confirman que bajo olas de calor intensas las tormentas pueden desencadenar fenómenos explosivos de viento y calor en distintos puntos de España.
En definitiva, un reventón cálido es un golpe súbito de viento ardiente procedente de una tormenta que pilla por sorpresa por su rapidez y virulencia. Su formación requiere una combinación poco usual de calor extremo, aire seco y tormentas, por lo que son fenómenos escasos; pero cuando ocurren, dejan huella. El caso de la Costa Tropical granadina el 17 de agosto de 2025 demostró su poder: en apenas unos instantes transformó una tranquila tarde de verano en un vendaval sofocante, recordándonos que la atmósfera puede a veces manifestar su fuerza de formas tan repentinas como espectaculares. Los científicos continúan estudiando estos eventos para mejorar su detección y alerta, pero por ahora la mejor defensa es conocer su naturaleza –como la que hemos descrito aquí– y mantenerse vigilantes ante cambios bruscos del cielo cuando el calor y las tormentas secas se combinan.
El CUPRA City Garage Madrid, ubicado en la Gran Vía, ha cerrado el mes de agosto con un doble evento que refleja a la perfección el espíritu inconformista y creativo de la marca: por un lado, una velada de cine sorpresa al aire libre y, por otro, la celebración de la Madrid Premier Padel, uno de los torneos más prestigiosos del circuito internacional. Ambas actividades no solo sirvieron para reforzar la conexión de CUPRA con la cultura y el deporte, sino también para consolidar su espacio insignia en la capital como un referente en experiencias urbanas innovadoras.
La propuesta de cine sorpresa permitió a los asistentes disfrutar de una proyección inesperada en un ambiente exclusivo, rodeados del diseño vanguardista y la atmósfera única que caracteriza al CUPRA City Garage. Se trató de una forma diferente de acercar la marca a los amantes del séptimo arte, ofreciendo algo más que un producto automovilístico: una vivencia cultural en el corazón de Madrid. Como bien resume el lema de CUPRA, No se trata solo de coches, sino de una manera distinta de entender la vida.
En paralelo, el CUPRA City Garage se vistió de gala para recibir la Madrid Premier Padel, evento que congregó a algunos de los mejores jugadores del mundo y que se ha consolidado como cita obligada en el calendario deportivo. El espacio de la marca funcionó como punto de encuentro para aficionados, deportistas e invitados especiales, creando una fusión entre competición, lifestyle y diseño automovilístico. Esa versatilidad encarna a la perfección la filosofía de la compañía: No es un coche, pero respira CUPRA por todas partes.
Estas iniciativas refuerzan la apuesta de CUPRA por situarse más allá de los límites tradicionales de la automoción, conectando con nuevas generaciones a través de la cultura, la música, el arte y, por supuesto, el deporte. La marca demuestra así que su esencia va mucho más allá de los coches: es una forma de entender la vida, un estilo marcado por la innovación, la emoción y la autenticidad.
Un escenario icónico en la Gran Vía
El CUPRA City Garage Madrid se ubica en la arteria más emblemática de la capital, un enclave que combina historia, modernidad y cultura. Desde su apertura, este espacio ha querido ser algo más que un showroom: un punto de encuentro para experiencias únicas.
La localización refuerza la visibilidad de la marca y la conecta con un público urbano, cosmopolita y abierto a nuevas formas de entretenimiento y estilo de vida.

Cine sorpresa con Garage Film Selection: Secret Session
El Garage Film Selection: Secret Session es una experiencia única de cine sorpresa en la que el título de la película no se revela hasta apenas una semana antes de la proyección. CUPRA anima a estar atentos a sus redes sociales, donde se lanzan pistas que mantienen la intriga.
La idea es clara: romper la rutina y despertar la curiosidad del público, porque las mejores historias son aquellas que no ves venir. Más que una película, se trata de vivir la emoción de lo inesperado en un entorno cuidado y vibrante, con el sello inconfundible de CUPRA.

Una velada con sello CUPRA
La velada de cine es fue solo una proyección, sino una experiencia inmersiva. Los asistentes disfrutaron de un ambiente cuidado, acompañado de gastronomía, música y diseño. El CUPRA City Garage se convirtie, así, en un espacio cultural donde el séptimo arte se encuentra con el lifestyle urbano que la marca impulsa.

Madrid Premier Padel: deporte de élite
El torneo Madrid Premier Padel ha ganado relevancia internacional en tiempo récord. Reúne a las mejores parejas del circuito y convierte la capital española en epicentro del pádel mundial. CUPRA, como patrocinador, refuerza su vínculo con un deporte en pleno auge, estrechamente ligado a los valores de competitividad, pasión y trabajo en equipo.
Para CUPRA, el pádel representa dinamismo, esfuerzo y comunidad. Su asociación con el circuito Premier Padel no es casual, sino una apuesta coherente con su posicionamiento. La marca aprovecha esta conexión para transmitir su carácter desafiante y su capacidad de reinventar experiencias deportivas y sociales.

Deportistas y aficionados en el City Garage
Durante el evento, el CUPRA City Garage acogió a deportistas, aficionados y personalidades relacionadas con el mundo del pádel. Fue un punto de encuentro donde se compartieron emociones y experiencias. Este tipo de interacciones generan un vínculo cercano entre la marca y el público, trascendiendo la mera relación comercial.
En cada iniciativa, CUPRA busca fusionar diseño, lifestyle y deporte. El City Garage es el escenario perfecto para mostrar esta mezcla, donde automoción y cultura urbana conviven. El resultado es una propuesta diferencial que conecta con un público joven y abierto a nuevas tendencias.

Gamechangers: el proyecto estrella
Este verano CUPRA también ha presentado Gamechangers, un concurso internacional de pádel juvenil que recorrerá ocho ciudades —entre ellas Madrid, Barcelona, Milán, Róterdam y Ciudad de México— en busca de jóvenes talentos de entre 15 y 24 años. Cada parada se alinea con torneos Premier Padel, y la gran final se celebrará en Barcelona en 2025.
Los cuatro ganadores (dos chicos y dos chicas) recibirán becas de hasta 10 000 euros, un coche CUPRA en préstamo y formación en la Manu Martín Academy. Además, contarán con el apoyo de la Tribu CUPRA de pádel y la posibilidad de competir en el CUPRA FIP Tour.

Un impulso real al talento joven
Gamechangers no es solo un concurso: es una plataforma de impulso deportivo. Con él, CUPRA se compromete a dar visibilidad y apoyo profesional a quienes sueñan con llegar a la élite del pádel. La marca demuestra así que también apuesta por ser motor de oportunidades.

CUPRA City Garage: un concepto global
El espacio de Madrid forma parte de una red de City Garages presentes en ciudades estratégicas como Múnich, Milán, Róterdam o Ciudad de México. Cada uno funciona como embajada de la marca. En todos los casos, se apuesta por experiencias inmersivas que combinan automoción, música, arte y gastronomía.

Más que coches: estilo de vida
CUPRA no se limita a fabricar automóviles, sino que busca crear un universo de experiencias. El cine sorpresa y la presencia en torneos de pádel son ejemplos de este enfoque. De esta forma, la marca se consolida como un referente cultural, capaz de generar comunidad y pertenencia.

Una apuesta por la innovación
El carácter innovador es un rasgo central en cada acción de CUPRA. El cine sorpresa es un formato arriesgado y original, mientras que la vinculación con Premier Padel sitúa a la marca en un terreno deportivo de gran crecimiento.
Ambas iniciativas transmiten la capacidad de CUPRA para adelantarse a tendencias y ofrecer algo distinto al público.

Cultura y deporte como motor
CUPRA entiende la cultura y el deporte como motores de conexión con las personas. Estas iniciativas reafirman que los coches son solo una parte de una propuesta mucho más amplia.
El City Garage se convierte, así, en un espacio que refleja cómo la marca entiende el futuro: como una fusión de pasión, diseño y experiencias.

CUPRA City Garage: despedida de agosto con energía
Con el cine sorpresa y el Madrid Premier Padel, CUPRA cerró agosto reafirmando su compromiso con la ciudad y con quienes buscan emociones distintas.
El evento es una despedida vibrante del verano y un anticipo de lo que la marca seguirá ofreciendo en los próximos meses: experiencias que mezclan emoción, cultura y deportividad.

Si bien la muerte forma parte de nuestra existencia, no todas las culturas humanas se enfrentan a ella del mismo modo. Entre el siglo I a. C. y el 668 d. C., en la península de Corea, floreció la compleja tradición funeraria del sunjang, una práctica de sacrificio humano vinculada a la tumbas de la élite. Estos rituales, que se documentan, sobre todo, en las regiones de Silla y Gaya, consistían en enterrar, junto al ocupante principal de la tumba, a una o varias personas, presumiblemente para acompañarle en la otra vida. Hasta hace poco, las investigaciones se centraban en describir las estructuras arquitectónicas y ajuares de estas suntuosas inhumaciones, pero un nuevo estudio publicado en International Journal of Osteoarchaeology ha abordado una cuestión esencial. ¿Quiénes eran las personas sacrificadas?
El análisis de 65 individuos procedentes del Complejo funerario de Imdang, en Gyeongsan, ofrece ahora un panorama inédito sobre el sexo, la edad, el estado de salud y las relaciones sociales entre el ocupante principal y las víctimas. Los resultados obligan a matizar la imagen simplista de un sacrificio reservado a esclavos o prisioneros, y sugieren que el sunjang tuvo significados sociales mucho más complejos.

El contexto arqueológico del sunjang
En la región de Gaya, el sunjang se documenta por primera vez a finales del siglo III y, hacia el siglo V, se había extendido a Silla. Sin embargo, se prohibió oficialmente en el año 502, durante el reinado de Jijeung, aunque siguió practicándose de manera residual hasta mediados del siglo VI. Las evidencias de esta práctica proceden de la excavación arqueológica de las tumbas, que suelen contar con una cámara principal y una cámara subsidiaria.
En el caso del Complejo funerario de Imdang, que se asocia a la élite del pequeño estado de Apdok, las excavaciones iniciadas en la década de 1980 han permitido recuperar más de 250 esqueletos. De estos, solo una parte corresponde a contextos de sunjang. El estudio se centró en 20 individuos procedentes de Imdang y 45 de Joyeong, ambos considerados contemporáneos y similares en lo que a función se refiere.

Metodología: cómo se identificó a las víctimas
Como punto de partida, los investigadores distinguieron entre los ocupantes principales y las víctimas sacrificadas, combinando, para ellos, los criterios arquitectónicos con la orientación de los cuerpos y la distribución de los ajuares. En las cámaras principales, los objetos de alto estatus —como coronas de bronce, espadas ornamentadas y calzado dorado— se disponían junto al ocupante principal. Las víctimas, en cambio, solían portar objetos más sencillos, como pendientes o vasijas corrientes. En muchos casos, incluso carecían de ajuar.
La determinación del sexo se realizó a través del análisis de ADN siempre que fue posible. En los casos sin material genético utilizable, se optó por aplicar criterios morfológicos craneales y pélvicos. La edad se estimó con métodos osteológicos estándar. Los estudiosos diferenciaron tres categorías adultas (21-35, 36-50 y más de 51 años), mientras que los subadultos se evaliuaron a partir de la dentición y la fusión epifisaria. También se examinó el estado de salud por lesiones, patologías dentales y óseas, y signos de estrés fisiológico.

Los sorprendentes sesultados: edad y sexo de las víctimas
De los 65 individuos analizados, 11 correspondían a los ocupantes principales y 54 a las víctimas. Desde el punto de vista estadístico, no se detectaron diferencias significativas en la proporción de sexos entre ambos grupos. Con todo, se verificó que las mujeres sacrificadas se encontraban con mayor frecuencia en la cámara principal, mientras que los hombres predominaban en las subsidiarias. Este patrón sugiere una posible asociación ritual diferenciada en función del sexo.
En cuanto a la edad, el 67,2 % de los individuos eran adultos y el 32,8 % subadultos. Entre las víctimas, había un porcentaje mayor de jóvenes y adolescentes, con un grupo destacado de individuos de 10 a 15 años y tres menores de 10 años. En cambio, los ocupantes principales eran casi siempre adultos, salvo dos casos excepcionales de subadultos, uno de ellos de menos de 10 años, algo único en el registro arqueológico coreano.
Otro hallazgo llamativo fue la correlación positiva entre la edad del ocupante principal y el número de víctimas sacrificadas. Los difuntos de mayor edad llegaban a tener hasta una media de 4,2 acompañantes, frente a 1,5 en los enterramientos de subadultos.

Estado de salud y condiciones de vida
El estudio no encontró diferencias significativas en la frecuencia de patologías entre los ocupantes principales y las víctimas. Sin embargo, ciertos problemas de salud, como la hipoplasia lineal del esmalte, las caries y las lesiones craneales, se verificaron con mayor frecuencia entre las víctimas. Esta evidencia lo podría apuntar a una dieta más pobre o a condiciones de vida menos favorables entre los individuos sacrificados. Las investigaciones isotópicas previas ya habían detectado diferencias en la dieta, con un mayor consumo de proteína animal, aves y mariscos entre los ocupantes principales, pero no necesariamente un patrón uniforme de privación en las víctimas. Aun así, algunos individuos sacrificados tenían ajuares y signos de estatus similares a los de los ocupantes principales, lo que pone en entredicho que todos ellos perteneciesen a un bajo rango social.
Un sacrificio con múltiples significados
El sunjang en Imdang y Joyeong no puede interpretarse únicamente como un gesto de dominación de la élite sobre personas de bajo estatus. La diversidad en las edades, sexos y ajuares sugiere que las víctimas pudieron ocupar posiciones sociales distintas, algunas quizá cercanas a la élite. El sacrificio pudo servir tanto para reforzar la autoridad y el prestigio del difunto como para cumplir otras funciones simbólicas y religiosas.
Por otro lado, la disposición espacial de los cuerpos, la correlación entre la edad del difunto principal y el número de víctimas, y la ubicación diferenciada por sexo apuntan a una elaborada escenografía funeraria aún por desentrañar.

Limitaciones y perspectivas futuras
Los autores del estudio han advertido que el tamaño reducido de la muestra de ocupantes principales limita el alcance de las conclusiones. La preservación desigual de los restos, además, también pudo haber influido negativamente en la detección de patologías. Por tanto, recomiendan aplicar en el futuro análisis isotópicos más amplios (carbono, nitrógeno, estroncio y oxígeno) para reconstruir dietas, movilidad y procedencia geográfica de cada individuo. Tales estudios podrían determinar si las víctimas procedían de comunidades lejanas o formaban parte de la misma sociedad.
Un fascinante ritual fúnebre
El estudio del Complejo funerario de Imdang ofrece la imagen más completa hasta la fecha de las personas implicadas en los sacrificios sunjang. Aunque no se hallaron diferencias significativas en sexo o edad global entre ocupantes principales y víctimas, la mayor presencia de mujeres en la cámara principal, la concentración de adolescentes y jóvenes entre las víctimas, y la relación entre la edad del difunto principal y el número de sacrificios aportan claves para entender la lógica social y ritual de estas prácticas.
Referencias
- Woo, E., Y. Jeong, D. Kim, and M. Seo. 2025. “ Demographic Composition and Pathology of the Human Occupants and Sacrificial Victims at Ancient Korean Tombs”. International Journal of Osteoarchaeology: 1–11. DOI: https://doi.org/10.1002/oa.70017.
Las enfermedades nos han acompañado en nuestro largo camino evolutivo: los científicos han encontrado caries en restos de Australopithecus, tumores en el Homo erectus, artrosis en los neandertales… Nuestros antepasados tenían conciencia de su propia existencia, lo que a su vez significaba tener conciencia de la propia muerte, y entendían la relación de causa y efecto de algunos males concretos, como heridas o traumatismos; de hecho, existen restos muy primitivos con signos de fracturas soldadas, lo que indica que ya en tiempos muy remotos se comenzaron a practicar algunos sistemas de entablillado; y hay pruebas de la práctica de la trepanación en el Neolítico con cuchillos fabricados en pedernal. Pero los conceptos de enfermedad y medicina similares a los que hoy entendemos por tales no llegaron hasta que la humanidad comenzó a agruparse en poblaciones organizadas; a civilizarse, en suma.
Los microbios, en desventaja
El problema a la hora de estudiar las enfermedades de hace cientos de miles de años es la falta de rastros; una fractura soldada es una buena pista, pero con las enfermedades infecciosas, la cosa cambia; escasean las pruebas sobre cómo pudieron afectar o diezmar a las poblaciones primitivas, si es que lo hicieron… salvo por la propia dinámica de los agentes infecciosos. Según cuenta el divulgador Roy Porter en su Breve historia de la medicina, plagas como el sarampión, la gripe o la viruela debieron de resultar a los primeros seres humanos prácticamente desconocidas, puesto que los microorganismos que las causan requieren unas densidades de población elevadas que proporcionen reservas de individuos susceptibles. Poco podían hacer estos agentes en los reducidos grupos de cazadores y recolectores que no paraban quietos demasiado tiempo en ninguna parte.
Pero el panorama cambió con la llegada de la agricultura, la ganadería y los grandes asentamientos. Eran actividades que requerían sedentarismo y su éxito tenía un precio: las poblaciones no paraban de crecer, y con ellas el consiguiente volumen de heces y aguas fecales donde prosperarían los microorganismos causantes del cólera, el tifus, la tosferina, la hepatitis o la difteria. Las especies animales que se criaban para obtener ropa y alimento también nos afectaron: viruela, sarampión y tuberculosis por el ganado vacuno; gripe porcina; gripe aviar; rinovirus por los caballos… La humanidad se enfrentaba de golpe a nuevos enemigos invisibles, y no contaba con nadie capaz de combatirlos.

Fue tal invisibilidad lo que provocó que el origen de estas dolencias se atribuyera a causas más místicas que naturales. Para civilizaciones como la egipcia o las establecidas en Mesopotamia hace alrededor de 6000 años, los espíritus malignos o la cólera de los dioses respectivos eran los responsables de buena parte de los males físicos, y por eso su curación quedaba en manos de sacerdotes, brujos o chamanes.
Con el sedentarismo las poblaciones crecen y con ellas, heces, aguas fecales y microorganismos causantes de: tifus, cólera, tosferina, hepatitis, difteria…
Este hecho estableció una convivencia no siempre sencilla entre la religiosidad ritual y el conocimiento obtenido por la observación racional. Este conflicto se aprecia en el famoso Código de Hammurabi, establecido por este rey de Babilonia en el siglo xviii a. C. En él hay trece disposiciones sobre la práctica médica que especifican desde lo que un profesional debía cobrar –dependía de si el enfermo era un esclavo o un hombre libre– hasta penalizaciones drásticas, como la que determinaba que, si el paciente moría o perdía un ojo, al médico se le amputarían las manos.
Esta pena se aplicaba a los sanadores de más bajo nivel, de ningún modo a los sacerdotes, que eran los encargados del diagnóstico, al que llegaban basándose más en la creencia que en la ciencia: interrogaban al enfermo sobre los pecados que había cometido para merecer su mal. No extraña que asirios y babilonios usaran idéntica palabra –shêrtu– para expresar pecado, cólera de los dioses, castigo y enfermedad.

Pero sus procesos de curación no solo consistían en conjuros, y la civilización mesopotámica introdujo el concepto de medicamento. Contaba con una farmacopea de más de quinientos remedios elaborados con hierbas, plantas, productos de origen animal y sustancias minerales, y sus especialistas escribieron las instrucciones para su aplicación, con sistemas que van desde ungüentos hasta enemas o supositorios. El Libro del pronóstico (siglo vii a. C.) nos revela cómo se examinaban la temperatura, el tono de la piel, la respiración y el pulso, da cuenta del examen de las heces y la orina y describe las hinchazones.
La hidropesía, la lepra o la hernia ya estaban identificadas, al igual que la tuberculosis, descrita así en un caso práctico: «El enfermo tose con frecuencia, su esputo es espeso y a veces contiene sangre, la respiración suena como una flauta. Su carne está fría, pero los pies calientes, suda mucho y el corazón está muy inquieto».
Un corazón muy listo
Su principal limitación radicaba en su escaso conocimiento sobre el organismo humano, algo muy común en las civilizaciones antiguas, donde la disección de los cadáveres se consideraba una profanación; avanzaban por analogía con los órganos de los animales sacrificados. En ese sentido, los mesopotámicos fueron los primeros en identificar la sangre como el elemento indispensable de la vida, e incluso distinguieron entre arterial y venosa, que llamaban clara y oscura, respectivamente; su error fue pensar que partía del hígado. Creían también que el corazón albergaba la inteligencia.
En paralelo, Egipto desarrolló sus propias técnicas de curación que hicieron que el griego Homero lo considerara «el país de los médicos». Las ciencias de la salud se aprendían en las casas de vida, donde los futuros sanadores convivían con sacerdotes y escribas. Como en Mesopotamia, los profesionales se dividían en tres categorías: magos, sacerdotes y médicos propiamente dichos. Además, había especialistas distintos para ricos y pobres.
La diferencia fue que Egipto tuvo que luchar contra males propios, resultantes de la proximidad del Nilo y las zonas pantanosas: la proliferación de parásitos, que provocaban enfermedades digestivas y rectales, y que condujo a la aparición de los primeros proctólogos. La mejor solución contra estas afecciones eran los enemas, tanto curativos como preventivos: las clases superiores tenían la costumbre de aplicarse uno diario durante tres jornadas de cada mes.

44 Conductos corporales
Los egipcios también estudiaron con atención los fluidos humanos: suponían que el cuerpo estaba atravesado por 44 conductos –regidos por el corazón y la nariz– por los que no solo circulaba la sangre, sino también mocos, agua, orina, vómitos, heces, bilis y semen. Los elementos no imprescindibles de toda esta mezcolanza abandonaban el cuerpo; de ahí la importancia que se daba a la observación de las heces como parte del diagnóstico.
Más valor incluso concedían al examen del pulso, que era, al igual que hoy, indicativo de buena salud; no solo aprendieron a detectarlo, sino también a contar la frecuencia de los latidos con relojes de agua. Su farmacopea no tenía nada que envidiar a la mesopotámica, e incluía remedios de origen vegetal como la escila, la trementina y el aceite de ricino; preparados con ingredientes como miel, cerveza, levaduras, aceites, dátiles y antimonio; compuestos de plomo y cobre; y componentes tan exóticos como las heces de cocodrilo o el cerebro de león.
Por otra parte, sus cirujanos gozaron de amplias oportunidades de formación gracias a las numerosas heridas y lesiones provocadas por la construcción de las pirámides y los templos, y por las muchas guerras en las que Egipto se enzarzó: solo en el Papiro Edwin Smith (hacia 1500 a. C.) se describen 48 tipos de lesiones típicas de los obreros. Algunos de los heridos y moribundos que quedaban en los campos de batalla sufrían heridas de tal calibre que proporcionaban un completo acceso visual a algunos órganos internos. Las más leves se suturaban, y las graves se trataban con ungüentos que aceleraban la cicatrización, o se cauterizaban con metal al rojo vivo.
Todos estos avances marcaron la diferencia entre la medicina egipcia y la mesopotámica; la primera se atrevió a ir más allá y desarrollar una disciplina con rudimentos científicos: sus practicantes tomaban notas de sus observaciones y escribían sus conocimientos para transmitirlos a las generaciones venideras de su tierra. Y no solo a ellas; su influencia traspasó fronteras y, como se deduce del comentario de Homero, fue más que intensa en la medicina griega.
Las referencias médicas de Homero
Precisamente, las obras del autor de la Ilíada y la Odisea abundan en referencias médicas. En su Historia de la medicina, Francisco Guerra recuerda que en la narración del asedio de Troya se mencionan 127 tipos de heridas: 31 en la cabeza, 13 en el cuello, 36 en el tórax, 26 en el abdomen y 21 en las extremidades. Y añade que «en algunos casos, Homero describe con gran precisión los órganos afectados en el tratamiento de la herida, por ejemplo, la articulación coxofemoral o la vejiga urinaria; en otros indica el pronóstico de gravedad por su localización».
Se ignora casi todo del padre de las letras griegas, pero podría pensarse que sabía de traumatología aplicada a las heridas de guerra, tanto que fue estudiado durante siglos por los médicos. De hecho, la primera etapa de la medicina helena recibe el apelativo de homérica, y abarca desde los años de la hipotética guerra de Troya, hacia 1180 a. C., hasta el 500 a. C., cuando tomaron el relevo la medicina filosófica presocrática y la hipocrática.

Cien bueyes contra el cólera
La precisión científica de Homero al describir las heridas y traumatismos no sigue el mismo camino con la peste que afectó a los aqueos durante el sitio de Troya, que atribuye a un castigo de Apolo por el rapto de Criseida, hija de uno de sus sacerdotes. El remedio aplicado fue sacrificar cien bueyes para aplacar la cólera divina. La influencia presocrática puso las cosas más claras, al unir la interpretación racional de los síntomas con la experiencia acumulada por generaciones de sanadores; creían que el logos, o razón humana, podía entender la physis o naturaleza, incluida la de cualquier dolencia.
La llegada de la razón a las artes curativas preparó el surgimiento de una de las figuras más sobresalientes de la historia: Hipócrates (460 a. C.-370 a. C.), un médico que se hizo célebre en vida y cuya fama creció tras su muerte, hasta convertirlo en leyenda. Motivos no faltaban, como prueba su herencia magna, el Corpus hippocraticum: más de cincuenta tratados donde se tocan desde fracturas hasta epidemias –estas dejan de verse como castigo divino para ser enfermedades que afectan a una población, pues no otra cosa significa el término–, pasando por las dolencias mentales y la conducta y ética médicas. No pueden deberse a su mano, ya que se escribieron a lo largo de varios siglos, pero no cabe duda de que fueron elaborados por sus abundantes discípulos, en su mayor parte los de la escuela de la isla de Cos, su lugar de nacimiento.
El Corpus hippocraticum supuso un punto y aparte en la historia de la curación, por tratarse de un eficaz compendio del saber en ese campo –la epilepsia, la tisis, el paludismo, la neumonía o la disentería, entre otras dolencias, fueron descritas en él con cuadros de diagnóstico y pronóstico aún vigentes–; y, sobre todo, por incorporar la idea de la medicina como conocimiento racional.
La escuela hipocrática no era perfecta y sus conocimientos anatómicos resultaban muy limitados, ya que la disección de cadáveres iba contra los principios griegos. Sin embargo, fue pionera en establecer una relación de obligación del médico para con el paciente: debía cuidarlo, permanecer con él e interesarse sinceramente por curarlo de sus males. Hipócrates creó la deontología de su profesión.
Médicos Romanos
El trasvase de conocimientos médicos de Grecia a Roma se simboliza con la latinización del dios griego de la curación, Asclepio, que se convirtió en Esculapio. Pero cabe recordar que en los inicios de la República, la medicina no se consideraba una profesión digna y su práctica se reservaba a los extranjeros.
Aun así, los primeros romanos que la ejercieron siguieron fielmente las enseñanzas de Hipócrates, y muchos escribían en griego; por otro lado, conocemos curiosos casos de grecofobia, como los manifestados en sus escritos por dos de los mayores sabios romanos, Catón y Plinio el Viejo, que despreciaban a los sanadores helenos.
La medicina romana investigó y avanzó de forma apreciable en la amputación de miembros, la cauterización de heridas, el cáncer o la parálisis cerebral, al tiempo que aumentaba y perfeccionaba la lista de fármacos disponibles.

El gran galeno
Ninguno de sus médicos fue más célebre que Galeno (129-200 o 216), cuya influencia perduraría durante casi 1500 años, hasta el punto de dar nombre a los miembros de su gremio: galenos. Nacido en Pérgamo, se trasladó a Roma en 161 y con su talento no tardó en ganar fama hasta llegar a médico imperial, primero del césar Cómodo y luego de su sucesor, Septimio Severo.
Se le conoció también por su carácter arrogante y polemista, del cual son buen ejemplo párrafos como este: «He hecho tanto por la medicina como Trajano hizo por el Imperio romano cuando construyó puentes y caminos por toda Italia. Soy yo, y solo yo, el que ha revelado la verdadera senda de la medicina». ¿Fue para tanto? Sin duda, Galeno reforzó la idea de Hipócrates del diagnóstico mediante la observación e insistió en la formación continua del profesional. Realizó avances en anatomía, del máximo mérito si se considera que su principal herramienta de conocimiento fue la disección de animales, y demostró más puntería que sus antecesores al establecer los paralelismos con el ser humano en cuanto a la situación y el mantenimiento de los órganos vitales.
Más sobresalientes fueron sus trabajos en fisiología, donde partiendo de la teoría hipocrática de los humores describió con acierto procesos como la digestión, la circulación de la sangre y la función del corazón. Galeno descartó cualquier intervención divina en la aparición de una dolencia o enfermedad, y para determinar su origen sugirió conocer todo lo posible sobre la vida y las costumbres del enfermo. Escribió sobre decenas de casos clínicos tratados por él, describiéndolos extensa y minuciosamente en sus tratados. No fue infalible, pero sí el creador de una escuela en la que se basaría buena parte de la medicina del mundo conocido de los siguientes siglos.
Cuando clavas un clavo, una mano sujeta y la otra golpea. Ese simple gesto, repetido miles de veces en distintas formas, podría estar esculpiendo la forma en que tu cerebro interpreta el mundo. La investigación en neurociencia lleva décadas describiendo que cada hemisferio cerebral procesa mejor ciertos tipos de información: uno se especializa en lo rápido y detallado; el otro, en lo más estático y global. Lo que no estaba claro era por qué.
Un equipo de la Universidad de Cornell, liderado por Owen Morgan y Daniel Casasanto, cree haber encontrado la pista. Su hipótesis de asimetría de la acción propone que esta especialización no es algo fijo desde el nacimiento ni un subproducto del lenguaje, sino que se moldea por la manera en que usamos nuestras manos en las tareas cotidianas.
Para comprobarlo, reclutaron a casi 2.000 participantes, incluyendo un grupo poco habitual en estos estudios: personas zurdas, a menudo ignoradas en la investigación cerebral. Y los resultados reescriben parte de lo que creíamos saber sobre la percepción visual.
"Encontramos el mismo patrón que siempre encuentras en los diestros, cuyos hemisferios izquierdos están especializados para la percepción visual de alta frecuencia, y exactamente lo contrario en los zurdos", dijo Daniel Casasanto, profesor del Departamento de Psicología y la Facultad de Ecología Humana, y director del Laboratorio de Experiencia y Cognición.
El patrón visual que cambia con la mano dominante
En la mayoría de las personas diestras, el hemisferio izquierdo del cerebro procesa mejor los detalles visuales de alta frecuencia, es decir, los elementos pequeños y de cambio rápido, como letras finas o texturas detalladas. El hemisferio derecho, en cambio, se orienta a la información de baja frecuencia, más global y estática, como formas amplias o contrastes generales.
El estudio halló que en los zurdos más consistentes ocurre exactamente lo contrario: su hemisferio derecho se encarga de las altas frecuencias y el izquierdo de las bajas. En personas ambidiestras o con dominancia menos marcada, la asimetría se reducía.
Este hallazgo contradice la idea de que esta organización cerebral esté predeterminada en el útero o que dependa de la zona encargada del lenguaje, ya que la especialización lingüística no se invirtió en los zurdos.
"Estos datos apoyan nuestra teoría de que la forma en que se organizan los sistemas perceptivos en el cerebro depende de la forma en que realizamos acciones con nuestras manos".

Cómo se midió la especialización cerebral
Los investigadores realizaron dos experimentos en línea en los que se mostraban figuras jerárquicas: formas grandes hechas de elementos pequeños (por ejemplo, un cuadrado compuesto por triángulos diminutos). Los participantes debían identificar rápidamente detalles de alta o baja frecuencia, presentados en el campo visual izquierdo o derecho.
En total, participaron casi 2.000 personas, equilibrando el número de diestros y zurdos, y analizando también a individuos con lateralidad mixta. Las diferencias en velocidad de respuesta revelaron qué hemisferio procesaba mejor cada tipo de información.
Un tercer experimento con pruebas auditivas —escuchando sonidos diferentes en cada oído— confirmó que la especialización visual no dependía de la especialización lingüística, que se mantuvo igual en ambos grupos.
La hipótesis de asimetría de la acción
"Esa es nuestra hipótesis: que las asimetrías en la acción de la mano dan lugar a asimetrías en la percepción en la visión y la audición", dijo Casasanto.
Según esta hipótesis, la especialización de cada hemisferio para distintas frecuencias visuales surge de cómo usamos nuestras manos en acciones de alta o baja frecuencia.
La mano dominante suele encargarse de tareas rápidas y precisas, como escribir o golpear, que generan estímulos de alta frecuencia visual y auditiva en su campo visual correspondiente. La mano no dominante, en cambio, suele sostener, estabilizar o realizar movimientos más lentos, asociados a información de baja frecuencia. Con el tiempo, esta distribución de tareas podría entrenar a cada hemisferio para procesar mejor un tipo de información.
Este enfoque se conecta con la hipótesis de especificidad corporal, que sostiene que las características de nuestro cuerpo —como ser diestro o zurdo— moldean cómo se organiza nuestra mente.

Implicaciones para entender el cerebro
El descubrimiento abre una vía para reconsiderar teorías clásicas sobre la lateralización cerebral. Si la especialización visual puede invertirse según la mano dominante, tal vez otras funciones cognitivas también estén influenciadas por la experiencia motora y no solo por la genética o el desarrollo prenatal.
Esto podría explicar variaciones individuales en la percepción, la atención e incluso la forma de representar conceptos como el tiempo o los números, que en estudios previos también han mostrado diferencias entre diestros y zurdos.
Además, la investigación sugiere que los cambios en el uso de las manos —por lesión, práctica intensiva o adaptación— podrían reorganizar el procesamiento cerebral, algo que los autores quieren explorar con personas que han perdido la función de su mano dominante tras un ictus.
El papel de los zurdos en la ciencia
Históricamente, los estudios neurocientíficos han trabajado casi exclusivamente con personas diestras para “simplificar” el análisis. Este sesgo ha dejado fuera a un porcentaje significativo de la población y, como muestra este trabajo, ha ocultado patrones importantes.
Incluir a zurdos no solo permite contrastar hipótesis, sino que también amplía la comprensión de cómo la diversidad física y motora influye en el cerebro. Aquí, su participación fue clave para demostrar que la especialización visual no es fija, sino moldeable por la acción.

Mirando hacia adelante
"La forma en que realizas acciones con tus manos influye en un montón de funciones cognitivas diferentes, incluyendo el lenguaje y la emoción, y, ahora sabemos, la percepción visual", dijo Casasanto.
El equipo planea seguir investigando si la misma lógica se aplica a la percepción auditiva y a otras modalidades sensoriales. También quieren saber cómo cambia la especialización visual en personas que, por lesión o entrenamiento, modifican qué mano usan para tareas específicas.
El mensaje de fondo es claro: nuestro cerebro no es solo un producto de la biología, sino también de nuestros hábitos y acciones diarias. Cada vez que escribimos, cocinamos o practicamos un deporte, no solo entrenamos el cuerpo, también estamos esculpiendo cómo vemos y entendemos el mundo.
Referencias
- Morgan, O., & Casasanto, D. (2025). Frequency asymmetries in vision: The action asymmetry hypothesis. Journal of Experimental Psychology: General. Advance online publication. doi: 10.1037/xge0001806
La Europa de la Edad media fue un tiempo de florecimiento artístico y explosión cultural, pero también se vio atravesada por un ciclo repetitivo de hambrunas, enfermedades y tensiones sociales que dejaron huella en sus habitantes. Un reciente estudio publicado en Science Advances (2025) ha analizado de forma pionera cómo el estrés nutricional sufrido durante la infancia dejó huellas duraderas en la salud de los individuos. Para ello, se utilizó un método de alta resolución: el análisis isotópico incremental de dentina dental. Esta investigación, además de aportar evidencias directas de la relación entre malnutrición temprana y el desarrollo de problemas de salud en la edad adulta, también ilumina las diferencias en las experiencias vitales de las poblaciones medievales antes y después de la peste negra.
Crisis alimentarias y salud en la Inglaterra medieval
Entre los siglos XI y XVI, las hambrunas se sucedieron de forma frecuente en Inglaterra. Se ha calculado una media de siete por siglo, con picos de escasez más intensos en las décadas previas a la llegada de la peste negra en 1348. La insuficiencia alimentaria, además de provocar muertes inmediatas por inanición, también aumentaba la vulnerabilidad a las enfermedades infecciosas y generaba cambios en el desarrollo fisiológico.
El fin de la epidemia supuso una mejora temporal en la dieta y en las condiciones de vida de amplios sectores de la población. Sin embargo, el estudio demuestra que las secuelas de las privaciones sufridas en la infancia podían manifestarse muchos años después, hasta el punto de comprometer la salud en la edad adulta y la vejez.

El enfoque del estudio: los dientes como archivo biológico
Para determinar el impacto de las carencias alimenticias en las poblaciones medievales, el equipo analizó losrestos óseos de 275 individuos procedentes de varios cementerios de Londres y Lincolnshire, datados entre 1000 y 1540. Se extrajeron muestras incrementales de dentina, un tejido que registra de manera cronológica las variaciones químicas experimentadas durante el crecimiento.
Mediante la medición de isótopos estables de carbono (δ13C) y nitrógeno (δ15N), los investigadores detectaron patrones característicos del estrés nutricional. Una subida del δ15N acompañada de un valor estable o decreciente de δ13C indicaba que el organismo estaba recurriendo a sus propias reservas de proteínas y grasas para sobrevivir: una señal inequívoca de malnutrición severa.

Identificación del estrés nutricional infantil
Los resultados mostraron que el porcentaje de individuos con huellas de malnutrición infantil aumentó de manera sensible en el período inmediatamente anterior a la peste negra mientras que disminuyó después de la pandemia. Este patrón coincide con otras evidencias bioarqueológicas, como la mayor frecuencia de hipoplasias (el desarrollo incopleto de los tejidos) del esmalte dental o la menor estatura masculina documentada en el siglo XIII.
Además, el análisis temporal reveló que no todas las crisis alimentarias tuvieron el mismo impacto. El intervalo entre 1200 y 1250 que antecedió a la gran peste resultó especialmente crítico.
Impacto de la alimentación en la supervivencia y la mortalidad
El estudio dividió las muestras en dos grupos: por un lado, las personas fallecidas antes de los 30 años; por otro, aquellas que vivieron más allá de esa edad. Curiosamente, los menores de 30 con señales de estrés nutricional mostraban, en promedio, una supervivencia ligeramente superior a quienes no las presentaban. Según los autores de la investigación, esto podría indicar una cierta resistencia adquirida frente a enfermedades comunes en la infancia y adolescencia.
Sin embargo, la tendencia se invertía en la madurez. Quienes habían sufrido malnutrición en la infancia presentaban una mortalidad significativamente más alta a partir de los 30 años. Las adaptaciones fisiológicas para sobrevivir al hambre, por tanto, habrían tenido un coste a largo plazo.

Enfermedades inflamatorias y fragilidad
El equipo también evaluó la presencia de periostitis (formación de hueso nuevo en la superficie ósea), un marcador inespecífico de inflamación crónica. Los resultados mostraron que la periostitis era más frecuente en adultos que habían padecido estrés nutricional infantil, lo que apunta a una posible predisposición a respuestas inflamatorias excesivas. Estas respuestas, aunque suelen contrarrestar infecciones agudas, pueden dañar tejidos y órganos si se prolongan en el tiempo y ser la causa de enfermedades cardiovasculares, metabólicas o degenerativas.
Explicaciones biológicas: del ahorro energético a la carga alostática
El estudio interpreta sus hallazgos a la luz de varios modelos de la biología del desarrollo. Uno de ellos es la carga alostática, que describe cómo la exposición repetida al estrés, ya sea nutricional o de otro tipo, produce un desgaste acumulativo en los sistemas fisiológicos que reduce la capacidad de recuperación.
Otro posible modelo es el de respuesta adaptativa predictiva, según el cual el organismo ajusta su desarrollo para enfrentar un entorno futuro similar al vivido en la infancia. Si ese entorno cambia —por ejemplo, si un niño hambriento crece para convertirse en un adulto con una dieta abundante a su disposición—, el desajuste puede favorecer la aparición de enfermedades crónicas.

Un legado de la infancia que alcanza la vejez
El análisis isotópico incremental de dentina ha permitido a los investigadores acceder a un registro biográfico detallado de las experiencias nutricionales de individuos medievales. Los hallazgos confirman que las deficiencias alimentarias en los primeros años de vida tuvieron un impacto directo y duradero en la esperanza de vida y en la calidad de la salud en la Inglaterra medieval.
La principal conclusión de la investigación apunta que el hambre infantil en la Inglaterra medieval dejó una firma biológica duradera, capaz de influir en la salud décadas después. Estos resultados amplían la perspectiva histórica sobre la relación entre condiciones de vida y enfermedad, y muestran que la influencia de la infancia en la salud adulta era tan relevante en el pasado como lo es hoy.
Referencias
- DeWitte, Sharon N. et al. 2025. "Childhood nutritional stress and later-life health outcomes in medieval England: Evidence from incremental dentine analysis". Science Advances, 11: eadw7076.DOI:10.1126/sciadv.adw7076
En febrero de 2023, una partícula atravesó silenciosamente la Tierra a una velocidad vertiginosa. No hizo ruido, no dejó rastro visible, ni alteró lo más mínimo la vida humana. Pero lo que hizo fue mucho más extraordinario: rompió un récord cósmico que redefine los límites de la física de partículas. Era un neutrino, esa clase de partículas diminutas que rara vez interactúan con nada y, cuya detección, es tan infrecuente como crucial para comprender los eventos más extremos del universo.
A diferencia de los rayos cósmicos, que a menudo quedan atrapados o desviados por campos magnéticos, los neutrinos atraviesan planetas, estrellas y galaxias como si no existieran. Por eso, detectar uno es como escuchar una nota aislada en una sinfonía de silencio cósmico. El descubrimiento del evento KM3NeT-230213A, con una energía de 220 petaelectronvoltios (PeV), ha abierto una nueva era en la astrofísica de neutrinos. El estudio, publicado en Physical Review X, confirma que se trata del neutrino más energético jamás registrado, superando con creces el récord anterior de apenas 10 PeV .
El visitante más rápido del océano
El hallazgo no se produjo en el espacio ni en una instalación en tierra firme. Fue en el fondo del mar Mediterráneo, a 3.450 metros de profundidad, donde el detector KM3NeT registró una señal inusualmente intensa. Este observatorio submarino, compuesto por miles de sensores de luz, se diseñó para detectar el brillo tenue que producen los neutrinos al interactuar con el agua.
Cuando un neutrino interactúa con una partícula del entorno, puede producir un muón, una partícula cargada que deja un rastro luminoso. En este caso, el patrón de luz era perfectamente consistente con lo esperado. Como explica el artículo, “los patrones de luz detectados para KM3-230213A muestran una coincidencia clara con lo esperado de una partícula relativista cruzando el detector, probablemente un muón” . La energía y la dirección reconstruidas confirman que este muón fue generado por un neutrino que impactó cerca del detector.
Nunca antes se había detectado un neutrino con tanta energía, ni siquiera en experimentos tan veteranos como IceCube (en la Antártida) o el observatorio Pierre Auger (en Argentina), ambos diseñados para cazar partículas de alta energía. La probabilidad de que un único evento de este tipo haya sido captado solo por KM3NeT es baja —alrededor del 1%—, pero no contradictoria con los datos previos. Esto refuerza la validez del hallazgo.

Una partícula que atraviesa galaxias
Los neutrinos no son escasos: miles de millones atraviesan nuestro cuerpo cada segundo, sin causar el más mínimo efecto. Proceden de procesos comunes como las reacciones nucleares del Sol o explosiones de supernovas. Pero los de energía ultrarrápida, como el de este evento, son otra historia.
Las partículas como KM3-230213A no se originan en lugares tranquilos. Debieron nacer en entornos increíblemente violentos, como los alrededores de agujeros negros, estallidos de rayos gamma o en colisiones de núcleos atómicos a velocidades próximas a la de la luz. Además, los científicos consideran que es extremadamente improbable que este neutrino se originara dentro de la Vía Láctea.
Una hipótesis fascinante es que podría tratarse de un neutrino cosmogénico, generado cuando los rayos cósmicos interactúan con el fondo cósmico de microondas, la radiación residual del Big Bang. Según los autores del estudio, “esto es relevante porque se espera que un nuevo componente de este tipo surja a energías ultraaltas, debido a los neutrinos cosmogénicos . Si se confirma esta posibilidad, estaríamos ante una partícula que nos conecta con los orígenes mismos del universo.

Implicaciones para la ciencia de frontera
Detectar un neutrino de estas características no es solo una cuestión técnica o anecdótica. Tiene consecuencias profundas para el estudio del cosmos. Este evento permite ajustar los modelos sobre la distribución de energía de los neutrinos, proporcionando un dato excepcional que mejora la coherencia entre predicciones y observaciones.
Pero el hallazgo también plantea nuevas preguntas. ¿Existen fuentes desconocidas de neutrinos de altísima energía? ¿Hay poblaciones enteras de objetos astrofísicos emitiendo este tipo de partículas que aún no hemos identificado? Aunque el análisis no ha podido confirmar la existencia de un nuevo tipo de fuente, abre una nueva línea de investigación en física de partículas y astronomía de altas energías.
El trabajo también representa un hito metodológico. Por primera vez se combinan datos de múltiples telescopios, como KM3NeT, IceCube y Auger, para estudiar conjuntamente el espectro de neutrinos ultrarrápidos. Esto permite trazar una imagen más precisa de los fenómenos extremos que ocurren a escalas cosmológicas. Como se concluye en el estudio, “nuestro análisis es el primer esfuerzo para combinar las observaciones de múltiples telescopios en un amplio rango de energía para caracterizar el espectro de ultraalta energía”.
Más allá del récord
Aunque KM3-230213A ha sido hasta ahora único, no es un hecho aislado en la historia de la ciencia. Forma parte de una larga tradición de descubrimientos fortuitos que terminan abriendo nuevas áreas del conocimiento. Este neutrino, invisible y esquivo, podría convertirse en el precursor de una nueva forma de hacer astronomía sin luz, basada solo en partículas.
El reto ahora es doble: refinar la reconstrucción de su trayectoria para intentar identificar su punto de origen, y seguir observando con más sensibilidad y en más lugares del planeta. Si más neutrinos como este son detectados, podríamos llegar a mapear un tipo de radiación cósmica completamente distinto a lo que nos muestran los telescopios convencionales.
Mientras tanto, KM3-230213A ya ha dejado su huella. No en la Tierra, que atravesó sin dejar marcas, sino en nuestra comprensión del universo. Una huella silenciosa, pero inmensamente poderosa.
Referencias
- KM3NeT Collaboration. Ultrahigh-Energy Event KM3-230213A within the Global Neutrino Landscape. Physical Review X 15, 031015 (2025). DOI: 10.1103/PhysRevX.15.031015.
Han pasado casi quinientos años desde que Hernán Cortés estampó su firma en una hoja que hoy reabre interrogantes sobre su expansión y planificación estratégica. Este documento, datado el 20 de febrero de 1527, fue oficialmente repatriado por el FBI al gobierno de México el pasado 13 de agosto de 2025, tras permanecer desaparecido durante más de tres décadas. El acto, celebrado en una ceremonia oficial, representa mucho más que un gesto diplomático: es la recuperación de una pieza clave del rompecabezas histórico que conforma la conquista y colonización de Mesoamérica.
La hoja, una entre varias firmadas por Cortés en aquellos años turbulentos posteriores a la caída de Tenochtitlán, había sido sustraída —según estiman las autoridades— entre 1985 y 1993 del Archivo General de la Nación. Una fecha sospechosa que no fue elegida al azar: coincide con el periodo en que el archivo implementó un sistema de numeración con cera, una técnica archivística que terminó convirtiéndose en la pista decisiva para identificar y autenticar el manuscrito.
El contenido del documento: logística imperial
Más allá del simbolismo, el contenido del manuscrito devuelto encierra detalles fascinantes. Se trata de un registro administrativo que menciona pagos en oro común para cubrir los gastos de expediciones a territorios aún no explorados, probablemente vinculados a las rutas de especias en Asia. Este tipo de documentos no eran infrecuentes en la etapa posterior a la conquista de México, cuando Cortés —ya como marqués del Valle de Oaxaca— intentaba mantener su influencia y explorar nuevas rutas que expandieran su poder y riqueza personal, siempre bajo el amparo de la corona.
Lo verdaderamente llamativo es el contexto en que fue escrito: apenas días antes de que uno de los hombres de mayor confianza de Cortés fuera designado cogobernador de lo que entonces ya se conocía como Nueva España. Ese año, 1527, fue clave en la consolidación de las instituciones virreinales, tanto políticas como religiosas, que regirían la vida en el nuevo territorio hasta bien entrado el siglo XIX. Por tanto, la hoja no es solo una cuenta contable: es un testimonio tangible del engranaje administrativo que empezó a modelar el sistema colonial en América.

Una investigación que cruzó décadas y fronteras
La recuperación del documento ha sido fruto de un largo trabajo de coordinación internacional entre el FBI, el Departamento de Justicia de EE. UU., la policía de Nueva York y la oficina del FBI en Ciudad de México. Todo comenzó cuando el gobierno mexicano solicitó ayuda formal en 2024 para encontrar una página específica del archivo de Cortés —la número 28— cuya desaparición había sido notificada años atrás durante un proceso de microfilmado en 1993.
Gracias a un detallado inventario conservado por el Archivo General de la Nación —donde se registraron incluso los métodos de corte y desgarro de las hojas sustraídas—, los investigadores pudieron comparar estos datos con fotografías, pistas abiertas en internet y otras fuentes para dar con el manuscrito, que había cruzado varias manos en el mercado estadounidense sin que sus poseedores sospecharan de su origen ilícito.
Las autoridades optaron por no presentar cargos, ya que la hoja había pasado por demasiados propietarios para determinar responsabilidades claras. Aun así, la repatriación manda un mensaje claro: los bienes culturales robados o vendidos ilegalmente no pierden su condición de patrimonio, y los esfuerzos por recuperarlos no prescriben.
La memoria en papel y el legado de Cortés
El manuscrito repatriado no es una pieza aislada. En julio de 2023, otra carta de Cortés —relacionada con la compra de azúcar de rosas por valor de doce pesos de oro— fue devuelta por el FBI a México. Aquella también apareció en una casa de subastas estadounidense antes de ser interceptada por las autoridades tras una denuncia del gobierno mexicano. Ahora, con esta nueva devolución, suman dos los documentos originales de Cortés recuperados en menos de dos años.
Este esfuerzo forma parte de una tendencia global cada vez más consolidada: la restitución del patrimonio expoliado a sus países de origen. En el caso mexicano, iniciativas de este tipo han cobrado fuerza en los últimos años, con reclamos a museos europeos y casas de subastas internacionales para recuperar piezas arqueológicas, códices y objetos rituales saqueados desde el periodo colonial hasta el siglo XX.
La figura de Hernán Cortés, por supuesto, sigue siendo profundamente polémica. Para algunos, es símbolo de la conquista, la destrucción y la imposición cultural; para otros, representa el inicio de una nueva etapa histórica, por dolorosa que haya sido. Pero incluso quienes lo repudian reconocen la importancia de los documentos que llevan su firma: reflejan no solo decisiones políticas o militares, sino también las bases de un sistema colonial que transformó para siempre el continente americano.

Lo que queda por recuperar
El Archivo General de la Nación reportó la desaparición de 15 hojas en total, todas firmadas por Cortés y originalmente parte de una misma colección. El manuscrito recuperado ahora, marcado con cera entre 1985 y 1986, es solo uno más de los muchos que siguen en paradero desconocido. Pero su hallazgo alimenta la esperanza de que otros ejemplares puedan ser encontrados y repatriados en el futuro.
El FBI mantiene abierta su investigación y ha hecho un llamado a cualquier persona residente en Estados Unidos que pudiera tener información sobre el resto de las páginas. Incluso se han habilitado correos y teléfonos para recibir pistas de forma anónima, subrayando que ningún dato es insignificante cuando se trata de proteger el patrimonio histórico.
En un mercado internacional del arte que mueve decenas de miles de millones de dólares —y donde los manuscritos coloniales circulan a menudo sin escrutinio riguroso—, el caso Cortés pone de relieve los desafíos, pero también los avances, en la protección del legado cultural de los pueblos.
Las cintas de correr plegables se han convertido en una opción práctica para retomar la rutina tras la vuelta al cole, gracias a su diseño compacto y fácil de guardar. Incorporan pantallas con programas de entrenamiento y conectividad para mayor motivación.
En pleno verano, Fitfiu da un golpe sobre la mesa en el mercado del fitness con una rebaja histórica en su cinta de correr MC-90, pensada para quienes buscan entrenar en casa al mejor precio.

Aunque su precio habitual supera los 229,99 € en tiendas como Miravia o PcComponentes, la colaboración con Amazon lo sitúa ahora en solo 180,49 euros, una oportunidad difícil de dejar pasar para reducir los excesos del verano.
Ofrece un motor silencioso de 1500W que alcanza hasta 14 km/h, ideal para entrenamientos de cardio en casa. Cuenta con una superficie de carrera de 39x105 cm y 12 programas predefinidos. Además, incorpora sistema de paro de emergencia magnético y amortiguación VCS para mayor seguridad.
Con inclinación manual de 0 y 5 grados, la MC-90 permite intensificar los entrenamientos y trabajar grupos musculares específicos. Su conectividad Bluetooth es compatible con apps como Kinomap, Zwift y Fitime. Con diseño plegable y ruedas de transporte, soporta hasta 100 kg y se guarda fácilmente.
Urevo también aprieta el mercado con una fuerte rebaja en su cinta Foldi Mini URTM006
Tras la última ofensiva de Fitfiu, Urevo responde con una agresiva reducción en el precio de su cinta de correr plegable Foldi Mini URTM006, que desciende hasta los 279 € usando el código PIXAMIGOS10. Una oportunidad destacada, teniendo en cuenta que su coste habitual en plataformas como Miravia o ManoMano supera los 470 euros.

Equipada con un motor de 2,25 CV, permite alcanzar velocidades entre 1 y 10 km/h, adaptándose tanto a caminatas suaves como a sesiones de running moderado. Su estructura compacta soporta hasta 120 kg y ofrece 12 programas de entrenamiento predefinidos.
Cuenta con un sistema de plegado rápido y ruedas de transporte que facilitan su almacenamiento en cualquier rincón. Su pantalla LED integrada muestra en tiempo real distancia, calorías, velocidad y tiempo, mientras que el sistema de absorción de impactos y los pasamanos aumentan la seguridad. Con un área de carrera de 1000 x 406 mm y un diseño robusto.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En lo más profundo del noreste tailandés, rodeada por un mar interminable de árboles, se alza una formación rocosa que parece flotar sobre la jungla como si de un cuento mitológico se tratara. Son tres gigantescas rocas alineadas sobre una cresta montañosa, cuyas formas evocan con asombrosa precisión a una familia de ballenas nadando en el cielo verde de la selva. Este lugar existe, tiene nombre y una historia tan antigua como fascinante: se llama Hin Sam Wan, o la Roca de las Tres Ballenas.
Situada en la provincia de Bueng Kan, cerca de la frontera con Laos, esta maravilla geológica ha permanecido oculta para el turismo internacional durante décadas. Solo en los últimos años, gracias al auge del ecoturismo y las políticas de conservación del entorno, el lugar ha empezado a ganar notoriedad entre los aventureros más curiosos y los amantes de la naturaleza. Y no es para menos: lo que aquí se encuentra es una combinación casi mágica de historia natural, belleza paisajística y espiritualidad local.
75 millones de años de erosión convertidos en arte natural
Lo que hoy parecen colosales mamíferos petrificados sobre una alfombra de selva, en realidad son bloques de arenisca que datan de hace unos 75 millones de años. Formados durante el periodo Cretácico, estas rocas han sido esculpidas lentamente por la acción del viento, el agua y los movimientos tectónicos, dando lugar a estas impresionantes estructuras alargadas y suavemente curvadas que emergen del bosque como si quisieran zambullirse en un océano invisible.
Las Tres Ballenas no solo asombran por su forma. Lo hacen también por su ubicación: situadas en una cresta elevada, se proyectan como balcones naturales hacia un horizonte sin fin. Desde lo alto de estas formaciones se pueden ver el río Mekong, los bosques del Parque Forestal de Phu Sing y, en los días despejados, las montañas de Laos. Una vista que, sin exagerar, parece sacada de una pintura surrealista.

El acceso a Hin Sam Wan no es inmediato ni masivo, y eso es parte de su encanto. Hay que llegar a través de una red de senderos bien señalizados dentro del parque natural, que atraviesan zonas boscosas, pequeños arroyos y pendientes rocosas. La caminata puede variar según la ruta elegida —hay al menos nueve alternativas— pero todas confluyen en un punto en común: la cima de las “ballenas” mayores, conocidas como la madre y el padre.
La “cría”, o la más pequeña de las tres rocas, está cerrada al público por razones de conservación, lo cual solo aumenta su halo de misterio. Caminar sobre el lomo de estas rocas gigantescas ofrece una experiencia única: no solo por las vistas, sino por la sensación de estar pisando una criatura dormida, inmóvil pero viva en la imaginación.
Durante el recorrido, no es raro encontrar cascadas escondidas, árboles centenarios, e incluso algún que otro monje budista que medita en las cuevas cercanas. Es una inmersión en la biodiversidad y en la espiritualidad que define al noreste tailandés, la región de Isan, quizá la menos conocida pero una de las más auténticas del país.
Turismo verde: una apuesta por el futuro
La historia de cómo Hin Sam Wan ha pasado de ser un secreto local a un símbolo del ecoturismo en Tailandia está estrechamente ligada a un cambio de paradigma en la industria turística del país. Frente al deterioro que provoca el turismo masivo en playas y ciudades, Tailandia ha impulsado desde hace más de una década el programa “7 Greens”, que promueve un modelo sostenible centrado en la conservación y el respeto cultural.
La provincia de Bueng Kan, una de las más jóvenes del país, se ha convertido en un modelo de este tipo de desarrollo. En lugar de grandes complejos hoteleros, aquí predominan los alojamientos familiares, las visitas guiadas por locales y las experiencias culturales como las que ofrece el Museo de la Comunidad Viva, donde los visitantes pueden conocer la vida de la etnia Isan sin invadir su cotidianidad.
El propio parque de Phu Sing, donde se encuentran las "ballenas", está gestionado con criterios de bajo impacto. Hay zonas de acceso restringido, límites de visitantes diarios y campañas activas de educación ambiental. El objetivo es claro: que este rincón de naturaleza primigenia pueda seguir sorprendiéndonos dentro de 100 años como lo hace hoy.

Mito, ciencia y contemplación
Hin Sam Wan no solo es una joya geológica. Es también un lugar de resonancias mitológicas. En las leyendas locales, estas rocas fueron ballenas reales que se sacrificaron para salvar a los humanos durante una gran sequía. En agradecimiento, los dioses las convirtieron en piedra para que cuidaran del bosque eternamente.
Este tipo de narrativas, lejos de ser meras anécdotas folklóricas, son un ejemplo de cómo las culturas indígenas integran la ciencia natural en sus cosmovisiones. Y en el caso de Hin Sam Wan, esa integración parece perfecta: la ciencia nos dice que estas rocas son testigos de la era de los dinosaurios; la leyenda, que son guardianas de la selva.
Sea cual sea la interpretación que prefiera el visitante, una cosa es segura: nadie sale indiferente de este lugar. La escala de las rocas, el silencio del entorno y la majestuosidad del paisaje generan una experiencia que es, ante todo, contemplativa. Hin Sam Wan no se visita. Se siente.
El cerebro humano tiene cerca de 86.000 millones de neuronas y, sin embargo, la clave de nuestra singularidad podría residir en un pequeño fragmento de ADN. No se trata de un gen completo ni de una mutación gigantesca, sino de un segmento diminuto, apenas 442 nucleótidos, que actúa como un interruptor de encendido y apagado en el desarrollo del cerebro. Ese “botón molecular” se llama HAR123 y ha sido identificado como un posible responsable de nuestra capacidad de aprender, desaprender y adaptarnos de formas que los primates más cercanos no logran.
El hallazgo ha sido publicado en la revista Science Advances por un equipo de la Universidad de California en San Diego, y se centra en lo que los expertos llaman “regiones aceleradas humanas” (HARs): partes del genoma que han cambiado muy rápido desde que nos separamos evolutivamente de los chimpancés hace unos cinco millones de años. En palabras del artículo, “HAR123 es una secuencia conservada que promueve la formación de células progenitoras neurales”. Esa capacidad le otorga un papel clave en la construcción de nuestro cerebro y, posiblemente, en lo que nos define como humanos.
Un interruptor diminuto con un efecto descomunal
Lo más sorprendente de HAR123 es que no es un gen, sino lo que los científicos llaman un “potenciador transcripcional”. Este tipo de elementos funcionan como un regulador del volumen: controlan qué genes se activan, cuánto se activan y en qué momento del desarrollo. De acuerdo con el estudio, este pequeño fragmento se encuentra en el intron 9 del gen SMG6, en el cromosoma 17.
Los experimentos muestran que HAR123 estimula la producción de células progenitoras neurales, que son las precursoras tanto de neuronas como de células gliales. Esta acción no solo asegura que el cerebro se forme correctamente, sino que también influye en la proporción final de neuronas frente a glías, un equilibrio fundamental para la memoria y la plasticidad cerebral. En palabras de los autores, “HAR123 favorece la formación de progenitores neurales humanos”.

Diferencias entre humanos y chimpancés
El equipo comparó la versión humana de HAR123 con la de chimpancés y ratones. Aunque las tres versiones tienen actividad como potenciadores, los efectos no son idénticos. En los ensayos, el HAR123 humano promovió con más eficiencia la transición hacia células progenitoras, mientras que la variante del chimpancé mostró un patrón distinto, con más actividad en el tronco cerebral y menos en el prosencéfalo.
Este detalle es fundamental: el prosencéfalo es la región donde se desarrollan funciones como el lenguaje, la memoria y la toma de decisiones. Que el HAR123 humano sea más activo en esa zona sugiere que pudo haber tenido un papel en la expansión y complejidad del cerebro humano. Además, el trabajo describe que el HAR123 humano regula un conjunto único de genes relacionados con la diferenciación neural, algo que no se observa con la versión del chimpancé.
Un circuito molecular inesperado
Uno de los hallazgos más interesantes es la conexión entre HAR123 y el gen HIC1. Mediante experimentos de edición genética, los investigadores descubrieron que HAR123 se une físicamente a regiones cercanas a HIC1 y controla su expresión. “HAR123 y HIC1 forman un circuito que impulsa la generación de progenitores neurales humanos”.
Cuando eliminaron HAR123 en células madre embrionarias humanas, la capacidad de producir progenitores se redujo. Pero al forzar la expresión de HIC1, el defecto se corrigió. Esto sugiere que HAR123 podría ser un engranaje esencial de un mecanismo evolutivo humano, capaz de modular el desarrollo del cerebro mediante un circuito regulador que no está presente de la misma forma en chimpancés.

Impacto en la cognición y la flexibilidad mental
La investigación no se limitó a cultivos celulares. El equipo creó ratones a los que se eliminó el fragmento HAR123 mediante CRISPR. Estos animales no mostraron problemas de aprendizaje inicial, pero sí fallaron en pruebas de “aprendizaje de reversión”, que miden la capacidad de desaprender una regla aprendida y adaptarse a una nueva.
En palabras del estudio, “los ratones sin HAR123 tienen un defecto en la flexibilidad cognitiva”. Esa capacidad de adaptar nuestro comportamiento a contextos cambiantes es una de las características que más nos diferencia como especie. El hecho de que un fragmento tan pequeño pueda influir en ello refuerza la idea de que detalles genéticos minúsculos pueden tener un efecto descomunal en nuestra evolución.
Relación con trastornos neurológicos
El equilibrio entre neuronas y glías no solo afecta a la plasticidad, también está relacionado con enfermedades neurológicas. El estudio encontró que la ausencia de HAR123 reduce la proporción de neuronas en regiones como el hipocampo, lo que podría vincularse con desórdenes como el autismo o la esquizofrenia, donde también se han observado alteraciones similares.
ScienceDaily subraya que estos hallazgos ofrecen una pista sobre cómo cambios genómicos aparentemente modestos pudieron contribuir tanto a la singularidad humana como a la vulnerabilidad a ciertas enfermedades del desarrollo. Esta doble cara —avance evolutivo y predisposición a trastornos— es una constante en la historia de nuestro cerebro.

HAR123 como pieza de un puzzle mayor
El caso de HAR123 no es único: se conocen alrededor de 3.000 regiones aceleradas humanas. Muchas están en zonas no codificantes y podrían actuar como interruptores genéticos similares. De hecho, ya se habían identificado otros potenciadores, como HARE5, que influyen en el tamaño del córtex, o ECE18, implicado en la formación de glándulas sudoríparas.
Lo novedoso de HAR123 es que, por primera vez, se vincula directamente con la flexibilidad cognitiva, un rasgo que va más allá de la simple expansión cerebral. Según los autores, “HAR123 confiere propiedades que difieren de la versión del chimpancé, lo que plantea la posibilidad de que haya jugado un papel en la evolución de rasgos neurales específicos de los humanos”.
Más preguntas que respuestas
Aunque los resultados son fascinantes, los propios investigadores reconocen que aún falta mucho por entender. HAR123 parece ser un actor clave, pero seguramente no actúa solo. Lo más probable es que forme parte de una red de interruptores y circuitos genéticos que, juntos, moldearon el cerebro humano.
Quedan abiertas preguntas cruciales: ¿cómo interactúa HAR123 con otros potenciadores? ¿Qué papel juega en etapas más avanzadas del desarrollo? ¿Podría estar directamente implicado en trastornos del neurodesarrollo en humanos? Los próximos años serán decisivos para descifrar si este diminuto interruptor realmente explica una parte esencial de lo que nos hace humanos.
Referencias
- Kun Tan, Kendall Higgins, Qing Liu, Miles F. Wilkinson. An ancient enhancer rapidly evolving in the human lineage promotes neural development and cognitive flexibility. Science Advances 11, eadt0534 (13 agosto 2025). DOI: 10.1126/sciadv.adt0534.
En ocasiones, una caminata matutina por la playa puede cambiar el rumbo del conocimiento científico. Eso fue lo que ocurrió en 2019 en la costa sur de Australia, cuando Ross Dullard, un vecino local y aficionado a la búsqueda de fósiles, encontró lo que parecía ser un simple fragmento negro sobresaliendo de un acantilado. Al examinarlo, se desprendió un diente. Sin saberlo, acababa de desenterrar los restos de una especie de ballena totalmente nueva, que viviría su segundo nacimiento como Janjucetus dullardi.
El hallazgo no solo permitió describir una nueva especie, sino que abrió una ventana al pasado evolutivo de los cetáceos. Según el reciente estudio publicado en la revista Zoological Journal of the Linnean Society, este fósil de hace aproximadamente 26 millones de años corresponde a un ejemplar juvenil de un grupo de ballenas primitivas llamado mammalodontidae, hoy extinto. A diferencia de las actuales ballenas filtradoras, esta criatura tenía dientes afilados y un cuerpo compacto, preparado para la caza.
Un fósil excepcional en todos los sentidos
El cráneo parcial encontrado por Dullard contenía no solo dientes, sino también huesos del oído, una combinación muy rara en este tipo de fósiles. Este detalle es clave, porque permite a los científicos estudiar tanto la alimentación del animal como su capacidad auditiva y de orientación subacuática. Según el paper, “este espécimen representa el juvenil más completo conocido de un mysticeto dentado y proporciona una visión sin precedentes sobre la ontogenia de los mammalodontidae”.
La importancia científica del fósil es múltiple, ya que aporta datos sobre la forma en que estos antiguos cetáceos se desplazaban y cazaban en los mares del Oligoceno. Además, permite rastrear la transición evolutiva desde ballenas con dientes hacia las ballenas filtradoras modernas. Esto sitúa a Janjucetus dullardi como un eslabón clave en la historia evolutiva de los cetáceos, comparable en importancia a otras especies icónicas descubiertas en el hemisferio norte.
El ejemplar descrito en el artículo tiene una longitud estimada de algo más de dos metros, lo que lo sitúa en el rango de tamaño de los delfines actuales. Pero no tenía el comportamiento juguetón ni la dieta inofensiva que solemos asociar a estos animales. En palabras del artículo científico, “sus dientes estaban adaptados para cortar, no para filtrar”, lo que sugiere una dieta carnívora activa.

Una ballena que cazaba con la vista y el oído
Uno de los aspectos más sorprendentes del estudio es el nivel de detalle que se logró observar en el oído interno del fósil. Gracias a microtomografías computarizadas (microCT), los investigadores pudieron reconstruir estructuras como la cóclea, lo que les permitió hacer inferencias sobre la audición de la especie. Este nivel de análisis no es habitual, ya que la conservación de los huesos del oído es muy poco común en fósiles de este tipo.
El oído interno de Janjucetus dullardi muestra adaptaciones similares a las de otros cetáceos antiguos para escuchar bajo el agua, lo que refuerza la idea de que estos animales ya habían desarrollado mecanismos especializados de ecolocalización o percepción auditiva direccional. A esto se suma el hecho de que tenía ojos grandes y orientados hacia adelante, lo que sugiere una fuerte dependencia de la visión para la caza.
En el estudio se afirma: “la combinación de visión estereoscópica y estructuras auditivas especializadas sugiere un estilo de vida depredador altamente sensorial”. Esta capacidad multisensorial probablemente permitía al animal localizar presas en aguas turbias o con poca luz, y lo diferencia aún más de las ballenas modernas, que dependen del filtrado pasivo para alimentarse.

El contexto geológico: un tesoro del Oligoceno en Australia
El fósil fue recuperado en la llamada Formación Jan Juc, una secuencia geológica costera al sur de Victoria, Australia, que data del Oligoceno, entre 23 y 30 millones de años atrás. Este período estuvo marcado por un clima cálido global, con mares poco profundos que cubrían grandes extensiones de tierra firme. Este entorno ofrecía las condiciones ideales para la vida marina diversa, incluyendo a cetáceos primitivos como Janjucetus dullardi.
La Formación Jan Juc ya era conocida por haber producido otros fósiles de mammalodontidae, como Janjucetus hunderi, descrito en 2006, pero ninguno con el grado de preservación y detalle que muestra este nuevo ejemplar. Según el artículo, “es el primer mammalodontidae conocido con una preservación completa de la dentición e importantes elementos del oído”.
Este hallazgo reafirma la importancia del sur de Australia como región clave para el estudio de la evolución temprana de los cetáceos. Mientras muchos descubrimientos paleontológicos similares se han hecho en América del Norte o Eurasia, el caso australiano añade diversidad geográfica y biológica a la comprensión de estos animales.

Un eslabón crucial en la evolución de las ballenas
La principal relevancia de este descubrimiento reside en su capacidad para llenar huecos en la historia evolutiva de los cetáceos. Las ballenas modernas pertenecen al suborden Mysticeti, conocido por sus placas filtradoras (barbas) que reemplazan los dientes. Sin embargo, los mysticetos primitivos como Janjucetus dullardi aún tenían dentición funcional. Esta coexistencia de rasgos antiguos y modernos es clave para entender cómo surgió la estrategia alimentaria de filtrado.
Según el artículo, “las estructuras dentales y auditivas de Janjucetus dullardi indican que los mysticetos ancestrales no eran filtradores pasivos, sino depredadores activos”. Esta afirmación contradice parcialmente algunas hipótesis anteriores que sugerían una transición más gradual o intermedia en los mecanismos de alimentación.
El estudio también destaca que este ejemplar es un individuo juvenil, lo que permite observar detalles sobre cómo crecían estos animales. La ontogenia —es decir, el desarrollo del individuo desde su nacimiento hasta su madurez— es una fuente de información muy valiosa en paleontología. Gracias a este fósil, se pueden observar las etapas tempranas del desarrollo óseo y la relación entre tamaño, función y estructura en una especie extinta.
Una historia con rostro humano
El hecho de que el hallazgo lo realizara un aficionado le añade una dimensión humana e inspiradora a esta historia científica. Ross Dullard, un director de escuela con afición por los fósiles, no dudó en entregar su hallazgo al museo local, permitiendo que el espécimen fuera estudiado por expertos. En reconocimiento a su contribución, el nuevo animal lleva su apellido como parte del nombre oficial de la especie.
Este tipo de descubrimientos pone de manifiesto el papel crucial que puede desempeñar el público general en la ciencia. La paleontología, como muchas disciplinas, avanza también gracias a la curiosidad y compromiso de personas fuera del ámbito académico. En palabras del propio artículo científico, “los hallazgos accidentales por parte de ciudadanos pueden aportar datos fundamentales que de otro modo permanecerían ocultos”.
La historia de Janjucetus dullardi no solo aporta un nuevo capítulo a la historia de las ballenas, sino que también ilustra cómo la ciencia puede estar al alcance de todos. Desde un paseo por la playa hasta una publicación en una revista científica, la trayectoria de este fósil recuerda que aún queda mucho por descubrir.
Referencias
- Duncan R.A., Fitzgerald E.M.G. An immature toothed mysticete from the Oligocene of Australia and insights into mammalodontid (Cetacea: Mysticeti) morphology, systematics, and ontogeny. Zoological Journal of the Linnean Society. 2025. https://doi.org/10.1093/zoolinnean/zlad093.
Unas veces, la historia puede reconstruirse a partir de evidencias muy pequeñas, como un diente, una moneda o un resto orgánico. En ocasiones, sin embargo, la magnitud imponente de un hallazgo basta, por sí sola, para cambiar el curso de la narrativa histórica. Es este el caso de la fortaleza monumental de la antigua civilización de Urartu que un equipo de arqueólogos ha identificado en las remotas alturas de la meseta de Tirişin, en el distrito de Gürpınar (provincia de Van, Turquía oriental). La estructura, emplazada a unos 3.000 metros sobre el nivel del mar, se alza como un notable ejemplo de la ingeniería militar de la antigüedad. Este nuevo descubrimiento, además de ampliar nuestro conocimiento sobre el poder y alcance de Urartu, también proporciona nuevos datos sobre el modo en que esta cultura aprovechó la orografía extrema para edificar y mantener sus enclaves defensivos.
Un escenario de altura
La meseta de Tirişin es una vasta planicie rodeada de altas montañas y profundos desfiladeros. En invierno, el clima es severo. La nieve se acumula a menudo, impidiendo el acceso. Por eso, la ubicación de la fortaleza, a 3.000 metros de altitud, muestra que su ubicación se explica por una cuestión estratégica: buscaba dominar visualmente el territorio y controlar las rutas de paso. Desde sus murallas, se abren panorámicas que abarcan kilómetros, un privilegio defensivo que permitía detectar cualquier movimiento anómalo en una amplia zona geográfica.
Incluso acceder a la forteleza en actualidad resulta complejo. Los arqueólogos invirtieron dos horas para ascender desde la aldea de Beşbudak hasta el yacimiento siguiendo los senderos de montaña. Esta dificultad para alcanzar la ciudadela, por tanto, debió ser un elemento clave en la defensa de la fortaleza.

El descubrimiento de la ciudadela
La identificación de la fortaleza se produjo en el marco de un estudio de prospección arqueológica dirigido por el profesor Rafet Çavuşoğlu, de la Universidad Van Yüzüncü Yıl, con el apoyo del Ministerio de Cultura y Turismo de Turquía. El equipo, formado por varios especialistas, exploró de forma sistemática la meseta en busca de restos arquitectónicos, objetos y estructuras asociadas.
Según los expertos, se trata de una de las fortalezas más grandes y mejor conservadas descubiertas hasta ahora en la región. Las dimensiones y complejidad del emplazamiento, junto con su excelente estado, convierten este enclave en un punto de referencia para el estudio de la arquitectura de Urartu.
Arquitectura monumental de altura
La fortaleza incluye cerca de 50 habitaciones. Distribuidas en distintas áreas, esta multiplicidad de espacios sugiere que la fortaleza combinaba funciones militares, administrativas y residenciales. Los muros, construidos con bloques de basalto de procedencia local, se extienden a lo largo de unos 4 kilómetros en un perímetro defensivo impresionante.
En su interior se distingue una ciudadela, que pudo funcionar como el núcleo administrativo o la zona residenciad de la élite militar. Según los estudiosos, este espacio, que se caracteriza por estar elevado dentro de la propia fortaleza, habría servido para coordinar las actividades y reforzar las relaciones de autoridad y servitud dentro de le estructura.

Materiales y técnicas constructivas
El uso del basalto como material de construcción se explica tanto por su abundancia en la zona como por su resistencia. Los muros muestran un ensamblaje preciso, típico de las construcciones urartias, que favorecía la estabilidad frente a los terremotos y las condiciones climáticas extremas. La combinación de robustez y diseño revela un alto nivel de conocimiento técnico y un empleo calculado de los recursos locales.
Además, la fortaleza integra áreas que parecen haber servido como almacenes o talleres. Todas estas evidencias, por tanto, refuerzan la idea de que este fue un centro operativo complejo con funciones múltiples.
Hallazgos materiales en la fortaleza
Durante la prospección, se recuperaron fragmentos de cerámica urartia decorada que han permitido asociar el yacimiento a la cronología de la Edad del hierro. También se hallaron molinos de piedra, así como piedras talladas con símbolos que podrían corresponder a marcadores de propiedad, inscripciones o elementos religiosos. Estos restos sugieren que la fortaleza fue un centro productivo más allá de lo estrictamente militar.
Una forteleza hecha para un uso prolongado
El equipo arqueológico, además, ha encontrado evidencias de que la fortaleza se utilizó desde la Edad del hierro hasta la Edad media. Las adaptaciones y reparaciones visibles en algunos tramos de muralla apoyan esta hipótesis. Esta ocupación prolongada se explica, en gran medida, por su emplazamiento elevado y fortificado. Tal posición habría servido tanto para controlar las rutas comerciales como para proteger los recursos pastoriles. En la Edad media, su valor defensivo pudo haberse incrementado ante los conflictos regionales.

Urartu y su legado
La civilización de Urartu, que floreció entre los siglos IX y VI a. C., controlaba un vasto territorio que abarcaba partes de las actuales Turquía, Armenia e Irán. Su arquitectura defensiva, caracterizada por la construcción de fortificaciones inexpugnables en puntos estratégicos, reflejaba tanto su capacidad militar como su organización centralizada.
La fortaleza de Tirişin encaja plenamente en este modelo, pero su ubicación en un contexto especialmente complejo, así como el número de habitaciones identificadas, la sitúan entre los hallazgos más significativos de las últimas décadas. Este descubrimiento ofrece una oportunidad única para estudiar la logística y las estrategias de defensa en entornos de alta montaña.

Retos y perspectivas
El equipo de excavación ha podido cmprobr que el acceso al yacimiento, aunque difícil, es factible durante los meses más cálidos. Sin embargo, las condiciones meteorológicas adversas limitan el tiempo disponible para llevar a cabo las campañas arqueológicas. En el futuro, se prevé realizar excavaciones más profundas que permitan conocer con precisión la distribución interna, los sistemas de acceso y el posible papel ritual de ciertos espacios. El análisis de los restos cerámicos y líticos, por otro lado, permitirá afinar la cronología de las distintas fases de ocupación.
Urartu, la civilización de las fortalezas
El hallazgo de la fortaleza urartia en la meseta de Tirişin confirma cómo una civilización milenaria supo aprovechar las condiciones extremas para edificar estructuras de poder duraderas. Su muralla de cuatro kilómetros, sus cincuenta habitaciones y su dilatada ocupación durante siglos la convierten en un enclave excepcional, tanto por su envergadura como por el desafío que supuso levantarla y mantenerla. A medida que avancen las investigaciones, esta fortaleza revelará más sobre la historia de Urartu y sobre la interacción entre paisaje, arquitectura y poder.
Referencias
- 2025. "Urartian-Era Fortress with 50 Rooms Discovered at 3,000 Meters in Eastern Türkiye". Arkeonews. URL: https://arkeonews.net/urartian-era-fortress-with-50-rooms-discovered-at-3000-meters-in-eastern-turkiye/
- 2025. "3,000-Meter-High Stronghold Discovered in Eastern Türkiye May Reveal Urartian Secrets". Anatolian Archaeology. URL: https://www.anatolianarchaeology.net/3000-meter-high-stronghold-discovered-in-eastern-turkiye-may-reveal-urartian-secrets/
En el mundo existen avances científicos que logran abrir pequeñas ventanas hacia lo que antes era completamente inaccesible. Uno de esos momentos acaba de ocurrir en un laboratorio de Barcelona, donde un equipo de investigadores ha conseguido grabar, por primera vez, cómo un embrión humano se implanta en el útero. Es una escena que no se había visto jamás en movimiento. Hasta ahora, la implantación era una etapa del desarrollo embrionario conocida solo por imágenes estáticas o por estudios en animales. Lo que sucede exactamente en esos primeros días —cuando aún no hay latido, ni forma reconocible, ni tampoco señal alguna en una ecografía— había permanecido, literalmente, oculto.
Este trabajo, liderado por el Instituto de Bioingeniería de Cataluña (IBEC) y publicado en Science Advances, no solo ha capturado el proceso completo en video, sino que ha aportado información clave sobre las fuerzas físicas que el embrión humano ejerce durante la implantación. Como explicó Samuel Ojosnegros, uno de los responsables del estudio, “el embrión humano es muy invasivo: mientras que el de ratón se queda en la superficie de la matriz, el embrión humano hace un agujero y se mete, se entierra en el útero”. Es una frase sencilla, pero lo cambia todo.
Una etapa crucial, por fin a la vista
Cada embarazo humano empieza con una especie de salto al vacío: un grupo minúsculo de células debe encontrar el lugar adecuado para unirse al cuerpo materno. Ese lugar es el endometrio, el revestimiento del útero. Sin embargo, este paso tan determinante en el inicio de la vida ha sido siempre difícil de observar. En condiciones naturales, ocurre en lo más profundo del cuerpo, sin señales externas, y demasiado temprano para que una ecografía lo detecte.
El nuevo sistema desarrollado por el IBEC simula este entorno uterino usando un gel tridimensional compuesto por colágeno y otras proteínas presentes en los tejidos humanos. En él, los embriones donados por pacientes de reproducción asistida pudieron adherirse y comportarse como lo harían en un embarazo real. “Todo esto se ha podido observar y grabar en tiempo real, lo que resulta un avance pionero para seguir investigando a los embriones humanos”, explicó Ojosnegros.
Fuerza, movimiento y adaptación
Uno de los hallazgos más sorprendentes del estudio ha sido la fuerza que el embrión aplica sobre el tejido uterino. Usando técnicas avanzadas de imagen, como la microscopía de fluorescencia y un sistema de captura de imágenes cada 20 minutos, los investigadores descubrieron que el embrión no solo se adhiere pasivamente, sino que empuja, estira y remodela su entorno para lograr implantarse. A través de microfilamentos, tira con intensidad del tejido que lo rodea para abrirse paso y quedar anclado.
Este comportamiento fue especialmente evidente en la plataforma tridimensional desarrollada para el estudio. El modelo permitió seguir el proceso en lo que los investigadores denominan "4D": las tres dimensiones espaciales más la dimensión temporal. Según los autores, “nuestro sistema 4D permite la observación prolongada y en alta resolución del proceso de implantación del embrión humano, incluida la formación de estructuras que penetran activamente la matriz”.

Una simulación fiel, pero no perfecta
Aunque el modelo utilizado no es un útero real, su composición permite replicar muchas de las condiciones clave de la implantación. La matriz tridimensional se basa en colágeno, una proteína abundante en los tejidos humanos, lo que proporciona un entorno más representativo que las placas de vidrio utilizadas tradicionalmente. De hecho, a diferencia del vidrio, este gel permite que el embrión lo invada físicamente, lo que abre nuevas posibilidades de observación.
Los investigadores compararon el comportamiento de embriones humanos con el de embriones de ratón, y hallaron diferencias importantes. Mientras que los embriones de ratón se limitan a adherirse superficialmente, los humanos se enterraban por completo en la matriz, reorganizando las fibras a su alrededor. Este comportamiento sugiere que los estudios con animales pueden tener limitaciones importantes al estudiar la implantación humana.
Un proceso más activo de lo que se pensaba
Además del movimiento del embrión, los investigadores observaron que la matriz también respondía a su presencia. En los experimentos en 3D, el tejido colágeno parecía "acercarse" hacia el embrión, como si este modificara activamente su entorno. Este fenómeno sugiere que el embrión no solo responde al entorno uterino, sino que interactúa con él y lo reorganiza a su favor.
Uno de los resultados más llamativos fue la visualización de los “mapas de fuerza”, obtenidos mediante sensores integrados en el gel. Estos mapas mostraban puntos donde el embrión aplicaba tensión o presión sobre el tejido. En el caso de los embriones humanos, estas fuerzas eran más intensas y localizadas que en los de ratón. Esta diferencia puede explicar por qué alrededor del 60% de los fallos de implantación ocurren en humanos en esta etapa crítica.
La investigación como herramienta clínica
Más allá del hallazgo científico, este modelo tiene aplicaciones concretas en medicina reproductiva. Gracias a la posibilidad de observar en detalle cómo se comportan los embriones, se podrían diseñar tratamientos más eficaces para mejorar la implantación. El estudio incluso menciona una línea experimental con suplementos de proteínas desarrollados en colaboración con la farmacéutica Grifols para aumentar las tasas de éxito en tratamientos de fertilidad.
Además, este sistema podría permitir probar en laboratorio cómo diferentes sustancias o condiciones afectan al embrión. Al modificar la composición del gel o introducir señales biológicas específicas, los investigadores podrían entender mejor qué factores favorecen o dificultan la implantación. El objetivo a medio plazo es personalizar los tratamientos de fertilidad en función de cómo responde cada embrión en un entorno simulado.
Referencias
- Godeau, A. L., Julià Goyanes, L., Fuentes, R., Albentosa, M. J., Vives, J., & Ojosnegros, S. (2025). A 4D in vitro platform for studying the mechanics of human embryo implantation. Science Advances, 16 August 2025. https://doi.org/10.1126/sciadv.adr5199.
Si preguntásemos en una encuesta cuál ha sido el descubrimiento más importante de la humanidad, muchos dirían el fuego, la rueda o la electricidad, pero quizá no tantos citarían la domesticación de plantas y animales, que produjo la transformación más profunda de nuestra forma de vida y del entorno que nos rodea. Sucedió hace unos 14 000 años en el llamado Creciente Fértil, región que incluye el Levante Mediterráneo –Siria, Líbano, Jordania, Israel y Palestina–, el sureste de Turquía, Irak y el oeste de Irán. Allí sitúan los arqueólogos la llamada revolución neolítica, el momento en que el humano pasó de nómada y cazador-recolector a sedentario y productor.
Tres cereales forman el triunvirato fundacional de la agricultura: el trigo racimal, Triticum turgidum, que echa más de una espiga al final de la caña; la cebada, Hordeum vulgare; y el trigo alonso, Triticun monoccocum, de caña cerrada y espiga ancha, que produce mucho salvado y poca harina. Su domesticación vino acompañada de la de otras especies vegetales como guisantes, lentejas, garbanzos, arveja amarga o el lino, de las que se ha identificado la variedad silvestre original para determinar sus diferencias.
Punto de arranque
Se han señalado varios lugares donde pudo surgir la agricultura: Tell Abu Hureyra y Tell Aswad, en Siria; Karaca Dag, en Turquía; y Netiv Hagdud, Gilgal y Jericó, en el valle del Jordán. Todos ellos poseen una edad de 10 000 a 12 000 años y están ubicados en el oeste del Creciente Fértil, lo que sugiere que la agricultura tuvo un único origen.
Sin embargo, un artículo publicado en Science en 2013 cuestionaba esta idea. Simone Riehl, arqueóloga de la Universidad de Tubinga, en Alemania, que ha excavado en el yacimiento de la aldea agrícola de Chogha Golán, en el oeste de Irán, afirmaba que sus pobladores cultivaron cebada, trigo y lentejas silvestres hace más de 11 500 años, y que las formas domesticadas de trigo aparecieron allí hace 9800 años, casi al tiempo que en el Creciente Fértil occidental. Entre las pruebas halladas del procesamiento de las plantas figuran piedras de moler, manos de mortero y restos de vegetales carbonizados que han permitido la datación del sitio.

Menos tiempo libre
Pero la pregunta clave no es tanto el dónde o el cómo sino el porqué. Tendemos a pensar que pasar de cazadores-recolectores a agricultores fue un cambio a mejor. Sin embargo, los primeros solo debían dedicar de tres a cuatro horas diarias a las labores de subsistencia. Tenían más tiempo libre que los campesinos, que además deberían lidiar con las enfermedades que aparecen por el modo de vida sedentario. Y eso sin mencionar que, cuando llegaban las vacas flacas, el cazador solo tenía que levantar el campamento e ir a otro lugar. Si una mejor calidad de vida no es la causa de la aparición de la agricultura, no queda más remedio que pensar que tuvo que pasar algo que obligara al ser humano a domesticar plantas y animales. Y solo una cosa puede hacer algo así: el clima.
Hace entre 14 000 y 10 000 años se produjo un gran cambio climático que hizo que los amplios territorios abiertos se segmentaran en nichos ecológicamente distintos, donde evolucionaron diferentes especies según la altura o el tipo de vegetación. El clima se hizo más árido y, por tanto, las estaciones más marcadas, lo que contribuyó a la difusión de los cereales silvestres. Estas condiciones ambientales explican por qué zonas como el Creciente Fértil fueron el origen de la agricultura: allí la existencia de montañas, planicies, mesetas y ríos propiciaron gran variedad climática, y eso dispuso diferentes lugares, cercanos entre sí, para experimentar. Por otro lado, los pastos eran comunes en esta región; aún hoy podemos encontrar espigas salvajes de cebada y trigo.
Un calentamiento a tiempo
Hace 15 000 años los efectos de la era glacial se sentían por todo el planeta. El Mediterráneo oriental sufría los vientos anticiclónicos que soplaban desde Escandinavia y Siberia, y en las orillas de sus ríos, sobrevivían bandas de cazadores-recolectores poco numerosas y muy móviles, que se asentaban allí donde encontraban plantas comestibles. Un patrón de vida común a lo largo de la costa oriental del Mediterráneo, el valle del Jordán, la meseta de Anatolia y junto al Tigris y el Éufrates. Las semillas eran abundantes entre abril y junio y los frutos, entre septiembre y noviembre. Mientras tanto, las gacelas prosperaban por todas partes, así como uros, venados y jabalíes. En toda la región, al igual que sucedía en Europa, este clima seco hacía que los vegetales fueran escasos en la dieta humana. La variación de la temperatura terrestre era enorme: si hoy apenas ha cambiado 3 ºC en un siglo, entonces podía hacerlo 7 ºC en una década.
Pero hace 12 000 años la Tierra empezó a calentarse: la última edad del hielo llegaba a su fin. Y lo que es más importante, el clima se empezó a estabilizar, lo que produjo en el Creciente Fértil una explosión de robledales con sus apreciadas bellotas. Los humanos empezaban a tener suerte: después de miles de años, los manantiales proporcionaban agua dulce abundante. Ante tan benignas condiciones, las bandas de cazadores recogieron sus bártulos y empezaron a moverse hacia Oriente, a regiones antes inhóspitas.
Las primeras pruebas de que algo así sucedió las obtuvimos en la década de 1920, cuando la arqueóloga de la Universidad de Cambridge Dorothy Garrod empezó a excavar en el monte Carmelo, la cordillera que hay en Israel sobre el mar Mediterráneo. A esta población la llamó kebariense por la cueva de Kebara, donde encontró rebabas de sus flechas y los raspadores de piedra que usaban para procesar las pieles. Esta cueva, que ha proporcionado restos de homínidos de hace 60 000 años, se hizo famosa en 1982 cuando en ella se halló el que hasta ahora es el esqueleto de neandertal más completo recuperado.
Durante la glaciación, sus habitantes vivían de la caza, como hicieran los cromañones europeos, pero con el calentamiento empezaron a extenderse desde el Levante y el desierto del Negev y el Sinaí hasta el Éufrates y la Anatolia. Con su transportable material de madera, se movían con rapidez y se alimentaban sobre todo de gacelas, hasta que el ascenso de temperatura les permitió añadir frutos secos y semillas a su dieta. Podríamos decir que hacia el 11 000 a. C. se inició lo que hoy llamamos dieta mediterránea.
Huellas de ratones y gorriones
A los descendientes de la cultura de Kebara se los llama natufienses. Casi sedentarios, vivían en cuevas y abrigos todo el año para resguardarse de la lluvia y almacenar sus provisiones vegetales. Entre sus alimentos estrella estaban el pistacho, muy fácil de procesar, y la bellota, muy alimenticia pero que requiere un gran trabajo. Fue en el momento en que las bellotas, abundantes gracias al calentamiento del planeta, desplazaron la carne como fuente principal de alimento cuando la vida de las bandas cambió radicalmente.
Después de miles de años moviéndose, la cosecha de este fruto ató a los natufienses a campamentos de larga duración o aldeas, formadas por cabañas de planta circular con paredes de caña y barro, y algunas con un silo para guardar los alimentos y tenerlos a salvo de roedores e insectos. Por ejemplo, en el sitio de Mallaha, en el valle de Hula (Israel), sus moradores invirtieron tiempo y trabajo en la construcción de terrazas para sus casas en la ladera de la colina, en un asentamiento donde vivieron varias generaciones. ¿Cómo lo sabemos? Gracias al ratón común, que aparece en grandes cantidades en los residuos excavados. Igualmente, se han encontrado ratas y restos de gorriones, que surgen siempre en asentamientos humanos de larga duración.
Esto no quiere decir que los natufienses no se desplazaran: a veces, la gente viajaba a campamentos estacionales –algo así como una segunda vivienda– para cosechar o cazar. En Mallaha también se han encontrado muchos huesos de gacelas, lo que implica que las condiciones climáticas eran favorables para que estos animales se reprodujeran durante todo el año. Pero lo que realmente ataba a los humanos allí eran las bellotas y los pistachos. Si a todo esto sumamos las cosechas de otros frutos secos y la quema sistemática de arbustos y pastos para estimular el crecimiento de las especies vegetales que les interesaban o para atraer animales, tenemos un cuadro bastante ajustado de cómo administraban sus recursos.

Una devastadora sequía
Fue todo un éxito, porque esta práctica pronto se extendió a otros lugares: con un clima más benigno los asentamientos crecieron, prosperaron y se expandieron. Y, como no podía ser de otro modo, la bonanza llevó a la sobreexplotación y al límite de vulnerabilidad. Así ocurrió que una pertinaz sequía en el 11 000 a. C., prolongada durante varias generaciones, acabó con estos tempranos sedentarios. Podemos hacernos una idea bastante ajustada de lo sucedido gracias a las excavaciones que se realizaron en uno de los sitios emblemáticos de la revolución neolítica: Tell Abu Hureyra, en el valle del Éufrates (Siria). Fue una increíble operación de rescate en 1972, porque el Gobierno sirio iba a construir la represa de Tabqa en el Éufrates, que crearía el lago Assad. Lo que se obtuvo en aquellas dos campañas de excavaciones lideradas por el británico Andrew Moore ha dado trabajo a los arqueólogos durante décadas: en 2000 se publicó el informe final. Hoy Tell Abu Hureyra reposa bajo las aguas del Assad.
¿Qué fue lo que se desenterró? La transición más antigua conocida de cazadores-recolectores a agricultores.
Inmejorable localización
Su historia comienza hacia el 11 500 a. C. como una diminuta aldea de casas sencillas y excavadas parcialmente en el suelo, con techos de ramas y carrizos. En el interior se encontraron grandes cantidades de semillas de 150 plantas comestibles diferentes. La elección del asentamiento por sus primeros pobladores demuestra que eran astutos: disponían de la llanura aluvial del Éufrates que, como la del Nilo, es terreno fértil y, no muy lejos de allí, a distancia de un paseo, había un tupido bosque de robles y otros árboles de frutos secos.
Durante la primavera y el verano accedían al trigo y dos variedades de centeno que crecían en las lindes del robledo, y en las primeras semanas del estío tenían a su alcance grandes rebaños de gacelas del desierto –el 80 % del suministro de carne provenía de estos animales–. Sus habitantes no iban de caza; solo salían a los alrededores, elegían un rebaño entero y mataban animales de todas las edades. Como en otros asentamientos, lo que ancló a la población fue el largo tiempo de trabajo que exigía el procesamiento de los alimentos vegetales, realizado por las mujeres.
Desde ese momento se hizo imposible una movilidad como la de antaño. Después del 11 000 a. C., los poblados habían crecido con desmesura y muchas áreas del Creciente Fértil estaban densamente pobladas. Pero, a causa de la ya mencionada y larga sequía a partir de aquel año, se dejó de recolectar bellotas y otros frutos de los árboles, los cereales silvestres desaparecieron hacia 10 600 a. C. e incluso los pistachos se volvieron escasos. La gente se vio obligada a recurrir a alimentos menos apetitosos y que requerían más trabajo para eliminar los componentes tóxicos, como los tréboles y la alfalfa. Con el tiempo, el paisaje se volvió más árido y los bosques retrocedieron. Al final, Tell Abu Hureyra fue abandonada.

Efecto mariposa
¿A qué se debió esta pertinaz sequía? A algo que sucedió muy lejos, en Norteamérica: el lago Agassiz, situado en lo que hoy es la región de los Grandes Lagos, entre Estados Unidos y Canadá, se vació. El agua del deshielo no dejaba de fluir hacia él y comenzó a derramarse en dirección al mar de Labrador. El derrame se convirtió en desborde y formó una cubierta de agua en el Atlántico, que impidió que el agua templada se enfriara y se hundiera. Este hecho funcionó como un interruptor que apagó la circulación atlántica, uno de los principales termorreguladores del clima del planeta. Las temperaturas invernales cayeron, los veranos se hicieron más frescos y durante diez siglos la anterior glaciación revivió, lo que provocó una intensa sequía en todo el sudoeste asiático. Así fue cómo el destino de Tell Abu Hureyra quedó sellado.
Sabemos dónde aparecieron las primeras sociedades agrícolas, ¿pero en qué lugar se empezó a experimentar con el cultivo de cereales? En las montañas de Karaca Dag, un volcán del este de Turquía. Allí vivían humanos que sobrevivían recolectando escanda silvestre, hoy casi extinta salvo en algunas zonas montañosas de Europa. En un peculiar experimento, Jack Harlan, de la Universidad de Illinois, recolectó escanda a mano y demostró que en tres semanas una familia podría recoger tanto grano como para subsistir todo un año. En 1997, el genetista noruego y experto en cereales Manfred Heun, junto con colegas turcos e italianos, identificó once variedades silvestres que podrían ser los antepasados del trigo moderno. Todas ellas crecían junto a la ciudad turca de Diyarbakir, cerca de Karaca Dag.
Selección de semillas
En 2006, investigadores el Instituto Max Planck de Investigación en Cultivos de Colonia (Alemania) descubrieron que el antepasado común silvestre de 68 variedades actuales de cereal aún crece en las colinas de estas montañas. Todos estos hallazgos apuntan a que la domesticación de la escanda sucedió aquí: estamos ante la primera manipulación genética de la historia.
Los pobladores de la zona se dedicaron a seleccionar aquellas variedades que dieran semillas más pesadas y densas y con un raquis –la parte que une la semilla con el tallo– más firme para poder recoger cuando quisieran el grano maduro en lugar de esperar el momento de la cosecha cuando está a punto de caer. Gordon Hillman y Stuart Davis, del University College de Londres, plantaron trigo silvestre para calcular cuánto tiempo hubieran necesitado los primeros agricultores en obtener la variedad doméstica. Encontraron que si este crucial experimento se hubiera hecho en una hectárea lo habrían conseguido en un lustro, pero si lo realizaron a una escala menor, en unos 25 m2 –lo que es más probable pues involucra menos recursos–, la domesticación completa se habría conseguido en unos treinta años. Esto demuestra que la transición a una economía agrícola se hizo en muy pocas generaciones.
La escanda no fue la única especie domesticada con rapidez en Turquía: también lo fueron el garbanzo y el yero, una leguminosa parecida a la algarroba. Mientras, en otros lugares del Creciente Fértil se domesticó la cebada, el farro, el guisante, la lenteja y el lino.
Unas plantas más dóciles
¿Pero de dónde viene nuestro trigo más común, el candeal que se planta por todo el planeta? De la hibridación del Aegilops squarrosa, una gramínea que crece incluso en invierno y que se encuentra cerca del mar Caspio. Así apareció el más valioso de todos los cultivos antiguos.
El porqué de estos cereales y no otros obedece a una razón muy simple: precisan pocos cambios genéticos para transformarse en una planta doméstica. Por supuesto, esto no se consigue por ciencia infusa. Hay que observar el proceso de germinación y crecimiento de una planta, pasando por darse cuenta de lo evidente: las semillas germinan cuando se las entierra o se colocan en suelo húmedo. Una vez constatado este hecho, dispersar las semillas para expandir el cultivo y obtener más grano fue el siguiente paso lógico.
Por otro lado, el cambio en el aprovisionamiento de alimentos obligó al desarrollo y mejora de nuevas herramientas: hoces de piedra con mango de hueso para segar y numerosos tipos de mortero para moler los frutos secos. Y así, de esta forma y casi sin darse cuenta, estos primitivos agricultores acabaron por conseguir lo que nadie ha hecho desde entonces: cambiar la vida de toda la especie humana para siempre.
El hallazgo de un artefacto explosivo en una casa de la provincia china de Hubei no habría sido noticia si no fuera por el hecho de que había sido utilizado como herramienta doméstica durante dos décadas. La protagonista, una mujer de 90 años identificada solo por su apellido Qin, lo encontró en su granja hace aproximadamente veinte años. Lo que creyó que era un martillo resultó ser una granada de mano del tipo 67, todavía activa. Su historia, difundida por medios locales como la televisión pública de Hubei y recogida por el South China Morning Post, combina un alto riesgo inadvertido con la aparente normalidad de la vida cotidiana en zonas rurales.
El episodio no es solo una anécdota pintoresca: revela cómo la familiaridad con un objeto puede enmascarar su verdadero peligro y cómo la falta de información o acceso a educación en seguridad puede derivar en situaciones de riesgo extremo. Según la televisión local, Qin lo usó “para machacar pimiento, cascar nueces y clavar clavos”, sin que en todo ese tiempo se produjera una detonación. La situación se resolvió cuando obreros que demolían su casa en junio de 2024 reconocieron el artefacto y alertaron a la policía, evitando así un accidente potencialmente mortal.
El hallazgo y la identificación del artefacto
En junio de 2024, en el municipio de Huangbao, condado de Baokang, unos trabajadores de demolición descubrieron el peligro oculto. Mientras retiraban escombros y muebles, uno de ellos observó que el “martillo” que la anciana guardaba tenía una forma y peso inusuales. La sospecha creció al ver la estructura cilíndrica y el mango de madera, lo que llevó a contactar de inmediato con la policía local.
Agentes del destacamento de Huangbao acudieron acompañados de un equipo especializado en explosivos. La inspección confirmó que se trataba de una granada de mano Tipo 67, un modelo fabricado en China a partir de finales de la década de 1960 y fácilmente reconocible por su mango de madera y su tapa metálica protectora. Aunque el mango estaba alisado por el uso, el detonador y la carga explosiva seguían intactos, lo que significaba que el peligro era real.

La granada Tipo 67: diseño y peligrosidad
La granada Tipo 67, apodada también “granada de mango” por su forma alargada, es una versión china que toma como base el diseño de la granada alemana Modelo 24 (Stielhandgranate), ampliamente utilizada en las guerras mundiales. La granada Modelo 24, desarrollada durante la Primera Guerra Mundial, empleaba un mango de madera hueco que alargaba el alcance del lanzamiento —unos 24 metros frente a los aproximadamente 14 metros de las granadas británicas— y facilitaba apuntar mejor. Siguiendo este principio, la Tipo 67 incorpora un mango similar que permite generar mayor fuerza y distancia al lanzarse. En su interior lleva una carga explosiva de TNT y un mecanismo de encendido por fricción, y destaca por su diseño robusto y mejor sellado, lo que aumentaba su fiabilidad respecto a generaciones anteriores. No obstante, pese a estas mejoras, el mecanismo sigue siendo altamente sensible si se manipula de forma inadecuada, ya que impactos fuertes o movimientos bruscos podrían detonar la munición, lo que subraya lo peligroso que resultaba usarla inadvertidamente como herramienta doméstica durante veinte años.
En el caso de Qin, los años de golpes no habían activado la carga, posiblemente por la forma en que se transmitía la fuerza a través del mango y por la protección parcial de la tapa metálica. Sin embargo, los expertos de la policía local subrayaron que cada impacto pudo haber sido el último: “Un golpe en el punto exacto habría provocado la detonación”. Este tipo de granada contiene suficiente explosivo para causar daños letales en un radio de varios metros.
Veinte años de uso doméstico
La rutina de Qin incluía machacar pimientos secos, abrir nueces y clavar clavos con el artefacto. En un entorno rural donde el acceso a herramientas es limitado y se reutiliza cualquier objeto que pueda ser útil, el hallazgo de un “martillo” metálico parecía una suerte. La mujer lo conservaba como una herramienta más, sin imaginar su verdadera naturaleza.
La propia Qin relató a los medios locales que lo había encontrado mientras trabajaba en el campo y que su forma le resultó práctica para las tareas del hogar. No percibió ningún peligro durante dos décadas, lo que da una idea de lo alejada que estaba la comunidad de información sobre munición o explosivos remanentes. En su casa, la granada permanecía al alcance, usada sin precauciones y guardada junto a otros utensilios.

La intervención policial y la destrucción segura
Tras la identificación, la policía acordonó la zona y evacuó a los presentes. El equipo antibombas trasladó el artefacto a un lugar seguro para su destrucción controlada. Según informó la televisión de Hubei, el proceso incluyó medidas estrictas para minimizar riesgos y se siguieron los protocolos para este tipo de armamento.
Una vez neutralizada, las autoridades organizaron una sesión de educación en seguridad para los vecinos, explicando cómo reconocer munición no explotada y qué pasos seguir en caso de encontrarla. La charla insistió en no manipular ni mover objetos sospechosos y dar aviso inmediato a la policía. El caso sirvió como ejemplo claro de la necesidad de este tipo de formación, incluso en comunidades donde se cree que no hay riesgo de encontrar artefactos militares.
Riesgos de la munición sin detonar en entornos civiles
La presencia de munición sin detonar en zonas rurales no es exclusiva de China. Conflictos pasados, entrenamientos militares y almacenamiento inadecuado pueden dejar un rastro de artefactos peligrosos. Las granadas, en particular, pueden conservar su poder destructivo durante décadas si no han sido dañadas por la corrosión.
En entornos civiles, el desconocimiento sobre estos objetos puede convertirlos en herramientas improvisadas o juguetes peligrosos. Las autoridades militares y de protección civil insisten en que cualquier objeto metálico de origen desconocido que presente mecanismos o piezas móviles debe tratarse como potencialmente peligroso. En el caso de Qin, la ausencia de accidentes fue una cuestión de azar, no de seguridad intrínseca.
Educación en seguridad y prevención de accidentes
Uno de los puntos más destacados por las autoridades tras este incidente fue la importancia de la educación comunitaria. En zonas rurales, donde los artefactos antiguos pueden encontrarse al arar campos o demoler edificaciones viejas, reconocer las señales de un explosivo es vital para prevenir tragedias.
El caso de Hubei ha servido para reforzar campañas en escuelas y asociaciones vecinales. La televisión local enfatizó que este tipo de charlas ya se habían realizado antes, pero la historia de Qin ha demostrado que la memoria colectiva sobre los peligros puede desvanecerse con el tiempo. El refuerzo de la información y la inclusión de ejemplos reales aumenta la eficacia del mensaje.
Referencias
- 长江云 / 湖北网络广播电视台. (24 de junio de 2024). 保康一名90岁老人用手榴弹当锤子用20年 民警紧急处置 [Una anciana de 90 años en Baokang usó una granada como martillo durante 20 años; la policía actuó de urgencia]. Televisión pública de Hubei.
- South China Morning Post. (27 de junio de 2024). Using hand grenade as hammer, elderly woman in China defies death for 20 years. SCMP, Hong Kong.
- Tencent News. (24 de junio de 2024). 90岁老人用手榴弹当锤子敲了20年 民警及时排除险情 [Anciana de 90 años usó una granada como martillo durante 20 años; la policía eliminó el peligro a tiempo]. Tencent Holdings Ltd.
En plazas, parques y redes sociales, los bulldogs franceses, carlinos y bóxer acaparan miradas y “likes”. Su popularidad crece a pesar de las advertencias veterinarias sobre problemas respiratorios, oculares y de longevidad. Durante años, se ha dicho que su encanto no es solo físico: serían más cariñosos, tranquilos y adaptados a la vida en familia. Pero, ¿es cierto que su forma de la cabeza influye directamente en su personalidad?
Un equipo de la Universidad ELTE de Hungría analizó datos de más de 5.000 perros de 90 razas para responder a esta pregunta. Compararon braquicéfalos, mesocéfalos y dolicocéfalos, cruzando información sobre temperamento, problemas de conducta, tamaño, entorno y experiencia de entrenamiento. Los resultados muestran que la relación entre morfología y comportamiento es más compleja de lo que se pensaba: algunas diferencias son reales, otras se explican por el tamaño o la manera en que se crían.
Este hallazgo no solo ayuda a entender por qué millones de personas eligen estas razas, sino que también aporta pistas para mejorar su bienestar y el manejo que reciben.
La pregunta de fondo: ¿es la cabeza o es el entorno?
La investigación partió de una hipótesis clara: muchas conductas atribuidas a los perros braquicéfalos podrían no depender tanto de su forma de cráneo como de otros factores. El tamaño del cuerpo, el tipo de hogar, la cantidad de entrenamiento o incluso la edad del dueño podrían estar distorsionando la percepción.
Los autores recopilaron información sobre cuatro rasgos de personalidad (calma, entrenabilidad, sociabilidad y valentía) y cuatro problemas comunes (saltar sobre personas, tirar de la correa, reaccionar demasiado con visitas y no acudir cuando se les llama).
Esto permitió un retrato amplio, que va más allá de etiquetas simplistas como “perros tranquilos” o “difíciles de educar”.
La clave estaba en cruzar esos datos con 22 variables extra: desde el peso y la altura hasta si el perro dormía en la cama del dueño o cuántas horas pasaban juntos. Así se podía distinguir qué rasgos eran propios de la genética y cuáles se debían a la forma de vida que se les ofrece.

Lo que se ve sin ajustar los datos
En el primer análisis, sin filtrar por factores externos, los braquicéfalos aparecían como menos entrenables y más reactivos cuando llegaban visitas. También eran menos propensos a acudir al llamado, en comparación con perros de hocico largo.
Por otro lado, no destacaban ni para bien ni para mal en comportamientos como saltar sobre personas o tirar de la correa. Los dolicocéfalos, en cambio, fueron vistos como menos calmados y menos valientes, algo que coincide con estudios previos que relacionan las cabezas largas con mayor sensibilidad al miedo.
Estos datos iniciales reforzaban algunas creencias, pero dejaban una duda: ¿eran estas diferencias fruto del cráneo o reflejo de otros elementos, como el tamaño corporal o la experiencia del dueño? La siguiente fase del estudio se dedicó a responderlo.
Lo que cambia al mirar detrás del espejo
Cuando los investigadores controlaron el efecto del tamaño, la experiencia de entrenamiento y otras variables, la imagen cambió notablemente.
La supuesta baja entrenabilidad de los braquicéfalos desapareció: la diferencia se explicaba porque, en general, son perros más pequeños, menos altos para su peso, y reciben menos adiestramiento formal.
Lo mismo ocurrió con la reactividad ante las visitas. Parte de esa conducta estaba asociada a que son perros ligeros y más consentidos (como dormir en la cama del dueño), algo que incrementa las reacciones ante estímulos.
En cambio, algunas virtudes pasaban inadvertidas si no se eliminaban esos sesgos. Ajustando los datos, los braquicéfalos resultaron menos propensos a saltar sobre personas o tirar de la correa que otros grupos. Son comportamientos positivos que podrían reforzar su fama de buenos perros de compañía, pero que quedan ocultos por otros factores.

Un equilibrio de fuerzas opuestas
El estudio habla de un “intercambio conductual”: los rasgos asociados al hocico corto y los vinculados al cuerpo pequeño no siempre tiran en la misma dirección.
El tamaño reducido favorece la excitabilidad, el miedo o la búsqueda de atención constante; la braquicefalia, en cambio, parece asociarse con más calma, sociabilidad y dependencia.
En los perros pequeños de hocico corto, estas tendencias se mezclan, dando lugar a un perfil único que combina momentos de tranquilidad con episodios de inquietud. Esta mezcla podría explicar por qué, pese a sus problemas de salud, estas razas siguen ganando adeptos.
Los investigadores también advierten que no todo es genética. El tipo de cuidados, el tiempo de paseo o el nivel de entrenamiento influyen tanto que pueden ocultar o amplificar rasgos heredados. Un pug poco ejercitado y sobreprotegido puede parecer más nervioso que otro bien entrenado y estimulado.
Lo que no cambia: rasgos directos de la morfología
En tres comportamientos, los efectos del cráneo se mantuvieron incluso tras todos los ajustes: la calma y la valentía, más bajas en dolicocéfalos, y la obediencia al llamado, mayor en hocicos largos. Estos patrones podrían estar relacionados con diferencias neurológicas derivadas de la forma del cráneo.
La literatura previa ya ha sugerido que la morfología puede alterar la distribución de células en la retina o la estructura cerebral, lo que repercute en cómo los perros perciben e interpretan su entorno. En algunos casos, estos cambios pueden ser fruto de la selección artificial a lo largo de generaciones.
Esto recuerda que, aunque el entorno moldea la conducta, la biología también pesa. Para futuros dueños, implica que no todas las tendencias son modificables, y que la elección de raza debe considerar tanto el temperamento típico como las necesidades físicas y sanitarias.

Consejos y advertencias para el futuro
El mensaje final de los autores es claro: la popularidad de los braquicéfalos no debe cegarnos ante sus necesidades reales. Incluso en razas pequeñas, el entrenamiento temprano y la estimulación física y mental son esenciales para que florezcan los rasgos positivos.
Comprender cómo se combinan la forma de la cabeza y el tamaño puede ayudar a elegir con más criterio. Para criadores y veterinarios, estos hallazgos son una oportunidad para promover un manejo que reduzca los comportamientos problemáticos y potencie los favorables.
En última instancia, este estudio nos recuerda que el encanto de un perro no está solo en su cara, sino en un delicado equilibrio entre genética, tamaño y cuidados. Y que, como dueños, tenemos la capacidad —y la responsabilidad— de inclinar esa balanza hacia el bienestar.
Referencias
- Turcsán, B., & Kubinyi, E. (2025). Selection for Short-Nose and Small Size Creates a Behavioural Trade-Off in Dogs. Animals. doi: 10.3390/ani15152221
Un enigma de la Edad del hierro que tiene como protagonistas a uno de los grandes imperios de la antigüedad reaviva el fuego de la curiosidad histórica. En la campaña arqueológica de 2025 que la Universidad de Pisa llevó a cabo en el sitio de Uşaklı Höyük (antigua Zippalanda), sobre el altiplano de Anatolia central, un nuevo hallazgo ha sorprendido a los arqueólogos. Se han encontrado los restos de siete infantes que fueron depositados en un contexto claramente ritual, asociado a una estructura circular de piedra cuya función aún no ha podido determinarse.
La campaña arqueológica de 2025: contexto y avances
Entre mediados de mayo y finales de julio de 2025, se llevó a cabo la decimoctava misión arqueológica, que exploró tres sectores diferenciados del yacimiento: dos en la ciudad baja y uno —la acrópolis— en la cima del montículo. Este programa estratégico permitió al equipo obtener una visión más amplia y de conjunto de las distintas fases cronológicas del asentamiento, desde la Edad del hierro hasta el periodo helenístico, e incluso identificar rasgos arquitectónicos que evidencian una ocupación prolongada en el tiempo.

El misterio del “círculo de los niños perdidos” en Uşaklı Höyük
La estructura circular, que se descubrió en 2021, volvió a ser el foco de atención durante estas excavaciones. Se identificaron una serie de nuevas murallas en el Área F, asociadas a una fase tardía del periodo hitita. Estas estructuras respetan la integridad de la construcción circular, lo que indica una continuidad funcional o cultual a lo largo del tiempo. Los estratos del lado oriental, además, presentan varias capas de pavimentación que sugieren que el espacio se usó de manera prolongada y reiterada.
Junto a esta arquitectura monumental, se descubrieron los restos de siete infantes. Se trató de un diente infantil en excelente estado de conservación, el esqueleto casi completo de otro infante y los restos parciales de, al menos, otros cuatro recién nacidos o fetos. Los estudiosos establecieron que no correspondían a enterramientos convencionales. Los huesos aparecieron dispersos, acompañados por fragmentos cerámicos, ceniza y restos de animales.
Esta disposición tan peculiar sugiere que se realizaron prácticas rituales peculiares, relacionadas, quizás, con la deposición simbólica de los niños fallecidos. La zona pudo haber funcionado más como un santuario colectivo que como un cementerio tradicional.

El diente infantil: una clave para entender el pasado
Conservado en condiciones excepcionales, el diente infanti ofrece una oportunidad única tanto para proporcionar una datación absoluta del contexto como para someterlo al análisis de ADN. Estas investigaciones podrían proporcionar información biológica sobre los habitantes del lugar durante el periodo hitita, además de aportar datos sobre la composición genética del grupo que habitaba Uşaklı Höyük en ese momento.
Rituales infantiles en el mundo hittita
El escenario descubierto en la estrcutura circular no encuentra paralelos claros en las fuentes escritas hititas. Sin embargo, la forma de deposición —infantes sin tumbas depuestos junto a restos animales o cerámica— remite a las prácticas observadas en contextos como los tofets fenicios y púnicos. Según los arqueólogos, esto sugeriría que los niños fallecidos recibían un tratamiento ritual distinto. Se les habría depositado en espacios simbólicos fuera del circuito funerario convencional, una práctica que, en el caso de este yacimiento, parece vincularse con la estructura circular.
Estratos y arquitectura más allá de los rituales infantiles
Por otro lado, la excavación de la acrópolis reveló, por primera vez, una secuencia habitacional y de espacios abiertos datables entre la Edad del hierro y el periodo helenístico. A una profundidad de unos cuatro metros, apareció un depósito de destrucción con piedras quemadas y ceniza que los arqueólogos han datado en la Edad del hierro medio.
Además, se documentaron pavimentos, puntos de fuego, un brasero de piedra con base trilobulada y otras estructuras que apuntan a funciones sociales o litúrgicas. Se ha descartado la ocupación medieval en la cima del montículo, a diferencia de la ciudad baja, que sí se ocupó en una época más tardía.

Materiales arqueológicos: fauna, cerámica y paleoecología
La campaña también amplió el repertorio de evidencias materiales del sitio. Se documentaron cerámicas pintadas del Bronce tardío y del Hierro, mientras que la recuperación de restos vegetales y animales permitió enriquecer la reconstrucción tanto de la economía como del ambiente contemporáneo al asentamiento. En el Área F, una fosa con restos completos de diversos animales como caballos, asnos, bovinos, caprinos e incluso una liebre, podría indicar ofrendas colectivas o sacrificios vinculados al mundo ritual.
El equipo también está haciendo estudios paleoecológicos a partir de semillas, carbones y microrestos vegetales, con el fin de delinear el paisaje agrícola y ecológico. Asimismo, los estudios sobre ADN humano y animal, iniciados en laboratorios especializados, prometen arrojar luz sobre el trasfondo biológico y social de las poblaciones que habitaron Uşaklı Höyük.

Significado del sitio en contexto histórico
A través de un enfoque interdisciplinar, este proyecto arqueológico está indagando en la dimensión sagrada del asentamiento. Entre sus principales objetivos, se encuentra la búsqueda de evidencias que confirmen Zippalanda como posible ciudad santa del culto al dios de la tormenta.
El llamado “círculo de los niños perdidos”, explorado durante la campaña de 2025, se ha convertido en un símbolo de cómo las sociedades hititas podrían haber encuadrado la muerte infantil dentro de un universo ritual que vinculaba lo humano, lo sagrado y lo colectivo. En ese espacio circular, la memoria de los más frágiles parece haberse integrada de manera intencional en el corazón de la ciudad sagrada. La labor continua —arqueológica, genética, botánica y arquitectónica— promete revelar, en los próximos años, nuevos capítulos de la historia de este espacio sagrado: uno donde la infancia, el ritual y la arqueología convergen para contarnos una historia mucho más humana y compleja de lo que habíamos imaginado.
Referencias
- 2025. "Uşaklı Höyük e il cerchio dei bambini perduti". Unipinews. URL: https://www.unipi.it/news/usakli-hoyuk-e-il-cerchio-dei-bambini-perduti/
- 2025. "La campagna di scavi 2025 rivela resti di infanti in un contesto rituale dell’età ittita". Dipartimento di Civiltà e Forme del Sapere. URL: https://www.cfs.unipi.it/2025/08/05/scavi-e-ricerche-a-usakli-hoyuk-il-cerchio-dei-bambini-perduti/
La fiebre es una de las respuestas más comunes del cuerpo ante infecciones. Es un síntoma que todos hemos experimentado alguna vez y que, curiosamente, tiende a empeorar por la noche. ¿Quién no ha sentido cómo la temperatura sube y los escalofríos se intensifican justo cuando cae el sol? Este fenómeno, lejos de ser una casualidad, tiene una explicación fisiológica y evolutiva. En este artículo te explicamos por qué la fiebre parece "despertarse" cuando el cuerpo se prepara para dormir.
La fiebre: una herramienta del sistema inmunitario
La fiebre no es una enfermedad, sino un mecanismo de defensa. Cuando el sistema inmunitario detecta la presencia de patógenos —como virus o bacterias—, libera sustancias químicas llamadas pirógenos. Estas actúan sobre el hipotálamo, una estructura del cerebro que regula la temperatura corporal, y provocan un aumento del “termostato interno”.
Este incremento térmico no es accidental: muchos microorganismos patógenos no sobreviven bien a temperaturas elevadas, y además, ciertas células inmunitarias funcionan mejor con un poco más de calor. Es decir, al subir la temperatura, el cuerpo crea un ambiente menos favorable para el enemigo y más propicio para sus propias defensas.

El ritmo circadiano: nuestro reloj biológico
Para entender por qué la fiebre tiende a empeorar por la noche, es necesario conocer el concepto de ritmo circadiano. Se trata de un ciclo interno de aproximadamente 24 horas que regula numerosos procesos fisiológicos, incluyendo la temperatura corporal, la secreción hormonal, el sueño y la vigilia.
En condiciones normales, la temperatura corporal no es constante durante el día. Su punto más bajo suele registrarse durante la madrugada, y su punto más alto por la tarde. Esta variación puede ser de hasta un grado centígrado, incluso en ausencia de fiebre, pudiendo hacer que la temperatura suba más de lo habitual al final del día.
Sí, puede parecer contradictorio que la fiebre se sienta más intensa por la noche si la temperatura corporal suele bajar en esas horas. Pero lo que realmente ocurre es que, cuando estamos enfermos, la fiebre se “monta” sobre ese ritmo natural: aunque la base térmica descienda, la respuesta inmunitaria sigue elevando la temperatura. Además, durante la noche, el cuerpo entra en una fase de reposo y reduce la producción de cortisol, una hormona con efectos antiinflamatorios. Esto puede facilitar que los pirógenos tengan un efecto más pronunciado, elevando aún más la temperatura.

El papel del sueño en la fiebre
Dormir es crucial para la recuperación durante una enfermedad. El sueño profundo estimula la producción de ciertas citoquinas, proteínas que ayudan a coordinar la respuesta inmunitaria. Sin embargo, la fiebre puede interferir con la calidad del sueño, creando un círculo vicioso: estamos enfermos y necesitamos descansar, pero la fiebre nos lo impide.
Además, la ciencia sugiere que durante el sueño se producen ajustes hormonales y neurológicos que pueden alterar la forma en que percibimos los síntomas. Por ejemplo, en un estudio de 2022 analizaban el dolor percibido por un estímulo de calor a lo largo del día y vieron que el umbral del dolor y la sensibilidad térmica pueden cambiar. De hecho, las personas reportaban más dolor percibido pasada la medianoche. Esto podría explicar que notemos la fiebre de forma más intensa de noche, aunque la diferencia real en temperatura sea mínima.
¿Es peligrosa la fiebre nocturna?
En la mayoría de los casos, no. La fiebre nocturna no es más peligrosa que la diurna. De hecho, suele ser una señal de que el sistema inmunitario está funcionando correctamente. Sin embargo, sí puede resultar más molesta: la sensación de calor, los sudores, los escalofríos y el malestar general pueden dificultar el descanso justo cuando más lo necesitamos.
Además, el entorno puede influir. Por la noche, solemos estar en la cama, abrigados, en habitaciones cerradas y sin ventilación, lo que puede acentuar la sensación de calor y dificultar la disipación de la temperatura corporal.

Entonces… ¿Deberíamos bajar la fiebre por la noche?
Depende de la situación. Si la fiebre es moderada y no va acompañada de otros síntomas graves, puede ser mejor dejar que siga su curso. El cuerpo está luchando contra una infección, y bajar la fiebre artificialmente podría entorpecer ese proceso.
Sin embargo, si la fiebre es muy alta, genera mucho malestar, impide el sueño o viene acompañada de síntomas preocupantes (como dificultad para respirar, confusión o convulsiones), conviene bajarla. En esos casos, se pueden usar antipiréticos y analgésicos como el paracetamol para bajar la temperatura corporal y reducir el dolor. También se pueden aplicar medidas físicas para favorecer la regulación térmica: mantener una habitación ventilada, usar ropa ligera, hidratarse bien y evitar abrigarse en exceso. No obstante, siempre ante la duda es mejor consultar a un profesional sanitario para saber qué hacer en cada caso.

¿Y qué hay de los otros síntomas y por qué empeoran al acostarse?
Otra razón por la que muchos notamos un empeoramiento de los otros síntomas al llegar la noche tiene que ver con la postura. Al adoptar una posición horizontal durante el descanso, la distribución de fluidos en el cuerpo cambia. En casos de congestión nasal, por ejemplo, el drenaje de las vías respiratorias se dificulta, lo que intensifica la sensación de obstrucción. Además, al estar quietos y sin distracciones, nos volvemos más conscientes de las molestias corporales: fiebre, dolor de cabeza, escalofríos o malestar general. El silencio y la oscuridad, aunque propician el sueño, también hacen que percibamos más intensamente cualquier incomodidad.
Una estrategia evolutiva
Desde una perspectiva evolutiva, que la fiebre aumente por la noche tiene cierto sentido. Al estar en reposo, el cuerpo puede redirigir más recursos para combatir la infección. Además, si la fiebre interfiere con el sueño, puede ser una forma de que el cuerpo obligue al individuo a mantenerse más alerta ante una situación de peligro biológico.
En este sentido, la fiebre nocturna no es solo un síntoma molesto, sino una compleja estrategia biológica diseñada para ayudarnos a sobrevivir.
Estrategias para mantener un sistema inmunitario fuerte
Aunque no podemos evitar todas las infecciones, sí es posible fortalecer nuestras defensas para que el cuerpo responda de forma más eficiente y moderada, incluso cuando la fiebre aparece. Una alimentación equilibrada, rica en frutas, verduras, proteínas de calidad y grasas saludables, proporciona al sistema inmunitario los micronutrientes necesarios —como la vitamina C, D, el zinc y el hierro— para funcionar correctamente.
El descanso también es clave: dormir las horas suficientes —y bien— ayuda a regular la producción de citoquinas, moléculas que coordinan la respuesta inmunitaria. El ejercicio moderado y regular estimula la circulación de células inmunitarias, mientras que la gestión del estrés —a través de técnicas como la meditación, el contacto social o el ocio— evita la liberación prolongada de cortisol. Además, mantener una correcta higiene, como el lavado de manos o ventilar los espacios cerrados, reduce la carga de patógenos a la que estamos expuestos.

En resumen
La fiebre que sube por la noche no es una anomalía, sino el resultado de una interacción entre el sistema inmunitario, el ritmo circadiano y la fisiología del sueño. Aunque puede ser incómoda, en muchos casos es una señal de que el cuerpo está haciendo su trabajo. Comprender sus mecanismos nos ayuda a manejarla mejor y a saber cuándo intervenir y cuándo simplemente dejar que el cuerpo se cure a sí mismo.
La próxima vez que sientas que la fiebre se intensifica al anochecer, recuerda que tu cuerpo no está fallando: está luchando, y lo está haciendo con inteligencia.
Referencias
- Daguet, I., Raverot, V., Bouhassira, D., & Gronfier, C. (2022). Circadian rhythmicity of pain sensitivity in humans. Brain : a journal of neurology, 145(9), 3225–3235. doi: 10.1093/brain/awac147
En el Museo de las Ciencias Naturales de Bruselas, protegido en una vitrina discreta, se conserva un pequeño hueso de apenas diez centímetros que ha hecho correr ríos de tinta entre arqueólogos, matemáticos e historiadores. Es el hueso de Ishango, hallado en la década de 1950 en el actual Congo y datado en unos 20.000 años de antigüedad. A simple vista parece un objeto humilde, apenas un fragmento de peroné de babuino con unas hendiduras. Sin embargo, desde hace más de medio siglo se debate si estamos ante el primer testimonio de pensamiento matemático escrito de la humanidad.
La fascinación no es gratuita. Quien se detiene a observarlo descubre que las incisiones no aparentan caos: están agrupadas en columnas, parecen ordenadas y sugieren una lógica detrás de su tallado. Pero ¿qué significan? ¿Son números? ¿Calendarios? ¿Simples decoraciones? La respuesta está lejos de ser unánime y el debate sobre Ishango se ha convertido en un ejemplo perfecto de cómo la arqueología y la imaginación a veces se entrecruzan.
El hallazgo y su contexto
El hueso fue descubierto por el geólogo belga Jean de Heinzelin de Braucourt a orillas del lago Eduardo, en la actual frontera entre Uganda y la República Democrática del Congo, durante unas excavaciones en los años cincuenta. El yacimiento estaba cubierto por capas de cenizas volcánicas, producto de una erupción ocurrida poco después de la ocupación humana, lo que permitió preservar y datar el material.
El objeto en sí es un fragmento de peroné, posiblemente de babuino, de unos 10 centímetros de largo. En uno de sus extremos se incrustó un trozo afilado de cuarzo, lo que sugiere que el hueso pudo servir como herramienta de uso cotidiano. Sin embargo, lo más llamativo no es la punta, sino las 168 incisiones en su superficie. Estas marcas, lejos de estar dispersas, aparecen distribuidas en tres columnas paralelas que recorren el hueso de arriba abajo.
Inicialmente se creyó que el hueso tenía unos 8000 años, pero estudios posteriores del contexto arqueológico y las técnicas de datación han llevado a retrasar su antigüedad hasta unos 20.000 años. Esto lo sitúa en pleno Paleolítico superior, época de grandes transformaciones culturales, donde aparecen las primeras manifestaciones de arte rupestre, objetos simbólicos y una creciente complejidad en la vida social.

La primera interpretación: números y regularidad
El propio Heinzelin fue quien abrió el camino de las interpretaciones matemáticas. Al observar las tres columnas de incisiones, propuso que estas no podían ser producto del azar. Señaló, por ejemplo, que en la columna izquierda aparecían series de 11, 13, 17 y 19 marcas, todos ellos números primos entre 10 y 20. La coincidencia era demasiado llamativa como para ser casual ,y en 1962 publicó sus hipótesis en la revista Scientific American.
Además de los supuestos primos, Heinzelin identificó duplicaciones de cantidades: grupos que parecían representar el doble de otros situados en la columna central. Estas regularidades lo llevaron a sugerir que el hueso pudo haber servido como un instrumento de cálculo rudimentario, quizá una especie de tabla de multiplicar o de sistema para contar y dividir.
Su propuesta capturó la imaginación de muchos. Si era cierta, Ishango representaría no solo el primer registro matemático, sino también la prueba de que los humanos del Paleolítico tenían ya nociones de abstracción numérica.

La hipótesis de la base 12
Décadas después, investigadores como Vladimir Pletser y Dirk Huylebrouck retomaron la línea de Heinzelin y la ampliaron. Analizando con detalle las sumas de las incisiones en cada columna, llegaron a la conclusión de que el hueso reflejaba un sistema numérico en base 12, con subbases de 3 y 4.
En su reconstrucción, los grupos de muescas no serían casuales, sino el reflejo de operaciones aritméticas sencillas, como duplicaciones y agrupaciones que llevaban a múltiplos de 12. Por ejemplo, la suma de una de las columnas daba 60, múltiplo de 12, y otra 48, igualmente divisible por 12. Para ellos, esto no podía ser accidental.
El hueso, según su propuesta, habría servido como herramienta de referencia para el conteo en base 12, una base que, por cierto, ha sido utilizada en distintas culturas históricas debido a sus múltiples divisores (2, 3, 4 y 6). Pletser y Huylebrouck llegaron incluso a sugerir que Ishango podría considerarse una regla de cálculo prehistórica, capaz de ayudar a un grupo de cazadores-recolectores a manejar cantidades más allá de lo inmediato.
Estas ideas, aunque especulativas, han tenido mucha influencia en la divulgación, donde el hueso de Ishango suele presentarse como la “primera calculadora de la humanidad”.

Calendarios y ciclos lunares
Otra línea interpretativa vino de la mano del investigador Alexander Marshack, conocido por su trabajo sobre los orígenes del pensamiento simbólico. En 1972, tras examinar el hueso con microscopio, propuso que las marcas representaban un calendario lunar.
Su argumento era que las sumas de dos de las columnas (60 muescas) coincidían con dos ciclos lunares, mientras que la tercera (48 marcas) se correspondía aproximadamente con mes y medio. De este modo, el hueso habría servido para registrar fases de la Luna. La antropóloga Claudia Zaslavsky añadió que quizás fueran las mujeres quienes lo usaban, como una forma de correlacionar su ciclo menstrual con el lunar.
Aunque sugerente, esta teoría ha recibido críticas. Muchos especialistas señalan que los números no encajan exactamente y que es arriesgado reconstruir un calendario a partir de simples incisiones. Sin embargo, la hipótesis de Marshack subrayó que Ishango podía ser algo más que una herramienta: también un artefacto simbólico y cultural.
La mirada escéptica: Keller y la “ficción matemática”
El entusiasmo por ver matemáticas en Ishango no es compartido por todos. El matemático suizo Olivier Keller, en su ensayo The fables of Ishango, or the irresistible temptation of mathematical fiction, plantea una advertencia seria: gran parte de lo que se dice sobre el hueso podría ser, en realidad, proyecciones modernas.
Keller recuerda que las incisiones en huesos, piedras o maderas son comunes en la prehistoria y no siempre representan números. Podrían ser registros de caza, símbolos rituales, marcas personales o incluso simples decoraciones. A su juicio, las hipótesis de números primos o de base 12 surgen porque los investigadores buscan patrones y seleccionan los que encajan, ignorando otros.
En su crítica a Pletser y Huylebrouck, señala que a veces es necesario añadir o quitar incisiones para que las sumas cuadren con el modelo en base 12, lo que debilita el argumento. Además, subraya que conceptos como los números primos son muy posteriores y resulta inverosímil atribuirlos a sociedades paleolíticas.
Para reforzar su posición, Keller recurre a ejemplos etnográficos. En diversas culturas africanas y australianas se han usado palos con marcas, pero no siempre como números: en ocasiones eran mensajes, registros de eventos o simples marcadores rituales. Por tanto, que un objeto tenga incisiones no implica necesariamente matemáticas.
Aun así, Keller reconoce un punto crucial: Ishango muestra que hace 20.000 años ya existía la idea de pluralidad y de correspondencia uno a uno. Aunque no podamos hablar de matemáticas formales, sí podemos decir que refleja el germen del pensamiento abstracto que, mucho después, daría lugar a la aritmética.
Otros huesos con incisiones
El hueso de Ishango no es el único testimonio de incisiones prehistóricas. El más antiguo conocido es el hueso de Lebombo, hallado en la frontera entre Sudáfrica y Esuatini, con 29 marcas y datado en unos 43.000 años. También está el hueso de lobo de Dolní Věstonice (República Checa), con unos 26.000 años de antigüedad. En otros yacimientos, como la cueva de Blombos en Sudáfrica, se han hallado objetos de hace 70.000 años con patrones incisos.
Lo que diferencia a Ishango de todos ellos es la regularidad aparente de sus marcas y su disposición en columnas. Otros huesos muestran incisiones dispersas o sin patrón evidente, mientras que en Ishango la organización sugiere una intencionalidad distinta. Por eso, aunque no sea el más antiguo, sigue siendo el más discutido desde el punto de vista matemático.
Referencias
- Heinzelin, Jean (Junio de 1962). Scientific American, ed. Ishango. 206. pp. 105-116.
- Pletser, Vladimir (2012). Does the Ishango Bone Indicate Knowledge of the Base 12? An Interpretation of a Prehistoric Discovery, the First Mathematical Tool of Humankind, arXiv:1204.1019 [math.HO].
Durante décadas, la imagen que teníamos de la civilización maya oscilaba entre ciudades monumentales rodeadas de selvas y comunidades dispersas que florecieron en aislamiento. Pero esa narrativa está a punto de cambiar. Un reciente estudio publicado en Journal of Archaeological Science: Reports y liderado por el arqueólogo Francisco Estrada-Belli, junto a un equipo internacional, ha sacudido los cimientos de la historiografía mesoamericana: los mayas eran muchos más, estaban mucho más organizados y su presencia en el territorio era mucho más densa de lo que se había imaginado.
Utilizando tecnología LiDAR (Light Detection and Ranging), un sistema láser montado en aeronaves capaz de "ver" a través de la selva, los investigadores han escaneado más de 95.000 kilómetros cuadrados del corazón de las tierras bajas mayas. El resultado ha sido revelador: nuevas estimaciones elevan la población maya del periodo Clásico Tardío (aproximadamente 600–900 d.C.) a entre 9,5 y 16 millones de personas. Cifras que duplican estimaciones anteriores y que obligan a revisar por completo nuestra visión del urbanismo, la política y la organización social de esta civilización.
Ciudades invisibles que ahora emergen
Lo fascinante de esta investigación es que gran parte de los datos no provienen de excavaciones tradicionales, sino de una combinación de fuentes LiDAR públicas y privadas, muchas de ellas originalmente recopiladas para estudios medioambientales. Al reinterpretarlas con nuevos parámetros arqueológicos, los expertos descubrieron patrones de asentamiento altamente sistemáticos. Lejos de ser un mosaico de pequeños poblados desconectados, las tierras bajas mayas estaban repletas de complejos urbanos estructurados alrededor de plazas públicas, conectados por redes de caminos, rodeados de campos agrícolas e integrados en un sistema de organización territorial que combinaba centros ceremoniales con núcleos habitacionales y productivos.
Una de las conclusiones más impactantes es que prácticamente todas las estructuras detectadas se encontraban a menos de cinco kilómetros de una plaza o grupo residencial con función administrativa o ceremonial. Eso implica que incluso las zonas rurales estaban estrechamente vinculadas con el aparato político y religioso. No había aislamiento. Lo que antes se consideraban asentamientos independientes, ahora se revelan como parte de una estructura jerarquizada que extendía su influencia a lo largo de selvas y colinas.

Mucho más que grandes pirámides
Hasta ahora, el imaginario colectivo se centraba en nombres como Tikal, Calakmul o Chichén Itzá. Esos grandes centros arqueológicos, con sus templos y juegos de pelota, eran vistos como la excepción dentro de un mundo mayoritariamente rural. Pero el estudio demuestra que las ciudades mayas eran más comunes, numerosas y densas de lo que se pensaba. La densidad de estructuras habitacionales en zonas como Chactun, en el actual estado mexicano de Campeche, supera incluso la de Tikal, considerada una de las metrópolis más grandes del periodo.
La clave del nuevo enfoque está en cómo se analizaron los datos. En lugar de centrarse solo en la monumentalidad arquitectónica, los investigadores contabilizaron viviendas individuales, plataformas menores y evidencias de infraestructura agrícola, utilizando estándares que reflejan el tamaño habitual de una casa maya. Esa perspectiva, más cercana a la vida cotidiana de la población, permite entender mejor cuánta gente vivía realmente allí y cómo se distribuían sus actividades.
Un mundo organizado por y para la producción
Además del número de habitantes, lo que sorprende es la sofisticación de la planificación territorial. Lejos de dejar la agricultura a merced del azar o del uso extensivo, los mayas diseñaron sistemas complejos de terrazas, canales, muros de contención y campos elevados, tanto en zonas de selva como en humedales. La asociación espacial entre estructuras habitacionales y parcelas agrícolas sugiere que la producción de alimentos estaba planificada y, en muchos casos, dirigida por élites locales desde grupos residenciales medianos y grandes.
De hecho, se han encontrado evidencias claras de distribución jerárquica incluso en áreas que antes se creían periféricas. Los grandes centros no estaban aislados, sino integrados en redes que conectaban núcleos medianos con aldeas y campos productivos. Esto indica no solo una densa población, sino también una administración compleja, capaz de coordinar mano de obra, recursos y ceremonias en un territorio amplio y diverso.

El derrumbe bajo otra luz
Pero si la civilización maya logró alcanzar estos niveles de densidad y sofisticación, ¿qué ocurrió para que colapsara entre los siglos VIII y X? Aunque el estudio no se centra en esa cuestión, sus implicaciones son ineludibles. Una población de hasta 16 millones de personas requería enormes cantidades de alimentos, madera, agua y coordinación política. Bajo condiciones climáticas adversas o tensiones internas, ese sistema podía tornarse vulnerable.
Y eso es precisamente lo que otros estudios recientes están comenzando a confirmar. Investigaciones genéticas en zonas como Copán, en Honduras, muestran una fuerte caída demográfica hacia el año 750 d.C., pero también una notable continuidad cultural y biológica. Es decir, los mayas no desaparecieron, sino que se reorganizaron en nuevos centros, especialmente en la región norte de la península de Yucatán. El colapso no fue absoluto, sino una transformación forzada por crisis múltiples.
LiDAR: la revolución silenciosa de la arqueología
Más allá del caso maya, este estudio representa un punto de inflexión para la arqueología en general. El uso combinado de LiDAR con nuevas metodologías de análisis ha demostrado que es posible obtener retratos precisos y extensivos de civilizaciones antiguas sin necesidad de excavar cada centímetro de terreno. La capacidad de escanear selvas enteras y detectar estructuras mínimas que antes pasaban desapercibidas abre la puerta a reinterpretar otras culturas tropicales, desde el sudeste asiático hasta el Amazonas.
Además, parte de los datos utilizados por los investigadores son de acceso público, como los del sistema G-LiHT de la NASA. Esto significa que muchos otros equipos podrán replicar esta metodología en diferentes contextos sin tener que depender exclusivamente de costosos vuelos personalizados.
El redescubrimiento de una civilización viva
Hoy, millones de descendientes de los antiguos mayas siguen habitando Guatemala, Belice, el sur de México y partes de Honduras. Sus lenguas, costumbres y cosmovisión son un legado vivo de una civilización que, ahora lo sabemos, fue mucho más extensa, compleja y poderosa de lo que se imaginaba. Este hallazgo no solo rescribe la historia de los mayas; nos invita a mirar más allá de las ruinas visibles y a comprender el pasado desde una escala humana, cotidiana, estructurada.
Con cada nuevo pulso láser que atraviesa la selva, la historia se redefine. Y esta vez, lo que ha emergido es una civilización que estaba oculta a plena vista.
El estudio ha sido publicado en Journal of Archaeological Science: Reports.
A comienzos del siglo XX, el físico británico Horace Lamb propuso un modelo para describir el comportamiento de una partícula vibrante en un medio elástico. El problema era bien conocido en la física clásica: al vibrar, la partícula genera ondas que se propagan por el medio y, a su vez, disipan la energía del sistema. Sin embargo, cuando se quiso traducir este fenómeno al lenguaje cuántico, surgieron obstáculos que se prolongaron... hasta hoy. Un siglo más tarde, un estudiante universitario y su mentor han conseguido resolver este enigma en el contexto de la física cuántica. El terreno de los osciladores cuánticos está sembrado de posibilidades futuras.
Nam H. Dinh, junto con su profesor Dennis P. Clougherty, ha dado con una solución exacta al llamado modelo cuántico de Lamb, que describe el comportamiento de un oscilador armónico amortiguado a escala atómica. El hallazgo, publicado en Physical Review Research, ha resuelto un problema planteado en 1900 con herramientas modernas de mecánica cuántica. Lo llamativo es que uno de los autores aún era estudiante de máster al presentar el trabajo. Su contribución ha sido crucial para abordar un modelo que, hasta ahora, había resistido todo intento de solución rigurosa en el ámbito cuántico.
Del modelo clásico a la versión cuántica
El modelo original propuesto por Lamb describía cómo una partícula vibrante pierde energía al generar ondas en un medio continuo. Esa pérdida de energía —amortiguamiento— podía explicarse con las leyes de Newton y se consideraba resuelto en el marco clásico. Pero cuando los físicos intentaron trasladar esa misma idea al mundo atómico, surgieron conflictos fundamentales con los principios de la mecánica cuántica.
Uno de los mayores desafíos era compatibilizar el comportamiento disipativo del sistema con el principio de incertidumbre de Heisenberg, que impone límites estrictos a la precisión con que se pueden conocer simultáneamente la posición y el momento de una partícula. Incluir la pérdida de energía en un sistema cuántico sin violar este principio fue, durante décadas, un obstáculo insalvable.
Dinh y Clougherty reformularon el modelo de Lamb adaptándolo al contexto cuántico, pero sin simplificaciones que lo alejaran de su riqueza física. Su propuesta mantiene la estructura original del sistema, dividido en una partícula vibrante (el oscilador) y un medio que actúa como entorno (la cuerda), pero incorpora formalmente el acoplamiento entre ambos elementos en forma de operadores bilineales. Esta formulación permitió aplicar una transformación matemática conocida como transformación de Bogoliubov, con la que se pudo resolver el sistema de forma exacta.

Una solución exacta tras 125 años
El principal logro de este trabajo es haber encontrado una solución exacta para un sistema físico que, hasta ahora, solo podía abordarse con aproximaciones. El artículo señala que “el modelo proporciona un ejemplo resoluble del oscilador armónico cuántico amortiguado”. Esto quiere decir que no se trata de una simulación ni de una solución parcial. Es decir, el sistema ha sido descrito matemáticamente en toda su complejidad, respetando las reglas de la mecánica cuántica.
Además, los autores calcularon la frecuencia de oscilación del sistema y la tasa de amortiguamiento mediante una ecuación integral no lineal, lo que les permitió describir también el estado base del sistema. Este estado, lejos de ser simple, es un vacío comprimido multimodal, una configuración cuántica en la que se reduce la incertidumbre en la posición de la partícula a costa de aumentar la del momento.
Esta idea de redistribuir la incertidumbre se ha utilizado antes en física para mejorar la precisión en las mediciones, como en los detectores de ondas gravitacionales. Pero ahora, gracias al trabajo de Clougherty y Dinh, se demuestra que este tipo de estados pueden emerger de manera natural en sistemas físicos concretos.
El estado base obtenido es, según el artículo, “siempre un estado de vacío comprimido multimodal”, lo que confirma que la naturaleza cuántica del sistema queda reflejada incluso en su configuración más estable. A partir de esta base, los investigadores calcularon también el espectro de excitaciones y la forma en que se propaga la energía a través del sistema.
Vacío comprimido multimodal: un estado cuántico peculiar, pero clave
El llamado vacío comprimido multimodal es el estado base del sistema descrito por Clougherty y Dinh. Se trata de una forma especial del vacío cuántico —el estado de menor energía posible— en el que se ha aplicado un proceso matemático llamado compresión cuántica (squeezing). Esto permite reducir la incertidumbre en una propiedad concreta del sistema (como la posición), a costa de aumentarla en otra (como el momento), siempre respetando el principio de incertidumbre de Heisenberg. La novedad es que esta compresión no ocurre sobre un solo modo de vibración, sino de forma simultánea sobre muchos modos distintos del sistema, lo que le da el carácter de “multimodal”.
Este tipo de estados ya se conocía en óptica cuántica y en teoría cuántica de campos, pero su aparición como solución exacta y natural en un sistema físico concreto, como ocurre en este modelo, no es habitual. El vacío comprimido multimodal refleja de forma precisa cómo interactúan la partícula vibrante y su entorno, y permite calcular propiedades esenciales como la tasa de disipación o la distribución de excitaciones. Lejos de ser una construcción abstracta, este estado tiene aplicaciones prácticas en áreas donde se requiere medir con extrema precisión, como en detectores de ondas gravitacionales o tecnologías de sensores cuánticos.

El papel clave de un joven investigador
Nam H. Dinh era estudiante de máster cuando contribuyó a este avance. Tras graduarse en física en la Universidad de Vermont en 2024, trabajó con Clougherty en este modelo durante su posgrado y actualmente realiza su doctorado en matemáticas. Su rol no fue el de un colaborador menor: su participación permitió derivar y resolver las ecuaciones que otros autores habían evitado por su complejidad.
La colaboración entre ambos autores permitió aprovechar tanto la experiencia de Clougherty como la versatilidad matemática de Dinh. El trabajo no es solo una demostración técnica, sino un ejemplo de cómo el talento joven puede marcar una diferencia real en investigación básica. En lugar de simplificar el sistema o acudir a métodos puramente numéricos, lograron mantener la estructura analítica del modelo hasta el final.
"En la física clásica, se sabe que cuando los objetos vibran u oscilan, pierden energía debido a la fricción, la resistencia del aire, etc.", declara Dinh. "Pero esto no es tan obvio en el régimen cuántico", añade.

Relevancia práctica y futuras aplicaciones
Aunque el trabajo es teórico, sus implicaciones prácticas son claras. Una de ellas es la posibilidad de diseñar sensores cuánticos más precisos, capaces de medir distancias o variaciones extremadamente pequeñas. Esto se debe a que, al reducir la incertidumbre en la posición, se pueden hacer mediciones por debajo del límite cuántico estándar.
El modelo predice cómo varía la incertidumbre en función del acoplamiento entre la partícula y el entorno, y permite calcular de forma exacta la tasa de disipación de energía. Esta información puede ser útil para entender sistemas reales, como átomos en sólidos, vibraciones en nanoestructuras o circuitos cuánticos que necesitan minimizar la pérdida de coherencia.
También se abre la puerta a estudiar otros sistemas físicos con una estructura parecida. Los autores mencionan que sus resultados podrían aplicarse a “una variedad de sistemas cuánticos relacionados”, como modos vibracionales en aislantes magnéticos o cavidades electromagnéticas. Esto convierte al modelo cuántico de Lamb en una herramienta de referencia para explorar nuevas configuraciones físicas.
El logro no solo es una victoria para la física teórica, sino también una posible fuente de inspiración para diseñar experimentos que verifiquen estas predicciones. La precisión alcanzada por el modelo hace posible que se puedan contrastar sus resultados con datos experimentales en plataformas como sistemas optomecánicos o resonadores cuánticos.
Referencias
- Dennis P. Clougherty y Nam H. Dinh, Quantum Lamb model, Physical Review Research, Vol. 7, L032004 (2025). DOI: 10.1103/PhysRevResearch.7.L032004.
Un hallazgo reciente en el yacimiento costero de Tell el-Burak, en el sur del Líbano, ha obligado a replantear una de las narrativas más extendidas sobre la historia de la construcción antigua. Hasta ahora, se asumía que la invención y el uso sistemático del mortero hidráulico —capaz de fraguar y mantener su solidez incluso en contacto con el agua— había sido una aportación fundamental de la ingeniería romana. Sin embargo, un estudio arqueométrico exhaustivo demuestra que los fenicios ya emplearon esta tecnología de manera eficaz entre finales del siglo VIII e inicios del VI a. C.
La investigación, publicada en Scientific Reports en 2025, revela que el mortero hidráulico fenicio fue el resultado de un conocimiento técnico avanzado. Su uso se integró en una estrategia productiva centralizada, orientada a sostener actividades agrícolas de alto valor económico, como la producción de vino.

El contexto arqueológico de Tell el-Burak
El yacimiento de Tell el-Burak se ubica a unos nueve kilómetros al sur de Sidón. Estuvo ocupado de forma intermitente desde el Bronce medio hasta la época otomana. Su fase más activa se sitúa entre los años 725 y 350 a. C., aproximadamente, un largo período en el que operó como centro de procesamiento agrícola, quizás bajo el control de Sidón.
En el curso de las excavaciones en el sitio, se encontraron tres instalaciones enlucidas con yeso o mortero, todas ellas fechadas entre finales del siglo VIII y el siglo VI a. C. La más impresionante de ellas corresponde a un gran lagar de vino, compuesto por una amplia pila de pisado rectangular y un gran recipiente semicircular de unos 4.500 litros de capacidad para la fermentación del mosto. Las otras dos estructuras, de función menos clara, se hallaron en el sector residencial y presentan idéntica composición de enlucido. La presencia del mortero en dos tipos de ambientes en apariencia distintos sugiere que se aplicó un mismo saber técnico a diversos usos.
Qué es un mortero hidráulico y por qué es importante
El mortero hidráulico se diferencia del mortero de cal aérea en que puede endurecerse incluso en ambientes húmedos o subacuáticos. Esto se logra mezclando la cal con materiales ricos en sílice y alúmina, conocidos como materiales puzolánicos, que reaccionan químicamente con el hidróxido cálcico para formar compuestos estables y resistentes al agua.
En el caso de Tell el-Burak, los investigadores han confirmado que los fenicios incorporaban fragmentos cerámicos triturados al mortero de cal. Esta técnica aumentaba su dureza, reducía la fisuración y le confería propiedades hidráulicas e impermeabilizantes. El método, similar al opus signinum romano, apenas está documentado en el Mediterráneo antes del periodo clásico, lo que convierte este hallazgo en un ejemplo pionero en la historia de la ingeniería antigua.

Un enfoque interdisciplinar para un hallazgo revolucionario
Los investigadores aplicaron un programa integrado de análisis. Incluyó microscopía óptica de luz polarizada, difracción de rayos X, microscopía electrónica de barrido con espectroscopía de dispersión de energía (SEM-EDS), análisis termogravimétrico y estudios de residuos orgánicos.
Los resultados confirmaron que el aglutinante se obtenía mediante la calcinación de calizas locales ricas en microfósiles. El agregado principal, además, estaba compuesto por fragmentos cerámicos procedentes, quizás, de los desechos de producción de las ánforas de la localidad de Sarepta, a unos 4 km de distancia. La presencia de bordes de reacción en las áreas de contacto entre los fragmentos cerámicos y la cal —zonas donde se formaron nuevas fases minerales de silicato cálcico y aluminato cálcico— constituye una prueba directa de la reacción hidráulica.
Por otro lado, el análisis termogravimétrico mostró un contenido de agua combinada superior al 3 % en todos los casos. Estos datos confirmarían que se trata de morteros hidráulicos y no de simples morteros de cal aérea.

La innovación técnica: reciclaje y control de recursos
Una de las conclusiones más reveladoras del estudio es que la producción de este mortero hidráulico respondía a una elección tecnológica consciente. En la región era habitual emplear conchas trituradas como agregado, pero en Tell el-Burak se optó por la cerámica, un material menos común que debía transportarse desde un centro productor específico.
Esta necesidad de coordinación implica que debió existir una red logística y un control centralizado de recursos, probablemente gestionados por las élites sidonias, que integraban la tecnología de la construcción en la economía agrícola de exportación. El uso de residuos cerámicos de producción, además de mejorar las propiedades del mortero, también representa una forma temprana de reciclaje productivo.
El papel de la producción vinícola
La relación entre el mortero hidráulico y la producción de vino ocupa una posición central en este hallazgo. La durabilidad y la resistencia al agua del material resultaban ideales para los lagares y los depósitos de fermentación, donde el contacto prolongado con líquidos podría deteriorar otros tipos de revestimiento.
Además, el análisis químico detectó la presencia de azufre en el enlucido del lagar, ausente en las muestras de control del suelo. Los investigadores han sugereido que las trazas sulfurosas podrían vincularse al tratamiento del vino con conservantes o antifúngicos. Esto refuerza la hipótesis de que la innovación tecnológica en este cotexto se vincula directamente con la voluntad de maximizar la calidad y el volumen de la producción vinícola, un producto clave en las redes comerciales fenicias.

Tecnologías de impermeabilización y transferencia cultural en el Mediterráneo
El estudio plantea que los fenicios pudieron ser vectores fundamentales en la transmisión de la técnica mortero hidráulico hacia el Mediterráneo occidental, mucho antes de que los romanos lo estandarizaran. Su papel como comerciantes y colonizadores les situaba en una posición privilegiada para difundir innovaciones técnicas.
Aunque aún no se dispone de pruebas directas de esta transferencia, el caso de Tell el-Burak se integra en un patrón más amplio de flujo tecnológico desde el Levante hacia el resto del Mediterráneo en la Edad del Hierro. De este flujo de conocimiento forman parte otras innovaciones fenicias como el alfabeto.

Un legado de especialización y sostenibilidad
El descubrimiento de que los fenicios de Tell el-Burak ya fabricaban mortero hidráulico obliga a revisar la cronología y la geografía de esta tecnología clave en la historia de la construcción. La investigación no solo documenta una innovación técnica avanzada para su tiempo, sino que la sitúa en el corazón de una economía agrícola y comercial altamente organizada.
Este hallazgo refuerza la imagen de que los fenicios operaron como agentes de transferencia tecnológica a lo largo y ancho del Mediterráneo y aporta un ejemplo temprano de producción sostenible basada en el reciclaje de materiales. En definitiva, Tell el-Burak demuestra que mucho antes de Roma, el conocimiento, la ingeniería y la visión estratégica ya estaban dando forma a infraestructuras capaces de resistir el paso de los siglos.
Referencias
- Amicone, S., Orsingher, A., Cantisani, E. et al. 2025. "Innovation through recycling in Iron Age plaster technology at Tell el-Burak, Lebanon". Scientific Reports, 15: 24284. DOI: https://doi.org/10.1038/s41598-025-05844-x
Un noble ilustrado francés, el conde de Caylus (1692-1765), fue el primero en describir las piedras de Carnac. Décadas después, en 1805, el escritor bretón Jacques Cambry publicaba un libro en el que sugería que los abundantes megalitos de la región francesa de Bretaña formaban parte de la religión céltica y que eran uno de los escenarios de los ritos realizados por los druidas. Su teoría formaba parte de la celtomanía –la pasión por los celtas– que se estaba apoderando de la intelectualidad europea.
En Inglaterra ocurría algo similar con el recinto circular de Stonehenge, adscrito también a los druidas por aquellos años. Los celtas se erigían en los maestros de la arquitectura megalítica, vinculada a una religión llena de magia y misterio. Todo ello contribuyó a disparar la fascinación por estas construcciones, que adquirían un aura casi sobrenatural en la que se unían su dificultad arquitectónica y su función religiosa. Esta aura las sigue acompañando y atrae a una legión de curiosos deseosos de saber más sobre la hercúlea tarea de aquellos fortachones celtas.
Turquía, cuna de hallazgos
La realidad arqueológica, sin embargo, se ha encargado de demostrar que los celtas no fueron los únicos en construir megalitos, así como que estos aparecieron en zonas tremendamente alejadas de las que pudo ser su influencia cultural y en otros continentes, como la propia África. Pero no solo hay distancia geográfica: en las últimas décadas también hemos sabido que grandes construcciones megalíticas precedieron en milenios a la existencia del pueblo celta (Edad del Bronce). Los complejos dedicados al culto religioso de Göbekli Tepe y Nevali Çori, ambos en el este de Turquía y descubiertos en las últimas décadas, datan del Neolítico.
En concreto, de una fecha tan lejana como el x milenio antes de Cristo, una época que tradicionalmente asociábamos a una cultura muy rudimentaria. Muy al contrario, todo indica que algunos de aquellos pueblos neolíticos fueron capaces de asumir retos constructivos cuya magnitud nos parece imposible de conjugar con la visión condescendiente que de ellos teníamos como unos antepasados atrasados, demasiado ocupados en su difícil supervivencia.
En el citado yacimiento de Göbekli Tepe, que empezó a excavarse a partir de los 90, sus habitantes utilizaron grandes piedras talladas para construir enormes estructuras circulares de entre diez y treinta metros de diámetro sostenidas por unos llamativos pilares con forma de T que son todo un logro arquitectónico.

Unos pilares de altura
También realizaron grandes columnas de varios metros de altura. La mayor de ellas recuperada, no en el propio complejo sino en una de las canteras donde extraían la piedra y directamente la tallaban, tenía una altura de 6,9 metros, pero estaba inacabada y, tras ser restaurada, se calcula que debió de alcanzar los nueve metros. En Nevali Çori, por su parte, se hallaron, también en los años 90, dos pilares de tres metros de altura y columnas monolíticas similares a las de Göbekli Tepe. Por desgracia, este último depósito fue inundado al encontrarse en el ámbito proyectado para el gran embalse de Atatürk.
En la época en que se levantaron estos grandes complejos, la Tierra vivía el final de la Edad de Hielo, con el retorno de las buenas temperaturas. La zona del este de Turquía donde se encuentran los yacimientos era un vergel con bosques e incluso selvas, habitados por animales salvajes hoy desaparecidos de la región, como leopardos, gacelas y hasta cocodrilos. Los habitantes de Göbekli Tepe debieron de ser algunos de los primeros protagonistas de la llamada revolución neolítica, que consistió en el dominio de la agricultura para garantizar el acopio de comida. Así, la región pudo ser uno de los primeros escenarios del final del nomadismo característico de las primeras poblaciones de cazadores-recolectores.
En este contexto empezarían a surgir las primeras construcciones permanentes fruto de la mano del hombre. Las más monumentales de ellas serían las dedicadas al culto a los muertos. Klaus Schmidt, el arqueólogo alemán responsable de las excavaciones en Göbekli Tepe, cree que el edificio encontrado era un establecimiento religioso dedicado a honrar a los difuntos, quizá también a enterrarlos, aunque aún no se han hallado tumbas en la excavación. La presencia de diferentes animales esculpidos en las piedras, desde leones hasta serpientes, es interpretada por el científico como una creencia en que estas bestias se encargaban de proteger el alma de los muertos.
El Stonehenge de Nibia
Sin embargo, este no sería un lugar de culto cualquiera. Su magnitud –y también su posición– sugieren que servía para algo más. Porque Göbekli Tepe está en lo alto de una colina visible a considerable distancia y, dato significativo, alejado de cualquier fuente de agua. Esto indica que, más que un lugar habitado, era un centro religioso, destinado quizá a grandes celebraciones. Schmidt se refiere a él como una «catedral en la colina», al que se peregrinaría desde muchos kilómetros de distancia en ocasiones señaladas.
La precocidad de esta construcción queda aún más de manifiesto porque la siguiente expresión megalítica nos lleva a un salto temporal de casi 5000 años y a un continente de distancia. Se trata de Nabta Playa, en pleno desierto de Nubia, un lugar remoto y árido pero suficientemente importante y significativo como para que sus lugareños levantasen allí los primeros Stonehenge. Sí, 3000 años antes que en el territorio británico, en la árida arena del corazón de África se levantaron al menos tres agrupaciones en círculo de piedras monolíticas.
La más conocida estaba formada por una treintena de grandes rocas trabajadas para darles la conocida forma vertical que tan familiar nos resulta en otras latitudes. Esas piedras rodean a otras seis que se encuentran en el interior. A los sabios ilustrados del xviii y xix les resultaría difícil defender el carácter céltico del Stonehenge africano. Además, debajo de las estructuras megalíticas de Nubia se han hallado otras construcciones de distinto formato: grandes mesas de piedra y lo que parecen haber sido esculturas animales son las más destacadas.

Unos nómadas picapedreros
Todo ello cuestiona la visión que se tenía de los pueblos que habitaban estas zonas. Hasta los descubrimientos de Nabta Playa, las hipótesis sobre aquellos habitantes de los desiertos del extremo norte del África negra apuntaban a que se trataba de unos pastores nómadas de ganado, con tradiciones y organización social bastante simples. Pero eso resulta incompatible con la elevada organización social necesaria para extraer piedra de las canteras, tallarla y transportarla a zonas en medio del desierto.
El esfuerzo en cuanto a las muchas horas de trabajo requeridas, la cualificación necesaria para poder producirlas adecuadamente y la disposición a emprender la tarea –para lo cual es necesario el control político de una élite social aceptada por los trabajadores y artesanos– sugieren que la organización de esta sociedad era mucho más estructurada, así como que contaban con unos conocimientos y tecnologías muy notables para su época.
Por tanto, el megalitismo europeo no fue sino el tercero que registra la historia a tenor de los últimos descubrimientos. La originalidad o precocidad europea, ensalzada por el predominio cultural de Occidente en los últimos siglos, no fue tanta y es posible que ulteriores trabajos en estos lugares, todavía insuficientemente excavados, aporten más noticias en el mismo sentido.
Ello no quita que, cuando los europeos de la Edad del Bronce empezaron a construir megalitos, lo hicieran a lo grande. Los alineamientos de Carnac, en la Bretaña francesa, son un buen ejemplo. Casi 3000 menhires –2934, exactamente– cubren una extensión de cerca de cuatro kilómetros de longitud. Estos monolitos fueron dispuestos en tres gigantescos alineamientos perfectamente distribuidos. El más grande de ellos, Le Ménec, está además delimitado por dos círculos de piedra, como los de Nabta Playa o Stonehenge, y el que se conserva mejor de ellos, el del extremo occidental, lo forman setenta menhires y mide cien metros.
Precisamente, los círculos de piedra, conocidos por los expertos con el nombre de crómlech –expresión proveniente de la lengua galesa que significa «piedra plana colocada en curva»–, son la otra expresión más espectacular del megalitismo europeo. Sin duda, la fascinación que ejerce desde hace más de tres siglos el de Stonehenge, en Inglaterra, caracterizado por sus grandes dimensiones, es responsable de su popularidad.

El Lourdes prehistórico
Estos monumentos religiosos ya no tenían la función de adorar a los muertos. Se ha avanzado mucho en la clarificación de sus usos rituales y, descartada hace tiempo la romántica vinculación con los druidas, hoy se piensa que Stonehenge se construyó en el marco de una transición de creencias: mientras que templos anteriores en la misma zona indican que se adoraba a las montañas y a elementos del paisaje, el círculo de piedras de la llanura de Salisbury habría estado dedicado a la adoración del sol y la luna, respecto a cuyos movimientos se alinea el monumento.
Otra teoría es que pudo ser un lugar de peregrinación, una suerte de Lourdes prehistórico. Esta hipótesis se apoya en los hallazgos arqueológicos de restos humanos, con señales de heridas o lesiones, que podrían haber acudido al mágico lugar en busca de curación. Otros vestigios de animales sacrificados apoyarían esa posibilidad.
En el año 2015, un inesperado hallazgo aumentó la ya de por sí inmensa atracción por Stonehenge. Y es que, a solo tres kilómetros de distancia se detectó, con el uso de radares, que bajo tierra hay una enorme formación megalítica con forma de herradura. En total estaría compuesta por noventa piedras de unos 4,5 metros de altura como media. Estas dimensiones lo harían incluso mayor que su vecino, por lo que se le ha bautizado con el nombre de Superhenge.
Los dólmenes, formados por grandes losas clavadas en vertical que sostienen una piedra de cubierta horizontal, son la otra expresión habitual de las antiguas construcciones megalíticas en el continente europeo. Es la que se adopta de manera más amplia en territorios muy diversos. Pueden encontrarse dólmenes no solo en las mismas zonas que los menhires, donde son muy abundantes, sino por doquier en el continente: desde en el norte, en la zona del Báltico, hasta la isla de Malta y desde Polonia hasta la península ibérica. En nuestro territorio aparecen desde en Galicia, Asturias y el País Vasco hasta en Extremadura, y también son notables los de la isla de Menorca (los llamados talayots). La hipótesis mayoritaria sobre los dólmenes es que eran sepulcros colectivos. Pero también se ha apuntado que pudiera tratarse de una forma de demarcación del territorio perteneciente a un grupo humano.
Con toques artísticos
Construir un dolmen era un reto de proporciones desmesuradas. Las losas que lo formaban podían pesar entre cuarenta y cien toneladas, y muchas veces su procedencia no era cercana. Por ejemplo, las que forman el dolmen de Soto, en Huelva, fueron transportadas desde una cantera a 35 kilómetros de distancia.
Más sorprendente resulta aún la sutileza arquitectónica de su construcción. La piedra de cubierta era alisada solo en su parte inferior, mientras que en la superior se tendía a mantener una forma que respetaba sus proporciones iniciales, aunque notablemente embellecidas. Además, esta piedra no se apoyaba por completo, sino solo sobre algunos puntos, entre los que se encontraba siempre uno de los más estrechos y puntiagudos de las piedras verticales. Todo esto nos demuestra que existía un estilo de hacer dólmenes que se va repitiendo con bastante similitud en diferentes geografías europeas. Y, sobre todo, que sus artífices actuaban con una voluntad notable de crear belleza, lo que los consagra como verdaderos artistas de la prehistoria.
En muchas aulas, el primer contacto con la geometría se reduce a triángulos, rectas y ángulos. Lo que pocas personas imaginan es que esa disciplina puede llegar a ser tan poderosa como para intentar describir las leyes que rigen todo el universo. Eso es precisamente lo que exploran Claudia Fevola y Anna-Laura Sattelberger, dos matemáticas jóvenes cuyas trayectorias confluyen en un mismo objetivo. Este objetivo no es otro que crear un nuevo lenguaje matemático que conecte lo más pequeño —las partículas subatómicas— con lo más grande: la evolución del cosmos.
Ambas autoras, desde instituciones científicas de referencia como Inria Saclay y el Instituto Max Planck de Matemáticas en las Ciencias, han firmado un trabajo ambicioso publicado en la revista Notices of the American Mathematical Society. En él no se ofrece un descubrimiento experimental, sino algo quizá aún más radical: una propuesta teórica basada en geometría algebraica y geometría positiva que podría servir para reformular procesos fundamentales de la física. Lo que está en juego es la posibilidad de usar un marco matemático común para estudiar fenómenos que van desde colisiones de partículas hasta las estructuras del universo temprano.
Un nuevo lenguaje para unir escalas
La geometría positiva, uno de los conceptos centrales del trabajo, no es una simple curiosidad académica. Es una construcción matemática con potencial para convertirse en una herramienta de unificación en física teórica. Inspirada en objetos como el amplituedro —una figura geométrica multidimensional desarrollada en física de partículas para simplificar cálculos de dispersión—, esta nueva geometría ofrece formas de representar interacciones físicas como volúmenes dentro de estructuras matemáticas complejas.
Fevola y Sattelberger señalan que estas geometrías permiten “codificar naturalmente la transferencia de información entre sistemas físicos” y subrayan que esta capacidad refleja “cómo los humanos comprenden metafóricamente el mundo” . A través de estas estructuras, se podrían analizar tanto las partículas que colisionan en un acelerador como los patrones de la radiación cósmica de fondo.
Este enfoque tiene una ambición clara, es decir, trascender la fragmentación de las teorías físicas y acercarse a una visión unificada. La geometría positiva, al representar fenómenos físicos mediante formas y relaciones geométricas, puede actuar como puente entre teorías actualmente desconectadas, como la física cuántica y la cosmología.

Las herramientas del análisis algebraico
Para desarrollar esta visión, las autoras recurren a un arsenal técnico sofisticado. Entre las herramientas utilizadas se encuentra la geometría algebraica, que estudia soluciones de sistemas de ecuaciones polinómicas; la combinatoria, que analiza la estructura de objetos matemáticos discretos; y los llamados D-módulos, que permiten tratar ecuaciones diferenciales desde un punto de vista algebraico.
Uno de los puntos clave es el uso de integrales de Feynman, que se emplean en física de partículas para calcular probabilidades de eventos como la dispersión de partículas. Estas integrales pueden reformularse usando geometría algebraica: por ejemplo, al estudiar polinomios de grafos que representan los diagramas de Feynman, se descubren conexiones con variedades algebraicas y con transformadas de Mellin.
Fevola y Sattelberger explican que "las integrales de Feynman están estrechamente relacionadas con integrales de Euler generalizadas" y que estas, a su vez, pueden restringirse a subespacios geométricos relevantes. Este enfoque permite pasar del mundo físico al matemático y viceversa, conservando información esencial para el análisis teórico.
Este entrelazamiento entre estructuras algebraicas y fenómenos físicos muestra que la matemática no solo sirve como herramienta para la física, sino también como espacio conceptual desde el cual repensarla.

Geometrías del universo
Más allá de las partículas, las mismas herramientas se aplican en cosmología. Aquí, la atención se centra en estructuras como los poliedros cosmológicos, que son también ejemplos de geometrías positivas. Estos objetos permiten modelar correlaciones en la radiación cósmica de fondo y reconstruir, a partir de ellas, las leyes físicas que rigieron el universo primitivo.
El potencial de esta propuesta se revela especialmente cuando se examina su capacidad para representar correlaciones complejas de forma compacta y precisa. En palabras de las autoras, estas geometrías podrían facilitar cálculos que normalmente son complejos, abriendo caminos para describir las condiciones iniciales del universo a partir de su huella en el presente.
Este uso de la geometría como lenguaje físico puede parecer abstracto, pero en realidad conecta con una intuición poderosa: que las formas, proporciones y estructuras espaciales no son solo figuras, sino manifestaciones profundas de las leyes de la naturaleza.
Además, la idea de que un mismo marco geométrico pueda describir tanto fenómenos microscópicos como estructuras macroscópicas es una de las aspiraciones centrales de la física teórica moderna.
Una teoría en construcción
Lejos de ser un campo cerrado, la geometría positiva está en plena construcción. Fevola y Sattelberger reconocen que se trata de una disciplina joven, con muchos elementos aún por desarrollar y validar. En sus palabras: “La geometría positiva todavía es un campo joven, pero tiene el potencial de influir significativamente en la investigación fundamental en física y matemáticas”.
Esto no significa que estemos ante una teoría especulativa sin dirección, sino ante una línea de trabajo que se nutre de colaboraciones activas y avances concretos. Ya existen vínculos entre grupos de investigación en matemáticas, física de partículas y cosmología que están explorando estas herramientas en contextos diversos.
Lo relevante aquí no es tanto haber alcanzado una solución definitiva, sino haber establecido un marco con poder explicativo y capacidad para generar nuevas preguntas. Es el tipo de avance que transforma lentamente una disciplina al ofrecer una perspectiva completamente nueva.
Geometría, armonía y el recuerdo de Kepler
La idea de que el universo pueda explicarse mediante formas geométricas no es nueva. En el siglo XVII, Johannes Kepler propuso que los planetas giraban en órbitas determinadas por sólidos perfectos, como el cubo o el dodecaedro. En su obra Harmonices Mundi, imaginó que la distancia entre los planetas seguía una lógica similar a la armonía musical, como si el sistema solar fuera una especie de partitura matemática escrita por las leyes divinas.
Aunque aquellas ideas hoy resultan inexactas o místicas desde el punto de vista científico, su intuición de que el cosmos podía tener una estructura geométrica no estaba del todo desencaminada. De hecho, su influencia marcó una tradición duradera: la búsqueda de orden y simetría como principio explicativo en física y matemáticas.
Sin embargo, el trabajo de Claudia Fevola y Anna-Laura Sattelberger no pertenece a ese registro simbólico ni metafísico. No se trata de una especulación filosófica, sino de una propuesta matemática rigurosa, basada en herramientas como la geometría algebraica, la teoría de D-módulos o las variedades afines. El hecho de que los objetos utilizados —como el amplituhedro o los poliedros cosmológicos— tengan formas visualmente atractivas no implica que se basen en una visión esotérica del universo, sino que reflejan relaciones precisas entre cantidades físicas.
Así, si bien las nuevas geometrías pueden evocar armonías visuales que recuerdan vagamente a Kepler, su fundamento es radicalmente distinto. Se trata de modelos matemáticos formales diseñados para representar datos, calcular probabilidades o explorar correlaciones observables. No buscan imponer un orden estético al universo, sino descubrir el lenguaje que lo describe con exactitud.

Una frontera entre matemáticas y física
En el fondo, lo que está en juego es algo más que una nueva herramienta de cálculo. La propuesta de Fevola y Sattelberger apunta a una convergencia entre lenguajes matemáticos abstractos y teorías físicas fundamentales. En lugar de depender de aproximaciones fragmentadas, esta nueva geometría intenta ofrecer un “idioma común” para fenómenos que hasta ahora se han tratado por separado.
Este tipo de trabajo invita a reconsiderar el papel de las matemáticas en la exploración del universo. Ya no solo como instrumento, sino como posible estructura base de la realidad física. El camino será largo, y muchas piezas faltan todavía. Pero si algo demuestra este trabajo es que hay ideas con capacidad de transformar cómo se entienden las leyes del universo.
Referencias
- Claudia Fevola, Anna-Laura Sattelberger, Algebraic and Positive Geometry of the Universe: From Particles to Galaxies, Notices of the American Mathematical Society (2025). https://doi.org/10.1090/noti3220.
En una sociedad que asocia felicidad con comprar más, la idea de que vivir con menos pueda hacernos más felices suena casi subversiva. Sin embargo, la simplicidad voluntaria —reducir el consumo de forma consciente para centrarse en lo esencial— gana terreno como alternativa vital. No se trata solo de minimalismo estético o armarios ordenados: es un estilo de vida que prioriza experiencias, relaciones y participación en la comunidad.
Investigadores de la Universidad de Otago, en Nueva Zelanda, estudiaron cómo este enfoque influye en el bienestar. Para ello, encuestaron a 1.643 personas representativas de la población nacional, midiendo desde hábitos de consumo hasta niveles de satisfacción vital y crecimiento personal. Los resultados ofrecen una visión detallada de qué aspectos de este estilo de vida realmente mejoran la calidad de vida.
La conclusión más llamativa: la conexión con los demás pesa más que la simple reducción de posesiones. Compartir recursos, colaborar y tejer redes comunitarias tiene un efecto directo más fuerte sobre el bienestar que vaciar estanterías o dejar de comprar.
Qué es la simplicidad voluntaria
La simplicidad voluntaria es una elección consciente de consumir menos y vivir con lo necesario, desplazando el foco hacia la calidad de vida y las relaciones humanas.
Quien adopta este estilo puede cultivar su propio huerto, reparar objetos antes que reemplazarlos, priorizar compras locales o compartir herramientas con vecinos.
Este enfoque combina dimensiones como la simplicidad material (poseer menos), la autosuficiencia (producir o reparar lo propio), la compra local, la conservación de recursos y, de forma muy destacada, la beneficencia: dedicar tiempo y esfuerzo a ayudar fuera del círculo familiar cercano.
El estudio confirma que, aunque todas estas dimensiones contribuyen a un patrón de vida más simple, no todas tienen el mismo peso en el bienestar personal. Es ahí donde la investigación arroja un hallazgo que rompe con ciertos clichés del minimalismo.

El hallazgo central: la fuerza de la comunidad
La dimensión de beneficencia —compartir conocimientos, trabajo o frutos del propio esfuerzo con la comunidad— fue el factor con mayor relación directa con el bienestar, especialmente con el bienestar eudaimónico, que se vincula al propósito vital y autorrealización.
A diferencia de la simplicidad material, que mostró un efecto indirecto, las actividades comunitarias se asociaron de manera inmediata con mayor satisfacción vital y sentido de logro. Las personas implicadas en redes de colaboración reportaron sentirse más conectadas, útiles y reconocidas.
Esto sugiere que limitarse a “tener menos” no basta para alcanzar los beneficios plenos de la simplicidad voluntaria. Es la combinación de vida sencilla y vínculos comunitarios la que genera un impacto más fuerte y duradero en la percepción de bienestar.
Bienestar: más allá del placer inmediato
El estudio evaluó dos dimensiones del bienestar:
- Hedónico: relacionado con placer, satisfacción y emociones positivas.
- Eudaimónico: vinculado a propósito, desarrollo personal y realización.
La simplicidad voluntaria mostró asociación positiva con ambas, aunque el efecto fue más marcado en el plano eudaimónico. Esto significa que el impacto más fuerte no está en pequeños momentos de felicidad, sino en la construcción de una vida con sentido.
Los mayores avances se registraron en la sensación de logro personal y la conexión con la comunidad, con mejoras menores en relaciones personales, salud y nivel de vida. No se hallaron cambios significativos en percepciones de seguridad o estabilidad futura.

Género, edad e ingresos: quién se beneficia más
La investigación detectó diferencias notables según el género. Las mujeres que practicaban simplicidad voluntaria experimentaban beneficios más claros, tanto en bienestar hedónico como eudaimónico. En los hombres, la asociación era más débil.
La edad no modificó de forma significativa la relación entre este estilo de vida y el bienestar. Respecto a los ingresos, se observó una tendencia no concluyente: quienes ganaban más podían percibir beneficios algo menores, aunque la diferencia no fue estadísticamente relevante.
Estos datos apuntan a que la simplicidad voluntaria puede beneficiar a cualquier persona, independientemente de su edad o nivel económico, pero que algunos grupos parecen conectar más profundamente con sus efectos positivos.
De la teoría a la práctica
Para quienes quieran experimentar los beneficios de la simplicidad voluntaria, el estudio sugiere priorizar la acción comunitaria sobre la simple acumulación de menos bienes.
Unirse a un huerto urbano, participar en bibliotecas de herramientas, organizar intercambios de habilidades o colaborar con productores locales son ejemplos efectivos.
Estas prácticas no solo reducen el consumo, sino que fomentan la colaboración y la confianza social, dos elementos clave para mejorar la calidad de vida. La investigación también respalda políticas públicas y proyectos vecinales que faciliten el intercambio y el uso compartido de recursos.
En un momento en que la crisis climática y la búsqueda de bienestar coinciden, la vida sencilla y colaborativa emerge como un modelo capaz de abordar ambas cuestiones a la vez.

Una lección para repensar el consumo
Este estudio desafía tanto al consumismo —que promete felicidad a golpe de compra— como al minimalismo superficial —que se limita a vaciar armarios—. La clave, según los datos, está en reemplazar parte del tiempo y recursos destinados a consumir por actividades que fortalezcan la comunidad.
Aunque la investigación se centró en Nueva Zelanda y midió correlaciones más que causalidades, ofrece una guía valiosa: vivir mejor no significa solo tener menos cosas, sino estar más conectado con las personas.
En última instancia, la simplicidad voluntaria no es renuncia, sino un cambio de prioridades: menos objetos, más vínculos, más sentido. Una ecuación que, según la ciencia, sí suma en bienestar.
Referencias
- Watkins, L., Aitken, R., & Li, L. P. (2025). Consume Less, Live Well: Examining the Dimensions and Moderators of the Relationship Between Voluntary Simplicity and Wellbeing. Journal of Macromarketing. doi: 10.1177/02761467251339399
Las últimas excavaciones arqueológicas realizadas en el emplazamiento de Mohovo, a orillas del Danubio, han revelado un hallazgo de enorme relevancia histórica. Se trata de una torre de vigilancia romana de unos 1800 años de antigüedad, construida en la época del emperador Marco Aurelio para reforzar la defensa de la frontera norte del imperio. Es la primera estructura de este tipo excavada en Croacia y una fuente arqueológica que aporta información inédita sobre la arquitectura defensiva romana en esta región de frontera.
Un emplazamiento estratégico en el limes del Danubio
El río Danubio ha sido una de las fronteras naturales de mayor peso estratégico en la historia de Europa, también durante el Imperio romano. En tiempos de Marco Aurelio (161–180 d. C.), esta línea defensiva, conocida como limes danubiano, adquirió un papel crucial frente a las incursiones de los pueblos del norte. La torre hallada en Mohovo formaba parte de un sistema de fortificaciones que permitía vigilar el tráfico fluvial y terrestre, así como transmitir con rapidez señales en caso de amenaza.
Su ubicación se explica por motivos geográficos. Mohovo se encuentra en un punto desde el que es posible controlar tanto un amplio tramo del río como las tierras circundantes. Este control visual era de vital importancia para detectar movimientos sospechosos o ataques antes de que alcanzaran la frontera propiamente dicha.

El largo camino hasta el descubrimiento
Aunque el hallazgo se dio a conocer en 2025, la historia del descubrimiento de esta torre comenzó mucho antes. Entre 2003 y 2023, una serie de investigaciones arqueológicas y prospecciones sistemáticas aportaron indicios de posibles estructuras subterráneas. En 2020, un estudio geofísico confirmó algunas anomalías compatibles con la presencia de edificaciones antiguas, lo que motivó el inicio de una excavación en abril de 2025.
Los arqueólogos no tardaron en identificar la base de una torre romana. La importancia de este hallazgo se explica, sobre todo, por su originalidad arquitectónica y su excepcional estado de conservación, elementos que ofrecen un acceso directo al mundo militar romano en los territorios de frontera.

Una arquitectura militar excepcional
Según los aarquólogos responsables de la excavación, la torre de Mohovo destaca por su estructura de tres plantas, algo inusual en el registro arqueológico de Croacia. Su diseño se adapta a las necesidades defensivas de la época. Un núcleo de madera servía como soporte estructural;a su alrededor, se erigían muros y se disponía una empalizada protectora. Este conjunto estaba rodeado por dos fosos defensivos, cada uno de unos 6 metros de ancho y 2,5 metros de profundidad, una característica que reforzaba de forma considerable su capacidad de resistencia ante los ataques.
El análisis estratigráfico de la construcción, además, ha revelado tres fases distintas de edificación y reparación. Estas obras indican que la torre se mantuvo en uso y que se realizaron mejoras a lo largo del tiempo. Este tipo de información resulta fundamental para comprender cómo evolucionaron las defensas romanas en respuesta a las nuevas amenazas o a los cambios en la estrategia militar.

El sistema defensivo en contexto
Otro de los aspectos relevantes de esta investigación concierne la integración de la torre en una red de defensa más amplia. De hecho, formaba parte de un conjunto de fortificaciones que incluía campamentos, murallas y otras torres distribuidas a lo largo del Danubio. Desde su posición, era posible comunicarse mediante señales con otras guarniciones. Así, se garantizaba que cualquier noticia sobre movimientos enemigos se transmitiera con rapidez a lo largo del limes.
Tal construcción responde a un patrón presente en otras fronteras romanas, pero adaptado a las condiciones geográficas de Mohovo. La presencia de dos fosos, combinada con la empalizada y la torre de tres alturas, representa un ejemplo de ingeniería militar optimizada para un entorno fluvial.
Otros hallazgos asociados a la torre defensiva
Durante la excavación, también se recuperaron diversos objetos que ayudan a contextualizar la vida en la torre. Entre ellos, figuran fragmentos de cerámica, un broche, equipamiento militar, elementos de los arneses para caballos y un hacha de hierro. Estos materiales sugieren que la torre no solo servía como punto de observación, sino que también hospedaba una guarnición equipada para intervenir en caso de emergencia.

Originalidad y valor histórico
Lo que distingue a esta torre frente a otras estructuras defensivas del limes es su singularidad arquitectónica dentro del territorio croata. Hasta la fecha, no se había excavado en el país niguna construcción con estas características —tres plantas, doble foso y núcleo de madera—. Este hecho sugiere una posible influencia de modelos constructivos empleados en otros sectores de la frontera danubiana o incluso en el limes germánico, adaptados aquí a las necesidades locales. Así, el hallazgo aporta información valiosa para comprender la logística militar romana, la organización de las guarniciones y la interacción entre arquitectura y entorno natural.
Un hallazgo con proyección internacional
El descubrimiento ha despertado el interés de la comunidad arqueológica internacional. La torre de Mohovo amplía el conocimiento sobre la red defensiva romana y pone de relieve la importancia de estudiar las fronteras imperiales, auténticas líneas de contacto y conflicto entre Roma y sus vecinos. Las futuras investigaciones se centrarán en determinar con mayor precisión la fecha de construcción inicial, analizar los materiales empleados y comprender mejor cómo se integraba la torre en el conjunto de fortificaciones regionales.
Referencias
- 2025. "1,800-year-old Roman watchtower discovered along Croatian Danube". Croatia Week. URL: https://www.croatiaweek.com/1800-year-old-roman-watchtower-discovered-along-croatian-danube/
- Geggel, Laura. 2025. "Archaeologists discover 1,800-year-old Roman watchtower built to protect the empire during Marcus Aurelius' reign". Live Science. URL: https://www.livescience.com/archaeology/romans/archaeologists-discover-1-800-year-old-roman-watchtower-built-to-protect-the-empire-during-marcus-aurelius-reign
La interpretación de Copenhague es el marco de lectura más influyente para entender la mecánica cuántica desde finales de los años veinte. No es una única frase cerrada, sino un conjunto de ideas articuladas por Niels Bohr, Werner Heisenberg y Max Born sobre indeterminación, probabilidad y el papel de la medida. Ese paquete conceptual se convirtió en la ortodoxia durante buena parte del siglo XX y moldeó generaciones de libros y cursos de física, en buena medida por su eficacia práctica y por el liderazgo intelectual del Instituto de Bohr en Copenhague. De hecho, aún hay desacuerdo.
Qué es, en pocas líneas, la interpretación de Copenhague
Se puede reducir en dos conceptos clave:
- Superposición y colapso: Un sistema cuántico puede estar a la vez en varios estados posibles hasta que medimos; la medida selecciona un resultado y rompe la superposición (colapso). La teoría describe el mundo esencialmente en términos probabilísticos a esa escala.
- Complementariedad: Según Bohr, rasgos como los de onda y partícula son descripciones mutuamente excluyentes pero necesarias; qué aspecto se revela depende de cómo intervenimos en el experimento. La teoría es completa en el ámbito que definen los arreglos de medida.
Qué convence a sus defensores
- Sencillez operativa y poder predictivo: Una vez aceptado el giro conceptual, Copenhague ofrece una lectura directa de las ecuaciones y guía con éxito el cálculo y la predicción. Esa economía de supuestos facilitó su adopción en manuales y aulas.
- Marco común de trabajo: El “idioma” de Copenhague normalizó prácticas de medida y análisis en múltiples áreas —desde espectros atómicos y láseres hasta semiconductores y superconductividad—.
- Claridad conceptual sobre la medida: Bohr reformuló el fenómeno cuántico como algo indivisible durante la medida; el tipo de intervención experimental determina qué rasgo se hace accesible.

Qué objetan sus críticos (y qué proponen)
- Albert Einstein: Sostuvo que el mundo debe tener propiedades definidas también sin medir. Con la paradoja EPR (1935) argumentó que el entrelazamiento sugiere que la teoría no es completa y que deberían existir variables ocultas más profundas.
- Erwin Schrödinger: Defendió que la función de onda es algo físico y planteó el experimento mental del gato para evidenciar las dificultades de aplicar sin matices la superposición a objetos macroscópicos.
- De Broglie–Bohm: Restauran trayectorias y determinismo mediante una “onda guía” y un potencial cuántico no local. Explican los mismos datos que la formulación estándar, pero al precio de una no-localidad explícita y una ontología más pesada.
- Everett (muchos mundos): Elimina el colapso, pues todas las posibilidades se realizan en ramas del universo que se separan en cada medida. Mantiene siempre la evolución unitaria, pero choca con la intuición cotidiana.
- Decoherencia: Desde los años setenta, explica por qué la superposición se desvanece por interacción con el entorno, haciendo que el mundo macroscópico parezca clásico sin postular colapsos ad hoc. No resuelve por sí sola la interpretación, pero aclara el puente micro–macro.

Por qué ganó (y sigue viva) la ortodoxia
Además de sus éxitos empíricos, la interpretación de Bohr y Heisenberg prosperó por su menor carga metafísica frente a alternativas, por la centralidad institucional del Instituto de Copenhague y por el liderazgo intelectual de Bohr. El resultado fue un consenso práctico que, con matices, perdura. Desde los años setenta, los tests del entrelazamiento y las desigualdades de Bell dejaron en mala posición a las variables ocultas locales, reforzando la aceptación de correlaciones no clásicas.
Cuadro resumen
Aspecto | Interpretación de Copenhague (ideas y nombres) | Críticas y alternativas (ideas y nombres) |
---|---|---|
Nombres representativos | Niels Bohr, Werner Heisenberg, Max Born, Wolfgang Pauli. | Albert Einstein, Erwin Schrödinger, Louis de Broglie, David Bohm, John Bell, Hugh Everett III, John A. Wheeler, Bryce DeWitt, David Deutsch, H. Dieter Zeh, Wojciech Zurek, Gian Carlo Ghirardi, Alberto Rimini, Tullio Weber, N. David Mermin, Christopher Fuchs, Rüdiger Schack, Leslie Ballentine, Robert B. Griffiths, Roland Omnès, Murray Gell-Mann, James Hartle. |
Núcleo | Superposición hasta la medida; colapso de la función de onda; complementariedad. (Bohr, Heisenberg, Born, Pauli). | Rechazo del colapso o explicación alternativa: determinismo con variables ocultas (de Broglie, Bohm); muchos mundos sin colapso (Everett, DeWitt, Deutsch); colapso objetivo (Ghirardi, Rimini, Weber); interpretación estadística/ensemble (Ballentine); QBism (Mermin, Fuchs, Schack); historias consistentes (Griffiths, Omnès, Gell-Mann, Hartle). |
Realismo y medida | Propiedades definidas solo en el contexto del aparato de medida; teoría completa en términos probabilísticos. (Bohr, Heisenberg). | Realismo fuerte: partículas con propiedades definidas siempre; la teoría estándar es incompleta. (Einstein, de Broglie, Bohm; Ballentine). |
No-localidad y entrelazamiento | Acepta correlaciones no clásicas sin mecanismo subyacente especificado; foco en consistencia experimental. (Bohr, Heisenberg). | Variables ocultas no locales (Bohm); crítica a la “acción fantasmagórica” (Einstein); formulación y pruebas de desigualdades que descartan variables ocultas locales (Bell; experimentos de Aspect, Clauser y Zeilinger). |
Ventajas que ven sus defensores | Marco operativo simple y exitoso para calcular y predecir; lenguaje común de la física del siglo XX. (Bohr, Heisenberg, Born, Pauli). | — |
Objeciones principales | Problema de la medida (qué es exactamente el colapso); tensión con la intuición clásica y el realismo fuerte. (Señalado por Einstein, Schrödinger, Bell). | Alternativas que preservan determinismo o unitariedad total: piloto/onda guía (de Broglie, Bohm); evolución unitaria sin colapso (Everett, Wheeler, DeWitt, Deutsch); colapso objetivo (GRW). |
Puentes explicativos | Decoherencia ambiental como explicación del aparente colapso y del mundo clásico emergente. (Zeh, Zurek). | — |
Experimentos y evidencias | Éxitos predictivos generalizados en espectros, láseres, semiconductores y estado sólido. | Tests de Bell y entrelazamiento que descartan variables ocultas locales y obligan a aceptar no-localidad o a renunciar al realismo fuerte. (Bell; Aspect, Clauser, Zeilinger). |
Redesdale, Northumberland, Reino Unido. En una zona de campos tranquilos cruzada por antiguos caminos romanos, una joven arqueóloga en formación ha encontrado lo que podría convertirse en una de las piezas clave para entender el paisaje religioso y ceremonial de la Inglaterra altomedieval. El hallazgo se produjo durante una excavación organizada por la Universidad de Newcastle, y ha sorprendido tanto por la antigüedad y rareza del objeto como por el contexto en el que apareció.
La protagonista del hallazgo es Yara Souza, estudiante internacional procedente de Florida, quien participaba por primera vez en un proyecto de campo arqueológico. En apenas 90 minutos desde el inicio del trabajo, y a pocos centímetros bajo la superficie, desenterró un pequeño objeto dorado, de apenas 4 centímetros de largo. A simple vista, parecía una joya decorativa, pero el análisis preliminar reveló algo más: se trata de un objeto de oro macizo fechado en el siglo IX, en plena Alta Edad Media.
Un hallazgo que conecta dos mundos
El objeto fue hallado en Redesdale, una región históricamente marcada por su proximidad a la antigua Dere Street, una vía romana que comunicaba York con el norte de Escocia y que continuó en uso siglos después de la caída del Imperio romano. De hecho, aún hoy parte de su trazado coincide con la moderna carretera A68.
Lo más intrigante es que este no es un hallazgo aislado. En 2021, un detectorista de metales, Alan Gray, descubrió en el mismo sitio un objeto muy similar, también de oro, que fue identificado como un alfiler de cabeza esférica típico de la Alta Edad Media. Ambos objetos comparten un estilo decorativo y tamaño casi idéntico, lo que ha llevado a los expertos a pensar que podrían haber formado parte de un mismo conjunto, o al menos estar vinculados funcional y simbólicamente.
No se trata de simples adornos. El uso del oro, restringido a las élites sociales y religiosas del momento, sugiere un contexto de prestigio. Algunos arqueólogos piensan que podrían haber tenido un uso ceremonial, tal vez en procesiones o rituales vinculados a la autoridad eclesiástica. La cercanía del hallazgo a centros religiosos históricos como Jedburgh y Hexham, ambos a lo largo de la ruta de Dere Street, refuerza esta teoría.

Una historia de caminos antiguos y manos modernas
La historia detrás del descubrimiento también destaca por su carácter humano. Yara, quien no había podido participar en una excavación anterior debido a una enfermedad, llegó a la campaña con nervios y expectativas modestas. Su hallazgo, ocurrido en los primeros compases del trabajo de campo, no solo supuso una sorpresa personal, sino un punto de inflexión para el proyecto en su conjunto.
El equipo estaba compuesto por estudiantes de grado en Arqueología y arqueólogos profesionales del consorcio de museos del noreste de Inglaterra. La excavación, organizada como una continuación de la investigación abierta tras el hallazgo de 2021, buscaba explorar el contexto estratigráfico del lugar. Lo que no esperaban era encontrar una segunda pieza de oro, tan similar y tan próxima a la primera, lo que apunta a un posible enterramiento intencionado.
En palabras de los investigadores, no puede descartarse que se tratase de un depósito ritual, quizá parte de una ofrenda religiosa. Enterrar objetos de valor en lugares estratégicos no era infrecuente en la Alta Edad Media, especialmente en cruces de caminos o en lugares considerados sagrados. El hecho de que ambos objetos aparecieran cerca de la ruta de Dere Street, un eje de comunicación clave incluso siglos después de los romanos, no es un dato menor.
Oro, poder y religión en el siglo IX
El siglo IX fue una época de tensiones y transformaciones en las islas británicas. Mientras los vikingos avanzaban desde el este y el norte, los reinos cristianos intentaban consolidar su poder y expandir su influencia religiosa. En ese contexto, los objetos de oro eran mucho más que simples elementos decorativos: funcionaban como símbolos de poder, identidad y protección espiritual.

Los alfileres de oro como los encontrados en Northumberland no eran comunes. Su rareza sugiere que pertenecían a personas de altísimo rango, posiblemente clérigos, nobles o incluso miembros de la realeza local. Es posible que formaran parte del atuendo litúrgico o que se emplearan en ceremonias religiosas. También podrían haber sido regalos diplomáticos o donaciones a centros eclesiásticos.
Lo más fascinante del hallazgo es que, aunque el objeto es pequeño y su diseño modesto, contiene en su interior siglos de historia y simbolismo. Es una puerta de entrada a un tiempo en que los caminos antiguos todavía estaban vivos, y en que el oro viajaba en manos de quienes controlaban no solo el poder terrenal, sino también el espiritual.
El futuro del hallazgo y su legado
Ambos objetos serán analizados en detalle por el Portable Antiquities Scheme, una iniciativa del gobierno británico que coordina los hallazgos arqueológicos realizados por ciudadanos. Posteriormente, se espera que las piezas se exhiban en el Great North Museum: Hancock, en Newcastle, donde podrán ser vistas por el público junto a otros hallazgos emblemáticos del pasado británico.
El caso también ha servido como ejemplo de colaboración entre detectoristas de metales y arqueólogos profesionales. En lugar de competir o actuar por separado, ambos colectivos han contribuido a enriquecer nuestro conocimiento del pasado. La excavación se convirtió además en una experiencia formativa única para los estudiantes, quienes pudieron aplicar técnicas arqueológicas reales en un contexto profesional.
Por último, este descubrimiento subraya el valor de la investigación universitaria en el campo de la Historia y la Arqueología. Lo que comenzó como una excavación rutinaria para formación práctica terminó revelando un fragmento perdido de la Inglaterra medieval. Y todo, gracias a la perseverancia de una estudiante que no esperaba hacer historia en su primer día de campo.
Los seres humanos han intentado mirar hacia el origen del universo desde mucho antes de saber siquiera qué era una galaxia. Pero hasta hace poco, esa mirada era más especulación que observación. En 2022, con el despliegue del telescopio espacial James Webb (JWST), esa frontera comenzó a desdibujarse. Por primera vez, los astrónomos podían ver con nitidez lo que ocurrió cuando el cosmos apenas tenía unos cientos de millones de años. Como mirar un álbum de fotos antiguas en el que de pronto aparecen imágenes que no deberían estar ahí.
Un reciente estudio liderado por investigadores del programa JADES (JWST Advanced Deep Extragalactic Survey) ha desvelado hallazgos sorprendentes sobre las primeras galaxias, estrellas y agujeros negros. El artículo, publicado en Nature Astronomy, no solo amplía el conocimiento del universo temprano, sino que plantea interrogantes que ponen en tensión los modelos cosmológicos actuales. “Estas observaciones nos obligan a replantearnos cuándo y cómo se formaron las primeras estructuras cósmicas”, indican los autores. El desconcierto no es exagerado: galaxias enormes, estructuras complejas y signos de actividad estelar inesperada aparecen demasiado pronto en el tiempo cósmico, cuando aún no deberían existir.
Lo que Webb ve en la oscuridad
Las imágenes del JWST han revelado cientos de galaxias que existían cuando el universo tenía menos de mil millones de años. A diferencia de los datos anteriores, ahora no se trata solo de manchas borrosas en el cielo profundo, sino de estructuras con detalles internos claros, con cúmulos, regiones de formación estelar y presencia de polvo. El telescopio ha detectado 717 galaxias con corrimientos al rojo z ≥ 6, una cifra que amplía significativamente el catálogo de galaxias tempranas.
Este descubrimiento no solo es cuantitativo, sino cualitativo. Muchas de estas galaxias muestran propiedades inesperadas: son demasiado brillantes, demasiado masivas o demasiado organizadas para haber surgido tan pronto. En palabras del artículo, "las observaciones sugieren que las primeras galaxias formaron sus estrellas de manera eficiente y rápida". Este dato contradice las teorías que preveían un crecimiento más paulatino, marcado por una evolución jerárquica.

El desafío del polvo y la luz temprana
Uno de los elementos más desconcertantes que ha aparecido en las observaciones es la presencia de polvo interestelar en épocas muy tempranas del universo. El polvo cósmico se forma a partir de elementos pesados que, a su vez, nacen en el interior de estrellas. Para que haya polvo, debe haber habido ciclos de formación y muerte estelar, y eso requiere tiempo. Sin embargo, JWST ha detectado polvo en galaxias con z ≥ 10, es decir, cuando el universo tenía apenas 400-500 millones de años.
Según el artículo, esto indica que “la formación estelar y la evolución química comenzaron antes y fueron más intensas de lo que se pensaba”. Esto plantea dudas sobre cómo se formaron las primeras estrellas, conocidas como estrellas de población III, y si estas habrían sido más masivas o efímeras de lo que se estimaba. Además, la presencia de polvo altera el modo en que interpretamos las observaciones, ya que afecta a la luz que recibimos y puede ocultar parte del espectro visible.

Estrellas, cúmulos y agujeros negros donde no deberían estar
El telescopio también ha revelado indicios de cúmulos estelares densos y protoestructuras que podrían ser precursores de cúmulos globulares, esas agrupaciones estables de estrellas que se mantienen unidas por gravedad durante miles de millones de años. Verlos en estas etapas tan tempranas plantea nuevos escenarios sobre la formación de estructuras complejas.
Aún más llamativo es el caso de los agujeros negros supermasivos detectados en este periodo. En la etapa analizada por el estudio, algunos objetos tienen características que sugieren que están alimentando agujeros negros ya bastante grandes. Esto entra en conflicto con los modelos actuales, que no explican cómo estos objetos podrían haber crecido tanto en tan poco tiempo. Como indica el artículo, “la existencia de agujeros negros masivos a tan alta redshift representa un desafío para los modelos de acreción estándar”.
Este tipo de hallazgos ha motivado nuevas hipótesis, como la existencia de semillas de agujeros negros más masivasque las consideradas hasta ahora, o la posibilidad de que los primeros cúmulos estelares colapsaran de forma directa sin pasar por la formación de estrellas intermedias.

Lo que revelan los colores del universo primitivo
JWST no solo capta imágenes, también analiza el espectro de luz que emiten estos objetos. Esto permite determinar su composición química, su tasa de formación estelar y otras propiedades clave. En el estudio, se utilizaron filtros específicos para obtener mediciones en múltiples longitudes de onda, lo que permitió distinguir entre galaxias polvorientas y aquellas con estrellas muy jóvenes y calientes.
Gracias a estas técnicas, se ha confirmado la presencia de elementos como oxígeno, silicio y carbono, lo que implica que ya había habido generaciones anteriores de estrellas que los fabricaron. El universo ya era químicamente activo en menos de 600 millones de años, lo cual contradice la idea de un periodo prolongado dominado por gas primordial sin metales.
En algunas galaxias, se ha observado un exceso de emisión en ciertas líneas espectrales, lo que sugiere regiones de intensa formación estelar o incluso la posible influencia de núcleos galácticos activos (AGN). La distinción entre ambos procesos no es sencilla, pero sí es clave para entender cómo evolucionaron las primeras galaxias.
Más preguntas que respuestas
Lejos de ofrecer certezas, el trabajo del JWST ha abierto una nueva fase de incertidumbre. Como afirman los autores, “estos resultados requieren una reevaluación de los modelos actuales de formación y evolución galáctica”. Las observaciones no invalidan la cosmología estándar, pero sí revelan lagunas importantes en lo que se refiere a la velocidad y eficiencia con la que se formaron las primeras estructuras.
Esto no implica que todo lo que sabíamos esté equivocado. Más bien, señala que el universo fue más dinámico, complejo y activo en sus primeras etapas de lo que se asumía. Las futuras observaciones con el JWST, incluyendo espectros más detallados y mayores coberturas del cielo profundo, ayudarán a refinar estos modelos.
Mientras tanto, lo que queda es una sensación de maravilla y desconcierto. Ver galaxias maduras donde deberían estar apenas creciendo no solo cambia los libros de texto, también transforma nuestra percepción del tiempo cósmico. Lo que antes se pensaba que requería eones, quizá ocurrió en solo unos cientos de millones de años.
Referencias
- Adamo, A., Atek, H., Bagley, M.B. et al. The first billion years according to JWST. Nature Astronomy (2025). https://doi.org/10.1038/s41550-025-02624-5.
«Las cámaras que estoy describiendo parecen haber sido un depósito para tales documentos en el palacio de Nínive. Estaban completamente llenas hasta una altura de un pie o más desde el suelo; algunas enteras, pero la mayor parte rotas en muchos fragmentos, probablemente por el derrumbe de la parte superior del edificio. Eran de diferentes tamaños; las tablillas más grandes eran planas y medían nueve por seis pulgadas; las más pequeñas eran ligeramente convexas y algunas no medían más de una pulgada de largo, con solo una o dos líneas de escritura. Los caracteres cuneiformes en la mayoría de ellas eran singularmente nítidos y bien definidos, pero tan diminutos en algunos casos que eran casi ilegibles sin una lupa». Con estas palabras describió el inglés Austen Henry Layard en su obra Discoveries in Nineveh and Babylon, publicada en 1853, el descubrimiento en Nínive de la biblioteca del palacio del rey Senaquerib (704-681 a.C.), abuelo de Assurbanipal (668-630 a.C.), el creador de otra biblioteca, aún mayor, en otro palacio de la misma ciudad asiria.
La primera escritura
La escritura fue una creación mesopotámica, acontecida hace más de cinco mil años en las ciudades del sur del país del Tigris y del Éufrates. Los primeros textos se escribieron sobre arcilla y fueron una herramienta de gestión. Hubo que esperar varios siglos para que la escritura cuneiforme (llamada así por la forma de cuña de sus signos) empezara a ser utilizada en la redacción de textos que no fueran de naturaleza estrictamente económica y administrativa. De esta manera, nacieron la primera literatura, los primeros libros y las primeras bibliotecas. Un buen ejemplo es la biblioteca asiria de Nínive (hoy en Mosul), creada en el siglo VII a.C. bajo los auspicios de un carismático soberano: Assurbanipal. Antes de la famosa biblioteca helenística de Alejandría, en Egipto, existió la de Nínive, en Asiria.

Un rey culto
El monarca asirio Assurbanipal nos relata en primera persona, no sin cierto grado de exageración, la educación que recibió como príncipe heredero: «Aprendí el arte del maestro Adapa (prototipo de sabio): los tesoros ocultos de todo el saber de los escribas […]. Resolví los laboriosos problemas de la división y la multiplicación que no eran nada fáciles. Leí la artística escritura de los sumerios y el oscuro acadio […]». Gracias a esta inusual formación intelectual, el rey asirio soñó con ejecutar un gran proyecto personal: la creación una biblioteca magnífica en su capital.
El contenido
Los textos de la biblioteca real de Nínive fueron hallados en varios edificios, principalmente en los palacios norte y suroeste y en los templos de Ishtar (diosa de la guerra y del amor) y de Nabu (dios de la escritura y la sabiduría). De esta forma, en una sola ciudad se acumuló el mayor número de textos literarios existente en escritura cuneiforme.
¿Qué contenía la llamada «biblioteca de Assurbanipal»? Por su temática, el conjunto de textos se puede organizar en tres grandes grupos. El primer conjunto estaba formado por textos literarios y académicos referidos a temas diversos: religión, medicina, magia, rituales, mitos, épica, léxico, historia, etc. De algunos se conservan varias copias por alguna razón que desconocemos. La mayoría estaban escritos en babilonio estándar, pero también en asirio y en sumerio. Constituyen el núcleo de lo que podemos llamar la cultura mesopotámica escrita en cuneiforme. El segundo grupo lo formaban consultas oraculares y textos de adivinación, y el tercero cartas, contratos, informes y documentos administrativos.

La creación
Para crear esta biblioteca, de la que hoy se conservan unas veinte mil tablillas en el Museo Británico de Londres, Assurbanipal hizo traer a los mejores escribas, con el fin de recopilar manuscritos originales y realizar copias. El rey no puso reparos en enviar mensajeros a las bibliotecas de las ciudades babilónicas para adquirir textos y, luego, copiarlos en asirio en Nínive. En caso de oposición a su compra, se recurría a la realización de copias en tableros de cera, que desgraciadamente no se han conservado. Un texto administrativo se refiere, también, a la presencia en la capital asiria de algunos escribas babilónicos, en calidad de cautivos, que fueron forzados a copiar tablillas bajo coacción.
En Nínive se han hallado algunas cartas cursando órdenes para la adquisición de tablillas. Uno de los agentes que trabajaba para este proyecto fue un tal Shadunu, escriba de Borsippa, ciudad babilónica donde intentó comprar, e incluso incautar, tablillas a eruditos particulares o al archivo del templo del Ezida, el templo del patrón de la escritura: «[…] recoge todas las tablillas que se encuentren en sus casas o que estén depositadas en el Ezida, todo lo numerosas que sea posible, incluidas las tablillas raras que se encuentran en tu archivos y que ya no existen en Asiria. […] Del mismo modo, si encuentras tablillas acerca de las cuales no te he escrito, pero que tú las consideras dignas de mi palacio, envíamelas».

La organización de las obras
Se estima que los cerca de treinta mil fragmentos de tabillas cuneiformes hallados en la biblioteca de Nínive se corresponden aproximadamente a cinco mil textos, algunos duplicados (hasta seis copias). Este volumen considerable de obras estuvo sujeto a un riguroso orden y control interno. Cada tablilla disponía de una etiqueta o colofón de la biblioteca con su número de orden, el nombre de la serie a la que pertenecía y la primera línea del siguiente texto.
También era frecuente que los textos llevaran una indicación de pertenencia al rey Assurbanipal: «La tablilla de arcilla de Assurbanipal, rey del mundo, rey de Asiria, que confía en Assur y Ninlil. Vuestra excelencia no tiene igual, Assur, ¡Rey de los dioses! Quien se lleve la tablilla, inscribe su nombre en lugar de mi nombre, que la ira de Assur y Ninlil borre para siempre su nombre y su simiente de la tierra». Un texto de la colección indica que la consulta de una obra debía realizarse en presencia de un funcionario real.
¿Para qué?
Sobre la función de esta biblioteca no hay unanimidad entre los asiriólogos. Para unos era la biblioteca personal de un rey que se vanagloriaba de ser culto y, por tanto, fue organizada para su disfrute personal. El colofón conservado en un texto no parece dejar lugar a dudas: «[…] La sabiduría de Nabu, los signos de la escritura, tantos como se han creado, yo los escribí en tablillas. Yo ordené las tablillas en serie, yo las reuní, y para mi real contemplación y recitación. Yo las deposité en mi palacio». Para otros, sin embargo, se trataba de una biblioteca de referencia profesional para atender las necesidades de los especialistas en la interpretación de los augurios, a través de la adivinación y la magia al servicio del soberano. Esta interpretación no explicaría la presencia de obras puramente literarias. Al margen de cuál fuera el uso de esta biblioteca, se ha sugerido que el conocimiento milenario acumulado en ella y su consiguiente prestigio pudieron haber influido en la creación posterior, en el siglo III a.C., de la biblioteca de Alejandría, en Egipto, y en su objetivo de recopilar en una sola ciudad todo el saber griego.

Dos joyas escritas sobre barro
Las obras cuneiformes más conocidas de la biblioteca de Assurbanipal en Nínive se corresponden con lo que hoy llamamos literatura. Dos destacan sobre el resto. Son el Poema de Gilgamesh y el Poema babilónico de la Creación. El primero es una epopeya que trata sobre la búsqueda de la inmortalidad, de la eterna juventud por parte de su protagonista principal, un rey de Uruk llamado Gilgamesh (el «Ulises mesopotámico»). Y el segundo tiene como tema central al dios Marduk y el origen del universo y de la humanidad. Junto a estas dos grandes obras, la biblioteca custodiaba también un interesante conjunto de textos de tipo sapiencial. Había, entre ellos, una colección de proverbios, refranes y un curioso lote de textos de carácter humorístico y satírico.

La biblioteca de Nínive no solo fue una hazaña de organización y conservación del saber, sino también un símbolo del valor que la civilización mesopotámica otorgó al conocimiento, la memoria y la escritura. Como se recuerda en el libro Mesopotamia, historia de la tierra de Gilgamesh —publicado por Erasmus— este antiguo país entre ríos fue cuna de algunas de las aportaciones más duraderas a la historia de la humanidad: la ciudad, la justicia, la religión y, sobre todo, la escritura. En un mundo que todavía hoy resulta en gran parte desconocido para el gran público, la biblioteca de Nínive se alza como un legado tangible que permite asomarse a la complejidad cultural, política y espiritual de aquella civilización.
Referencias
- Brereton, G. (ed.) I am Ashurbanipal, king of the world, king of Assyria. Londres, 2018.
- Montero Fenollós, J. L. Mesopotamia. Historia de la tierra de Gilgamesh. Córdoba, 2025.
- Pedersén, O. Archives and Libraries in the Ancient Near East, 1500-300 B.C. Bethesda, 1998.
Los ordenadores cuánticos no solo despiertan fascinación, también desconfianza. ¿Cómo saber si una máquina que opera con principios invisibles y contraintuitivos está actuando realmente según las leyes de la física cuántica y no simplemente simulando esos efectos desde la trastienda de la computación clásica? Esta pregunta, incómoda pero necesaria, ha ganado peso a medida que las promesas de la tecnología cuántica se multiplican. A menudo se afirma que estas máquinas revolucionarán la criptografía, las simulaciones moleculares o la inteligencia artificial. Pero para que eso ocurra, primero hay que estar seguros de que lo cuántico es auténtico.
Ahora, un grupo internacional de físicos ha dado un paso decisivo para responder a esa duda. Investigadores de la Universidad de Leiden (Países Bajos), Tsinghua University (Pekín) y la Universidad de Zhejiang (Hangzhou, China) han conseguido demostrar, con un sistema de 73 cúbits, que un ordenador cuántico puede mostrar un comportamiento que ninguna máquina clásica puede imitar. Publicado en la revista Physical Review X, el trabajo certifica de forma experimental correlaciones cuánticas genuinas en un sistema de muchos cuerpos, un logro que nunca se había conseguido a esta escala.
Una confirmación cuántica a gran escala
Aunque se han realizado pruebas de comportamiento cuántico desde hace décadas, la mayoría se han limitado a sistemas muy pequeños. Detectar efectos cuánticos entre dos o tres partículas es ya algo común en laboratorios especializados. Pero demostrar que esos mismos principios operan en sistemas grandes, con decenas de cúbits interactuando a la vez, representa un desafío completamente distinto. Y ese es, precisamente, el terreno en el que se juegan las promesas de la computación cuántica actual.
Para abordar este problema, los investigadores diseñaron un experimento capaz de identificar correlaciones no clásicas entre múltiples qubits, conocidas como correlaciones de Bell multipartitas. Lo que las hace especiales es que no se pueden simular ni reproducir con sistemas clásicos, por muy potentes que sean. Estas correlaciones no solo implican entrelazamiento cuántico, sino que requieren que todos los elementos del sistema estén implicados en una interacción conjunta, algo extremadamente difícil de generar y aún más de verificar.
La importancia del estudio radica en que este tipo de correlaciones solo habían sido certificadas en sistemas pequeños. Ahora, por primera vez, se han detectado de manera robusta en una computadora cuántica con decenas de cúbits. En palabras del artículo original, los autores afirman que han logrado “certificar correlaciones de Bell multipartitas genuinas hasta 24 cúbits, lo que representa un aumento significativo respecto a los sistemas anteriores”.

Un método alternativo para una verificación compleja
Uno de los grandes obstáculos para confirmar estos efectos es que medir directamente todas las correlaciones posibles entre tantos cúbits es prácticamente inviable. La cantidad de datos que se necesitaría y la complejidad de las operaciones harían el proceso inviable incluso para los superordenadores más avanzados. Por eso, el equipo adoptó un enfoque alternativo.
En lugar de intentar observar las correlaciones directamente, decidieron medir una propiedad que se comporta de forma distinta en los sistemas cuánticos: la energía. En los ordenadores cuánticos, ciertos estados cuánticos permiten alcanzar niveles de energía más bajos que los que permitiría cualquier sistema clásico. Así, si el procesador alcanza esos valores mínimos, es una señal clara de que se están produciendo efectos cuánticos reales. Según el artículo, “registramos niveles de energía significativamente más bajos que los que podría lograr cualquier sistema clásico”.
El resultado fue concluyente. El sistema alcanzó una energía tan baja que la diferencia con respecto al límite clásico fue de 48 desviaciones estándar, lo que en términos estadísticos es prácticamente imposible que ocurra por azar. Esa diferencia extrema elimina la posibilidad de que el comportamiento sea simulado, y demuestra que el dispositivo está operando dentro de las reglas de la mecánica cuántica.

La profundidad de las correlaciones cuánticas
Uno de los conceptos clave del trabajo es lo que los autores llaman “profundidad de correlación de Bell”. Se trata de una medida del número mínimo de cúbits que deben estar involucrados simultáneamente en una correlación cuántica no clásica. Cuanto mayor es esa profundidad, más genuina y compleja es la interacción cuántica. Es un indicador directo de la potencia del entrelazamiento que se ha logrado dentro del sistema.
Aunque el procesador utilizado contaba con 73 cúbits en total, los investigadores fueron capaces de certificar correlaciones de Bell multipartitas en estados de hasta 24 cúbits. Este dato es relevante porque representa una escalada importante respecto a lo que se había logrado antes. En experimentos previos, estas correlaciones se habían observado en configuraciones muy controladas y con un número reducido de partículas. Lograrlo en un sistema con esta cantidad de cúbits, en un procesador real, demuestra que la computación cuántica está alcanzando niveles de fidelidad antes impensables.
Además, estos resultados no son solo teóricos. Tal como señalan los autores, “nuestra propuesta se basa en una tarea de optimización energética que los dispositivos cuánticos ya manejan bien”. Esto permite aplicar el método en plataformas reales sin necesidad de introducir cambios radicales en los experimentos.

Implicaciones más allá de la prueba
Aunque el objetivo del estudio era demostrar el comportamiento cuántico genuino, las implicaciones de este avance van mucho más allá de la verificación experimental. Controlar y entender las correlaciones de Bell a gran escala abre nuevas posibilidades en varias áreas clave. Por ejemplo, en la comunicación cuántica, estas correlaciones pueden utilizarse para garantizar que la información transmitida es segura frente a cualquier tipo de espionaje. En el caso de la criptografía cuántica, permiten desarrollar protocolos que detectan cualquier intento de interceptación sin necesidad de confiar en los dispositivos.
Otra aplicación es la mejora de algoritmos cuánticos, ya que muchas de estas rutinas dependen de la existencia de correlaciones no clásicas para acelerar los cálculos. Si es posible generar y certificar estos estados con facilidad, los desarrolladores podrán diseñar nuevas herramientas que aprovechen al máximo el potencial cuántico.
En definitiva, este trabajo representa una prueba directa de que los ordenadores cuánticos no solo se están haciendo más grandes, sino también más auténticamente cuánticos. Es una señal de madurez tecnológica y un paso más en el camino hacia aplicaciones prácticas de la física más extraña, pero también más poderosa.
Referencias
- Ke Wang, Weikang Li, Shibo Xu, Mengyao Hu, Jiachen Chen, Yaozu Wu, Chuanyu Zhang, Feitong Jin, Xuhao Zhu, Yu Gao, Ziqi Tan, Zhengyi Cui, Aosai Zhang, Ning Wang, Yiren Zou, Tingting Li, Fanhao Shen, Jiarun Zhong, Zehang Bao, Zitian Zhu, Zixuan Song, Jinfeng Deng, Hang Dong, Xu Zhang, Pengfei Zhang, Wenjie Jiang, Zhide Lu, Zheng-Zhi Sun, Hekang Li, Qiujiang Guo, Zhen Wang, Patrick Emonts, Jordi Tura, Chao Song, H. Wang, Dong-Ling Deng. Probing Many-Body Bell Correlation Depth with Superconducting Qubits. Physical Review X, 22 de abril de 2025. https://doi.org/10.1103/PhysRevX.15.021024.
Como en la mejor y más adictiva serie policial, la historia está repleta de casos sin resolver. Uno de ellos acaba de resolverse. Para conocer los orígenes, debemos remontarnos a 1954 y viajar al yacimiento griego de Paestum, en el sur de Italia. En ese año, las excavaciones arqueológicas sacaron a la luz un enigmático santuario subterráneo datado en el siglo VI a.C.. En su interior, los arqueólogos encontraron un conjunto de recipientes de bronce dispuestos alrededor de un lecho de hierro vacío. Entre ellos, había seis hydriae y dos ánforas que contenían un residuo pastoso de intenso aroma a cera. La interpretación inicial fue clara: se trataba de miel ofrecida como símbolo de inmortalidad, quizás depositada con los panales completos. Sin embargo, los análisis científicos contradijeron esta hipótesis. Se excluyó la presencia de miel y se sostuvo, por el contrario, que los recipientes contenían ceras, grasas o resinas.
Siete décadas después, un nuevo estudio multidisciplinar publicado en la revista Journal of the American Chemical Society ha reabierto el caso con un resultado sorprendente. Las técnicas biomoleculares más avanzadas han confirmado la presencia de miel y panal de abeja en el residuo. Se resuelve, así, uno de los misterios más persistentes de la arqueología mediterránea.

El contexto arqueológico de Paestum
Fundada por colonos griegos hacia el 600 a.C., Paestum es célebre por sus templos dóricos y por la riqueza de su patrimonio material. El santuario donde se hallaron los recipientes estaba excavado bajo tierra y su acceso estaba restringido, lo que parece confirmar el carácter sacro del recinto. El lecho de hierro vacío, situado en el centro y rodeado por los recipientes sellados, sugería, según los estudiosos la presencia simbólica de una divinidad.
En la antigüedad, la miel era un producto cargado de significados religiosos y cultural. Además de ser el único endulzante disponible en el Mediterráneo, se asociaba a la sabiduría, la fertilidad y la inmortalidad. En la mitología griega, se contaba que Zeus había sido alimentado con miel en su infancia. Su uso se documenta en contextos variados, desde ofrendas y banquetes funerarios hasta prácticas medicinales.

Las primeras investigaciones: un diagnóstico incierto
En la fase inmediatamente posterior al hallazgo en la década de los 50, los análisis iniciales de los restos descartaron la presencia de azúcares o proteínas. Las pruebas, realizadas en laboratorios alemanes y en el Istituto Centrale del Restauro en Roma, detectaban grasas, ceras y resinas, pero ningún indicio químico concluyente que apoyara la hipótesis de la miel. Un tercer estudio, que se llevó a cabo en 1983 por la Cámara de Comercio de Roma, encontró, sobre todo, ácido palmítico y otros ácidos grasos. Los expertos los interpretaton interpretados como restos de grasas animales o vegetales.
Estos resultados parecían cerrar el debate. Sin embargo, dejaban un poso de insatisfacción. El contexto ritual del hakllazgo, el hecho de que se hubiesen sellado los recipientes y el aroma del residuo seguían apuntando a una sustancia de carácter extraordinario.

Un nuevo enfoque con tecnología de vanguardia
El punto de inflexión llegó en 2019, cuando el residuo se trasladó al Ashmolean Museum de Oxford para su exhibición. Esto brindó la oportunidad de aplicar un enfoque multianalítico que combinó espectroscopía, cromatografía de alta resolución, espectrometría de masas y proteómica.
Los investigadores tomaron muestras tanto del núcleo del residuo (una zona protegido de contaminaciones), como de la superficie, que mostraba tonalidades variadas de naranja, negro y verde. También analizaron muestras modernas de cera, miel y panales de abejas procedentes de Italia y Grecia, e incluso se sometieron a envejecimiento acelerado para simular el paso del tiempo.
Los indicios químicos: azúcares, proteínas y compuestos de degradación
Los análisis revelaron un conjunto de pruebas que apuntaban a la presencia original de miel y panal. Se detectaron azúcares tipo hexosa en el residuo, en concentraciones diez veces mayores que en la cera pura y coherentes con la composición de la miel. También se identificaron productos derivados de la degradación de carbohidratos, como el 5 metilfurfural y la levoglucosenona, que se forman por el envejecimiento y la caramelización de azúcares. Además, los especialistas encontraron ácidos orgánicos (cítrico, succínico y málico), que son habituales en la miel, aunque también comunes en procesos microbianos.
Uno de los descubrimientos más sólidos fue la detección de proteínas características de la jalea real. En particular, se identificaron varias proteínas (MRJP-1, MRJP-2 y MRJP-3) propias de la Apis mellifera, la abeja melífera occidental. Estas proteínas son características de las secreciones de abeja y se encuentran de forma natural en la miel y los panales. Su recuperación en un material arqueológico tan degradado supuso una confirmación directa del origen apícola del contenido.

El papel del recipiente de bronce en la conservación
El análisis mediante espectroscopía de fotoelectrones de rayos X (XPS) de las capas superficiales del residuo pernitió detectar iones de cobre (Cu²⁺ y Cu⁺) procedentes de la interacción entre el contenido y el recipiente de bronce. Estos compuestos metálicos pudieron haber contribuido a preservar ciertos marcadores químicos, gracias a sus propiedades antimicrobianas que ralentizaron la degradación.
Interpretación ritual del hallazgo
A la luz de estos resultados, los autores han concluido que los recipientes contenían miel en forma de panales completos. El simbolismo es coherente con el contexto: la miel, incorruptible y nutritiva, representaba la eternidad y podía funcionar como alimento de los dioses o los difuntos. El hallazgo, además de confirmar la práctica de ofrendar ritualmente la miel, abre una vía metodológica para reexaminar los residuos orgánicos conservados en los museos.

Un caso paradigmático de revisión científica
Este estudio demuestra cómo la combinación de técnicas de alta sensibilidad y un enfoque dirigido a hipótesis específicas puede resolver debates arqueológicos que parecían cerrados. La integración de cromatografía, proteómica y espectroscopía ha permitido detectar biomarcadores exclusivos de la miel, imposibles de identificar con la instrumentación disponible en el siglo XX.
La investigación a partir de los residuos de Paestum confirma que la arqueología del siglo XXI es capaz de devolver la voz a materiales mudos durante milenios. El contenido de aquel recipiente de bronce, sellado en la penumbra de un santuario hace 2500 años, era miel, el dulce más preciado de la antigüedad, ofrecido, quizás, a lo sagrado como símbolo de la vida eterna.
Referencias
- Carvalho, Luciana da Costa, et al. 2025. "A Symbol of Immortality: Evidence of Honey in Bronze Jars Found in a Paestum Shrine Dating to 530–510 BCE". Journal of the American Chemical Society. DOI: https://pubs.acs.org/doi/full/10.1021/jacs.5c04888
Alfa Romeo está escribiendo un nuevo capítulo en su historia centenaria, en el que electrificación significa potencia, emoción y fidelidad al ADN deportivo que define a la marca. En su último comunicado, la firma italiana subraya que electrificar no implica perder su carácter: "la electrificación no significa perder sus señas de identidad ni su ADN más deportivo", un claro compromiso con el legado del “Biscione”. Esa filosofía, heredera de Alfa Romeo y la eternidad del rugido italiano, sigue latiendo ahora también bajo baterías y motores eléctricos.
Este enfoque se refleja en tres modelos clave. El Alfa Romeo Junior Veloce Elettrica, un SUV compacto 100 % eléctrico con 280 CV, acelera de 0 a 100 km/h en solo 5,9 s y supera los 200 km/h, manteniendo el interior amplio, el maletero más generoso de su categoría (400 L) y una autonomía WLTP de 334 km. Por su parte, la firma también ha llevado la electrificación hasta su máximo nivel de exclusividad con el Alfa Romeo 33 Stradale, un superdeportivo que ofrece una versión totalmente eléctrica de 750 CV —la más potente en sus 115 años de historia—, demostrando que, como en Cuando la leyenda navega sobre ruedas, la marca sabe unir historia, emoción y hazañas mecánicas.
Este nuevo impulso forma parte de una estrategia más amplia: Alfa Romeo será, en tan solo cinco años, una marca con gama completamente electrificada en sus principales mercados como Europa, Norteamérica y China, según el programa "De cero a cero" impulsado por Stellantis. Esa combinación de deportividad, tecnología y sostenibilidad promete redefinir cómo se vive la experiencia de conducción con la emblemática firma italiana.
En las siguientes secciones, desgranaremos esta electrificación desde el ADN de la marca hasta los detalles técnicos, pasando por estrategia, diseño y emoción al volante: todos los ingredientes que Alfa Romeo ha vuelto a conjuntar para seguir conquistando corazones, ahora también desde lo eléctrico.
Electrificación fiel al ADN deportivo
Alfa Romeo deja claro que electrificación no significa renunciar al carácter. Su enfoque se resume en integrar potencia, agilidad y tacto de conducción sin concesiones. La emoción al volante sigue siendo el norte de la marca, aunque el combustible cambie. Cada modelo tiene su impronta: desde compactos hasta superdeportivos, todos reflejan elegancia y dinamismo.

Junior Veloce Elettrica: compacto y explosivo
El Alfa Romeo Junior Veloce Elettrica encarna la electrificación compacta con deportividad plena: 280 CV, 0–100 km/h en 5,9 s, más de 200 km/h y 334 km de autonomía WLTP. Su maletero de 400 L y su agilidad lo hacen ideal para el día a día, sin renunciar al placer de conducción.

El superdeportivo 33 Stradale eléctrico
En el extremo opuesto, Alfa Romeo presenta el 33 Stradale en versión electrificada de 750 CV: pura adrenalina con cero emisiones. Esta reinterpretación moderna de un mito histórico simboliza lo mejor del diseño y el rendimiento: pocos coches han combinado exclusividad, potencia brutal y tecnología eléctrica de alto nivel.

Estrategia “De cero a cero”: rumbo al 100 % eléctrico
Alfa Romeo se está convirtiendo en una marca totalmente eléctrica en solo cinco años, dentro de la estrategia global de Stellantis que apunta a eliminar progresivamente las motorizaciones convencionales hacia 2027. Este plan audaz marca una metamorfosis clara, sostenible y alineada con las demandas del nuevo panorama automovilístico.

Tecnología eléctrica aplicada al “Biscione”
Los modelos eléctricos de Alfa Romeo incorporan soluciones técnicas avanzadas sin dejar de lado el placer de conducción. El Junior Veloce, por ejemplo, integra un diferencial Torsen de cuarta generación que optimiza el reparto de par según la dinámica del vehículo. Así, la deportividad ajusta su respuesta, incluso sin escape ni sonido mecánico.

Comodidad y espacio en clave eléctrica
El Junior Veloce ofrece un interior funcional y elegante, combinando espacio, maniobrabilidad urbana y prestaciones deportivas: es una conducción emocionante, sin renunciar a la practicidad real. Ese equilibrio lo convierte en una propuesta urbana atractiva para el “alfista” moderno.

Exclusividad sin emisiones: nuevo status
El 33 Stradale eléctrico es una demostración de que la movilidad sostenible puede tener lugar incluso en el trono del lujo deportivo. Con 750 CV, respira historia y futuro en proporciones iguales. Solo unos pocos tendrán el privilegio de poseer este mito contemporáneo.

Dinámica eléctrica con control total
El diferencial Torsen D del Junior Veloce garantiza estabilidad, tracción y precisión de conducción eléctrica, gracias a una electrónica adaptativa que regula el agarre rueda por rueda. La experiencia es pura emoción, sin compromisos.

Gama amplia: del compacto al superdeportivo
Alfa Romeo ofrece una gama eléctrica que cubre desde urbanos entusiastas hasta vehículos de alta gama. Esto demuestra que la electrificación es versátil y emotiva, sin limitaciones de estilo o segmento.

Impacto simbólico del 33 Stradale EV
Más allá de sus especificaciones, el 33 Stradale eléctrico es una declaración de intenciones: historia, diseño extremo y electrificación se encuentran en un coche de culto. Es un símbolo del nuevo rumbo de la marca.

Alfa Romeo: rediseño energético con corazón italiano
La estrategia de Alfa Romeo va más allá de los motores: es una transición cultural. Electricidad, deportividad y estética italiana convergen en una filosofía que redefine sus valores fundacionales hacia un futuro cero emisiones —todo con el sello del Biscione en cada detalle.

Conectividad y experiencia digital
En esta nueva era, Alfa Romeo entiende que la deportividad también pasa por la tecnología a bordo. Sus modelos eléctricos incorporan interfaces intuitivas, pantallas de alta resolución y sistemas compatibles con actualizaciones OTA (Over The Air), que mantienen el software del vehículo siempre al día.
La experiencia de usuario combina la tradición del cuadro de instrumentos orientado al conductor con asistentes inteligentes y una conectividad total con el smartphone. De este modo, cada viaje no solo es rápido y emocionante, sino también conectado y seguro.

«Somos humanos gracias a la tecnología. La humanización no es un problema filosófico, ni teórico, sino de tecnología pura y dura. Nos diferenciamos de los animales básicamente por la tecnología». De las palabras del arqueólogo Eudald Carbonell podemos deducir que la tecnología está en el origen de la humanidad.
Todo empezó hace… unos 2,5 millones de años. Un cambio climático provocó en África una sequía tal que se hizo imposible para nuestros antecesores seguir alimentándose de frutos y vegetales. Entonces tuvieron lugar, más o menos simultáneamente, un conjunto de cambios: aquellos homínidos se hicieron carroñeros y luego carnívoros –un modo de alimentación más eficaz–, se redujo el tamaño de su intestino y aumentó el de su cerebro, se hicieron más inteligentes, inventaron la caza y fabricaron toscas herramientas para matar y trocear sus presas. Y así, por ese hecho diferencial de poder crear herramientas con otras herramientas, apareció el Homo habilis (ancestro humano que evolucionó directamente hacia el Homo erectus).
Un bucle tecnológico
Desde entonces, según Eudald Carbonell, la tecnología es la forma principal de adaptación creada por el ser humano, de modo que es la técnica lo que convirtió a los primates en humanos; y cuanto más humanos eran, desarrollaban más técnica, en un bucle de retroalimentación social imparable. La invención tecnológica continuó, durante cientos de miles de años, vinculada a la obtención y preparación de alimentos, como respuesta a las necesidades. A las herramientas de corte siguieron el fuego, el vestido y las primeras soluciones de transporte sobre el agua, quizá sencillas canoas elaboradas con troncos. El refinamiento de la técnica en la talla de piedra fue la base del Neolítico, cuando se establecieron los primeros asentamientos humanos, vinculados al nacimiento de la agricultura y la ganadería.

Ruedas con más de 5000 años
Las primeras comunidades agrícolas surgieron hace unos 12 000 años en Mesopotamia, entre los ríos Tigris y Éufrates. Después, otras comunidades agrícolas fueron estableciéndose por numerosas regiones del mundo, que se iban dividiendo en tres amplias zonas, según los cereales dominantes: el trigo en Europa, el maíz en América y el arroz en Asia; en el norte de África se cultivaban el mijo y el sorgo. Se comenzaron a domesticar animales: primero el perro, y después la cabra, el caballo, la oveja, el cerdo y la vaca.
En concreto, sabemos que en Mesopotamia cultivaban trigo, cebada (con la que hacían cerveza) y mijo, y que también disponían de utensilios con púas para pescar, arcos y flechas para cazar, agujas para confeccionar vestimentas, lámparas de aceite animal para iluminar las estancias y objetos de cerámica para conservar y cocinar alimentos. Luego, también en Oriente Próximo, aprendieron a elaborar los metales, y fueron posibles nuevas herramientas más eficaces.
Las ruedas más antiguas conocidas datan de hace unos 5000 a 5500 años, también en la antigua Mesopotamia. Consistían en un disco macizo de madera fijado a un eje, y en un principio se utilizaron como torno en alfarería. Luego, colocando dos en un eje, se aplicaron a un medio de transporte, creando un vehículo que sustituía a los trineos. Más tarde, las ruedas se hicieron más ligeras, eliminándose partes del disco para reducir el peso, y comenzaron a construirse las ruedas con radios. Aquel carro de dos ruedas supuso una auténtica revolución tecnológica, al permitir agilizar el transporte y facilitar la distribución de objetos y materiales. Entonces nació el comercio.
La llegada de las matemáticas
Los antiguos sumerios de Mesopotamia desarrollaron un complejo sistema de medidas, útil para sus relaciones comerciales, y también las primeras elaboraciones matemáticas, de cálculo. Se conservan tablillas de arcilla en escritura cuneiforme desde el año 2600 a. C. donde aparecen tablas de multiplicar, utilización de fracciones y problemas de álgebra, así como ejercicios geométricos que demuestran el conocimiento de la relación pitagórica, y también de la existente entre la longitud de la circunferencia y el diámetro.
Por su parte, los babilonios tenían un registro detallado de los ortos y ocasos de las principales estrellas, del movimiento de los planetas y de los eclipses, lo que implica familiaridad con la medida de distancias angulares sobre la esfera celeste, con un sistema sexagesimal (que aún usamos). A ellos debemos también la semana de siete días, un número que se adaptaba bien a una fase lunar y que permitía dedicar una jornada a cada uno de los objetos celestes entonces conocidos: Sol, Luna, Marte, Mercurio, Júpiter, Venus y Saturno.
El antiguo Egipto fue la civilización que puso en práctica la utilización de las máquinas simples, como el plano inclinado y la palanca, sin las cuales no hubieran sido posibles levantar durante 3000 años sus grandes construcciones, dos de las cuales se incluyen entre las siete maravillas del mundo antiguo. Hay que mencionar, el Faro de Alejandría, construido alrededor del año 300 a. C. en la isla de Faros, es un testimonio del auge de la navegación, que realizaban con barcos de remos y de vela. Las crecidas del Nilo, que los sacerdotes podían predecir basándose en sus observaciones astronómicas, obligaban todos los años a volver a marcar las fincas, y utilizaban para ello una cuerda con doce nudos equidistantes creando un triángulo de lados 3, 4 y 5, con la seguridad de tener así un ángulo recto.

Las primeras científicas
Todo el conocimiento acumulado durante milenios en Mesopotamia y Egipto sería heredado por la cultura griega, dejando como símbolo de aquella fusión del saber la ciudad de Alejandría. Allí, el genio griego –más filosófico– y el egipcio –más práctico y tecnológico– cristalizarían en hitos históricos como la geometría de Euclides, el cálculo del diámetro terrestre por Eratóstenes, los artilugios movidos por vapor de Herón y la astronomía de Ptolomeo. También allí tenemos el testimonio de las primeras mujeres de la historia de la ciencia, como la alquimista María la Judía y la matemática Hipatia.
La historia de la ciencia se recorre sobre un camino tachonado de nombres propios, y entre ellos destacan sobre todo los helenos. Dice el biólogo y divulgador científico Lewis Wolpert que «es muy probable que si no fuera por los antiguos griegos, nunca hubiéramos tenido ciencia. La ciencia es un modo especial de intentar entender cómo funcionan las cosas en el mundo, y está basado en la lógica, la imaginación y la evidencia».
El primer nombre de la historia relacionado con la ciencia es el filósofo Tales de Mileto, uno de los siete sabios de Grecia, que vivió por el año 600 a. C. Fue el primero en preguntarse la razón de todo lo que vemos, y en tratar de explicar las causas sin recurrir a los dioses. Es, por tanto, el primer científico conocido. Por primera vez alguien se preguntaba de qué estamos hechos, y proponía una respuesta materialista.
Podemos imaginar un torrente de preguntas: ¿de qué está hecho el mundo?, ¿cuáles son los componentes esenciales de las cosas?, ¿cómo es posible que en una vaca, que solo come hierba, crezcan los huesos, los músculos y los cuernos, y produzca leche? Tales sugirió que todo está formado por agua, y aquello podía justificarse: era evidente que el agua puede pasar de ser un líquido a ser un sólido, y también un gas; el agua además es esencial para los seres vivos.
Los átomos, indivisibles
Siglo y medio más tarde, Empédocles de Agrigento resumió ideas de otros filósofos afirmando que había cuatro raíces: tierra, agua, aire y fuego. Por la misma época, Demócrito de Abdera planteó por primera vez la idea de la existencia de los átomos indivisibles, y entonces ya podía completarse un razonamiento: si la vaca come solo hierba y produce leche, es porque esta tiene ordenados los átomos de otra manera. Ni Tales de Mileto ni ninguno de aquellos filósofos buscó nunca explicaciones sobrenaturales. Por su parte, a Pitágoras de Samos –el primer matemático de la historia– le debemos la demostración del teorema que lleva su nombre, el descubrimiento de los números irracionales y la definición de los cinco sólidos regulares –tetraedro, cubo, octaedro, icosaedro y dodecaedro–. Creía que el cosmos podía comprenderse mediante el número. Uno de sus principios era «todo es número».
A los antiguos griegos debemos también la creación del primer modelo heliocéntrico para explicar los movimientos de los cuerpos celestes. Cuando lo normal era aceptar la idea evidente de que la Tierra es el centro de todo, Aristarco de Samos propuso otro modelo para explicar los cambios de posición observados del Sol, la Luna y los planetas.
El libro más inflyente
Aquella idea fue marginada, sobre todo por la autoridad de Aristóteles, y no se recuperaría hasta Copérnico. La aportación matemática más trascendente de los griegos vino de Euclides, que, si bien no descubrió todos los teoremas que aparecen en su tratado Elementos de geometría, nos dejó una obra fundamental, la que más veces se ha editado después de la Biblia y el libro de texto más influyente de todos los tiempos; no olvidemos que, por ejemplo, Galileo, Descartes, Newton y Einstein se examinaron de los elementos de Euclides.
En el terreno de la astronomía destacaron además Hiparco de Nicea y Claudio Ptolomeo; al primero le debemos el primer catálogo de estrellas, que fue recogido en el Almagesto, y Ptolomeo, heredero de la visión del universo de Aristóteles, creó en función de ella un elaborado modelo geocéntrico para explicar los detalles en los movimientos planetarios.

Arquímedes de Siracusa, tal vez el mejor científico de la Antigüedad, merece una mención especial, no en vano gran parte de sus ideas continúan siendo válidas hoy. Fue el primero en aplicar correctamente las matemáticas a procesos físicos, como el funcionamiento de la palanca y la flotación de los cuerpos, que llegó a estudiar cuantitativamente y calcular el peso del líquido desalojado. Manejó el concepto de peso específico para averiguar un fraude del joyero real, que había sustituido parte del oro por otro metal menos valioso y más ligero al fundir una corona del rey Hierón II.
En la medicina destacan los nombres de Hipócrates y Galeno. El primero defendió la idea de que las enfermedades eran procesos naturales, y no debidas a la maldición de ningún dios. Es el fundador de la medicina racionalista y científica. Para él, la salud se basaba en el equilibrio de los cuatro humores que contiene nuestro cuerpo –sangre, flema, bilis amarilla y bilis negra–, términos que han dejado también su huella en nuestro vocabulario. Seis siglos más tarde, Claudio Galeno incorporó la práctica experimental al ejercicio de la medicina, destiló toda la experiencia médica de su tiempo, la analizó a la luz de la filosofía y estableció la forma en que ese saber llegaría al Renacimiento.
Tierra impura y fuego noble
El historiador británico sir Geoffrey Lloyd reconoce que «durante más de 2000 años, desde el siglo iv a. C. hasta el xvii de nuestra era, Aristóteles ejerció una influencia sin parangón y sin precedentes sobre la ciencia y la cosmología en Europa».
A la herencia griega pertenece el trenzado esquema de conocimientos que modeló la cultura de Occidente hasta la revolución científica de los siglos xvi y xvii. Su gran artífice fue Aristóteles de Estagira, quien, además de dejarnos un poderoso esquema de razonamiento lógico deductivo basado en el silogismo, por el cual pueden desmenuzarse las consecuencias de las verdades asentadas, también elaboró un compendio del saber de su época, capaz de explicar de modo coherente los movimientos que se observan en los cielos y en la Tierra.
Para él, la Tierra es el centro del cosmos. En ella toda la materia está compuesta por cuatro elementos –que se corresponden con las raíces de Empédocles–, a los que, quizá recordando enseñanzas de Platón, jerarquizó desde el más impuro (tierra) al más noble (fuego). Ese nivel de menor o mayor nobleza se correspondía con una posición natural: a las cosas que contienen más elemento tierra les es natural estar más abajo, mientras que las que contienen elemento fuego han de subir naturalmente. Así se explica que las piedras caigan en el aire y en el agua o que una olla desprenda vapor ascendente si se le comunica elemento fuego.
De la Luna para abajo, los movimientos naturales son en sentido vertical. Otra cosa es el mundo supralunar. Allí todo es perfecto e inmutable, y los cuerpos celestes están constituidos por un quinto elemento, más sutil y más ligero, perfecto, el éter; lo que es perfecto no puede cambiar, por ello no tiene sentido que los cuerpos celestes necesiten acercarse o alejarse del centro del universo. Giran en sus esferas, siempre a la misma distancia de nosotros.
A partir del siglo iii, no hay aportaciones de la cultura griega a la ciencia. Poco a poco, en Europa el poder asociado a la religión potenció la idea de que la verdad llega por inspiración divina. Al finalizar el siglo v, Europa comenzaba la Edad Media con notables dificultades para el progreso intelectual. La mayor parte de los antiguos tratados, escritos en griego, no eran asequibles. Hubo que esperar al mundo árabe, que nos traería toda aquella cultura incrementada por sus aportaciones.
El broche de Filópono
El colofón de la ciencia antigua podría atribuirse a Juan Filópono, en el siglo vi. Fue muy crítico con la física de Aristóteles, reclamó la ciencia experimental, defendió que la velocidad de caída de los cuerpos no era en función de su peso, que los elementos celestes y la Tierra tenían las mismas propiedades físicas y que las estrellas no tenían carácter divino. Fue rechazado. El paradigma del estagirita se reforzaría aún más por el influjo de Alberto Magno y Tomás de Aquino, que en el siglo xiii hicieron que la visión de Aristóteles se convirtiese en parte de la doctrina de la Iglesia católica. Que se lo pregunten a Galileo.
En los confines más extremos del universo, hay sucesos capaces de deformar el propio tejido del espacio-tiempo. Entre ellos, las colisiones de agujeros negros son eventos de una energía inimaginable. Hasta ahora, la atención se había centrado en las ondas gravitacionales como la principal huella observable de estas fusiones. Sin embargo, un nuevo estudio teórico propone que podrían esconder un fenómeno mucho más exótico: la creación de diminutos agujeros negros que, antes de desintegrarse, emitirían radiación detectable desde la Tierra.
Publicada en la revista Nuclear Physics B, esta investigación retoma una propuesta hecha por Stephen Hawking en los años 70 y sugiere que la radiación que predijo podría ser observada de forma indirecta gracias a estos pequeños objetos, apodados black hole morsels o. No hay traducción formal, aunque proponemos “fragmentos de agujero negro” (morsels es inglés hace referencia a trocitos pequeño de comida, como una pieza fragmentada de pan). Según el equipo, su detección abriría una puerta experimental única para explorar la física cuántica de la gravedad, algo fuera del alcance incluso de los aceleradores de partículas más potentes.
El origen de la idea de Hawking
En 1974, Stephen Hawking revolucionó la comprensión de los agujeros negros al demostrar que no eran completamente oscuros. Sus cálculos indicaban que, por efectos cuánticos cercanos al horizonte de sucesos, podían emitir radiación térmica y perder masa con el tiempo. Este fenómeno, conocido como radiación de Hawking, implicaba que, si el proceso se mantenía, un agujero negro acabaría evaporándose por completo.
Una característica esencial de esta radiación es que la temperatura de un agujero negro disminuye cuanto mayor es su masa. Los grandes, como los supermasivos que habitan el centro de las galaxias, son demasiado fríos para que su radiación pueda detectarse con la tecnología actual. Sin embargo, los agujeros negros pequeños pueden alcanzar temperaturas muy altas, emitiendo rayos gamma y otras partículas de alta energía que sí serían observables.
Esta predicción fascinante nunca ha sido confirmada de forma directa. Durante décadas, los esfuerzos se han centrado en buscar signos de agujeros negros primordiales —formados poco después del Big Bang— que estarían evaporándose en la actualidad. El nuevo trabajo introduce otra vía: que estos objetos podrían formarse ahora mismo durante la fusión de agujeros negros astrofísicos.

Qué son los black hole morsels
El estudio, firmado por Giacomo Cacciapaglia, Stefan Hohenegger y Francesco Sannino, describe cómo las condiciones extremas de una colisión entre agujeros negros podrían generar, de forma transitoria, pequeños fragmentos independientes con horizonte de sucesos propio. Estos serían los black hole morsels.
En palabras de Cacciapaglia, citadas literalmente del artículo, “son mucho más pequeños —comparables en masa a asteroides— y, por lo tanto, mucho más calientes debido a la relación inversa entre la masa del agujero negro y la temperatura de Hawking”. Esta temperatura elevada implica que su evaporación sería rápida, liberando en poco tiempo enormes cantidades de energía en forma de radiación de muy alta frecuencia.
El resultado sería una breve pero intensa emisión de rayos gamma y neutrinos que podría detectarse con los instrumentos adecuados. A diferencia de las explosiones de rayos gamma típicas, estas no estarían concentradas en un haz, sino que se emitirían en todas direcciones.

Señales y detección posible
Uno de los aspectos más interesantes del estudio es la predicción de un patrón temporal específico en las señales. Los autores señalan que un black hole morsels generaría un estallido de rayos gamma con un retraso respecto a la detección de las ondas gravitacionales producidas por la fusión principal. Ese retraso depende directamente de la masa del objeto: cuanto menor sea, antes se evaporará y antes llegará la señal.
Esta firma distintiva permitiría diferenciar los morsels de otras fuentes de alta energía en el cosmos. Además, según los cálculos, las señales estarían dentro del rango de sensibilidad de observatorios actuales como el High Energy Stereoscopic System (HESS) en Namibia, el High-Altitude Water Cherenkov Observatory (HAWC) en México, el Large High Altitude Air Shower Observatory (LHAASO) en China o el satélite Fermi Gamma-ray Space Telescope.
El equipo no se limitó a la teoría. Utilizó datos de HESS y HAWC para establecer los primeros límites observacionales a la masa total que podría emitirse en forma de morsels durante fusiones conocidas. Este enfoque, según indican, representa “las primeras restricciones observacionales” sobre este tipo de fenómeno.

Implicaciones para la física
La confirmación de estos objetos tendría consecuencias enormes. La radiación de Hawking codifica información sobre la estructura cuántica del espacio-tiempo, y medirla permitiría poner a prueba teorías más allá de la relatividad general. Esto incluye modelos que proponen nuevas partículas o incluso dimensiones adicionales.
Sannino señala en el paper que las propiedades espectrales de esta radiación podrían revelar desviaciones respecto al Modelo Estándar en escalas de energía muy superiores a las alcanzables en laboratorio. Para ponerlo en perspectiva, estas fusiones de agujeros negros funcionarían como aceleradores de partículas naturales, mucho más potentes que el Gran Colisionador de Hadrones (LHC) del CERN.
Los siguientes pasos
A pesar del atractivo de la hipótesis, los autores admiten que hay incertidumbres significativas. No se conocen con detalle las condiciones exactas que permitirían la formación de black hole morsels, y todavía no se han realizado simulaciones completas a la escala necesaria para modelarlos.
Los planes inmediatos incluyen mejorar los modelos teóricos, considerar distribuciones de masa y rotación más realistas, y ampliar el análisis a catálogos más amplios de observaciones. La colaboración con astrónomos será clave para buscar señales tanto en archivos de datos como en observaciones futuras.
Hohenegger resume el objetivo a largo plazo: “Esperamos que esta línea de investigación abra una nueva ventana para entender la naturaleza cuántica de la gravedad y la estructura del espacio-tiempo”. Si los black hole morsels existen, no solo iluminarían el cielo con radiación exótica, sino que también podrían ofrecer respuestas a algunas de las preguntas más profundas de la física.
Referencias
- Cacciapaglia, G., Hohenegger, S., & Sannino, F. (2025). Looking for black hole morsels in astrophysical mergers via Hawking radiation. Nuclear Physics B, 1018, 117021. https://doi.org/10.1016/j.nuclphysb.2025.117021.
El impacto de la pandemia no solo se mide en contagios, hospitalizaciones o fallecimientos. También dejó un rastro menos visible: un aumento en los trastornos de interacción intestino-cerebro (DGBI), afecciones que alteran la función digestiva sin que haya lesiones visibles y que están estrechamente ligadas al sistema nervioso.
Un estudio reciente comparó datos poblacionales de Reino Unido y Estados Unidos de 2017 (antes de la pandemia) y 2023 (después de ella), usando el mismo cuestionario diagnóstico estandarizado, Roma IV. El objetivo: medir, con criterios consistentes, cómo había cambiado la prevalencia de estos trastornos y su relación con el COVID-19 y el COVID persistente.
Los resultados muestran un aumento claro: más personas sufren hoy dolor abdominal, digestiones difíciles y alteraciones intestinales persistentes. Y en quienes han pasado por un COVID prolongado, el panorama es aún más preocupante, con peor salud mental y mayor uso de servicios sanitarios.

Un salto en las cifras
En 2017, el 38,3 % de los encuestados cumplía criterios para al menos un trastorno de interacción intestino-cerebro. En 2023, el porcentaje subió al 42,6 %. Este incremento se dio tanto en el Reino Unido como en Estados Unidos, lo que sugiere que no se trata de un fenómeno local, sino de una tendencia común en países con sistemas sanitarios y contextos distintos.
El estudio analizó tres grandes dominios: esofágicos, gastroduodenales y del intestino. En todos hubo aumentos, pero los más marcados se observaron en los trastornos gastroduodenales, que pasaron del 11,9 % al 16,4 %. Dentro de ellos, la dispepsia funcional creció casi un 44 %.
El síndrome del intestino irritable (SII), uno de los más conocidos, también mostró un salto: del 4,7 % al 6 %, lo que equivale a un aumento relativo del 28 %. Estos cambios, aunque puedan parecer pequeños en porcentaje, significan millones de personas más afectadas en la población general.

El papel de la COVID-19
La segunda parte del estudio, realizada en 2023, incluyó preguntas específicas sobre la historia de infección por SARS-CoV-2. Los investigadores detectaron que haber tenido COVID-19 más de una vez aumentaba la probabilidad de padecer trastornos de interacción intestino-cerebro.
Ciertos síntomas durante la infección, como dolor abdominal (OR 2,06) o diarrea (OR 1,33), también se asociaron a un riesgo mayor. Y quienes desarrollaron COVID prolongado tenían un 65 % más de probabilidades de cumplir criterios de un trastorno de interacción intestino-cerebro.
Un dato llamativo: no estar vacunado contra el COVID-19 también apareció como factor asociado (OR 1,35). Aunque el estudio no prueba causalidad, sí sugiere que la vacunación podría influir indirectamente en la protección frente a alteraciones digestivas persistentes.

Más que el intestino
Los trastornos de interacción intestino-cerebro no solo afectan al aparato digestivo. Los participantes con un trastorno de interacción intestino-cerebro tras la pandemia reportaron peor calidad de vida, más síntomas somáticos no digestivos y niveles más altos de ansiedad y depresión que quienes tenían estos trastornos antes de 2020.
En personas con COVID persistente, estas diferencias eran todavía más marcadas. El impacto no es solo clínico: implica más visitas médicas, más uso de recursos sanitarios y, en muchos casos, un efecto negativo en la vida social y laboral.
Esta combinación de síntomas físicos y mentales encaja con lo que se conoce sobre el eje intestino-cerebro, un sistema de comunicación bidireccional en el que el estado emocional puede afectar al intestino y viceversa.
Qué son el SII y la dispepsia funcional
El síndrome del intestino irritable es un trastorno crónico que provoca dolor abdominal, hinchazón y cambios en el ritmo intestinal, con episodios de diarrea, estreñimiento o ambos. No daña el intestino, pero puede limitar mucho la vida diaria. La dispepsia funcional, por su parte, afecta la parte superior del aparato digestivo y causa molestias o dolor persistente en el abdomen, sensación de saciedad rápida, hinchazón y, a veces, náuseas.
Ambos son ejemplos claros de un trastorno de interacción intestino-cerebro: no se deben a lesiones visibles en pruebas de imagen o laboratorio, sino a una alteración en la forma en que el cerebro y el sistema digestivo se comunican y regulan funciones como el movimiento intestinal o la sensibilidad a estímulos.

Hipótesis y posibles explicaciones
Los investigadores no pueden afirmar que el COVID-19 sea la única causa del aumento de los DGBI, pero plantean varias hipótesis. Una es que el virus pueda alterar el sistema nervioso entérico o la microbiota intestinal, desencadenando síntomas persistentes. Otra posibilidad es que el estrés prolongado de la pandemia —con aislamiento, cambios en la rutina, alteraciones del sueño y aumento de la ansiedad— haya actuado como factor desencadenante o agravante de problemas digestivos preexistentes.
Además, en quienes tuvieron COVID-19 grave o repetida, la inflamación sistémica podría haber dejado una “huella” en la regulación del eje intestino-cerebro, facilitando la aparición de síntomas meses después de la infección aguda.
El aumento de estos trastornos implica que los sistemas sanitarios deberán adaptar sus estrategias. Esto incluye formar a los profesionales para identificar los DGBI post-COVID, ofrecer tratamientos integrales que combinen abordajes digestivos y psicológicos, y ampliar la investigación sobre el eje intestino-cerebro.
Para los pacientes, la educación sobre el trastorno, la modificación de la dieta, el manejo del estrés y, en algunos casos, la medicación, son herramientas clave. Pero el reto es mayor: evitar que el impacto invisible de la pandemia siga creciendo en silencio. Como concluyen los autores, entender y tratar estos trastornos no es un lujo, sino una necesidad urgente en la era post-COVID.
Referencias
- Palsson O, Simren M, Sperber A, et al. The prevalence and burden of disorders of gut-brain interaction (DGBI) before versus after the COVID-19 pandemic. Gut . (2025). doi: 10.1136/gutjnl-2025-BSG.28
El trono de la gama alta en smartphones se intensifica. Con agosto marcando el inicio de movimientos estratégicos por parte de gigantes como Samsung y Apple, el mercado se transforma en un tablero de ajedrez donde cada jugada puede decidir la partida.
En los últimos días, Realme ha intensificado su ofensiva en el mercado con fuertes rebajas en varios de sus dispositivos. Entre ellas sobresale la del GT 7 Pro 5G, uno de sus buques insignia, que acaba de marcar de nuevo su precio más bajo del año.

Con un precio habitual cercano a los 779 €, como confirman tiendas como Pixmania o PcComponentes, la marca apuesta fuerte por AliExpress, donde el GT 7 Pro 5G se ofrece ahora por solo 529,30 euros. Una rebaja contundente para un modelo que juega en la liga premium.
Integra el potente Snapdragon® 8 Elite con arquitectura de doble núcleo a 3 nm y frecuencia máxima de 4,32 GHz, acompañado de la GPU Adreno 830, 8 GB de RAM y 256 GB de almacenamiento interno. Su pantalla Eco OLED Plus de 6,78” ofrece resolución 1.5K, brillo máximo de 6500 nits, tasa de refresco LTPO de 120 Hz y muestreo táctil instantáneo de 2600 Hz para una experiencia visual y de juego sobresaliente.
En el apartado fotográfico, monta un sistema de triple cámara trasera con sensores Sony IMX906 e IMX882, incluyendo lente periscópica con OIS y grabación en 8K/24fps. Incorpora refrigeración VC dual Iceberg de 11.480 mm², batería Titan de 6500 mAh con carga rápida SuperVOOC de 120 W y conectividad de última generación con WiFi 7, Bluetooth 5.4 y 5G.
Samsung apuesta por una nueva rebaja del Galaxy Z Flip 3 para seguir compitiendo en el mercado
Samsung no ha querido quedarse atrás tras la ofensiva de Realme y ha movido ficha para mantener su protagonismo en el segmento premium. La compañía vuelve a ajustar el precio de su Galaxy Z Flip 3, que ahora se puede conseguir por 399 euros, muy por debajo de los más de 571 € que todavía marca en PcComponentes o Pixmania.

Combina diseño plegable y portabilidad, con una pantalla principal Dynamic AMOLED 2X de 6,7” y otra exterior de 1,9”. Su Modo Flex y la función multiventana permiten usar dos apps a la vez o hacer fotos con manos libres. Mientras que su resistencia IPX8 y materiales como aluminio y Gorilla Glass garantizan durabilidad.
Equipa un procesador de 5 nm con RAM DDR5 preparado para 5G y descargas a gran velocidad. Ofrece sonido Dolby Atmos con altavoces estéreo y una pantalla Infinity Flex. Integra una cámara trasera de 12 MP y una frontal de 10 MP. Su batería de 3300 mAh con carga rápida de 15 W garantiza autonomía suficiente para todo el día. Sus 8 GB de RAM y 128 GB de almacenamiento interno aseguran un buen rendimiento.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Hace unos 8.200 años, el clima del planeta sufrió un trastorno repentino que alteró la vida de los seres humanos desde las costas del Atlántico hasta los rincones más lejanos de Siberia. Este evento, conocido como “evento de 8,2 kiloaños” (por su datación en miles de años antes del presente), provocó una caída de las temperaturas de hasta 6 grados centígrados en apenas unas décadas, lo que supuso un desafío brutal para sociedades que dependían directamente de su entorno para sobrevivir.
A diferencia de otras catástrofes naturales de escala global, esta no dejó huellas universales en la historia humana. Algunas poblaciones apenas se inmutaron. Otras cambiaron por completo su modo de vida. El reciente estudio publicado en la revista Quaternary Environments and Humans, liderado por Rick J. Schulting y su equipo, ha analizado el impacto de este episodio climático en dos regiones muy distintas: Europa noroccidental y el área de Cis-Baikal, en la actual Siberia. El objetivo: entender cómo respondieron distintos grupos humanos ante una crisis compartida, pero con consecuencias locales muy diversas.
El océano se enfría, las sociedades se adaptan
La causa de este fenómeno climático fue el colapso de un gigantesco lago de agua dulce en América del Norte, que al vaciarse en el Atlántico Norte alteró las corrientes oceánicas. El resultado fue una interrupción del sistema de corrientes cálidas que regulaban el clima de Europa. Las consecuencias fueron inmediatas: inviernos más largos, veranos más secos, alteraciones en los ecosistemas y, sobre todo, un cambio radical en la disponibilidad de recursos para las comunidades humanas que vivían de la caza, la pesca y la recolección.
Sin embargo, no todas las regiones sufrieron el mismo impacto. En las costas del Oslofjord, en Noruega, lejos de abandonarse, los asentamientos humanos aumentaron durante esta fase climática crítica. Las comunidades costeras, que ya dependían en gran medida de recursos marinos como el pescado o los mariscos, encontraron en el océano una fuente estable de alimentos, menos afectada por los cambios térmicos que castigaban el interior.
En el oeste de Escocia, en cambio, los registros arqueológicos sugieren un retroceso: algunas zonas parecen haber sido temporalmente abandonadas, quizás como reacción a una mayor exposición al clima adverso o a la alteración de los ecosistemas costeros. Las personas podrían haberse desplazado hacia el interior o simplemente reorganizado su modo de vida para sobrevivir.

Cis-Baikal: entre el hielo y el silencio
Al otro extremo del continente euroasiático, en las orillas del inmenso lago Baikal, en Siberia, el estudio ha analizado casi 300 dataciones de restos humanos y animales, junto con registros ambientales altamente precisos, como análisis de polen y carbón en sedimentos lacustres. Allí, sin embargo, los rastros de una reacción humana frente a la crisis climática son... casi inexistentes.
Esto no significa que el evento no afectara a la región. Se han documentado cambios ambientales, incendios forestales más frecuentes y un descenso en la densidad de ciertos tipos de vegetación. Pero desde el punto de vista arqueológico, las comunidades locales parecen haber pasado por esta fase sin grandes alteraciones visibles. No hay señales de migraciones masivas, de abandono de sitios ni de colapsos demográficos. ¿Por qué?
La explicación puede estar en el propio lago. El Baikal, el más profundo y antiguo del mundo, genera su propio microclima y ofrece una abundancia de recursos acuáticos durante todo el año. La pesca, especialmente de especies como el omul o la foca siberiana, podría haber servido como red de seguridad alimentaria durante los años más fríos. Además, el entorno boscoso ofrecía refugio y recursos suficientes para mantener un modo de vida estable, incluso frente a un enfriamiento repentino.
Lo curioso es que los grandes cambios culturales, como la aparición de nuevas tecnologías (el arco y la flecha, la cerámica), y nuevas formas de organización social, incluyendo el uso de cementerios monumentales, no coinciden con la crisis climática de hace 8.200 años. Se producen unos siglos después, y parecen tener más que ver con dinámicas internas de las propias comunidades que con un reflejo de la alteración ambiental.

El caso de Onega: entierros y simbolismo en plena crisis
Uno de los episodios más reveladores del estudio se encuentra en la región de Lago Onega, en la actual Rusia. Allí, la aparición repentina y concentrada de un gran cementerio coincide casi milimétricamente con el inicio y el fin del evento climático. Y no se trata de un cementerio asociado a una mortandad masiva, sino a una práctica simbólica: un lugar de reunión, de afirmación colectiva, quizá de cohesión social ante tiempos difíciles.
Los investigadores sugieren que este cementerio sirvió para reforzar vínculos entre grupos dispersos, ahora concentrados en torno a un recurso clave: el lago y sus peces, cuya estabilidad pudo haber sido vital en aquellos años convulsos. Así, el aumento en la actividad funeraria podría ser una respuesta social y simbólica a una amenaza ambiental, más que una consecuencia directa de muerte o escasez.
Lecciones para el presente (y el futuro)
Lo fascinante de este estudio, más allá de su riqueza técnica y arqueológica, es lo que revela sobre la capacidad humana de adaptación. Algunas comunidades resistieron gracias a su movilidad, otras gracias a su conocimiento del entorno. Algunas se reorganizaron socialmente, otras se refugiaron en símbolos y rituales. Pero todas, de una forma u otra, encontraron soluciones creativas a un problema global.
Hoy, mientras el planeta enfrenta una nueva crisis climática, más lenta pero igualmente profunda, estas historias del pasado adquieren una relevancia inquietante. A diferencia de aquellos grupos nómadas, que podían desplazarse sin más, nosotros vivimos anclados a ciudades, infraestructuras y cadenas de suministro frágiles. Nuestra movilidad está limitada, y nuestra dependencia de sistemas globales nos hace vulnerables.
El evento climático de hace 8.200 años se convirtió, sin quererlo, en un experimento natural de adaptación humana a una catástrofe abrupta. Y su estudio no solo nos ayuda a comprender mejor el pasado, sino también a reflexionar sobre nuestra propia capacidad de resiliencia, en un mundo donde el cambio ya no es una posibilidad, sino una realidad.
¿Es posible reconstruir con precisión los rostros de los humanos que pisaron la tierra hace miles de años? Gracias a las nuevas tecnologías, ver cara a cara el pasado ya es una realidad tangible. Una nueva investigación ha recuperado un secreto histórico que había permanecido sepultado bajo tierra durante milenios. En el interior de un antiguo pozo minero del bosque de Krumlov, en la actual Moravia del Sur (Chequia), los arqueólogos hallaron los restos de dos mujeres emparentadas. Enterradas junto a un recién nacido, svivieron en un momento clav, en la transición entre el Neolítico final y los albores del Eneolítico, hace más de seis mil años. Este hallazgo, además de revelar aspectos significativos sobre la vida cotidiana en uno de los mayores campos mineros de sílex de la prehistoria europea, también permitió, gracias a un minucioso estudio interdisciplinar, reconstruir con hiperrealismo los rostros de estas dos mujeres.
Un enterramiento singular en un pozo minero
El hallazgo se produjo en la Sima n.º 4 del distrito VI del yacimiento, que se excavó en el pasado para extraer sílex jurásico. El primer esqueleto apareció a seis metros de profundidad, acompañado del cráneo de un perro. Un metro más abajo yacía la segunda mujer, con un recién nacido sobre el pecho y, junto a ambos, los restos óseos de otro perro.
Las dataciones por radiocarbono sitúan este enterramiento entre el 4340 y el 4050 a. C., dentro de la cultura de Lengyel tardía, cuando la minería subterránea alcanzó un gran desarrollo en la región. Según los arqeuólogos, el hallazgo de los cuerpos sugiere un rito funerario ligado a la actividad minera, quizá como parte de una tradición de “devolver a la tierra” no solo los objetos, sino también a los propios trabajadores.

Hermanas y trabajadoras
El análisis antropológico determinó que ambas eran mujeres adultas de entre 30 y 40 años, de complexión delgada, pero con evidentes signos de trabajo físico intenso en sus cuerpos. La mayor medía 148,4 cm y la menor 146,1 cm, lo que las situaba entre las mujeres de menor estatura dentro de su comunidad.
El estudio genético confirmó su parentesco directo —probablemente eran hermanas— e inclusó reveló algunos detalles fenotípicos. La mujer enterrada más arriba (H1) tenía los ojos verdes o color avellana y, con probabilidad, el cabello oscuro. Por su parte, la mujer enterrada más abajo (H2a) tenía más del 90% de probabilidad de tener los ojos azules y el cabello claro. El análisis isotópico del estroncio demostró que ambas eran de procedencia local, nacidas y criadas en la zona del bosque de Krumlov.
Una dieta inusualmente rica en carne
El estudio de los isótopos de carbono y nitrógeno indicó que la dieta de las dos mujeres se había basado, sobre todo, en plantas C3, como el trigo duro, pero con una proporción de proteína animal superior a la habitual en las comunidades neolíticas de Europa Central. Este patrón alimenticio, comparable al de las poblaciones neolíticas de Dinamarca, podría relacionarse con el aporte energético necesario para realizar un trabajo físicamente tan exigente como la minería, unido al fácil acceso a la carne de caza en un entorno boscoso como el de Krumlov.

Huellas de una vida dura
El análisis paleopatológico reveló que ambas mujeres habían sufrido carencias y enfermedades durante la infancia. Estos episodios traumáticos habían dejado huellas visibles en el cuerpo, como defectos en el esmalte dental (hipoplasias) y en las líneas de Harris en las tibias, señal de un crecimiento interrumpido.
Sus cuerpos, además, presentaban lesiones degenerativas en la columna, osteofitos y nódulos de Schmorl, indicativos de una sobrecarga crónica de la espalda. Este desgasta fue fruto de los trabajos pesados realilzados en posición inclinada. Además, la mujer H1 sufría espondilólisis (fractura por estrés de una vértebra), quizás de origen traumático. La mujer H2a mostraba una fractura mal consolidada en el cúbito izquierdo (pseudoartrosis), una lesión típica que sugiere que la mujer siguió trabajando pese a la herida.
También se detectaron anomalías congénitas como la dehiscencia timpánica bilateral (orificios anómalos en la zona del tímpano) en ambas, y un pequeño osteoma en el occipital de H2a. Aunque estas alteraciones no causaron la muerte de ninguna de las dos, refuerzan la imagen de una vida dura marcada por el esfuerzo físico, el trabajo duro y la adversidad.

El misterio del recién nacido
El cuerpo H2a estaba acompañado por el esqueleto de un bebé, incompleto y mal conservado, que pertenecía a un recién nacido a término (38-40 semanas). El análisis genético determinó que no era hijo de ninguna de las mujeres, lo que plantea interrogantes sobre la razón de su presencia en la tumba. Pudo tratarse de un fallecimiento simultáneo, de un rito funerario o de un sacrificio. Sin pruebas de causa de muerte en ninguno de los tres individuos, las hipótesis que manejan los arqueólogos incluyen desde una enfermedad infecciosa hasta un accidente o un episodio de violencia.

De huesos a rostros: la reconstrucción facial
El grupo de investigación no se limitó a reconstruir la biografía de estas dos mujeres. También combinó arqueología, antropología física, genética antigua, análisis isotópico y técnicas artísticas de reconstrucción facial en 3D para recrear un retrato vívido de ambas.
Así, la buena conservación de los cráneos permitió acometer una reconstrucción facial hiperrealista en 3D. Sobre los moldes realizados con silicona, se colocaron ojos protésicos, cabello y vestimenta inspirada en hallazgos textiles neolíticos. La mujer H1 se representó con una blusa sencilla y un pañuelo de fibra vegetal. Su cabello aparece sujeto con una redecilla de aguja, una de las técnicas más antiguas documentadas en Europa. H2a, por su parte, viste lino más basto y lleva tiras de tela trenzadas en el pelo. El resultado, que está expuesto en el Pabellón Anthropos del Museo Moravo de Brno, ha conseguido humanizar lo que, hasta hace poco, eran restos anónimos.

Trabajo femenino en la minería neolítica
La investigación, además, es relevante por otra cuestión: apoya la hipótesis de que las mujeres también trabajaron de manera directa en la minería. Sus cuerpos muestran lesiones coherentes con actividades desgastantes como la extracción y el transporte de sílex en túneles estrechos, tareas para las que su baja estatura pudo ser ventajosa.
Algunos investigadores sugieren que esta actividad profesional no deriva de una elección propia, sino que podrían haberse seleccionado como fuerza laboral vulnerable y fácil de controlar. Este planteamiento se enmarca en un posible cambio social durante el Eneolítico, que se habría caracterizado por un incremento de las desigualdades entre hombres y mujeres en las tareas productivas.
Vidas reales
El hallazgo de las hermanas neolíticas del bosque de Krumlov ofrece una rara confluencia de arqueología, ciencia forense y arte. A partir de los huesos, el ADN y los datos químicos, se han recuperado no solo los rasgos físicos, sino también fragmentos de la vida de dos mujeres que, hace seis mil años, trabajaron, vivieron y murieron en un mundo tan distinto y, a la vez, tan humano como el nuestro. Sus rostros nos recuerdan que cada hallazgo arqueológico es, ante todo, la historia de personas reales.
Referencias
- Vaníčková, E., Vymazalová, K., Vargová, L. et al. 2025. "Ritual Burials in a Prehistoric Mining Shaft in the Krumlov Forest (Czechia)". Archaeological and Anthropological Sciences, 17: 146. DOI: https://doi.org/10.1007/s12520-025-02251-1
Durante décadas, la arqueología ha mirado a la Edad del Bronce europea como un periodo dominado por élites guerreras, sistemas de intercambio rudimentarios y economías basadas más en el prestigio y el ritual que en el valor monetario. Pero un estudio publicado en Nature Human Behaviour lanzó una hipótesis que, de confirmarse, supone un giro radical en nuestra comprensión del pasado: hace más de 3.500 años, los "europeos" ya podían estar utilizando fragmentos de metal como dinero, de forma muy similar a la que usamos hoy.
El estudio, realizado por los investigadores Nicola Ialongo y Giancarlo Lago, se basa en el análisis de más de 23.000 objetos de cobre y aleaciones procedentes de antiguos escondites o “tesoros” hallados en países como Italia, Suiza, Austria, Eslovenia y Alemania. La conclusión principal es tan directa como revolucionaria: a partir del año 1.500 a. C., los fragmentos de metal que circulaban en estos territorios no eran meros desechos ni restos de herramientas rotas, sino unidades de valor con pesos estandarizados que podrían haber funcionado como auténtico dinero.
El dinero oculto en los fragmentos
Desde el siglo XIX se han encontrado miles de fragmentos en Europa, consistentes en acumulaciones de objetos de metal enterrados, a veces cuidadosamente organizados, otras aparentemente caóticas. Su significado ha sido objeto de debate: ¿eran ofrendas religiosas?, ¿acopios para fundir más tarde?, ¿símbolos de poder o riqueza?
Este nuevo trabajo propone una lectura distinta: los fragmentos metálicos serían restos de transacciones cotidianas, como el cambio en una compra o el pago de una deuda. A partir de simulaciones estadísticas y análisis de distribución de pesos, los autores demuestran que el patrón que siguen estos objetos no es aleatorio. Muy al contrario: se ajusta al mismo tipo de distribución que vemos hoy en los gastos de cualquier familia moderna, donde predominan las pequeñas transacciones diarias frente a las compras de gran valor.

Lo más impactante es que ese patrón no surge por casualidad. Cuando los investigadores simulan un sistema de fragmentación aleatoria (por ejemplo, romper objetos sin criterio, para rituales o para fundir), el resultado no se parece en nada al registro arqueológico. En cambio, cuando simulan un modelo económico basado en mercado, con compradores y vendedores intercambiando piezas metálicas por bienes de distinto valor, el resultado se ajusta sorprendentemente bien a los datos reales.
Otro descubrimiento clave es la aparición, desde ese mismo momento (alrededor del 1500 a. C.), de un sistema de pesos común en gran parte del continente. Una especie de “unidad europea” de alrededor de 10 gramos aparece en diferentes regiones, lo que sugiere un estándar compartido para valorar objetos y bienes. La estandarización es un requisito esencial para cualquier sistema económico avanzado, y esta evidencia refuerza la hipótesis de que existía una red continental de intercambio monetizado.
Lejos de la imagen de tribus aisladas o jefes dominando todo el comercio, este nuevo enfoque sugiere una economía más horizontal, donde la población común —los agricultores, los artesanos, las familias del día a día— participaba activamente en el consumo y la circulación del dinero. Una idea que desbanca la visión clásica del poder centralizado y las élites como únicos actores económicos.
La invisibilidad de los comunes
La Historia tiene un problema recurrente: suele hablar solo de los poderosos. Reyes, guerreros, grandes templos o palacios han ocupado durante siglos el foco de la narrativa histórica. Pero este estudio se une a una corriente creciente que intenta rescatar la vida cotidiana de la mayoría de las personas del pasado, esas cuyo rastro arqueológico suele ser más sutil pero igualmente revelador.
Las herramientas estadísticas empleadas por Ialongo y Lago permiten, por primera vez, observar comportamientos económicos generalizados entre las capas populares de la Edad del Bronce. Si la mayoría de los fragmentos de metal representan pagos o transacciones pequeñas, entonces su existencia misma es prueba de que la gente común compraba, vendía, intercambiaba y consumía en función de sus necesidades y de su capacidad adquisitiva.
Y, si esto es así, también lo es que existía desigualdad económica: una minoría acumulaba piezas de mayor peso y valor, mientras la mayoría manejaba cantidades pequeñas. La sociedad de hace 3.500 años, en definitiva, se parecería más a la nuestra de lo que imaginábamos.

¿Una economía de mercado en la Prehistoria?
Los autores del estudio son cautelosos: no afirman que existiera una economía de mercado moderna, ni que el dinero fuera universal. Aceptan que existieron otras formas de intercambio (trueque, crédito, regalos) y que los metales no eran el único medio de pago. Pero sí dejan claro que, al menos entre 1500 y 800 a. C., en ciertas regiones de Europa, el dinero metálico funcionaba como un medio de pago regular, medido por peso y empleado por muchas personas.
Y aquí es donde el estudio conecta con un debate antiguo pero aún vivo en la Historia económica: ¿son las economías modernas una invención reciente, o una evolución de prácticas mucho más antiguas? Durante décadas, la visión dominante —impulsada por el antropólogo Karl Polanyi— ha sido que las sociedades antiguas no se movían por incentivos de mercado, sino por redes sociales, prestigio o redistribución. Este estudio desafía directamente esa idea, al mostrar que, al menos en ciertos contextos, la lógica de oferta, demanda e ingresos ya estaba operando en la Edad del Bronce.
Este hallazgo no solo cambia lo que sabemos sobre el dinero. También cambia cómo entendemos el día a día de las sociedades prehistóricas. No eran economías oscuras controladas por rituales o jefes omnipotentes, sino sistemas vivos en los que personas anónimas tomaban decisiones económicas cada día: cuánto gastar, qué conservar, qué intercambiar.
Y, como en cualquier sociedad con dinero, esas decisiones estaban marcadas por la desigualdad, la necesidad, el ingenio y la oportunidad.
En una época sin monedas ni billetes, el simple acto de romper una pieza de metal podía ser tan cotidiano como hoy lo es sacar la tarjeta del bolsillo. Una rutina olvidada, enterrada durante milenios… hasta que la arqueología y la estadística le han dado voz de nuevo.
Durante muchas décadas, los geólogos han mirado hacia el noreste de Estados Unidos y han visto una región aparentemente tranquila. Las Montañas Apalaches, aunque erosionadas y domesticadas por millones de años, se mantenían en pie como un vestigio respetable de un pasado tectónico tumultuoso. Pero bajo esa calma superficial, algo inesperado está ocurriendo: una gigantesca masa de roca ardiente, oculta a 200 kilómetros de profundidad, está moviéndose lentamente hacia el oeste. Y podría estar reescribiendo lo que creíamos saber sobre la historia geológica de América del Norte.
Este fenómeno, bautizado como la Anomalía del Norte de los Apalaches (NAA, por sus siglas en inglés), ha sido descrito con detalle en un estudio publicado recientemente en la prestigiosa revista Geology por un equipo internacional liderado por Thomas M. Gernon. La investigación, fruto de años de simulaciones geodinámicas, modelos tectónicos y tomografías sísmicas, apunta a una conclusión sorprendente: esta anomalía térmica no está donde está por casualidad. De hecho, su origen se remonta a un evento tectónico muy concreto: la ruptura entre Groenlandia y América del Norte hace unos 80 millones de años.
Un ascensor térmico bajo tierra
El NAA no es una cámara de magma ni un volcán dormido. Es una masa de roca extremadamente caliente que se encuentra dentro de la astenosfera, la capa semisólida del manto terrestre. Su tamaño es colosal: entre 350 y 400 kilómetros de diámetro, con temperaturas mucho más altas que las de la roca que la rodea. Y lo más desconcertante es que se mueve. A un ritmo lento pero constante —unos 20 kilómetros por millón de años—, se ha desplazado unos 1.800 kilómetros desde su punto de nacimiento cerca del mar de Labrador hasta instalarse bajo el estado de New Hampshire. Si sigue su rumbo, dentro de 15 millones de años podría encontrarse bajo la ciudad de Nueva York.
Este movimiento no es fruto del azar. Según el modelo propuesto por los autores del paper, el NAA es consecuencia de un fenómeno conocido como inestabilidad de Rayleigh-Taylor, un proceso físico por el cual el material denso tiende a hundirse y el más caliente y menos denso asciende. Imaginemos un globo de lava dentro de una lámpara de lava, ascendiendo lentamente por efecto del calor. Algo similar estaría ocurriendo bajo la corteza terrestre, donde el calor generado en el límite de placas riftadas hace millones de años sigue ejerciendo su influencia.

Una explicación para lo inexplicable
Hasta ahora, la presencia de una anomalía térmica en una región tan estable como el noreste de Estados Unidos era un enigma. Esta zona no ha sido tectónicamente activa desde la separación de América del Norte y África hace 180 millones de años. Entonces, ¿por qué aparece aquí un foco de calor tan intenso? La nueva hipótesis conecta este fenómeno con un evento más reciente: la apertura del océano Atlántico Norte cuando América del Norte se separó de Groenlandia. En ese momento, el borde del continente fue perturbado por una serie de "goteos" térmicos que se desplazaron hacia el interior a lo largo de millones de años, como una onda que recorre una cuerda.
Este mecanismo no solo explicaría la posición actual del NAA, sino también otros fenómenos asociados, como la elevación topográfica de los Apalaches en épocas más recientes. Las montañas, que deberían haber sido aplanadas por la erosión, han experimentado una especie de "resurrección" geológica. El calor ascendente bajo su base habría reducido la densidad del manto inferior, provocando un empuje isostático hacia arriba. Es decir, como si el continente hubiese soltado lastre y flotara un poco más.
La sombra de un hermano en Groenlandia
Lo más fascinante es que el NAA podría no estar solo. Al otro lado del Atlántico Norte, bajo Groenlandia, los investigadores han identificado una anomalía sísmica similar, como si fuera el reflejo especular del NAA. Ambas estructuras habrían nacido del mismo proceso tectónico, en lados opuestos del antiguo rift. Y mientras la anomalía americana viaja hacia el oeste, su gemela groenlandesa podría estar influyendo en el derretimiento del hielo desde abajo, aportando calor al lecho de la gigantesca capa de hielo.
Esto plantea una posibilidad inquietante: que muchas de las estructuras geológicas "muertas" que damos por estabilizadas aún estén vivas, moviéndose lentamente por debajo, alterando la geografía de forma imperceptible a escala humana. Lo que hoy parece un terreno inerte podría estar siendo modelado por procesos iniciados hace decenas de millones de años.
El equipo también sugiere que el NAA podría haber dejado un rastro de "hermanos menores" en su recorrido hacia el suroeste. Algunas de estas huellas coinciden con anomalías sísmicas observadas en los Apalaches Centrales, que podrían haber sido los primeros pulsos de esta onda térmica en movimiento. Sin embargo, el paso del tiempo y el reequilibrio térmico habrían borrado muchas de estas señales. Solo con nuevas campañas de sísmica profunda se podrán desenterrar esos rastros.

No es el fin del mundo, pero sí del paradigma
Es importante subrayar que este gigantesco “blob caliente” no representa un peligro inmediato. No hay indicios de que vaya a provocar terremotos o erupciones volcánicas. Sus efectos son sutiles, casi poéticos: elevar montañas, reconfigurar el subsuelo, moldear la litosfera sin levantar sospechas en la superficie. Pero a largo plazo, su existencia cambia nuestra comprensión de cómo se comportan los continentes.
La idea tradicional de que las zonas continentales estables son estructuras fósiles e inalterables está siendo desmontada por hallazgos como este. La tectónica de placas no se detiene simplemente porque las placas dejen de moverse en la superficie. Bajo tierra, el legado de viejos rompimientos sigue activo, como brasas bajo las cenizas.
Este descubrimiento no es solo relevante para los Apalaches o para América del Norte. Abre la puerta a buscar anomalías similares en otras partes del planeta: África, Australia, Sudamérica. Donde hubo separación continental, puede haber dejado una estela térmica como la del NAA. Detectarlas será un desafío técnico, pero también una aventura intelectual: comprender cómo los ecos del pasado siguen esculpiendo el presente.
Y quizá algún día podamos ver estos colosos ocultos con tanta claridad como vemos hoy las montañas que ayudaron a levantar.
Desde que Alfred Nobel estableciera en su testamento las condiciones de los archiconocidos premios que hoy en día siguen llevando su nombre no hay científico en el mundo que no sueñe con obtener uno de ellos. Cada diez de diciembre, coincidiendo con el luctuoso aniversario del fallecimiento del bueno de Alfred, los científicos de medio mundo ponemos los ojos en Estocolmo para ver quiénes son los agraciados en esa edición, en los campos de Física, Química y Medicina, así como en Literatura y Economía.
La antítesis a estos premios son los Ig Nobel, una presunta parodia de los Nobel que premia investigaciones aparentemente absurdas, divertidas o imaginativas y que en el imaginario popular se tienen por investigaciones poco prácticas. La importancia de la investigación básica ya ha sido tratada en artículos previos, pero hoy vamos a analizar cómo un artículo aparentemente poco relevante puede ser la base de una nueva concepción del transporte de mercancías.
El premio Ig Nobel de física del año 2022 recayó en Zhi-Ming Yuan, Minglu Chen, Laibing Jia, Chunyan Ji y Atilla Incecik por su estudio sobre la forma en la que las crías de pato dejan una distancia muy concreta con sus predecesoras, y estas, a su vez, con la “mamá pato” cuando surcan las aguas.
Feynman, Einstein… y los patitos
Contextualizando el estudio, hay sendas frases de dos de los mayores físicos de la historia que nos permiten valorar adecuadamente la dificultad e importancia de este análisis. Richard Feynman dijo en su momento de la turbulencia que era "el problema no resuelto más importante de la física clásica". A Einstein se le atribuye la lapidaria frase "Voy a preguntar a Dios dos cuestiones: el porqué de la relatividad y el porqué de la turbulencia. Soy optimista en obtener respuesta a la primera cuestión".
Visto esto, ¿es posible que los recién nacidos patitos hayan resuelto un problema que se les escapaba a Feynman y Einstein? Según revela el estudio, las familias de patos son capaces de colocarse en los lugares apropiados, pero —al no ser físicos— nunca se han preguntado por qué esas posiciones son exactamente las correctas, algo que este estudio ha venido a resolver. En su premiado artículo, analizan por qué la formación elegida por las familias de patos necesita mucha menor energía para la navegación que otras en las que no se tenga en cuenta la interferencia de las olas.

Tal y como expresa el Ig Nobel de física del 2022, los patos que nadan en formación de línea y manteniendo distancias concretas minimizan la resistencia que el agua ofrece, optimizando al máximo el gasto energético que supone la ruta. El estudio demuestra que, si la colocación y distancia entre patos es la adecuada, todos los patitos de la fila pueden nadar sin resistencia a las olas debido a la interferencia destructiva de las mismas, así, solo tienen que vencer la resistencia del medio.
Además de esto, los primeros tres patos utilizan directamente la energía de las olas generadas por la madre para impulsarse hacia adelante, mientras los animales restantes son capaces de colocarse de la manera adecuada para que la interferencia entre las ondas de la madre y de los primeros patos también les arrastre sin apenas gasto energético.
Formaciones que van más allá de la física
En una situación ideal en la los patitos están separados exactamente por una longitud de onda de la ola generada, el corredor que se genera detrás de la madre permite nadar sin resistencia de ola al resto de patos, muy por detrás de la primera cresta de ola de la que los tres primeros extraen la energía.

En otro estudio del año 2022 que analiza diferentes especies, Simen Å. Ellingsen pone de manifiesto que son varias las diferentes formaciones utilizadas por los animales, y que en algunos casos llegan incluso a obviar la energía y utilizan formaciones desordenadas, caso este menos interesante para la física y que deberán valorar los biólogos basándose principalmente en las relaciones sociales de los ánades.
El fenómeno físico utilizado por los patitos en formación parece ser el mismo que motiva el proyecto de investigación militar estadounidense Sea Train de la agencia DARPA. Este consiste en una fila de vehículos no tripulados que viajan en formación y que se aprovechan de lo que los patos aprenden por instinto para reducir el combustible necesario para realizar rutas marítimas.
Este proyecto, iniciado en 2020, se basa en trenes de hasta cuatro embarcaciones que mantendrían entre ellas la distancia apropiada para ubicarse en el punto en el que la interferencia de la ola es destructiva, cancelando la resistencia al movimiento propio del oleaje.

La naturaleza como maestra de soluciones
Una de las cuestiones que estos estudios ponen de manifiesto es que, la propia naturaleza es capaz de encontrar soluciones a problemas de la vida real sin importar los motivos físicos que lo motivan y, por tanto, apostar por respuestas “biomiméticas” para problemas actuales puede ser un buen campo de estudio.
Por otro lado, artículos que en un primer momento parecen poco productivos pueden acabar siendo claves a la hora de ayudar a resolver problemas vitales. En este caso, hay que tener en cuenta que se espera que las emisiones de gases de efecto invernadero derivadas del transporte marítimo de mercancías crezcan un 35 % entre ahora y el año 2050, en caso de que no se adopte ningún tipo de medida para reducirlas. Empezar a transportar mercancías con los barcos alineados en disposiciones similares a las de los patitos siguiendo a la madre puede ser un primer paso para reducir esas emisiones y frenar en cierta medida el grave problema del cambio climático antropogénico que ya es uno de los grandes retos no sólo de la ciencia, sino de toda la sociedad.
Hay que tener en cuenta, por tanto, que toda investigación, por irrelevante que parezca en un primer momento, merece no solo un análisis detallado de sus resultados, sino un tiempo suficiente de valoración de posibles aplicaciones en campos distintos a aquellos en los que fue realizada.
En nuestro rico y disperso idioma, el español, contamos con la expresión “tener los patitos en línea” (sobre todo usada en algunos países de Latinoamérica). Su significado es “estar cuerdo” y/o “decir cosas con sentido”. Ciertamente, aunque los trabajos referidos pueden parecer todo lo contrario (una locura, un sinsentido), qué duda cabe que tratan sobre cómo mantener los patitos en línea.
Referencias
- Yuan Z-M, Chen M, Jia L, Ji C, Incecik A. Wave-riding and wave-passing by ducklings in formation swimming. Journal of Fluid Mechanics. (2021). doi: 10.1017/jfm.2021.820
Cada vez que una aplicación como Google Maps te indica cómo llegar más rápido a tu destino, hay un algoritmo clásico trabajando silenciosamente detrás. Se llama algoritmo de Dijkstra, y ha sido durante décadas la solución más eficaz para resolver un problema fundamental: encontrar la ruta más corta en un mapa, una red de carreteras, o cualquier grafo que represente conexiones entre puntos.
Pero esta no es solo una historia de caminos y distancias. Tiene algo de leyenda científica. Edsger Dijkstra ideó su algoritmo en apenas veinte minutos, mientras conversaba con su prometida sobre cómo organizar su boda. Desde 1959, su solución ha sido el estándar para ingenieros, programadores y matemáticos. Ahora, por primera vez en más de medio siglo, un nuevo método ha logrado superarlo, al menos en ciertos contextos. Y lo ha hecho sin necesidad de ordenar todos los caminos posibles.
Un equipo de investigadores encabezado por Ran Duan, de la Universidad de Tsinghua, presentó este año un algoritmo que rompe una barrera teórica considerada infranqueable en grafos dirigidos con pesos reales no negativos: el límite de eficiencia impuesto por la necesidad de ordenar vértices durante la ejecución. Su trabajo, publicado en arXiv el 31 de julio de 2025, introduce un enfoque innovador que reduce la carga de ordenamiento sin perder precisión, lo que podría abrir una nueva etapa en la historia de los algoritmos de rutas.
Un problema cotidiano con raíces matemáticas profundas
Buscar la ruta más corta entre dos puntos no es solo un reto práctico. Es un problema clásico en matemáticas aplicadas y en ciencia de la computación, con aplicaciones en redes sociales, logística, transporte urbano, videojuegos y análisis de datos.
El algoritmo de Dijkstra ha sido hasta ahora el estándar de oro. Funciona de forma iterativa: comienza desde un vértice de origen y, paso a paso, calcula la distancia más corta hacia todos los demás vértices del grafo. Utiliza una estructura llamada "cola de prioridad", que permite elegir siempre el nodo más prometedor. Este proceso garantiza una solución óptima, pero implica un costo: para mantener ese orden riguroso, es necesario realizar muchas operaciones de ordenamiento.
Ese esfuerzo, conocido como la "barrera del ordenamiento", ha sido durante décadas una limitación aceptada. El propio Dijkstra lo asumía como parte inevitable de su método. Sin embargo, el nuevo algoritmo presentado por Duan y sus colegas logra reducir ese costo y mantener la precisión en contextos específicos: los grafos dirigidos y dispersos, es decir, aquellos en los que el número de conexiones posibles entre nodos no es excesivamente alto.

Cómo funciona el nuevo algoritmo
La propuesta de Duan, Jiayi Mao, Xiao Mao, Xinkai Shu y Longhui Yin se basa en una idea central: disminuir el tamaño de la frontera, es decir, el conjunto de nodos que podrían ser explorados en los próximos pasos del algoritmo. En lugar de mantener una cola de prioridad que ordena todos los nodos por distancia, el nuevo método trabaja con un número reducido de elementos llamados pivotes, y aplica una técnica de divide y vencerás para organizar la exploración del grafo.
Una de las claves del nuevo enfoque es que logra reducir drásticamente la cantidad de nodos que deben mantenerse ordenados en cada momento. En lugar de trabajar con todos los posibles caminos, el algoritmo selecciona un subconjunto mucho más pequeño y suficiente para calcular las mejores rutas. Esta reducción inteligente de candidatos permite evitar la costosa operación de ordenar vértices en cada paso, lo que a su vez mejora el tiempo total de ejecución respecto al algoritmo de Dijkstra. Según los autores, el nuevo método alcanza una eficiencia teórica mayor, reduciendo el tiempo de cálculo a una escala inferior, algo que hasta ahora no se había conseguido con soluciones deterministas en este tipo de grafos.
Este avance es significativo desde el punto de vista teórico. Supone la primera vez que se rompe esa cota inferior de ordenamiento en grafos dirigidos sin recurrir a aleatorización ni a supuestos especiales. La estrategia consiste en tres pasos principales:
- Ejecutar varias rondas limitadas del algoritmo de Bellman-Ford para detectar nodos que pueden completarse rápidamente.
- Identificar pivotes que cubren subárboles grandes del grafo, lo que permite reducir el número de nodos necesarios para continuar.
- Usar una estructura de datos con orden parcial, más simple y eficiente que una cola de prioridad tradicional.
El subalgoritmo central del procedimiento, llamado BMSSP (Bounded Multi-Source Shortest Paths), permite completar partes del grafo sin necesidad de mantener una lista totalmente ordenada de candidatos. En palabras del paper, “el procedimiento BMSSP permite resolver subproblemas restringidos con límites de trabajo por nivel y sin ordenar completamente la frontera”.

En qué casos realmente mejora a Dijkstra
La promesa del nuevo algoritmo no es universal. Como advierte uno de los artículos que comentan este trabajo, “no reemplazará a Dijkstra en todos los códigos existentes”. La mejora teórica se nota sobre todo en grafos dispersos, aquellos con pocos enlaces en relación con el número de nodos. Es el caso de muchas redes reales, como las redes de transporte urbano, los mapas de carreteras, o las infraestructuras de datos de grandes plataformas tecnológicas.
En cambio, en grafos densos, donde hay muchas conexiones entre nodos, el nuevo algoritmo pierde ventaja. También hay otros métodos más rápidos para grafos con pesos enteros pequeños, como los algoritmos de Dial o Thorup, pero no se aplican en los casos más generales.
Esto no significa que el avance no tenga implicaciones prácticas. De hecho, el propio Dijkstra nunca diseñó su algoritmo con la idea de que duraría más de medio siglo como líder indiscutido. Ahora, este nuevo método abre una línea de investigación que puede inspirar nuevos enfoques híbridos, más eficientes y adaptables. En contextos donde se requieren muchos cálculos simultáneos —como en sistemas de entrega, plataformas de juegos online o análisis de redes sociales—, incluso pequeñas mejoras pueden tener un impacto notable en velocidad y consumo energético.

¿Por qué romper la barrera del ordenamiento es tan importante?
Lo que está en juego no es solo una mejora de velocidad. El algoritmo de Duan y su equipo desacopla dos procesos que hasta ahora iban unidos: calcular distancias mínimas y ordenar los vértices por esas distancias. Al separarlos, el nuevo enfoque permite explorar alternativas que podrían ser más eficientes en muchos escenarios.
Lo más relevante del hallazgo es que demuestra que aún era posible mejorar un algoritmo que se consideraba prácticamente insuperable. Durante años se pensó que no había forma de resolver este tipo de problemas de forma más eficiente sin sacrificar exactitud, pero el nuevo método prueba que sí se puede: es posible ahorrar tiempo sin hacer suposiciones especiales ni recurrir al azar.
Además, el algoritmo está diseñado dentro del llamado modelo de comparación y suma, un marco muy general que solo permite operar con sumas y comparaciones sobre los pesos de las aristas. Esto refuerza su aplicabilidad y su rigor teórico.
Un paso más allá de la teoría
Aunque la implementación aún está lejos de estar presente en aplicaciones comerciales, ya existen versiones funcionales del algoritmo que han sido validadas con código. Algunos investigadores han comenzado a explorar variantes optimizadas para hardware moderno, con estructuras de datos más amigables para la caché y capaces de aprovechar la paralelización.
Y aunque Dijkstra seguirá presente en libros, clases y sistemas por un buen tiempo, este avance seguramente marcará un cambio. Como señalan en Futualist, “Es probable que, a partir de ahora, los libros de texto universitarios incluyan, al menos, una nota al pie mencionando el nuevo Algoritmo de Reducción de Frontera.”
Las ideas introducidas —reducir la frontera, evitar ordenamientos completos, usar pivotes y recursion controlada— pueden ser aplicadas o adaptadas en otros problemas complejos, no solo en rutas mínimas. Es una contribución que, aunque técnica, deja un mensaje claro: aún en terrenos donde parecía que todo estaba dicho, la innovación sigue siendo posible.
Referencias
- Ran Duan, Jiayi Mao, Xiao Mao, Xinkai Shu, Longhui Yin. Breaking the Sorting Barrier for Directed Single-Source Shortest Paths. arXiv:2504.17033v2, 31 de julio de 2025. https://arxiv.org/abs/2504.17033.
- Dijkstra, E. W. (1959). A note on two problems in connexion with graphs. Numerische Mathematik 1: 269-271. S2CID 123284777. doi:10.1007/BF01386390.
La transición energética europea avanza a gran velocidad. En pocos años, una parte mayoritaria de nuestra electricidad procederá de fuentes renovables como el viento o el sol. Esto implica menos emisiones, menos dependencia de combustibles fósiles y un aire más limpio. Pero también plantea nuevos retos para quienes diseñan el sistema eléctrico del mañana.
Uno de los más importantes es la planificación a largo plazo. ¿Cuánta energía solar y eólica necesitamos instalar? ¿Dónde deben ubicarse las baterías? ¿Cómo garantizar que la electricidad llegue a todas partes, todos los días del año? Responder a estas preguntas requiere modelos matemáticos complejos que simulan el comportamiento del sistema eléctrico durante varios años, teniendo en cuenta cómo varían la demanda, la producción renovable y el uso del almacenamiento en cada momento.
El problema es que estos modelos, si se resuelven hora a hora durante varios años, pueden volverse inmanejables desde el punto de vista computacional. Para evitarlo, se utilizan técnicas de agrupación temporal que permiten reducir la cantidad de datos conservando la esencia del sistema.
Días representativos… con un talón de Aquiles
Una de las estrategias más comunes para simplificar el modelado consiste en seleccionar unos pocos días representativos: por ejemplo, un día de verano con mucho sol, un día de invierno con alta demanda o un día ventoso en otoño. Cada uno de estos días representa a decenas de días con condiciones similares. Esta aproximación reduce drásticamente el tamaño del problema, facilitando su resolución. En la Figura 1 se puede observar cómo la serie temporal de la demanda eléctrica durante dos semanas (línea continua roja) es aproximada mediante dos días representativos (línea discontinua azul). Los puntos donde ambas líneas coinciden corresponden a los días seleccionados como representativos.

Mientras que la demanda eléctrica tiene un fuerte componente de periodicidad diaria, la generación renovable no sigue un patrón tan marcado. Por ejemplo, puede haber varios días consecutivos con mucho viento, seguidos de varios días con poco viento. Esta variabilidad hace que los métodos basados en días representativos no capturen bien el comportamiento de las renovables. En la Figura 2 se muestra la generación eólica durante dos semanas (línea continua roja) y su aproximación mediante solo dos días representativos (línea discontinua azul), donde se observa que esta simplificación no refleja adecuadamente las fluctuaciones reales. Esto dificulta que la planificación eléctrica sea precisa si no se considera esta dinámica temporal.
Además de que las renovables no siguen patrones diarios claros, este tipo de simplificación presenta un talón de Aquiles: al seleccionar días aislados y sin conexión temporal, se pierde la cronología. Esto significa que se pierde información sobre el orden real en que ocurren eventos como rachas prolongadas de viento, olas de calor o cambios graduales en la demanda. Esta pérdida de secuencia es especialmente crítica al modelar tecnologías como el almacenamiento de energía, ya que no basta con saber cuánto se genera o consume, sino que es esencial conocer cuándo ocurre cada evento. El estado de carga de una batería depende del pasado reciente: si hubo excedentes antes, cuántos días han pasado desde la última recarga o cuánto se descargó en el período anterior. Sin una cronología coherente, el modelo puede tomar decisiones que en la práctica serían inviables o poco eficientes.

Fusionar lo similar, conservar lo importante
Para abordar este desafío, en la Universidad de Málaga se ha desarrollado un nuevo método de agrupación temporal que preserva la estructura cronológica de los datos, manteniendo en la medida de lo posible la información sobre la evolución real de los parámetros que varían con el tiempo a lo largo de todo el horizonte de planificación. En lugar de seleccionar días o semanas aislados, este enfoque fusiona períodos consecutivos que presentan características similares. En esencia, el método realiza una agrupación jerárquica de horas consecutivas, basada en medidas convencionales de similitud entre los datos. Por ejemplo, si varias horas seguidas muestran condiciones parecidas de viento, radiación solar y demanda eléctrica, se agrupan en un único bloque representativo. Así, se conservan las dinámicas reales del sistema —incluyendo transiciones suaves o abruptas— sin necesidad de modelar cada hora individualmente. El resultado es una secuencia de bloques conectados que refleja con precisión la evolución temporal del sistema, pero con una cantidad de datos considerablemente reducida. Esto permite capturar las dinámicas a largo plazo de la generación renovable y representar correctamente las restricciones energéticas de dispositivos de almacenamiento que operan en escalas de días.
En la Figura 3 se muestra un ejemplo de esta agrupación aplicada para aproximar la generación eléctrica eólica durante dos semanas usando solo 48 períodos de tiempo de distinta duración, equivalentes a las 48 horas de dos días representativos. Se puede observar que esta aproximación captura mucho mejor la variabilidad real de la producción renovable a lo largo de todo el horizonte temporal, en comparación con los métodos tradicionales que utilizan unos pocos días representativos aislados. De esta forma, el método ofrece una representación compacta y rigurosa que mantiene la estructura esencial del sistema y mejora la precisión del análisis.
Mejor rendimiento, menores errores
Este nuevo enfoque se ha probado con un modelo de planificación para el sistema eléctrico europeo del año 2030, y se ha comparado con métodos tradicionales basados en días o semanas representativas. Los resultados muestran que el nuevo método consigue decisiones mucho más cercanas a las del modelo completo, pero con un esfuerzo computacional muy inferior. Mientras los métodos tradicionales pueden cometer errores del 13 % o incluso el 48 %, el nuevo método reduce ese error a apenas un 6 %. Las ventajas son particularmente notables en sistemas donde las dinámicas relevantes no son puramente diarias, como ocurre con la energía eólica o el uso del almacenamiento. En estos casos, respetar la cronología no es un detalle técnico: es una condición necesaria para que el modelo refleje fielmente la realidad.

Un método práctico y transparente
Además de su precisión, el nuevo método destaca por ser interpretativo —es posible entender cómo se agrupan los períodos y qué representan— y fácil de implementar en entornos reales. No requiere herramientas sofisticadas ni datos poco accesibles. Y, sobre todo, permite mejorar de forma tangible la calidad de las decisiones de planificación.
Una mejor planificación no solo significa ahorrar costes o evitar errores: también puede suponer una reducción importante de emisiones, una integración más eficiente de las renovables o una mejor ubicación de las infraestructuras eléctricas. En definitiva, un sistema más robusto, más limpio y más justo.
Conclusión
La transición energética necesita herramientas que estén a la altura de su complejidad. No basta con tener buenos datos: hace falta tratarlos con inteligencia, sin sacrificar realismo por el camino.
El método propuesto por investigadores españoles permite dar un paso en esa dirección. Una forma de planificar el futuro eléctrico de Europa con realismo, eficiencia y claridad. De ver el bosque sin perder de vista los árboles… ni el orden en que crecen.
Porque en este romance del siglo XXI, entre renovables y baterías, respetar la cronología no es una opción: es la clave para que los sistemas eléctricos sostenibles sean una realidad.
Salvador Pineda Morente
Ingeniería Industrial

Juan Miguel Morales González
Ingeniería Industrial

A solo 39 años luz de la Tierra, una estrella muerta ha revelado una historia que contradice lo que los astrónomos creían saber sobre la vida y muerte de las estrellas. WD 0525+526 parecía, a simple vista, una enana blanca corriente, uno de esos cuerpos celestes que marcan la fase final de la evolución estelar. Sin embargo, el Telescopio Espacial Hubble ha destapado un detalle insospechado: en su atmósfera se esconde carbono, una pista química que apunta a un origen mucho más violento. Este hallazgo, fruto de un trabajo publicado en Nature Astronomy, no solo aporta una pieza clave para entender ciertos objetos raros, sino que podría cambiar la forma en que clasificamos y comprendemos las enanas blancas. De hecho, no es el único evento extraordinario sobre enanas blancas que se descubre en 2025.
El equipo científico, liderado por Snehalata Sahu y Antoine Bédard, no se topó con este resultado por azar. Usando espectroscopia ultravioleta de alta precisión, identificaron en WD 0525+526 una proporción de carbono extremadamente baja, pero detectable solo en estas longitudes de onda. "La abundancia de carbono (log(C/H) = −4.62) es entre 4 y 5 órdenes de magnitud menor que la de los seis casos conocidos, y por lo tanto solo detectable en el ultravioleta", señalan los autores en el artículo. Este dato, que no habría aparecido en observaciones ópticas, revela que la estrella es un remanente de fusión, el producto de la colisión entre dos astros.
El contexto de las enanas blancas y la rareza de WD 0525+526
Las enanas blancas son el núcleo residual de estrellas que no tienen suficiente masa para explotar como supernovas de colapso de núcleo. Tras agotar el hidrógeno en su interior, estas estrellas expulsan sus capas externas, dejando un núcleo extremadamente denso, del tamaño aproximado de la Tierra pero con hasta 1,4 veces la masa del Sol. La mayoría posee atmósferas dominadas por hidrógeno o helio, que ocultan elementos más pesados como el carbono y el oxígeno.
En este escenario general, WD 0525+526 destaca por varios motivos. Su masa es de 1,20 ± 0,01 masas solares y su temperatura efectiva alcanza los 20 820 ± 96 K, lo que la sitúa en el grupo de enanas blancas ultramasivas. Estas estrellas son poco frecuentes y, según explican los autores, un porcentaje significativo podría ser el resultado de fusiones estelares. El problema es que identificarlas no es sencillo, ya que la señal química de ese pasado violento suele quedar oculta por las capas externas de la atmósfera.

Lo que revela la luz ultravioleta
La clave del hallazgo fue el Cosmic Origins Spectrograph (COS) a bordo del Hubble, un instrumento capaz de analizar el espectro ultravioleta lejano. En el caso de WD 0525+526, el espectro óptico no mostraba rastro de carbono ni helio, pero el ultravioleta sí lo hizo. Las líneas más fuertes correspondían a transiciones de C II y C III, confirmando que la señal era de origen fotosférico y no del medio interestelar.
“La detección de carbono en WD 0525+526 fue posible únicamente gracias a la espectroscopia de Hubble”, afirman los investigadores. Esto demuestra que el ultravioleta es fundamental para descubrir remanentes de fusiones que podrían pasar inadvertidos en el rango visible, ampliando el censo de este tipo de objetos.

Una atmósfera estable y el papel de la semiconvección
Uno de los aspectos más intrigantes es que WD 0525+526 tiene una atmósfera de hidrógeno estable a la convección, a diferencia de otras enanas blancas con atmósferas mezcladas que exhiben más carbono. Los modelos desarrollados por el equipo indican que la estrella presenta una fina capa de hidrógeno sobre una zona de semiconvección. Este proceso, que inhibe la mezcla total de materiales por la presencia de gradientes de composición, permite que solo pequeñas cantidades de carbono asciendan hasta la superficie.
Este resultado es relevante porque la masa total de hidrógeno (10-13,8 de la masa estelar) y la de helio son mucho menores que las esperadas para la evolución de una sola estrella. El déficit es coherente con un escenario de fusión, donde el choque y el posterior quemado termonuclear eliminan gran parte de estos elementos ligeros. La consecuencia es que WD 0525+526 no solo es más caliente y más masiva que otras enanas blancas de su clase, sino también más pobre en elementos ligeros residuales.

Un vínculo con la población de la Q-branch
En el diagrama de Hertzsprung–Russell, WD 0525+526 se encuentra en la llamada Q-branch, una región donde algunas enanas blancas muestran una desaceleración en su enfriamiento debida a procesos de cristalización en su núcleo. Las ultramasivas de esta zona presentan velocidades espaciales inusuales y edades cinemáticas que no encajan con la evolución típica de estrellas aisladas. Este comportamiento ha sido interpretado como una señal de que muchas de ellas proceden de fusiones estelares.
El estudio confirma que WD 0525+526 pertenece a la subclase DAQ, con atmósferas de hidrógeno y carbono. Es el ejemplar más caliente y cercano de esta categoría, y con la menor abundancia de carbono medida. Esto lo convierte en una pieza clave para entender la diversidad y el origen de las DAQ, así como su conexión con eventos de fusión.
Descifrando su pasado y futuro
Según los autores, en etapas anteriores WD 0525+526 probablemente tuvo una atmósfera dominada por carbono, semejante a la de la estrella pre-enana blanca H1504+65. Con el enfriamiento, el hidrógeno residual flotó hacia la superficie, formando la capa que hoy vemos. En el futuro, a medida que siga enfriándose, la convección superficial podría mezclar nuevamente el carbono hacia fuera, transformándola en una enana blanca tipo DQ.
No obstante, este cambio tardará miles de millones de años, ya que el proceso de destilación del isótopo ²²Ne ralentiza su enfriamiento. De este modo, WD 0525+526 permanecerá durante mucho tiempo como un raro testimonio de lo que ocurre cuando dos estrellas mueren de forma conjunta.
Implicaciones más amplias
Este hallazgo refuerza la hipótesis de que muchas enanas blancas que parecen normales podrían ser en realidad productos de fusión. Si es así, el papel de las fusiones en la evolución estelar y en fenómenos como las supernovas termonucleares podría estar subestimado. El equipo ya planea extender la búsqueda a otras estrellas candidatasusando espectroscopia ultravioleta, con el objetivo de estimar cuán frecuente es este camino evolutivo.
Como concluyen en el artículo, “nuestro estudio destaca la importancia de la espectroscopia ultravioleta para identificar y caracterizar remanentes de fusión”, una herramienta que podría reescribir parte de la astrofísica de enanas blancas y sistemas binarios.
Referencias
- Sahu, S., Bédard, A., Gänsicke, B. T., Tremblay, P.-E., Koester, D., Farihi, J., Hermes, J. J., Hollands, M. A., Cunningham, T., & Redfield, S. (2025). A hot white dwarf merger remnant revealed by an ultraviolet detection of carbon. Nature Astronomy. https://doi.org/10.1038/s41550-025-02590-y.
La física cuántica y la física nuclear suelen confundirse en el gran público porque ambas miran el mundo a escalas diminutas y nacieron en el siglo XX. Pero no son lo mismo. La primera es un marco teórico general para describir la materia y la energía a nivel microscópico; la segunda es una subdisciplina que se centra en los núcleos atómicos y en cómo cambian. Aquí tienes una explicación clara, con lo esencial. Explicamos qué estudia cada campo, cómo surgieron, en qué se parecen y en qué se diferencian. Como aporte final a modo de conclusión tienes un cuadro comparativo para tenerlo todo de un vistazo.
¿Qué es la física cuántica?
La física cuántica (o mecánica cuántica) describe el comportamiento de átomos, electrones, fotones y otras partículas, donde las reglas clásicas fallan. Sus ideas clave son:
- Cuantización: energía y materia aparecen en paquetes discretos llamados cuantos.
- Dualidad onda-partícula: lo microscópico se comporta a la vez como partícula y como onda.
- Incertidumbre y probabilidades: no se predice con certeza dónde está una partícula, sino la probabilidad de hallarla; la función de onda codifica esa información.
- Niveles de energía discretos: en átomos y sistemas subatómicos existen niveles separados, no un continuo.
Breve historia
La física cuántica nació a comienzos del siglo XX para resolver problemas que la física clásica no podía explicar. El punto de partida suele situarse en 1900, cuando Max Planck introdujo la idea de que la energía se emite o absorbe en unidades discretas (cuantos) al explicar la radiación del cuerpo negro. Poco después, en 1905, Albert Einstein utilizó el concepto de cuantos de luz (fotones) para explicar el efecto fotoeléctrico, confirmando que la luz a nivel microscópico se comporta de forma granular. En 1913, Niels Bohr propuso su modelo cuántico del átomo de hidrógeno con electrones en órbitas cuantizadas alrededor del núcleo, lo que explicaba por qué los átomos emiten luz en frecuencias específicas. Durante los años 1920, la teoría cuántica se consolida con las formulaciones de la mecánica cuántica moderna: Werner Heisenberg desarrolla la mecánica matricial y el principio de incertidumbre (1927), Erwin Schrödinger formula la ecuación de onda (1926) y propone el famoso experimento mental del gato de Schrödinger, y científicos como Max Born aportan la interpretación probabilística de la función de onda. Para finales de la década de 1920, la mecánica cuántica estaba firmemente establecida como una teoría fundamental, aunque profundamente contraintuitiva. En las décadas siguientes, se extendió al desarrollo de la electrodinámica cuántica y otras teorías cuánticas de campos, convirtiéndose en un pilar de la física moderna junto con la relatividad.
Aplicaciones destacadas
La cuántica está detrás de gran parte de la tecnología moderna: transistores, diodos LED, láseres, sensores y materiales superconductores. La computación cuántica explora qubits en superposición para resolver ciertos problemas con ventaja; la criptografía cuántica promete comunicaciones muy seguras. En medicina, fenómenos cuánticos sostienen técnicas como la resonancia magnética (basada en el espín nuclear) y los detectores de radiación.

¿Qué es la física nuclear?
La física nuclear estudia los núcleos atómicos: cómo están hechos, qué fuerzas los mantienen y cómo se transforman. El núcleo contiene protones y neutrones (los nucleones). Pese a la repulsión eléctrica entre protones, los núcleos se mantienen unidos por la fuerza nuclear fuerte, intensísima pero de corto alcance. La interacción débil gobierna decaimientos como la desintegración beta, y la electromagnética aparece en la repulsión protón-protón y en la emisión gamma.
Una idea central que suele llamar la atención es la de energía de enlace nuclear. La masa del núcleo es ligeramente menor que la suma de sus nucleones aislados; esa diferencia de masa se traduce en energía (E=mc2). Por eso la fisión (romper núcleos pesados) y la fusión (unir núcleos ligeros) liberan enormes cantidades de energía.
Breve historia
La física nuclear emerge entre finales del siglo XIX y comienzos del XX de la mano de la radiactividad. En 1896, Henri Becquerel descubrió que las sales de uranio emitían radiación sin estímulo externo, abriendo una línea de investigación que Marie y Pierre Curie consolidaron al aislar polonio y radio y estudiar sistemáticamente sus misteriosas emisiones. El salto conceptual llegó en 1911, cuando Ernest Rutherford realizó su célebre experimento de la lámina de oro: al bombardear láminas finas con partículas alfa, algunas rebotaban con grandes ángulos, algo imposible de reconciliar con un átomo difuso. La conclusión fue inevitable: la carga positiva y casi toda la masa estaban concentradas en un núcleo minúsculo. Desde entonces, Rutherford es considerado el padre de la física nuclear. En esa década y la siguiente se clasificaron las radiaciones alfa, beta y gamma, y en 1932 James Chadwick anunció el neutrón, cuya existencia explicaba los isótopos y ofrecía un nuevo proyectil neutro —ideal para penetrar el núcleo sin repulsión eléctrica— para inducir reacciones. El uso de estas herramientas condujo, en 1938, al hallazgo de la fisión del uranio por Hahn y Strassmann, cuya interpretación teórica —debida a Lise Meitner (y Frisch)— reveló que la partición del núcleo libera enorme energía y neutrones adicionales.
Las implicaciones fueron inmediatas: en plena guerra, la posibilidad de una reacción en cadena llevó al Proyecto Manhattan y a las primeras bombas de fisión; en 1942, Enrico Fermi demostró el control de la fisión sostenida con el primer reactor. Acabado el conflicto, la disciplina se expandió hacia la energía civil (reactores para electricidad) y la medicina nuclear (imágenes PET, radiofármacos, radioterapia), mientras se abría una frontera teórica y experimental junto a la física de partículas: los nucleones se entendieron como sistemas de quarks ligados por gluones, descritos por la cromodinámica cuántica. En paralelo, la mecánica cuántica iluminaba procesos nucleares: en 1928, George Gamow mostró que la desintegración alfa se explica por efecto túnel, un hito que convirtió al núcleo en banco de pruebas de conceptos cuánticos. El desarrollo de aceleradores —del ciclotrón a los sincrotrones— amplió el acceso a núcleos exóticos, permitió mapear niveles nucleares y explorar los límites de estabilidad, a la vez que alimentó la búsqueda de la fusión controlada, espejo de la energía estelar.
Aplicaciones destacadas
Energía nuclear en centrales (bajas emisiones, reto de residuos), medicina nuclear (PET, gammagrafía, radioterapia), datación por radiactividad (como Carbono-14), industria (radiografía de materiales) y exploración espacial (RTG). También la tecnología militar, con implicaciones éticas y de seguridad.
Similitudes entre física cuántica y física nuclear
- Misma escala, reglas nuevas. Ambas operan en lo microscópico, donde la intuición clásica falla.
- Pilares de la física moderna. Surgieron en el mismo periodo y cambiaron la ciencia para siempre.
- La nuclear es cuántica por dentro. Los nucleones obedecen el principio de exclusión de Pauli, ocupan niveles discretos y muestran fenómenos como el efecto túnel (clave para la desintegración alfa).
- Fenómenos discretos. Transiciones cuantizadas: en átomos (fotones de ciertas frecuencias) y en núcleos (rayos gamma y partículas).
- Campos que se tocan. Intersecciones como óptica cuántica aplicada a transiciones nucleares abren puertas a relojes nucleares ultraprecisos y nuevos sensores.
Diferencias entre física cuántica y física nuclear
- Papel en la ciencia. La cuántica es un marco teórico general; la nuclear es un campo aplicado a un objeto específico: el núcleo.
- Objeto de estudio. La cuántica cubre átomos, moléculas, fotones, materiales, partículas elementales… La nuclear se centra en núcleos y reacciones entre nucleones.
- Fuerzas protagonistas. En nuclear domina la fuerza fuerte (más débil y electromagnética en procesos concretos). En muchos problemas cuánticos cotidianos domina la electromagnética.
- Herramientas experimentales. La nuclear usa reactores, aceleradores, detectores y blindajes; la cuántica usa láseres, trampas de iones, criogenia, circuitos superconductores y óptica de precisión.
- Energías típicas y riesgos. En nuclear hablamos de MeV–GeV y de radiación ionizante; en muchos experimentos cuánticos, eV o menos, con retos de ruido, vacío y temperatura.

Cuadro comparativo: física cuántica vs. física nuclear
Aspecto | Física Cuántica | Física Nuclear |
---|---|---|
Definición General | Teoría física fundamental que describe la materia y la energía a escalas atómicas y subatómicas; marco teórico aplicable a múltiples sistemas microscópicos. | Rama especializada que estudia las propiedades e interacciones de los núcleos atómicos (protones y neutrones) y sus reacciones. |
Alcance / Objeto de Estudio | Átomos, moléculas, partículas elementales, fotones, sólidos y sistemas donde la naturaleza discreta y probabilística es relevante. | Núcleos atómicos y nucleones; fenómenos como radiactividad, fisión, fusión, transmutación y estructura nuclear. |
Enfoque Histórico | Origen entre 1900 y 1930 (Planck, Einstein, Bohr, Schrödinger, Heisenberg) para explicar fenómenos que la física clásica no podía. | Origen entre 1896 y 1911 (Becquerel, Curie, Rutherford); se consolida con el neutrón (Chadwick), la fisión (1938) y los primeros reactores. |
Fundamentos Teóricos | Cuantización, dualidad onda-partícula, superposición, principio de incertidumbre; ecuación de Schrödinger y teorías cuánticas de campo. | Aplicación de la mecánica cuántica con modelos propios (capas nucleares, gota líquida); papel de las interacciones fuerte, débil y electromagnética, y de la energía de enlace (E=mc²). |
Fuerzas Dominantes | Principalmente electromagnética en átomos y materia; fuerte y débil en contextos de partículas; la gravedad es despreciable a estas escalas. | Predomina la interacción nuclear fuerte; la débil gobierna decaimientos beta y la electromagnética actúa en repulsión protón-protón y emisión gamma. |
Métodos Experimentales | Óptica y fotónica (láseres, interferometría), trampas de iones, criogenia, circuitos superconductores; energías típicas bajas a moderadas. | Aceleradores y reactores; haces de partículas y detectores de radiación; energías altas (MeV–GeV) y estrictas medidas de protección radiológica. |
Aplicaciones Tecnológicas | Electrónica (transistores, LED), láseres, sensores, computación y criptografía cuánticas, materiales avanzados, resonancia magnética, relojes atómicos y telecomunicaciones. | Energía eléctrica en centrales de fisión (y futura fusión), medicina nuclear (PET, radioterapia, radiofármacos), datación radiactiva, radiografía industrial, RTG espaciales, detectores de humo. |
Conexión Entre Ambas | Proporciona el marco teórico que explica los fenómenos nucleares (niveles discretos, efecto túnel, transiciones gamma). | Campo de aplicación de la teoría cuántica; ofrece casos y técnicas que impulsan desarrollos cuánticos (p. ej., excitaciones nucleares con láseres y relojes nucleares). |
Percepción y Desafíos | Conceptualmente exigente; retos: interpretación de la teoría, unificación con la gravedad, escalado de tecnologías cuánticas. | Impacto dual (beneficios y riesgos); retos: fusión viable, gestión de residuos, comprensión de núcleos exóticos y materia densa. |
Las celebraciones, fiestas y banquetes son un ingrediente esencial de la sociabilidad humana. Ahora, un hallazgo excepcional en el corazón del Zagros central, en el yacimiento neolítico temprano de Asiab (Irán occidental), ha permitido reconstruir un singular episodio de interacción social que ocurrió entre 9660 y 9340 antes de nuestra era. Los restos cuidadosamente dispuestos de diecinueve jabalíes salvajes (Sus scrofa), depositados junto a un cráneo de oso pardo y fragmentos de astas de ciervo rojo, constituyen el núcleo de un hallazgo único. Se trata de un “pozo de jabalíes” que atestigua la celebración de un banquete comunitarioa gran escala.
Este no ha sido el único descubrimiento. Los análisis isotópicos y de elementos traza realizados sobre cinco dientes bien conservados revelan que varios de estos animales procedían de lugares lejanos y que, por tanto, su transporte requirió un notable esfuerzo humano a través de terrenos montañosos.

El contexto arqueológico: el “pozo de jabalíes” de Asiab
En el yacimiento de Asiab, los arqueólogos identificaron los restos de diecinueve jabalíes, de ambos sexos y diferentes edades. Se habían depositado juntos y sellado en una fosa dentro de una construcción circular semisubterránea de unos veinte metros de diámetro, que pudo servir de estructura comunitaria. La disposición y el estado de los huesos sugieren que la matanza, el despiece y el consumo de la carne se realizaron como parte de un mismo evento, más que durante varias celebraciones a lo largo del tiempo.
La estimación del peso total en canal de los jabalíes (unos 700 kg) indica que la carne podría haber alimentado entre 350 y 1200 personas adultas. Es posible que parte de la carne se hubiese conservado mediante técnicas de secado al aire, lo que habría requerido conocimientos especializados para equilibrar flujo de aire, la temperatura y la humedad.

El jaballí, un animal poco habitual en la caza local
Aunque el jabalí aparece representado en la iconografía de otros yacimientos contemporáneos como Sarab (Irán) y Göbekli Tepe (Turquía), no era una presa habitual en la región en aquel periodo. Las comunidades cazaban, sobre todo, especies como la cabra montés (Capra aegagrus), el uro (Bos primigenius) o la perdiz chucar (Alectoris chukar). La rareza del jabalí en la dieta de estas poblaciones, unido a su comportamiento feroz, refuerza la interpretación de que su consumo en Asiab expresa un marcado componente simbólico.
El enfoque científico: una batería de análisis complementarios
El estudio aplicó un conjunto de técnicas de alta resolución para determinar el origen y los patrones de forrajeo de los animales. Se analizaron dos segundos molares y tres terceros molares, prestando especial atención a las micromarcas de crecimiento del esmalte para guiar los muestreos isotópicos.
Se midieron 165 valores de isótopos estables de oxígeno (δ¹⁸O) y 107 cocientes isotópicos de estroncio (⁸⁷Sr/⁸⁶Sr), además de mapear la concentración de bario (Ba) en el esmalte. Estos indicadores han permitido reconstruir tanto el lugar donde se formaron los dientes como ciertos hábitos estacionales de alimentación.

Origen geográfico: evidencias de transporte a larga distancia
Los resultados muestran dos grupos de animales distintos. Cuatro de los jabalíes (ASB133, ASB174, ASB360 y ASB402) presentan valores isotópicos compatibles con zonas situadas al menos a unos 70 km en línea recta de Asiab, mientras que el quinto (ASB449) parece de procedencia local. Este último nació a finales del verano, mientras que los demás lo hicieron en primavera, lo que refleja diferentes ciclos reproductivos.
Considerando la orografía montañosa de la zona y el peso de la carne, el transporte de animales enteros o de partes significativas de su cuerpo implicaba tener que recorrer distancias de dos o más jornadas a pie. Por ello, los investigadores han planteado tres posibles escenarios. Quizás los habitantes de Asiab viajaron lejos para cazar; puede que las comunidades foráneas trajeran los animales como regalo o tributo; o tal vez se transportaron solo ciertas partes de los animales, como las cabezas, para ser depositados ritualmente.

Patrones de forrajeo y dispersión
Las variaciones en la concentración de bario han revelado tanto picos estacionales del consumo de determinados alimentos como cambios en la ubicación geográfica de los animales. Esto apunta a la existencia de sondas de jabalíes en áreas territoriales dispersas. Esta diversidad sugiere que los animales cazados procedían de distintos entornos. Capturarlos, por tanto, tuvo que nevcesitar una logística coordinada y eficaz para conseguir transportarlos hasta Asiab.
Dimensión simbólica y redes sociales
El estudio interpreta el esfuerzo humano para conseguir carne de jabalí como un elemento esencial de los rituales destinados a reforzar los lazos sociales y a expresar la conexión simbólica con los animales. Las prácticas de la caza y el transporte de los animales no solo se explican por las necesidades alimenticias, sino también por la lógica social de la reciprocidad y el prestigio. Aportar jabalíes —animales peligrosos y poco habitules en la dieta cotidiana— a un evento comunal habría sido un gesto de alto valor social y ritual.
La magnitud del festín y la procedencia diversa de los animales muestran, además, que Asiab fue un punto de convergencia para comunidades dispersas, que compartían ceremonias complejas durante la transición hacia la agricultura. Este patrón coincide con evidencias procedentes de otros lugares del Próximo Oriente, donde el banquete y la comensalidad funcionaban como catalizadores de cohesión social y, posiblemente, también sirvieron para introducir innovaciones económicas.

Un precedente para la domesticación
El protagonismo del jabalí en contextos simbólicos y su transporte para rituales sugiere que estas prácticas pudieron, igualmente, allanar el camino hacia su domesticación posterior. Según el equipo de investigación, la inversión de tiempo y energía para obtener y trasladar estos animales indica que su valor social y cultural antecedió a su aprovechamiento ganadero sistemático.
El significado cultural de los alimentos
El hallazgo y estudio del “pozo de jabalíes” de Asiab ha permitido reconstruir una parte del mundo simbólico y logístico del Neolítico temprano en los Zagros. Las comunidades de hace 11.000 años estaban dispuestas a movilizar numerosos recursos humanos y materiales para celebrar banquetes comunales, útiles para fortalecer las redes de contacto. El transporte de jabalíes desde lugares remotos refleja un entramado de interacciones que trascendía el ámbito local. Así, la arqueología no solo recupera huesos y dientes, sino también los ecos de un mundo en el que la comida y el ritual se entrelazaban para tejer las primeras redes complejas de las comunidades humanas sedentarias.
Referencias
- Vaiglova, P., Kierdorf, H., Witzel, C. et al. 2025. "Transport of animals underpinned ritual feasting at the onset of the Neolithic in southwestern Asia". Communications, Earth and Environment, 6: 519 (2025). DOI: https://doi.org/10.1038/s43247-025-02501-z
En la madrugada del 16 de octubre de 1946, diez hombres murieron ahorcados en el gimnasio de la prisión de la ciudad de Núremberg. Estaba previsto que fueran once, pero Hermann Göring, el todopoderoso jefe de la Luftwaffe (la aviación alemana), durante años considerado el sucesor de Hitler, se había suicidado horas antes mordiendo una cápsula de cianuro. La ejecución fue criticada por chapucera. Al parecer, los verdugos calcularon mal la longitud de la soga, y en vez de sufrir una muerte rápida, algunos de los condenados –entre ellos el ministro de Exteriores nazi, Joachim von Ribbentrop–, agonizaron durante veinte minutos.
Dos semanas antes, se habían dictado las sentencias del llamado juicio principal de Núremberg: doce condenas a muerte –una de ellas in absentia–, tres cadenas perpetuas, cuatro largas penas de cárcel y tres absoluciones. Terminaba así un proceso de más de un año en el que los vencedores de la Segunda Guerra Mundial hicieron algo que nunca se había intentado antes: someter a los responsables últimos de una catástrofe bélica como la que había asolado Europa y el mundo a un juicio con garantías en el que tuvieran la posibilidad de defenderse. Pese a todos sus defectos y contradicciones, pocas dudas caben hoy de que los procesos de Núremberg alcanzaron ese objetivo y marcaron el camino para la aplicación de una justicia universal en el futuro. Tanto la creación del Tribunal Penal Internacional de La Haya como los juicios por el genocidio de Ruanda y las guerras de la antigua Yugoslavia siguieron su modelo.
El debate aliado: venganza o juicio con garantías
Quizá la idea de que la cúpula nazi debía ser juzgada nos parezca hoy natural e inevitable, pero en medio de la devastación de 1945 no estaba nada claro que hubiera de ser así, y a los aliados les costó ponerse de acuerdo. Es bien sabido que la opción favorita de Winston Churchill, primer ministro del Reino Unido de 1940 a 1945, era ejecutar a los líderes alemanes a medida que los capturaran; a ser posible, en un plazo no superior a seis horas. Stalin, el dictador soviético, que conocía el valor propagandístico de una buena farsa judicial, quería matarlos también –sobre esto no había dudas–, pero tras juzgarlos.
Después de innumerables padecimientos, el estado de ánimo en Europa era mayoritariamente favorable a la aplicación sumaria y sin contemplaciones de una justicia del vencedor, pero la opinión pública estadounidense, que no había sufrido la guerra en su territorio, exigía que el castigo cumpliera con las formalidades de la tradición jurídica occidental. Al final, la pinza soviético–estadounidense se impuso a la expeditiva solución que propugnaba el Reino Unido. El lugar elegido fue altamente simbólico: Núremberg, la ciudad alemana de las grandes concentraciones nazis; y como sede, el Palacio de Justicia, el mismo sitio en el que, diez años antes, se habían proclamado las leyes de discriminación racial.

Pese a haber optado por un modelo garantista en lugar de por la venganza inmediata, la legalidad de los juicios suscitó críticas y dudas desde el primer momento. Quizá era inevitable, puesto que era la primera vez que se planteaba una operación de semejante alcance. En el pasado se habían castigado crímenes de guerra, pero limitándose siempre a los ejecutores materiales, como soldados rasos u oficiales de baja graduación. Nunca se habían sentado en el banquillo los más altos responsables políticos, militares y civiles, como ocurrió en el juicio principal de Núremberg. Tampoco se había juzgado nunca el hecho mismo de iniciar una guerra de agresión ni la violación de tratados internacionales. La guerra era un hecho normal entre Estados. A los vencidos se les exigía el pago de cuantiosas reparaciones que hundían a sus poblaciones en la miseria, pero los responsables de haber iniciado el conflicto se beneficiaban de una especie de amnistía tácita. Nunca se les castigaba.
Los cargos y la legalidad cuestionada
La ambición con que se acometieron los juicios de Núremberg queda reflejada en los cuatro cargos que se instruyeron contra los acusados: crímenes contra la paz, crímenes contra la humanidad, crímenes de guerra y conspiración para cometer los crímenes anteriores (este último cargo permitía incluir acciones previas al conflicto bélico). Fue también la primera vez que se juzgó el delito de genocidio, si bien no con ese nombre (se habló de crímenes por “motivos políticos, raciales o religiosos”).
El problema era que, a excepción de algunas violaciones de las leyes de la guerra –asesinato o maltrato de prisioneros, por ejemplo–, que ya existían, eran todos cargos nuevos, lo que iba contra el principio de irretroactividad de la ley. Se dijo así que se estaba juzgando a los acusados por unas acciones que no constituían delito en el momento que se cometieron: el presidente del Tribunal Supremo de Estados Unidos, Harlan Fiske Stone, habló de “linchamiento”.
Y era además, efectivamente, una justicia del vencedor, puesto que aplicaba solo a Alemania unos cargos que podrían haberse esgrimido contra los propios aliados: los crímenes contra la humanidad de Stalin eran de sobra conocidos –purgas, genocidio en Ucrania, deportaciones masivas–, así como los que cometió contra la paz –invasión de Polonia acordada en el Pacto Ribbentrop-Mólotov de 1939; invasiones de Finlandia y los Estados Bálticos–.
También encajaban en el capítulo de crímenes de guerra los bombardeos aliados de ciudades alemanas –Hamburgo, Dresde y otras–, en los que murieron cientos de miles de civiles y que se mantuvieron en el tiempo con el fin de aterrorizar a la población, por más que no hubiera objetivos militares. De hecho, este motivo llevó a los aliados a abstenerse prudentemente de incluir los bombardeos alemanes de ciudades como Londres, Coventry, Róterdam y Varsovia entre los cargos presentados, no fueran a volverse en su contra.
El tribunal lo formaron las cuatro potencias vencedoras en la Segunda Guerra Mundial (Estados Unidos, el Reino Unido, Francia y la Unión Soviética), que proporcionaron cada una dos jueces –principal y suplente– y un fiscal con sus ayudantes. Una vez más, la participación soviética en un juicio que pretendía celebrarse con las garantías propias de un Estado de derecho quedaba en entredicho: el primer juez ruso, Iona Nikitchenko, había presidido algunas de las más famosas farsas judiciales de Stalin en la década de los treinta.
Los acusados y las ausencias notorias
El 8 de agosto de 1945, tres meses después de la rendición incondicional de Alemania, se firmó la Carta de Londres, en la que se establecían los principios y procedimientos de los juicios, que incluirían elementos tanto del derecho anglosajón como del continental europeo, con cierto predominio de este último que se refleja en que el tribunal estuviera compuesto por jueces y no por un jurado. A este documento, elaborado por las cuatro potencias vencedoras, se adhirieron otros diecinueve países. El 29 de agosto se anunció la lista definitiva de acusados del juicio principal de Núremberg. La idea era sentar en el banquillo a los grandes criminales nazis, aquellos que por su poder en la Alemania de Hitler tenían la mayor responsabilidad sobre el horror causado. Pero los aliados se enfrentaban a distintos problemas.
El primero era que los principales protagonistas estaban muertos. Hitler se había suicidado en su búnker el 30 de abril; Goebbels había seguido su ejemplo al día siguiente, tras matar a su mujer y sus seis hijos; Himmler se había suicidado también, poco después, cuando se encontraba bajo custodia británica. Heydrich, uno de los principales arquitectos del Holocausto, había muerto en un atentado en 1942. El único realmente de primera fila que quedaba era Hermann Göring, que desempeñaría en el juicio un papel estelar.

Había otro inconveniente: el muy limitado conocimiento que se tenía por entonces del funcionamiento del Tercer Reich, lo que llevó a dudas y cambios. Al final, en la lista hubo tanto individuos acusados por su indudable brutalidad –Ernst Kaltenbrunner, jefe de Seguridad, o Hans Frank, gobernador de Polonia–, como otros que estaban allí por representar a los sectores fundamentales del régimen, aunque en algunos casos la carga probatoria fuera más dudosa. Karl Dönitz, Wilhelm Keitel, Alfred Jodl y Erich Raeder, todos militares de carrera que habían ocupado puestos cruciales en la guerra, representaban al militarismo alemán; Hjalmar Schacht, Walther Funk y Gustav Krupp, a los sectores económicos, financieros e industriales que habían apoyado al nazismo.
Franz von Papen, líder del Partido de Centro, había jugado un papel importante en la subida de Hitler al poder y había ocupado luego cargos políticos. También estaban Alfred Rosenberg, uno de los principales ideólogos del antisemitismo, y Albert Speer, arquitecto del régimen y eficiente ministro de Armamento. Igualmente notorias eran las ausencias: se habían fugado Adolf Eichmann –uno de los organizadores de la solución final, el exterminio de los judíos–, y el célebre doctor Josef Mengele; Martin Bormann, secretario personal de Hitler, estaba desaparecido (luego se le dio por muerto en la guerra), y fue juzgado y condenado en rebeldía.
El desarrollo del proceso y su impacto mediático
El 20 de noviembre comenzó la vista. Al día siguiente, el fiscal jefe, el estadounidense Robert Jackson, pronunció un largo e impactante discurso inicial en el que destacó la magnitud inédita de la tarea y expuso los objetivos y la necesidad del juicio. “Los delitos que buscamos condenar y castigar han sido tan calculados, tan malignos y tan devastadores, que la civilización no podría sobrevivir si se repitieran”, afirmó. Se esforzó también por dejar claro que no había odio hacia el pueblo alemán, y que si los dirigentes nazis estaban en el banquillo no era por haber perdido la guerra, sino por haberla iniciado.
El proceso se desarrolló a lo largo de diez meses, con 402 vistas públicas en las que comparecieron 240 testigos. Asistieron a diario más de 400 visitantes y 325 corresponsales de prensa de decenas de países distintos. La radio alemana retransmitía a diario información y comentarios sobre el juicio; durante meses, los espectadores pudieron ver en los cines de todo el mundo noticias y reportajes sobre Núremberg, que fue así la vía por la que el Holocausto se conoció globalmente. Pese a que el tiempo para buscar pruebas había sido escaso –seis meses, en los que aún no estaba claro quiénes serían exactamente los acusados–, la documentación presentada fue ingente: pesaba 3000 toneladas y llenó seis vagones de tren.
Se manejaron unas 300 000 declaraciones escritas y los fiscales contaron con todo tipo de material gráfico y fílmico recogido por el propio aparato de propaganda nazi, además de con películas hechas por los ejércitos aliados, como la estadounidense Los campos de concentración nazis, y la soviética Las atrocidades de los fascistas alemanes en la URSS. Las imágenes provocaron sorpresa y espanto en muchos de los asistentes, incluidos algunos de los sentados en el banquillo, que pretendían no saber nada del asunto. Los acusados se declararon todos inocentes y descargar por ejemplo, el tribunal dijo que habían quedado prohibidas por el pacto Briand– Kellog firmado por quince estados en 1928, una razón jurídicamente muy dudosa, dada la irrelevancia de dicho acuerdo.

El papel de Göring y Speer en el juicio
Hermann Göring emergió enseguida como el gran protagonista. Desprovisto de las drogas que tomaba y sometido a una dieta obligatoria que le hizo perder 27 kilos, el creador de la Luftwaffe, muy deprimido al final de la guerra, pareció revivir y dio muestras de poseer una singular inteligencia. Se convirtió en el líder natural de los acusados, cuyos testimonios intentó dirigir y sobre los que llegó a ejercer tal influencia que en febrero fue apartado de los demás en la cárcel. También consiguió desesperar al fiscal Jackson con sus respuestas esquivas y sus continuas correcciones y puntualizaciones. Su línea de defensa consistió en negar cualquier conocimiento de las atrocidades nazis –aseguró que las películas de los campos de exterminio eran falsas–, declarar que había actuado por patriotismo, reafirmarse en su fidelidad a Hitler y acusar al tribunal de practicar la justicia del vencedor. Pero las pruebas en su contra eran demasiado evidentes y nada pudo librarle de la pena capital.
La otra gran personalidad del juicio fue Albert Speer, que por alguna razón nunca aclarada –quizá su estilo elegante y cultivado o su actitud aparentemente estoica–, gozó de las simpatías del tribunal. Speer se presentó como un tecnócrata obnubilado por la figura del Führer. A diferencia de otros, jugó la baza de admitir una cierta responsabilidad colectiva por el nazismo –nunca una culpa personal–, además de colaborar facilitando información a los aliados, tal como se encargó de recordarle al fiscal Jackson en una carta enviada poco antes del juicio. En una de las vistas, sorprendió también a todos con una estupefaciente revelación: aseguró que, al final de la guerra, había intentado matar a Hitler introduciendo veneno por un conducto de ventilación de su búnker berlinés, pero que lo había encontrado cerrado. La estrategia funcionó: pese a sus evidentes responsabilidades en la utilización de trabajadores esclavos en su etapa como ministro de Armamento, Speer no fue condenado a muerte, sino a veinte años de cárcel (Fritz Sauckel, encargado de proporcionarle la mano de obra para sus planes, murió en la horca). Hoy, a Speer se le recuerda sobre todo como el arquitecto de las grandiosas construcciones nazis.
Sombras y paradojas del veredicto
El balance de los juicios de Núremberg arroja algunas sombras. Hay dudas razonables sobre la vulneración de algún principio jurídico básico, como la irretroactividad, y sobre la inexistencia de un tribunal preconstituido (se creó ad hoc para juzgar a los acusados). También es cierto que los bombardeos aliados de la población civil alemana constituían crímenes de guerra. La participación soviética merece un comentario aparte. Que un régimen totalitario, inventor de las farsas judiciales –en los años treinta, el más infame juez nazi, Roland Freisler, fue a Moscú a aprender las técnicas de humillación de los acusados–, estuviera allí juzgando crímenes contra la humanidad es una grotesca ironía. Para muestra, un botón: los representantes soviéticos intentaron infructuosamente cargar a Alemania los 22 000 polacos muertos en la masacre de Katyn, ejecutados en la primavera de 1940 por la propia policía soviética (el NKVD), como reconoció Rusia en 1990.
Pero la magnitud de los crímenes nazis era tal, que resultaba impensable dejarlos sin castigo. A pesar de sus defectos, los procesos de la ciudad alemana dieron una respuesta que hoy se considera en general adecuada, teniendo en cuenta las complicadas circunstancias en las que se produjo.
Los grandes hallazgos astronómicos no siempre surgen con fuegos artificiales. A veces basta mirar donde nadie había mirado antes. Eso fue precisamente lo que ocurrió cuando un equipo internacional de astrónomos dirigió uno de los radiotelescopios más sensibles del planeta hacia una región apenas explorada de la Vía Láctea. Lo que encontraron allí no solo sorprendió por su tamaño y complejidad, sino que también podría aportar claves fundamentales sobre cómo nuestra galaxia construye su núcleo y, por extension, cómo lo hacen otras galaxias.
En una reciente investigación publicada en The Astrophysical Journal, los científicos revelan la existencia de una gigantesca nube de gas, oculta entre los carriles de polvo interestelar que serpentean hacia el centro galáctico. Esta nube, ahora conocida como Midpoint o M4.7–0.8, forma parte de un sistema más amplio que actúa como una vía de transporte de material desde el disco de la galaxia hacia su núcleo. Lo más sorprendente es que este “río invisible” parece estar alimentando regiones potenciales de formación estelar en un entorno hasta ahora poco comprendido.
Un hallazgo inesperado en una región olvidada del cielo
En palabras del propio estudio, “uno de los grandes descubrimientos del artículo fue la existencia misma de la nube GMC. Nadie tenía idea de que esta nube existía hasta que miramos esta zona del cielo y encontramos el gas denso”. La expresión pertenece a Natalie Butterfield, investigadora principal del proyecto, y resume con claridad la sorpresa que causó este hallazgo.
El equipo utilizó el telescopio Green Bank, ubicado en Virginia Occidental (EE. UU.), para observar esta región en longitudes de onda de radio. Su objetivo era rastrear moléculas como amoniaco (NH₃) y cianobutadiino (HC₅N), compuestos que actúan como trazadores del gas denso en el medio interestelar. Los datos revelaron una nube molecular gigante de aproximadamente 60 pársecs de largo, lo que equivale a unos 200 años luz.
Esta estructura aparece justo en la región media del bar galáctico, una zona caracterizada por una intensa dinámica de gases y fuerzas gravitatorias. Los astrónomos la han bautizado como Midpoint porque se encuentra en el “punto medio” entre los extremos de los carriles de polvo que conectan el disco galáctico con el núcleo.

Gas turbulento y condiciones extremas
Uno de los aspectos más llamativos del estudio es la descripción del entorno en el que se encuentra esta nube. El gas dentro de Midpoint no es tranquilo ni estable. Por el contrario, se observan niveles elevados de turbulencia, similares a los que se detectan en el Centro Molecular Central (CMZ, por sus siglas en inglés), una de las regiones más caóticas y densas de la galaxia.
En el paper se explica que la nube presenta “valores amplios de anchura de línea, comparables a los que se observan en las nubes del CMZ”. Estas líneas de emisión ensanchadas son un indicio de movimientos desordenados a gran escala, posiblemente causados por colisiones entre nubes o por el flujo acelerado de material hacia el centro.
Este tipo de dinámica puede tener efectos muy distintos. Por un lado, la fuerte presión y la temperatura podrían inhibir la formación de estrellas, como se ha observado en otras zonas del bar galáctico. Por otro, si el gas logra condensarse, puede dar origen a regiones de formación estelar en condiciones extremas.

Indicadores claros de actividad estelar
Más allá de la turbulencia, los investigadores identificaron varios indicios directos de actividad relacionada con el nacimiento de estrellas. El más destacado fue la detección de un nuevo maser de amoníaco (NH₃ 3,3). Los masers son emisiones intensas y focalizadas de microondas que se producen de forma natural en el espacio, y suelen estar asociadas a zonas donde se están formando estrellas masivas.
Según el estudio, “esta región también muestra un aumento del brillo en la emisión de 870 μm, en comparación con la estructura extendida, lo que sugiere que podríamos estar detectando emisión libre-libre proveniente de una posible región H II”. Las regiones H II son nubes ionizadas por estrellas jóvenes y calientes, un claro indicador de formación estelar reciente.
Además del maser, los científicos encontraron varias estructuras compactas de gas y polvo, llamadas “nudos”, que podrían estar en las fases iniciales de colapso gravitacional. En particular, el nudo E muestra una forma característica de los llamados frEGGs (glóbulos gaseosos evaporándose de forma libre), un tipo de objeto denso que está siendo erosionado por la radiación de estrellas cercanas.

Un eslabón perdido en la cadena galáctica
La relevancia del hallazgo no se limita a la identificación de una nueva nube. Lo que hace que Midpoint sea realmente importante es su papel como punto de transición. Esta nube parece actuar como un puente natural entre el disco de la galaxia y su núcleo, canalizando gas que podría alimentar futuras regiones estelares en el CMZ.
El artículo subraya que “la nube Midpoint es una zona donde el material del disco de la galaxia está pasando al entorno más extremo del centro galáctico, y proporciona una oportunidad única para estudiar las condiciones iniciales del gas antes de acumularse en el centro”.
Este tipo de regiones de tránsito son fundamentales para entender cómo las galaxias regulan el flujo de materia hacia sus zonas centrales. En el caso de la Vía Láctea, la actividad del centro galáctico está ligada a fenómenos extremos, como la formación de cúmulos estelares masivos o incluso la actividad del agujero negro supermasivo que reside allí.
¿Una fábrica de estrellas en medio del caos?
Aunque la formación estelar en los brazos del bar galáctico ha sido motivo de debate, los resultados de este trabajo refuerzan la hipótesis de que sí puede ocurrir formación de estrellas en las regiones de borde del bar, donde las condiciones permiten la acumulación de gas denso. El astrónomo Larry Morgan, uno de los coautores del estudio, explica que “los bordes frontales de estas barras, como donde se encuentra Midpoint, pueden acumular gas denso y desencadenar nueva formación estelar”.
El patrón observado en Midpoint se alinea con lo que ya se ha documentado en galaxias externas: los “huesos” del bar galáctico son capaces de concentrar materia suficiente como para generar nuevas estrellas, incluso en medio de ambientes altamente turbulentos.
Además, la morfología filamentosa y la presencia de múltiples nudos sugiere que Midpoint no es una estructura aislada, sino parte de una red compleja de flujos de gas, cuyo estudio permitirá reconstruir los procesos que alimentan el núcleo galáctico.
La importancia de mirar lo invisible
Midpoint pasó desapercibida durante décadas, oculta en un rincón del cielo galáctico y enmascarada por el polvo. Su descubrimiento demuestra que aún hay regiones enteras de la Vía Láctea por explorar con las herramientas adecuadas, especialmente en longitudes de onda que escapan al ojo humano.
Los datos del radiotelescopio Green Bank, combinados con observaciones infrarrojas y submilimétricas, han abierto una ventana a una zona de transición crítica en la anatomía galáctica. Este tipo de descubrimientos, más que responder preguntas, amplían el mapa de lo que aún falta por comprender sobre la formación de estructuras estelares y la evolución de galaxias como la nuestra.
Referencias
- Natalie O. Butterfield, Larry K. Morgan, Ashley T. Barnes, Adam Ginsburg, Savannah Gramze, Mark R. Morris, Mattia C. Sormani, Cara D. Battersby, Charlie Burton, Allison H. Costa, Elisabeth A. C. Mills, Jürgen Ott, Michael Rugel, Harrison West. Discovery of a Giant Molecular Cloud at the Midpoint of the Galactic Bar Dust Lanes: M4.7–0.8. The Astrophysical Journal. https://doi.org/10.3847/1538-4357/adc687.
Durante siglos, la historia de la humanidad se ha contado como una línea ascendente, un desfile progresivo desde criaturas parecidas a simios hasta el Homo sapiens moderno. Pero el hallazgo de un conjunto de fósiles en un rincón árido de Etiopía vuelve a recordarnos lo que los científicos ya sospechaban: que la evolución humana no fue un camino recto, sino un laberinto lleno de callejones sin salida.
Un equipo internacional de paleontólogos ha desenterrado trece dientes fosilizados que datan de entre 2,8 y 2,6 millones de años, lo que los convierte en algunos de los restos más antiguos jamás encontrados de nuestros antepasados. Sin embargo, lo más llamativo no es su antigüedad, sino lo que representan: los dientes no encajan con ninguna especie conocida, ni con los Australopithecus afarensis (como la famosa Lucy) ni con Australopithecus garhi. Todo apunta a que estamos ante una especie completamente nueva del género Australopithecus, aún sin nombre oficial.
El estudio, publicado en la revista Nature en el día de hoy, sitúa estos fósiles en el yacimiento de Ledi-Geraru, una zona que ya había dado mucho que hablar en 2013, cuando se descubrió allí una mandíbula atribuida al Homo más antiguo conocido hasta la fecha. Ahora, los nuevos hallazgos revelan algo aún más impactante: este australopiteco desconocido convivió en el mismo lugar y al mismo tiempo con los primeros representantes del género Homo.
Un ecosistema compartido por múltiples humanos primitivos
Los dientes pertenecen a distintos individuos y fueron encontrados en varias capas geológicas bien datadas gracias a la ceniza volcánica que cubre el terreno. Esto ha permitido a los investigadores ubicar con precisión su antigüedad. Tres de los dientes pertenecen a Homo, con fechas de entre 2,78 y 2,59 millones de años. Los otros diez corresponden al misterioso australopiteco, datado en unos 2,63 millones de años.
Estos datos indican que, hace unos 2,6 millones de años, al menos tres linajes humanos coexistían en el este de África: Homo, Australopithecus garhi y esta nueva especie hallada en Ledi-Geraru. A ellos habría que añadir el Australopithecus africanus en el sur del continente y Paranthropus en regiones hoy situadas en Kenia y Tanzania. Todo ello dibuja un escenario de diversidad evolutiva mucho mayor del que durante años se enseñó en las escuelas.

En aquel momento, África oriental atravesaba un periodo de cambios climáticos severos. El paisaje de Ledi-Geraru era entonces muy diferente al desierto actual. Las pruebas geológicas y fósiles revelan que la zona estaba cubierta por sabanas abiertas, atravesadas por ríos y salpicadas de lagos poco profundos. Un hábitat ideal para distintas especies de homininos, pero también un posible campo de batalla evolutiva en el que diferentes linajes competían —o no— por los mismos recursos.
El diente que cambió la historia
La historia de este hallazgo tiene algo de cinematográfico. En el Día de San Valentín de 2018, un miembro del equipo etíope, Omar Abdulla, encontró el primer diente fosilizado mientras recorría una colina del yacimiento. Poco después, aparecieron otros. Lamentablemente, Abdulla fue asesinado en un conflicto local en 2021, pero su descubrimiento abrió una puerta crucial para entender uno de los capítulos más oscuros y complejos de la evolución humana.
Los dientes, aunque puedan parecer piezas menores, son clave en paleontología. Su forma, tamaño, desgaste y disposición ofrecen pistas sobre la dieta, el comportamiento y la evolución de una especie. En este caso, los investigadores han observado diferencias claras entre los nuevos dientes y los de especies ya conocidas. Son más grandes que los de Lucy y presentan una morfología distinta, lo suficientemente notable como para sugerir que pertenecen a una especie diferente.
No obstante, el equipo científico ha decidido no bautizar todavía esta posible nueva especie. Se necesita más material fósil —como partes del cráneo o del esqueleto— para hacerlo con rigor. Por ahora, lo han denominado de forma provisional “Australopithecus de Ledi-Geraru”.

Un rompecabezas evolutivo aún sin resolver
El hallazgo ha generado entusiasmo, pero también escepticismo en parte de la comunidad científica. Algunos expertos sostienen que las diferencias dentales podrían deberse simplemente a la variabilidad natural dentro de una misma especie. Otros creen que es posible que estos fósiles representen una fase evolutiva intermedia entre Lucy y Australopithecus garhi. Sin embargo, el equipo responsable del descubrimiento mantiene que las diferencias son lo bastante significativas como para pensar en una nueva especie.
Este debate no es nuevo. La historia de la paleoantropología está llena de polémicas por la clasificación de fósiles y por dónde trazar las líneas entre una especie y otra. Y es que, cuando se trabaja con fragmentos tan escasos —a menudo solo dientes—, las fronteras entre una variación evolutiva y una nueva especie pueden volverse borrosas.
Lo que sí está claro es que la coexistencia de múltiples especies humanas en un mismo lugar y tiempo obliga a repensar el relato simplificado de la evolución. No fue una carrera lineal hacia el Homo sapiens. Fue un proceso enmarañado, con varias especies explorando caminos paralelos, algunas de las cuales se extinguieron sin dejar descendencia.

¿Rivales o vecinos?
Una de las grandes preguntas que deja este descubrimiento es cómo interactuaban estas especies. ¿Compartían el territorio pacíficamente? ¿Competían por los mismos alimentos? ¿Tenían comportamientos similares? Por ahora, nadie tiene respuestas claras. El equipo está analizando actualmente el esmalte dental para tratar de averiguar qué comían estas especies y si ocupaban nichos ecológicos diferentes.
Si se demuestra que se alimentaban de formas distintas, eso podría explicar su convivencia sin conflicto directo. En la naturaleza actual, no es raro encontrar especies similares que coexisten en un mismo hábitat si explotan recursos distintos. Algo parecido pudo ocurrir hace más de dos millones y medio de años en Etiopía.
El árbol genealógico humano, más frondoso que nunca
Los descubrimientos de Ledi-Geraru aportan una pieza más al complicado puzle de nuestros orígenes. En lugar de un tronco único, lo que emerge es un árbol evolutivo lleno de ramas, muchas de las cuales no llegaron a ningún sitio. Y es en ese paisaje de diversidad y extinción donde el género Homo logró imponerse, no por ser el único, sino por ser el más adaptado al entorno cambiante de África oriental.
Hoy, en un mundo donde solo queda una especie humana viva, estos fósiles nos recuerdan que no siempre fue así. Que durante millones de años, la humanidad fue diversa. Y que aún quedan muchos secretos por desenterrar bajo el suelo polvoriento de Etiopía.
En julio de 2025, la Tierra vivió el mes tercer más caluroso registrado desde que existen datos globales confiables. Así lo revela el último informe publicado por la Administración Nacional Oceánica y Atmosférica de Estados Unidos (NOAA), a través del Centro Nacional de Información Ambiental (NCEI), que confirma una tendencia inquietante: cada mes desde julio de 2024 ha sido el más cálido de su respectivo periodo en la serie histórica.
La temperatura promedio de la superficie terrestre y oceánica del planeta fue 1 °C superior al promedio del siglo XX. Este nuevo pico se produce en un contexto donde ya se ha confirmado que los primeros siete meses de 2025 fueron los segundos más calurosos jamás registrados desde que comenzaron las mediciones globales en 1850, con una anomalía de 1.18°C por encima del promedio del siglo XX, solo superados por el mismo período en 2024.
Este dato no es una simple anomalía estadística: es la expresión cuantificable de una alteración sostenida y profunda del equilibrio térmico global. El planeta está calentándose y lo está haciendo a un ritmo que, en palabras de los científicos, ya no puede atribuirse a fluctuaciones naturales.
El impacto regional: calor extremo, lluvias récord y contrastes inusuales
El informe detalla una serie de eventos extremos que afectaron distintas regiones del mundo durante julio de 2025. En América del Norte, gran parte del oeste del continente vivió temperaturas inusualmente elevadas, mientras que en Europa del Sur, zonas como la península balcánica, Italia y el sur de España registraron olas de calor persistentes con máximas por encima de los 45 °C.
En Asia, países como China, India y Corea del Sur enfrentaron una combinación peligrosa de calor y lluvias torrenciales, provocando inundaciones urbanas, deslizamientos de tierra y graves daños a la infraestructura. Japón vivió uno de sus julios más calurosos desde que existen registros, con una media de temperatura 2,89 °C por encima del promedio del país.

Oceanía, por su parte, experimentó un julio también más cálido de lo normal, sobre todo en Australia, mientras que Nueva Zelanda vio incrementos menores. En África, la región subsahariana oriental y el norte del continente también reportaron temperaturas anómalamente altas.
La Antártida y el Ártico no fueron la excepción. Aunque con menor impacto visual inmediato, ambas regiones mostraron incrementos notables de temperatura respecto a las medias históricas, lo que contribuye directamente a la aceleración del deshielo y al ascenso del nivel del mar.
Además, los patrones de precipitación también cambiaron. Según el informe, julio fue más húmedo de lo normal en zonas del este y sureste asiático, sur de Brasil y partes de África ecuatorial, mientras que regiones como el oeste de EE.UU., el noreste de China o zonas del Sahel africano vivieron condiciones anormalmente secas. Este tipo de contrastes es cada vez más común en un clima alterado, donde los extremos de humedad y sequía coexisten y se intensifican.
El calentamiento global no da tregua: indicadores clave que lo demuestran
Uno de los datos más reveladores del informe de la NOAA es que la temperatura media global de la superficie terrestre y oceánica para lo que va de 2025 (de enero a julio) supera en 1,18 °C el promedio del siglo XX. Esto convierte a 2025, hasta ahora, en el año más cálido registrado, superando incluso al récord establecido en 2023.
Otro indicador alarmante es el de la temperatura de la superficie del mar, que ha sido la tercera más alta jamás observada para un mes de julio, con un promedio de 0,92 °C por encima del promedio histórico. Esto influye directamente en la intensidad de fenómenos como huracanes, tifones y ciclones, que ganan fuerza al alimentarse de océanos más cálidos.
Los datos también reflejan que el hemisferio norte vivió su tercer julio más cálido de todos los tiempos, mientras que el hemisferio sur experimentó su cuarto julio más cálido de su historia. Esto indica que el fenómeno no es local ni regional, sino verdaderamente global.
El fenómeno de El Niño, que comenzó en 2023 y se extendió hasta mediados de 2024, ha contribuido parcialmente al aumento de las temperaturas, pero los científicos subrayan que el calentamiento continuo del planeta responde sobre todo a las emisiones acumuladas de gases de efecto invernadero derivadas de la actividad humana.

¿Qué nos espera si esta tendencia no se detiene?
El informe del NCEI no solo documenta el presente, también lanza una advertencia implícita sobre el futuro. Si las temperaturas siguen aumentando a este ritmo, las consecuencias serán cada vez más graves y frecuentes: incendios forestales descontrolados, crisis hídricas, inseguridad alimentaria, migraciones forzadas y aumento de enfermedades transmitidas por vectores, como el dengue o la malaria.
Julio de 2025 no es un caso aislado, sino parte de una secuencia creciente de récords que, lejos de sorprender, se están volviendo la nueva normalidad. Desde que comenzó la era industrial, la Tierra ha calentado aproximadamente 1,2 °C, y cada nuevo año confirma que nos acercamos peligrosamente a los 1,5 °C que el Acuerdo de París busca no superar.
El informe también deja claro que el tiempo para actuar se está agotando. Aunque las políticas climáticas internacionales avanzan, las emisiones globales de CO₂ aún no han descendido lo suficiente como para revertir la tendencia. La ventana de oportunidad para mantener el calentamiento bajo control se está cerrando.
La ciencia ha hablado con datos. Julio de 2025 será recordado como un mes histórico, pero no por hazañas humanas, sino como un nuevo aviso de que el planeta está cambiando más rápido de lo que muchos imaginaban. Y no es un cambio benigno.
En la vida diaria, perseguimos recompensas: una sonrisa, un logro laboral, un trozo de pastel. Pero, ¿cómo transforma el cerebro esa expectativa en acciones concretas? ¿Presta más atención a ciertos estímulos o simplemente cambia la forma de decidir? Investigadores de Indian Institute of Science han descubierto que la respuesta no es única. Según cómo se estructure la recompensa, el cerebro activa mecanismos totalmente distintos.
El trabajo, publicado recientemente en PLOS Biology, distingue por primera vez dos rutas separadas: una que mejora la percepción sensorial y otra que ajusta el sesgo de decisión. Ambas están ligadas a la expectativa de recompensa, pero solo una involucra la maquinaria neuronal clásica de la atención.
Los hallazgos no solo amplían la comprensión de la atención humana, sino que también cuestionan ideas previas sobre cómo se mide y se interpreta el papel de la recompensa en tareas cognitivas.
Dos caras de la recompensa
El experimento planteó dos escenarios distintos para 24 voluntarios. En el primero, la recompensa variaba según la ubicación de un estímulo visual —lo que los científicos llamaron expectativa específica de espacio. En el segundo, la recompensa dependía del tipo de respuesta correcta —la llamada expectativa específica de elección.
En el caso espacial, cuando una ubicación prometía más puntos o evitaba más penalizaciones, los participantes afinaban su percepción allí. La sensibilidad visual (medida como d′ en teoría de detección de señales) aumentaba, y eso les permitía detectar cambios con mayor precisión.
En el escenario por elección, lo que cambiaba era el criterio de respuesta (c ). Los voluntarios tendían a decir “sí” o “no” con más facilidad según cuál fuera la opción más rentable en ese momento. No veían mejor el estímulo, simplemente apostaban por la respuesta que más convenía.

Cómo midieron el cerebro en acción
Para entender qué ocurría detrás de estos cambios, el equipo registró la actividad cerebral con electroencefalografía (EEG) mientras los voluntarios realizaban tareas de detección de cambios en patrones visuales.
En la condición espacial, aparecieron señales neuronales típicas de la atención: un aumento en componentes eléctricos como el N2pc y el P300, que indican que el cerebro dedica más recursos a procesar un estímulo en una posición concreta. También se observó una supresión de la actividad alfa en el hemisferio opuesto al estímulo relevante, un patrón asociado con la concentración visual.
En cambio, en la condición de elección, estas huellas de atención espacial brillaban por su ausencia. Lo que sí emergió fue un cambio en la actividad alfa antes de que apareciera el estímulo, lo que sugiere un ajuste en la predisposición a responder, no en la calidad de la percepción.
Lo que hacen los ojos y las manos
La atención no solo se ve en el cerebro: también se nota en cómo se mueven los ojos y en la velocidad de respuesta. En la condición espacial, los participantes hicieron más microsacadas —pequeños movimientos involuntarios de los ojos— hacia la zona más recompensada. Además, respondieron más rápido cuando el cambio estaba allí.
En la condición de elección, estos indicadores motores de atención espacial no aparecieron. Sin embargo, sí se registró que las respuestas más rentables se daban con mayor rapidez, lo que refuerza la idea de que el cambio se producía en la estrategia decisional y no en la focalización de la atención.
Este contraste motor refuerza la conclusión central: no todas las estrategias que mejoran el rendimiento se basan en prestar más atención al estímulo, algunas consisten simplemente en elegir más rápido la respuesta más conveniente.
"Estudios como el nuestro ayudarán a diseñar tareas para comprender las propensiones a asumir el riesgo en los individuos, cuando se enfrentan a recompensas inciertas", dijo Devarajan Sridharan, profesor en el Centro de Neurociencia del Instituto Indio de Ciencias.

Un recurso limitado que se reparte
Un hallazgo clave fue que, en la condición espacial, la atención se comportó como un recurso limitado. Cuando aumentaba en un lado del campo visual, disminuía en el otro. Este equilibrio no se dio en la condición de elección, lo que confirma que los ajustes de criterio no forman parte de la atención espacial.
Este patrón competitivo se reflejó tanto en las medidas de sensibilidad visual como en las señales cerebrales y los movimientos oculares. Todos estos datos se coordinaban, prediciendo cuándo y dónde el cerebro iba a rendir mejor.
En otras palabras, la atención visual es como una manta corta: si se tira hacia un lado, se descubre el otro. Y solo la expectativa de recompensa en un lugar concreto parece estirar esa manta hacia ese punto.
Qué nos dice esto sobre la vida diaria
Este estudio ayuda a entender por qué, a veces, no prestamos más atención a lo que más nos conviene. Por ejemplo, si en una conversación ya hemos decidido a quién vamos a dar la razón, quizá escuchemos menos lo que dice la otra persona, aunque sea importante. En ese caso, ajustamos nuestra “respuesta” pero no estamos realmente más atentos.
En cambio, cuando buscamos algo que sabemos que nos dará un beneficio directo —como encontrar la salida en un aeropuerto o ubicar un objeto en una foto—, nuestro cerebro sí activa todo el arsenal de recursos atencionales para procesar mejor la información visual.
La investigación sugiere que diseñar entornos o tareas que activen la atención espacial real podría ser más eficaz que solo influir en las decisiones, al menos cuando se busca mejorar la percepción y no solo la rapidez de respuesta.
"Los hallazgos pueden ayudar a diseñar tratamientos para los comportamientos de adicción, como el juego, que implican una compleja interacción de recompensa, atención y decisiones impulsivas", dijo Sridharan.

Próximos pasos y aplicaciones
Los autores proponen que futuros trabajos distingan con más precisión qué tipos de sesgo de decisión implican atención espacial y cuáles no. Esto podría ser útil en campos como la educación, el entrenamiento deportivo o incluso el diseño de interfaces para que la información clave reciba más atención real.
En neurociencia clínica, esta distinción podría ayudar a identificar problemas de atención en pacientes con trastornos neurológicos y a diseñar terapias que no se limiten a modificar respuestas, sino que realmente mejoren la capacidad de concentrarse. En definitiva, el estudio demuestra que la promesa de una recompensa no siempre activa los mismos circuitos del cerebro. A veces afina nuestros sentidos y otras solo nos lleva a “jugar” con nuestras decisiones. Saber cuándo ocurre cada cosa puede ser clave para entrenar, mejorar y proteger nuestra atención.
Referencias
- Sengupta, A., & Sridharan, D. (2025). Reward expectation yields distinct effects on sensory processing and decision making in the human brain. PLoS biology, 23(7), e3003234. doi: 10.1371/journal.pbio.3003234
Las freidoras de aire se han consolidado como uno de los electrodomésticos estrella para una cocina más saludable, gracias a su capacidad de preparar platos crujientes con poco o ningún aceite. Se han convertido en un aliado imprescindible en cada vez más hogares.
En plena campaña de verano, AEG vuelve a agitar el mercado con una rebaja contundente en su freidora de aire AAF7B, aplicando por segunda vez en el mes un descuento difícil de ignorar. Una ocasión perfecta para conseguir este modelo al precio más competitivo.

Habitualmente, esta freidora supera los 109 € en tiendas como la propia AEG o PcComponentes. Sin embargo, Amazon rompe el precio con una oferta destacada que la deja en solo 91 euros, consolidándose como la alternativa más competitiva del momento.
Ofrece una capacidad útil de 6,8 L y un volumen de fritura de hasta 2,3 kg. Incorpora un sistema de cocción por aire caliente con ajuste de temperatura regulable entre 60 °C y 200 °C, gestionado mediante un panel de control táctil digital. Dispone de 8 programas automáticos que optimizan tiempo y calor según el tipo de receta, permitiendo freír, asar, hornear y gratinar con una reducción de grasa de hasta el 90 %.
Su potencia nominal de 1800 W garantiza una rápida circulación de aire y un calentamiento uniforme. Incluye temporizador digital programable de hasta 99 minutos, cesta y rejilla extraíbles con recubrimiento antiadherente y aptas para lavavajillas. Con unas dimensiones de 31,8 × 33,8 × 42,4 cm y acabado en negro brillante.
Cecotec entra en la guerra de precios y hunde al mínimo su freidora Turbo Cecofry 4D Healthy
La disputa por dominar el mercado de las freidoras de aire sigue al rojo vivo, y Cecotec responde con un movimiento contundente rebajando su freidora Turbo Cecofry 4D Healthy hasta los 69,21 € en Amazon y PcComponentes. Un modelo potente y versátil cuyo precio habitual supera los 119 euros en tiendas como Ziwwie o Miravia.

Cuenta con 8 programas preconfigurados, desde freír y hornear hasta preparar arroz o yogur. Su pala automática y mango desmontable permiten remover los alimentos sin esfuerzo, mientras que la temperatura ajustable grado a grado de 100 a 240 °C y el temporizador de 5 a 90 minutos garantizan un control total. Además, incluye un modo especial para yogur con temperatura fija de 60 °C y hasta 16,5 horas de programación.
Su diseño inteligente permite cocinar dos platos a la vez gracias a la rejilla de doble nivel. La cubeta cerámica tricapa de 3 litros, con capacidad para hasta 3,5 kg de patatas, evita que los alimentos se peguen y asegura una limpieza sencilla. Por si no fuera poco, cuenta con 1350 W de potencia, recetario con 40 preparaciones y 8 vídeo-recetas.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En el yacimiento de Tepe Chalow, al noreste de Irán, un equipo de arqueólogos ha desenterrado una de las tumbas más ricas asociadas a la llamada Civilización del Gran Jorasán (GKC, por sus siglas en inglés). Esta cultura, vinculada al complejo arqueológico Bactria-Margiana (BMAC), floreció durante el Bronce medio en una vasta región que abarcaba desde el noreste de Irán hasta las zonas centrales de Asia. La tumba número 12, que alberga el cuerpo de una joven de menos de 18 años, ofrece un testimonio excepcional de las prácticas funerarias y el refinamiento material de esta civilización aún poco conocida.
El contexto arqueológico: Tepe Chalow y la Civilización del Gran Jorasán
Tepe Chalow se ubica en la llanura de Jajarm, a los pies de los montes Aladagh, en la provincia de Jorasán del Norte. Este asentamiento se desarrolló entre el Calcolítico y el Bronce medio y se expandió en horizontal hasta cubrir más de 40 hectáreas. Durante el Bronce medio, la zona se integró en la esfera de influencia de la GKC, una civilización protourbana caracterizada por sus objetos de prestigio, su cerámica distintiva y una compleja red de intercambios de la que formó parte.
Las excavaciones en el yacimiento han revelado que el sector occidental del sitio albergó una necrópolis con al menos 38 tumbas atribuidas a la GKC. Estas sepulturas, muchas de las cuales presentan marcas de erosión por la acción del clima y las prácticas agrícolas modernas, ofrecen valiosa información sobre las estructuras sociales y rituales de la época.

Características generales de las tumbas de la Civilización del Gran Jorasán
Las tumbas GKC de Tepe Chalow se acracterizan ,en su mayoría, por ser simples fosas sin estructuras arquitectónicas asociadas. Los cuerpos se depositaban en posición fetal sobre el costado derecho, con el rostro orientado al sureste. A menudo, se incluían ajuares compuestos por vasijas, joyas y utensilios de distinto tipo, con claras diferencias entre las tumbas masculinas y las femeninas. Las sepulturas femeninas suelen ser más ricas y contienen objetos relacionados con el cuidado personal y la ornamentación, como espejos, cosméticos y joyas.
Además, algunas tumbas también contenían restos de alimentos depositados junto a los cuerpos, incluyendo restos óseos de cabras y ovejas. Este aspecto apunta a la celebración de rituales funerarios destinados, posiblemente, a asegurar el bienestar del difunto en el más allá.

La tumba 12: una inhumación extraordinaria
La tumba número 12, en el sector noroccidental de la necrópolis, se excavó en 2013 y representa el enterramiento más lujoso documentado hasta la fecha en Tepe Chalow. Pertenece a una adolescente de entre 16 y 18 años, con probabilidad perteneciente a la clase aristocrática. La disposición del cuerpo sigue el patrón típicode la cultura de Gran Jorasán: la posición fetal sobre el costado derecho, el rostro colocado hacia el sureste y las manos recogidas junto al pecho.
Lo más llamativo, sin embargo, procedía del ajuar funerario. En torno al cuerpo, se hallaron 34 objetos, dispuestos con cuidado alrededor de la cabeza, detrás de la espalda y a los pies de la difunta. Entre ellos, destacan joyas de oro, recipientes de cerámica, espejos de bronce, sellos, objetos cosméticos y contenedores de piedra tallada.

Cerámica de influencia regional
La tumba contenía doce vasijas cerámicas de variada tipología, muchas de ellas con paralelos en otros yacimientos de Bactria-Margiana. Entre ellas, se identificaron cuencos hemisféricos, vasijas sobre base troncocónica, cálices con pedestal y jarras decoradas con líneas onduladas incisas.
Todas las piezas revelaron ser fruto de una producción especializada. Además, no presentaban huellas de uso cotidiano, lo que indica que se fabricaron expresamente para ser depositadas en el contexto fúnebre. Una de las vasijas contenía restos óseos de animales, lo que reafirma el carácter ritual de la deposición de comida en la tumba.
Joyas y objetos de metal
El lujoso ajuar metálico incluía dos brazaletes de bronce, tres anillos de oro, un espejo de bronce y cuatro alfileres ornamentales. Uno de los alfileres más impresionantes del conjunto mide casi 23 cm y termina en una mano que sostiene una flor de diez pétalos, un diseño comparable al de otros hallazgos similares en Bactria-Margiana.
Entre los objetos más singulares destaca un pequeño sello de bronce con forma de pies humanos encerrados en un círculo, que se halló junto al cuello de la difunta. Los estudiosos han propuesto que podría tratarse de un amuleto. Esta iconografía, que tiene ecos en otras culturas de Asia occidental, podría aludir a creencias espirituales vinculadas al tránsito al más allá.

Cosmética y cuidado personal
Varios objetos del ajuar revelan una intensa preocupación por el cuidado personal. La presencia de un espejo de bronce, un aplicador cosmético y varios recipientes de clorita indican una práctica desarrollada del uso de cosméticos como el kohl. Uno de los frascos cilíndricos conservaba aún restos de un polvo de color negro que se ha interpretado como maquillaje para los ojos.
Además, se halló un pequeño recipiente rectangular, fabricado con clorita, con patas y decoración de serpientes y escorpiones incisos. Este motivo, común en el arte de Asia Central, pudo tener un valor protector.
Ornamentos de piedra y lapislázuli
Otra de las piezas destacadas del ajuaar es un collar compuesto por cuentas de clorita negra, serpentina verde, piedra caliza blanca y lapislázuli azul, importado probablemente de Badakhshan. La presencia de este mineral, muy valorado en la antigüedad, refuerza la idea tanto del estatus elevado del que gozó la difunta en vida como de la existencia de redes comerciales extensas que daban acceso a materiales de lujo.
También se hallaron otros objetos de piedra como un huso, un pequeño sello de piedra caliza con forma de flor de ocho pétalos y una serie de cuentas finamente decoradas, que podrían haber formado parte de un tocado.

Significado cultural e histórico
El descubrimiento de la tumba 12 arroja nueva luz sobre la presencia de élites femeninas del Bronce medio en el noreste de Irán. Según los estudiosos, estas mujeres pudieron ocupar posiciones de prestigio, como evidencia el lujo y la complejidad de sus ajuares funerarios. Si bien no se ha documentado en las fuentes escritas, la relevancia social de las mujeres de la elite puede inferirse a través de los objetos que las acompañaban en la muerte.
Asimismo, la tumba constituye una prueba tangible de la integración del noreste iraní en los circuitos culturales y económicos de Asia Central durante el segundo milenio a. C.. El carácter mixto del ajuar, que muestra objetos locales e importados, confirma el dinamismo y la diversidad cultural de esta región.
Lujo para la eternidad
La tumba de la joven de Chalow, con sus 34 objetos funerarios y su cuidada disposición, representa un testimonio excepcional de las creencias, costumbres y jerarquías sociales de la Civilización del Gran Jorasán. En tiempos en que las mujeres del pasado son, con frecuencia, invisibilizadas, la tumba 12 nos ofrece una historia poderosa sobre identidad, estatus y memoria femenina en la Edad del bronce. Su estudio y preservación son esenciales para comprender un periodo crucial en la formación de las culturas del Asia antigua.
Referencias
- Vahdati, A. A., Biscione, R., Dan, R. y Trémouille, M. C. 2025. "Grave 12 at Chalow: The Burial of a Young Lady of the “Greater Khorasan Civilization”. Iran, 1–25. DOI: https://doi.org/10.1080/05786967.2025.2488251
En las profundidades abisales del Estrecho de Gibraltar, un descubrimiento reescribió el relato de la piratería en el Mediterráneo. Se trata de los restos perfectamente conservados de un pequeño pero letal barco corsario del siglo XVII, vinculado a los temidos piratas de la costa de Berbería, que operaban desde ciudades portuarias como Argel y Túnez durante más de dos siglos.
El hallazgo se produjo a unos 830 metros de profundidad, en una zona estratégica para el comercio y la navegación entre Europa y África. Aunque fue localizado hace casi dos décadas por una expedición que buscaba un navío británico hundido, su existencia no se había hecho pública hasta ahora, cuando nuevos análisis e investigaciones han confirmado su auténtica naturaleza: no se trataba de un simple mercante, sino de un buque armado hasta los dientes y equipado para una misión de saqueo en la costa española.
Lo que hace especial a este descubrimiento no es solo su antigüedad o su ubicación, sino la forma en que sus restos narran una historia compleja: la de un barco que fingía ser un comerciante para ocultar su auténtico propósito, el secuestro y la esclavización de personas.
Corsarios del norte de África: el terror invisible de Europa
Los corsarios del norte de África, conocidos en Europa como los “piratas berberiscos”, no eran meros bandidos del mar. Muchos de ellos operaban bajo la protección de potencias del Mediterráneo islámico, como el Imperio Otomano, y contaban con una organización militar y política. Su actividad se extendió desde el siglo XV hasta bien entrado el XIX, convirtiendo el Mediterráneo occidental y parte del Atlántico en un campo de caza constante para embarcaciones comerciales europeas.
El navío hallado, probablemente una tartane —una pequeña embarcación de dos mástiles, habitual en esta región—, encajaba perfectamente en las estrategias corsarias de la época: de apariencia modesta, con velas triangulares similares a las de los barcos de pesca, era fácilmente confundible con una embarcación comercial inofensiva. Esto le permitía acercarse a sus víctimas sin levantar sospechas, antes de desatar un ataque brutal.
Entre los restos del naufragio se han identificado al menos cuatro cañones de gran calibre, diez cañones giratorios más pequeños y una cantidad significativa de mosquetes, lo que indica que su tripulación —de aproximadamente veinte hombres— estaba armada y preparada para el abordaje y la captura. Este arsenal convierte al hallazgo en uno de los ejemplos mejor conservados de armamento corsario de la Edad Moderna.

Un barco disfrazado: la doble vida de una embarcación pirata
El verdadero golpe de efecto de este hallazgo no está solo en las armas, sino en el resto de los objetos que viajaban a bordo. La carga del barco estaba compuesta por centenares de piezas de loza y metal: cazos, sartenes, platos, jarras y otros utensilios domésticos fabricados en Argel, muy probablemente utilizados como fachada comercial.
Este tipo de mercancía, común entre los mercaderes del Magreb, habría servido como coartada perfecta ante posibles inspecciones en altamar. A simple vista, la embarcación parecía un inofensivo comerciante, lo que le permitía moverse con relativa libertad por aguas europeas hasta que encontraba un objetivo vulnerable.
Pero los detalles revelados por el equipo arqueológico desmontan esta apariencia: además del armamento, se han encontrado objetos de origen europeo —como botellas de vidrio soplado del norte de Europa y tazones procedentes del Imperio Otomano— que, por su valor y rareza, debían haber sido saqueados de otros barcos capturados.
Entre los hallazgos más llamativos se encuentra un telescopio de largo alcance, un “catalejo” europeo de principios del siglo XVII. Este objeto era, en su época, una tecnología punta reservada a capitanes de alto rango y señala que la embarcación estaba equipada no solo para el combate, sino también para la vigilancia y la caza estratégica de otras naves.
Gibraltar: la trampa perfecta de los corsarios
La localización del naufragio no es casual. El Estrecho de Gibraltar era un punto neurálgico para los corsarios berberiscos. Por su estrechez y alto tráfico naval, ofrecía una posición ideal para emboscar a barcos cristianos en ruta entre el Atlántico y el Mediterráneo. Según registros históricos, una de cada tres presas corsarias fue capturada en esta zona.

El corsario encontrado pudo haber sido sorprendido por una tormenta repentina, una hipótesis reforzada por la disposición intacta del casco y la ausencia de signos de combate en los restos. Este escenario sugiere que su final fue tan repentino como inesperado, un naufragio silencioso que congeló en el tiempo una operación de saqueo en plena marcha.
La profundidad a la que fue hallado —más de 800 metros— explica también por qué no fue detectado antes. Solo con el uso de vehículos submarinos teledirigidos se ha podido explorar el lugar con precisión, documentar los artefactos y reconstruir digitalmente la forma y la estructura del navío.
El legado sumergido de una era oscura
La importancia del hallazgo va más allá de su valor arqueológico. Este barco es un testimonio material de una de las páginas menos conocidas —pero no menos dramáticas— de la historia marítima europea: la esclavitud impulsada por los corsarios del norte de África.
Durante más de dos siglos, comunidades costeras desde Italia hasta Irlanda vivieron con el miedo constante de ser atacadas por estos piratas. Las ciudades asaltadas sufrían saqueos, incendios y la captura sistemática de hombres, mujeres y niños, que eran llevados a los mercados de esclavos del norte de África y vendidos o mantenidos como rehenes a cambio de rescates.
El corsario del Estrecho es, en este contexto, una cápsula de memoria. Habla de violencia, comercio encubierto, tecnología naval, espionaje y estrategias de supervivencia en uno de los períodos más turbulentos de la historia mediterránea. Pero también ofrece una oportunidad para recordar el papel crucial del mar como escenario de conflicto, intercambio y resistencia.