
La Piedra del Sol, un disco de basalto de olivino de veinticuatro toneladas, permaneció sepultada más de doscientos años. El terrible rostro del dios que los aztecas tallaron sobre la roca entre 1250 y 1521 fue enterrado boca abajo por orden del arzobispo Alonso de Montúfar, en 1559. De su reposo no saldría hasta diciembre de 1790, cuando se iniciaron unas reformas urbanas en la entonces capital de Nueva España. Es decir, en la actual plaza de la Constitución de Ciudad de México, que reposa sobre la antigua Tenochtitlán, capital azteca. Pero ¿qué llevó a desear su desaparición? El monumento, que pudo formar parte de una plataforma gladiatoria sacrificial (temalácatl), luce la complicada cosmogonía de esta cultura.
En su centro, la deidad, posiblemente Tonatiuh, el astro rey, hambriento del tributo humano, aprisiona sendos corazones y saca la lengua, un cuchillo de pedernal. A su alrededor, se desenvuelve un registro del tiempo basado en la división de años, meses, semanas y días propia de esta civilización. Y, por eso, es conocido erróneamente como el calendario azteca. Cuando los españoles lo condenaron al olvido, se cerraba un ciclo de 52 años, en los que confluían el devenir religioso y el devenir civil, y temieron el renacer de las ceremonias paganas.
Pelotas, medicina y calendarios
Ejemplifica el sesgo con el que interpretamos manifestaciones culturales ajenas. «Las comunidades de las Américas desarrollaron prácticas matemáticas que, a diferencia de las difundidas por Occidente, estaban entremezcladas con su cosmovisión y trabajo diario», explica Hilbert Blanco-Álvarez, editor de la Revista Latinoamericana de Etnomatemática (RLE).
Empezamos nuestro viaje al pasado en Mesoamérica, una gran franja que va desde México hasta el norte de Costa Rica, y cuyos pueblos supieron medir con gran precisión el tiempo. Culturas como la tarasca, la olmeca, la mixteca, la zapoteca, la teotihuacana, la maya y la mexica (o azteca) formaron, entre el siglo xv a. C. y el xvi d. C., un intrincado y todavía indescifrado patrón.

Estas civilizaciones tuvieron en común, entre otras muchas cosas, el juego de la pelota, el nahualismo, el sacrificio humano, la medicina, el sistema de numeración, el calendario y la astronomía, según el antropólogo alemán nacionalizado mexicano Paul Kirchhoff.
Estos aspectos estaban tan estrechamente unidos como el cielo y la tierra, el paso de los días, la recogida de la cosecha, los impuestos y los ritos religiosos. El calendario habría nacido como compendio de las observaciones astronómicas y los cálculos matemáticos realizados a lo largo de cientos o miles de años.
Uno de los más renombrados y precisos es el de los mayas, que fueron capaces de descifrar la duración del año solar (365,242 días frente a los 365,242198 actuales) y la del mes lunar (29,5302 días frente a los 29,53059 actuales).
Este pueblo usó tres calendarios: el tzolkin, sagrado o religioso; el haab, civil o solar; y la cuenta larga, una especie de escala temporal absoluta, cuya base podría ser la fecha fundacional maya: el 11 o el 13 de agosto de 3114 a. C.
Existen evidencias de que los olmecas tenían un método similar. Este pueblo, que vivió entre 1200 y 400 a. C., conforma la cultura madre de Mesoamérica y habría legado a sus más notorios sucesores el sistema numérico.

Con tres símbolos basta
Los investigadores han podido acercarse a los conocimientos matemáticos de los mayas gracias a sus estelas, pinturas, jeroglíficos y manuscritos o códices. Poseían un «sistema de numeración vigesimal posicional de una gran eficacia y cuya representación solo requería de tres símbolos: el punto (uno), la raya (cinco) y el óvalo (cero)», aclaran los profesores Eugenio M. Fedriani y Ángel F. Tenorio en el artículo «Los sistemas de numeración maya, azteca e inca», publicado en Lecturas Matemáticas, vol. 25 (2004).
Así, los mayas podrían haber ejecutado las cuatro operaciones básicas –sumar, restar, multiplicar y dividir– e incluso obtener raíces. También representaban las cifras del uno al veinte con el llamado sistema de cabezas variables, que, según Fedriani y Tenorio, se basaba en una serie de jeroglíficos antropomórficos que representaban cabezas de deidades.
Al dominio de la astronomía, se unía el uso de la geometría, como demuestran sus magníficos palacios, pirámides, templos y observatorios. El complejo religioso maya de Chichén Itzá, el templo dedicado al dios Kukulcán –la serpiente emplumada–, encierra en sus armónicas proporciones referencias temporales, civiles y sagradas. Es el escenario de un fenómeno que ocurre al caer la tarde durante los equinoccios de primavera y otoño, cuando una sombra serpenteante desciende por una de sus escalinatas.
El prodigio es el resultado de la observación de las variaciones de la luz y las sombras durante cada día del año, causadas por la posición del Sol y los movimientos de la Tierra, y de la orientación final de una de sus fachadas. ¿Casualidad? Desde Chichén Itzá se puede observar el tránsito de Venus como un lunar negro sobre el Sol; portento que tuvo lugar en 2012 y se repetirá en 2117.
Porque los mayas calcularon los periodos sinódicos de Venus y Marte, y quizá de Júpiter y Saturno, y supieron predecir eclipses solares y lunares.

Grandes topógrafos
Para cuando llegaron los españoles, reinaban los aztecas o mexicas. En 1519, su capital, Tenochtitlán, era una de las ciudades más formidables del mundo, con cerca de 250 000 habitantes. A los aztecas, quienes también usaron un sistema vigesimal, pero no posicional y carente del cero, se les atribuye un procedimiento más intuitivo, menos eficiente que el maya y caracterizado por la posibilidad de anotar un número de al menos tres maneras.
Como su sistema económico se basaba en la agricultura y la recaudación de tributos, realizaban mediciones topográficas con el objetivo de fijar los impuestos que debían pagar sus súbditos. Las académicas Carmen Jorge y Jorge (Universidad Nacional Autónoma de México) y Barbara Williams (Universidad de Wisconsin) han descubierto que para ello, además de la técnica de multiplicar ancho por largo, recurrían a las fracciones, entidades unitarias similares a las pulgadas y los minutos. Dibujos de flechas, corazones, huesos, brazos y manos representaban partes del todo. Armados de esa diligencia catastral, censal y agrimensora, demostraron a los españoles que les exigían de más.
Guardianes de nudos
A 5000 kilómetros de allí, el rey inca tutelaba a unos diez millones de personas. Lo hacía desde el ombligo del mundo, Cuzco, la capital del Tahuantinsuyo, un imperio que se extendía desde el sur de Colombia hasta el norte de Chile. El orden y la organización regían este imperio, en el que una legión de funcionarios se afanaba por registrar información, a pesar de que esta civilización careció de escritura.
Los incas contaron con un sistema de numeración decimal posicional que definió la base de su administración y organización social. Con fines censales, distribuyeron a la población en grupos, de manera que los responsables multiplicaban su radio de autoridad directa por diez: el puriq, el cabeza de familia, era el encargado de una unidad, su familia; el chunka kamayuq, de diez familias; el pachaka kamayuq, de cien; el waranqa kamayuq, de mil; el hunu kamayuq, de diez mil... Así pudieron establecer un control sobre el trabajo, la producción y los impuestos.
A ello responden los quipus, cuerdas anudadas que servían para anotar información numérica y quizá histórica y cultural. El registro y seguimiento de la información corría a cargo de los quipucamayoc o guardianes de los nudos; cada ciudad podía tener entre uno y treinta.

Los quipus –nudos, en quechua– estaban formados por un grueso cordel central, sin nudos, que podía medir entre diez centímetros y tres metros y del que pendían otras cuerdas, hechas de algodón o lana, según describen las profesoras Mónica Lorena Micelli y Cecilia Rita Crespo Crespo en su artículo «Ábacos de América prehispánica».
Estas cuerdas colgantes, a su vez, se caracterizaban por distintas longitudes y colores. El amarillo simbolizaba el oro; el blanco, la plata; el rojo, el número de guerreros; y el negro, el tiempo. Cada cuerda secundaria representaba un número, formado a partir de una secuencia de grupos de nudos en base decimal. La decena de millar ocupaba la posición más alta, le seguía la unidad de millar y la secuencia seguía hasta llegar a la unidad en el extremo inferior. El cero se indicaba con un espacio mayor de lo normal. En las ruinas de la ciudad sagrada de Caral, cuna de las culturas andinas, se ha hallado el ejemplar más antiguo, del año 2500 a. C.
El secreto de la cruz del sur
Fueron también avezados ingenieros. Entre sus conocimientos matemáticos, destacó el dominio de una geometría práctica que posibilitó el desarrollo de monumentos, ciudades y fortalezas, puentes colgantes y otras obras de ingeniería civil, entre ellas canales de irrigación y el famoso Qhapaq Ñan, 5200 kilómetros de calzada que se unieron a una extensa red viaria de más de 20 000 kilómetros.
Según Leonardo Alcayhuaman Accostupa, catedrático de la Escuela de Ingeniería Civil de la Universidad Ricardo Palma, en Lima (Perú), «la cruz cuadrada es una figura geométrica usada como símbolo ordenador de los conceptos matemáticos religiosos en el mundo andino [...]. Su forma se origina de un desarrollo geométrico que toma como punto de partida un cuadrado unitario que, al crecer por diagonales sucesivas, permite determinar con bastante exactitud el valor de pi (π) y conformar un sistema». Conocida como la cruz del sur, chacana o cruz andina, este emblema escalonado de doce puntas es fruto de la observación astronómica y contiene la particular cosmogonía andina.
Hace unos 10.000 años, en algún lugar del suroeste asiático, alguien sembró una semilla y esperó... Ese gesto (imaginario), que hoy parece cotidiano, transformó la historia humana. Las comunidades dejaron de depender exclusivamente de lo que cazaban o recolectaban y empezaron a vivir de lo que cultivaban. Pero ¿cómo llegó esta forma de vida a Europa? La historia tradicional decía que los grupos locales de cazadores-recolectores fueron adoptando poco a poco las nuevas técnicas de cultivo. Sin embargo, un nuevo estudio liderado por investigadores de Penn State propone un giro radical a esta narrativa.
Combinando genética antigua, modelos matemáticos y simulaciones computacionales, el estudio publicado en Nature Communications concluye que la agricultura no se difundió como una idea entre vecinos, sino que llegó con poblaciones migrantes que trajeron consigo sus cultivos, sus animales y su ADN. La contribución de la transmisión cultural —es decir, que los locales aprendieran a cultivar observando o conviviendo con los recién llegados— fue prácticamente nula. Algo que hoy pervive, ¿pues no es habitual que una persona se lleve sus alimentos y recetas a los países a los que va a vivir?
ADN antiguo y un viejo debate
Es bien sabido que desde hace décadas, tanto arqueólogos como genetistas han debatido qué mecanismo impulsó la expansión agrícola en Europa: ¿fue un fenómeno cultural o demográfico? El primer modelo, llamado difusión cultural, sugiere que los pueblos cazadores-recolectores adoptaron gradualmente las técnicas agrícolas de sus vecinos. El segundo, conocido como difusión demográfica, sostiene que fueron los propios agricultores quienes se desplazaron y ocuparon nuevos territorios, desplazando o sustituyendo a las poblaciones locales.
La novedad del trabajo dirigido por Christian D. Huber y Troy M. LaPolice es que integra ambos mundos: genética y simulación demográfica, lo que permite cuantificar con precisión cuánto pesó cada factor en la expansión de la agricultura. En palabras del artículo: “nuestros hallazgos indican una transmisión cultural limitada y un apareamiento predominantemente dentro del mismo grupo”. Es decir, los grupos agricultores y los grupos cazadores-recolectores coexistieron, pero apenas se mezclaron ni cultural ni genéticamente.

Modelos, simulaciones y 618 genomas
El equipo de Penn State desarrolló simulaciones computacionales basadas en ADN antiguo de 618 individuos europeos del Neolítico, fechados entre hace 8.500 y 5.000 años. A través de estos datos y un mapa digital de Europa, modelaron cómo se expandió la agricultura desde Anatolia —el origen más probable— hacia el resto del continente.
El resultado más claro es que la tasa de aprendizaje cultural era extremadamente baja. Según los modelos, solo un 0,1 % de los agricultores convertía a un cazador-recolector en agricultor por año. Traducido: en una comunidad de mil agricultores, solo uno lograba transmitir sus conocimientos agrícolas a un miembro de otro grupo en un año. Este dato es consistente con el patrón de ADN observado, donde la mayor parte de la herencia genética pertenece a los agricultores migrantes.
Además, se estimó que el apareamiento entre grupos era inferior al 3 %, lo que refuerza la idea de barreras sociales o culturales fuertes entre agricultores y cazadores. Como señala el estudio, “hubo un apareamiento predominantemente dentro del mismo grupo, con muy pocos emparejamientos entre agricultores y cazadores-recolectores”.

Lo que dice el ADN (y lo que no dice)
El ADN antiguo ha revolucionado nuestra capacidad para reconstruir el pasado. En este caso, permitió observar con claridad cómo el componente genético de los primeros agricultores se fue extendiendo por Europa. Sin embargo, el ADN no puede explicar por sí solo los comportamientos, las decisiones ni las dinámicas culturales. Por eso este trabajo combina modelos matemáticos con datos arqueológicos y genéticos, lo que permite interpretar no solo qué poblaciones estaban allí, sino cómo interactuaban entre sí.
Uno de los hallazgos más interesantes es que incluso con una expansión principalmente demográfica, no siempre se produce un reemplazo completo de la población local. Es decir, los grupos migrantes pueden imponerse culturalmente sin borrar completamente la huella genética de los pueblos anteriores. Este matiz es crucial: si solo miráramos el ADN, podríamos malinterpretar ciertas expansiones como puramente culturales, cuando en realidad fueron migratorias, pero sin sustitución total.

¿Y si no fue un aprendizaje, sino una presión?
Aunque el modelo de Huber y su equipo se refiere a “aprendizaje”, no se especifica si este fue voluntario. La transmisión cultural, en este contexto, no implica necesariamente que los cazadores-recolectores eligieran cambiar su modo de vida. Podría haber habido presiones económicas, sociales o incluso conflictos que los empujaran hacia el nuevo sistema. De hecho, estudios previos han documentado alta conflictividad en algunos puntos del Neolítico europeo, lo que refuerza la hipótesis de que la transición al cultivo no siempre fue pacífica ni consensuada.
Este dato abre otra línea de debate: ¿cuánto de la revolución agrícola fue una elección libre y cuánto una necesidad impuesta? Aunque el artículo no entra a fondo en este terreno, sí deja claro que la adopción de la agricultura fue, en términos cuantificables, mínima por parte de las poblaciones locales.
Un patrón que se repite
Este modelo de migración con mínima mezcla genética no es único del Neolítico europeo. También se ha documentado algo similar con la expansión de la cultura Campaniforme en la Edad del Bronce. Al principio, parecía una difusión cultural —porque los objetos y estilos se expandían sin grandes cambios genéticos—, pero estudios recientes han revelado que también hubo migraciones importantes, aunque sin reemplazo completo de las poblaciones previas. Lo mismo puede decirse de algunas fases de la expansión agrícola en el Próximo Oriente.
Esto sugiere que la dicotomía clásica entre “expansión cultural” y “expansión demográfica” puede ser demasiado rígida. Tal vez debamos empezar a hablar de modelos mixtos, donde los cambios culturales y genéticos no siempre van de la mano ni en la misma proporción.
Una nueva mirada a la prehistoria europea
El trabajo de LaPolice, Williams y Huber ofrece mucho más que un dato técnico. Propone una nueva manera de leer la historia europea, en la que la agricultura fue introducida por migrantes que se movían, se asentaban y transformaban el paisaje humano y genético a su paso. La herencia de ese movimiento sigue viva en el ADN de millones de europeos actuales.
Aunque la idea de que los pueblos aprenden unos de otros es atractiva, los datos del ADN antiguo y la simulación demuestran que la transición agrícola en Europa fue, en su mayor parte, un fenómeno de reemplazo, no de adopción cultural. Eso no significa que no haya habido excepciones, mezclas o resistencias locales, pero sí deja claro cuál fue el motor principal del cambio.
Como concluye el artículo: “Nuestro análisis sugiere que solo una fracción mínima de los agricultores pudo haber estado activamente involucrada en interacciones culturales con los cazadores-recolectores”.
Referencias
- Troy M. LaPolice, Matthew P. Williams & Christian D. Huber. Modeling the European Neolithic expansion suggests predominant within-group mating and limited cultural transmission. Nature Communications. 2025. https://doi.org/10.1038/s41467-025-63172-0.
La lectura digital se ha convertido en una de las grandes protagonistas de los últimos años. Con la facilidad de llevar en un solo dispositivo miles de libros, revistas o apuntes académicos, los ebooks han revolucionado la forma en la que estudiantes, profesionales y lectores habituales disfrutan de sus lecturas.
Ahora que el verano llega a su fin y arranca la vuelta al cole, Amazon ha decidido acelerar la campaña de septiembre con el hundimiento del precio de manera drástica de su Kindle Paperwhite.

Normalmente, este lector electrónico de referencia de Amazon se mueve en torno a los 140€ en varias tiendas como PcComponentes, Worten, MediaMarkt y Miravia. No obstante, Amazon quiere seguir liderando el sector liquidándolo hasta los 131,40 euros.
Este modelo de Amazon incorpora una pantalla de 7 pulgadas con tecnología Paperwhite, resolución de 300 ppp, 16 tonos de escala de grises y luz frontal integrada regulable. Además, su diseño ultraligero combina portabilidad con resistencia al agua IPX8.
Así mismo, integra 16 GB de almacenamiento interno, destacando por una batería cuya autonomía es de hasta 12 semanas con uso moderado, recargándose en menos de 2,5 horas. Compatible con redes WiFi de 2,4 y 5 GHz, admite múltiples formatos de contenido como AZW, EPUB, PDF, DOCX y MOBI. Además de otras funciones como modo oscuro, ajuste de fuentes, interlineado y márgenes.
Amazon también rebaja muy ligeramente su modelo Kindle más económico
Para quienes buscan iniciarse en la lectura digital sin necesidad de tantas prestaciones, Amazon también ha ajustado el precio de su Kindle básico hasta los 98,35 euros. Una ligera rebaja, puesto que en webs como MediaMarkt y PcComponentes su precio es de 100€.

Incorpora una pantalla de 6 pulgadas con resolución de 300 ppp, este libro electrónico cuenta con 6 tonos de escala de grises y luz frontal integrada. Teniendo también 16 GB de memoria, cuya autonomía es de hasta 6 semanas por carga.
Compatible con redes WiFi de 2,4 y 5 GHz, admite una amplia gama de formatos como AZW, EPUB, MOBI, PDF, DOCX. Además de tener opciones de accesibilidad como ajuste de fuentes, interlineado, márgenes y modo de inversión de colores.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El envejecimiento no siempre implica la muerte de neuronas. A menudo, lo que ocurre es una pérdida de eficiencia en las conexiones sinápticas, esas diminutas estructuras que permiten que las células cerebrales se comuniquen. Con los años, la plasticidad del cerebro disminuye y aparecen dificultades para recordar, aprender o mantener la atención. Hasta ahora, la mayoría de los estudios se habían centrado en daños irreversibles como los observados en el alzhéimer. Sin embargo, la investigación más reciente apunta a que ciertos cambios moleculares podrían ser reversibles.
Los científicos llevan tiempo preguntándose qué impulsa realmente este declive cognitivo. ¿Se trata solo de un desgaste inevitable o existen factores concretos que lo aceleran? El nuevo estudio responde en parte a esta incógnita al identificar a FTL1 (Ferritin Light Chain 1) como un factor pro-envejecimiento en el cerebro. Se trata de una proteína relacionada con el almacenamiento de hierro que, en exceso, desestabiliza el delicado equilibrio neuronal.
Este hallazgo publicado en Nature Aging es clave porque demuestra que el envejecimiento cerebral no es un destino sellado de antemano. La acumulación de FTL1 en el hipocampo, la región cerebral esencial para la memoria, se asoció directamente con peores resultados en pruebas cognitivas en ratones viejos. Eso significa que un solo factor molecular puede marcar la diferencia entre recordar y olvidar.

El papel oculto del hierro en la memoria
El hierro es indispensable para la vida. Participa en la producción de energía y en múltiples procesos celulares. Pero cuando su regulación falla, puede convertirse en un enemigo silencioso. En el cerebro, los niveles de hierro deben mantenerse con precisión. Lo que observaron los investigadores es que, con la edad, FTL1 se acumula en exceso dentro de las neuronas, alterando la manera en que el hierro cambia entre sus formas químicas.
Este desajuste provoca que se incremente el hierro oxidado (Fe³⁺), lo que a su vez impacta en el metabolismo energético de las neuronas y en la salud de las sinapsis.
En los experimentos, los ratones jóvenes a los que se les forzó a producir más FTL1 mostraron signos prematuros de envejecimiento cerebral: sinapsis más débiles, neuronas menos ramificadas y fallos de memoria.
El efecto fue tan claro que los animales dejaron de preferir un objeto nuevo frente a uno familiar, una prueba clásica de memoria. También perdieron la capacidad de orientarse correctamente en un laberinto, algo que los ratones jóvenes y sanos resuelven sin dificultad. La conclusión es contundente: demasiada FTL1 convierte a un cerebro joven en un cerebro viejo.
Bloquear la proteína para rejuvenecer
La pregunta lógica fue: ¿qué ocurre si se elimina o bloquea FTL1 en un cerebro ya envejecido? Los investigadores realizaron el experimento opuesto, reduciendo la presencia de la proteína en el hipocampo de ratones de edad avanzada. Los resultados fueron sorprendentes: las neuronas recuperaron parte de sus conexiones y los animales mejoraron su memoria.
Las pruebas demostraron que, tras el tratamiento, los ratones eran capaces de reconocer objetos nuevos y de recordar recorridos en un laberinto de manera más eficiente.
A nivel celular, se observó un incremento de sinapsis excitadoras e inhibidoras, es decir, las autopistas de comunicación entre neuronas volvieron a ser más sólidas y activas.
Este rejuvenecimiento no fue un simple espejismo. Se confirmó también en análisis moleculares: al reducir FTL1, las neuronas recuperaron receptores y proteínas esenciales para la plasticidad sináptica. En otras palabras, el cerebro de los ratones viejos empezó a comportarse como el de animales más jóvenes.

Energía, metabolismo y memoria
El estudio no se quedó en la observación superficial, sino que indagó en los mecanismos profundos. Al comparar la actividad genética de las neuronas, se detectaron cambios en rutas metabólicas clave, sobre todo en la producción de ATP, la molécula que actúa como moneda de energía en las células.
Cuando la FTL1 aumentaba, la producción de ATP se desplomaba, dejando a las neuronas sin la energía suficiente para mantener sus complejas funciones. En cambio, al bloquear la proteína, los genes relacionados con la respiración celular y la síntesis de energía se reactivaban. Este descubrimiento refuerza la idea de que el envejecimiento cerebral está ligado, en gran parte, a fallos energéticos en las neuronas.
Para confirmar este vínculo, los investigadores probaron un suplemento: NADH, un coenzima que impulsa la producción de ATP. Al administrarlo a ratones con exceso de FTL1, se logró contrarrestar parte de los efectos negativos, restaurando la memoria y la salud sináptica. La prueba es clara: mejorar el metabolismo puede revertir la pérdida cognitiva asociada al envejecimiento.
Más allá de los ratones: ¿qué significa para nosotros?
Aunque el trabajo se realizó en modelos animales, su relevancia trasciende. En humanos, se sabe que niveles altos de ferritina y desajustes en el metabolismo del hierro se relacionan con peor rendimiento cognitivo y mayor riesgo de alzhéimer. De hecho, mutaciones en el gen Ftl1 provocan una rara enfermedad neurodegenerativa llamada neuroferritinopatía, caracterizada por problemas motores y de memoria.
Los resultados en ratones sugieren que el mismo mecanismo podría estar en juego en el envejecimiento humano. La acumulación de FTL1 en el cerebro podría actuar como un gatillo silencioso del deterioro cognitivo.
Y lo más prometedor: al ser una proteína concreta y bien identificada, podría convertirse en una diana terapéutica para desarrollar fármacos que ralenticen o reviertan la pérdida de memoria.
Los científicos insisten en que aún queda camino por recorrer antes de trasladar estos hallazgos a personas. Pero el simple hecho de demostrar que bloquear FTL1 rejuvenece el cerebro de un animal viejo abre un horizonte completamente nuevo en la investigación del envejecimiento.

Un futuro para la memoria
El hallazgo de FTL1 como proteína clave en el envejecimiento cerebral se suma a un cambio de paradigma en la ciencia: la idea de que el cerebro envejecido puede ser rejuvenecido. Ya no se trata únicamente de aceptar el deterioro como inevitable, sino de buscar las llaves moleculares que permitan retrasarlo o incluso revertirlo.
Este trabajo, realizado por un equipo internacional liderado desde la Universidad de California en San Francisco, no solo identifica a FTL1 como un enemigo silencioso de la memoria, sino que demuestra que actuar sobre ella es posible. Y al hacerlo, se revitalizan funciones tan esenciales como la plasticidad sináptica y la capacidad de aprender.
Para millones de personas preocupadas por el deterioro cognitivo, los resultados ofrecen una dosis de esperanza. Aunque aún no existe un tratamiento listo para humanos, la investigación marca un camino claro: si controlamos las moléculas que alimentan el envejecimiento, podremos proteger la memoria y la identidad que nos define.
Referencias
- Remesal, L., Sucharov-Costa, J., Wu, Y. et al. Targeting iron-associated protein Ftl1 in the brain of old mice improves age-related cognitive impairment. Nat Aging (2025). doi: 10.1038/s43587-025-00940-z
Renault ha asentado en España uno de sus pilares industriales más sólidos: en los primeros siete meses de 2025, más de la mitad de los vehículos vendidos en el país se fabricaron en Valladolid y Palencia. En total, 27.996 unidades, lo que supone un 54,9 % del mercado nacional. Este dato refleja mucho más que una cifra comercial: es la confirmación de que España es hoy un núcleo esencial para la estrategia global del grupo.
Nuestro país no es solo un centro de ensamblaje. Se ha convertido en el Polo Mundial de Hibridación de Renault, donde se producen cinco de los siete modelos híbridos completos de la marca: Captur y Symbioz en Valladolid, junto a Austral, Espace y Rafale en Palencia. El resultado es una gama competitiva, eficiente y tecnológicamente avanzada, que ha sabido conectar con un cliente cada vez más consciente del valor de la sostenibilidad.
Los números hablan por sí solos. El Captur lidera con holgura, con más de 12.000 matriculaciones. Le siguen Austral, Symbioz, Rafale y Espace, todos ellos con ADN español. Estos modelos no solo representan la fuerza industrial de Renault, sino también su capacidad para generar empleo, innovación y valor añadido en territorio nacional.
La tecnología híbrida E-Tech, además, está siendo clave. Representa ya el 44 % de las ventas de turismos de la marca en España, frente a una media del mercado que apenas roza el 18 %. Y todo ello se consigue en fábricas modernizadas, donde la robótica, la digitalización y la inteligencia artificial ya forman parte del día a día, situando a Valladolid y Palencia entre las plantas más avanzadas de Europa.
Captur, líder indiscutible en las carreteras españolas
Con más de 12.000 matriculaciones, el Captur es el buque insignia de Renault fabricado en Valladolid. Su equilibrio entre diseño urbano, practicidad y motorización híbrida E-Tech lo convierten en el preferido de los clientes.
Gracias a su eficiencia, es capaz de reducir consumos hasta en un 40 %, circulando en modo eléctrico durante gran parte de los trayectos urbanos.

Austral: la apuesta SUV hecha en Palencia
El Austral es el segundo modelo más demandado entre los fabricados en España. Con casi 6.500 unidades vendidas, este SUV confirma el papel clave de la planta de Palencia en la nueva gama híbrida. Combina deportividad y confort, y se ha convertido en el heredero natural del Kadjar, marcando el paso de Renault en el segmento C.

Symbioz, la nueva cara de Valladolid
El Symbioz, lanzado recientemente, ya ha encontrado su lugar en el mercado con casi 5.000 unidades. Fabricado también en Valladolid, destaca por un diseño audaz y un habitáculo tecnológico.
Es un modelo que simboliza la capacidad de adaptación de la factoría vallisoletana, capaz de responder con agilidad a la demanda de nuevas tendencias de movilidad.

Rafale: un SUV coupé con sello premium
El Rafale suma más de 2.700 matriculaciones en lo que va de año. Producido en Palencia, se sitúa como la alternativa más refinada de la gama, con un aire premium y un diseño inspirado en la aviación.
Representa el salto cualitativo de Renault hacia un mercado más exigente, donde el diseño y la tecnología van de la mano.

El Espace, un clásico que se reinventa
Con más de 1.500 unidades, el nuevo Espace mantiene viva la tradición de los grandes familiares Renault, ahora en versión híbrida y fabricado en Palencia.
Comparte plataforma y tecnología con Austral y Rafale, pero conserva su espíritu práctico, ofreciendo espacio y confort a las familias que buscan versatilidad sin renunciar al estilo.

Valladolid, laboratorio de innovación
La planta vallisoletana se ha transformado en un referente de la industria 4.0. Con la incorporación de inteligencia artificial, sistemas de trazabilidad digital y robótica avanzada, ha elevado los estándares de calidad y eficiencia.
Aquí se combinan tradición y modernidad: décadas de experiencia industrial respaldan un presente marcado por la innovación constante.

Palencia, cuna de los grandes SUV
La factoría de Palencia se especializa en los modelos más grandes y sofisticados de la gama híbrida. Austral, Rafale y Espace salen de sus líneas de producción con procesos altamente automatizados y un enfoque sostenible.
La modernización de sus instalaciones ha permitido a Renault responder a la demanda creciente de SUV electrificados en toda Europa.

La revolución híbrida E-Tech
Los híbridos E-Tech fabricados en España son responsables de casi la mitad de las ventas de Renault en nuestro país. Esta tecnología permite combinar eficiencia, bajas emisiones y una conducción placentera sin necesidad de enchufar el vehículo.
El éxito de esta gama demuestra que la hibridación es una fórmula muy valorada por los clientes que buscan sostenibilidad sin complicaciones.

Ventajas de fabricar en casa
La producción local ofrece beneficios estratégicos: reduce tiempos logísticos, minimiza la huella de carbono del transporte y asegura mayor flexibilidad frente a la demanda. Además, fortalece el empleo y la competitividad de la industria española, situando a nuestro país en el mapa global de la automoción.

Renaulution: un plan con acento español
El plan estratégico “Renaulution” tiene en España uno de sus ejes fundamentales. Valladolid y Palencia son piezas clave para que la marca avance en electrificación y sostenibilidad.
Esta apuesta convierte a nuestro país en un socio imprescindible para el futuro del grupo, tanto en Europa como en mercados internacionales.

Nuevas apuestas eléctricas que refuerzan el futuro
Renault no se limita a los híbridos fabricados en España. El nuevo R4 E-Tech se convierte en un coche urbano, robusto y 100 % pensado para el futuro, recuperando un icono histórico con alma eléctrica.
Este lanzamiento simboliza cómo la marca conecta su legado con la nueva movilidad, combinando nostalgia, tecnología y sostenibilidad en un mismo vehículo.

Boreal, un SUV con ambiciones globales
Otra gran apuesta es el Boreal, un modelo que refuerza la estrategia internacional de Renault. Boreal llega con producción estratégica y ambiciones internacionales, posicionándose como un SUV de referencia en mercados globales. Su diseño moderno y su planteamiento sostenible lo convierten en un pilar de la nueva era de Renault, con España como base de parte de ese crecimiento industrial.

La producción local como valor estratégico
El éxito de Renault en España demuestra que la producción local es un valor estratégico. Con más de la mitad de sus ventas provenientes de modelos “Made in Spain”, el grupo ha reforzado su competitividad, ha dado un paso decisivo en electrificación y ha situado a Valladolid y Palencia en la primera línea de la automoción europea. Renault no solo fabrica coches: impulsa innovación, empleo y orgullo industrial en nuestro país.

La momificación por medios artificiales se considera uno de los rasgos distintivos de la antigua civilización egipcia. La iconografía, los testimonios clásicos y, sobre todo, los propios restos humanos hallados en las tumbas faraónicas confirman esta particularidad. Sin embargo, una investigación reciente de la historiadora Helen Dixon plantea un escenario cultural más complejo. Según la autora, algunos fenicios del Levante pudieron haber practicado una forma de momificación o embalsamamiento simbólico en plena época persa (ca. 500-300 a. C.).
El artículo de Dixon se basa en el análisis de inscripciones funerarias, sarcófagos antropoides, descripciones de excavaciones del siglo XIX y XX y la presencia recurrente de aceites y resinas en los ajuares mortuorios. El conjunto de estas evidencias sugiere que la élite fenicia desarrolló rituales destinados a garantizar la integridad física del difunto, aunque el resultado no siempre implicase la conservación física del cadáver. Por ello, Dixon propone el concepto de “momificación simbólica”.

Los fenicios y la diversidad de sus rituales funerarios
El estudio parte de la idea de que la práctica funeraria fenicia mostró una notable diversidad, sobre todo en comparación con otras culturas del Mediterráneo durante la Edad del Hierro. En los cementerios del litoral siropalestino, se han hallado tanto cremaciones como inhumaciones que, en ocasiones, incluso coexistían en un mismo espacio. Algunas tumbas mostraban sarcófagos antropoides de piedra, mientras que en otras se empleaban simples fosas o nichos excavados en la roca.
La ausencia de restos momificados en buen estado en el registro arqueológico había llevado a muchos investigadores a descartar la posibilidad de que se hubiese practicado el embalsamamiento entre los fenicios. No obstante, los testimonios del siglo XIX, sobre todo los vinculados a las excavaciones de Sidón, revelan la presencia de difuntos conservados de un modo inusual. Así, se habrían encontrado cuerpos cubiertos de fluidos aceitosos o acompañados de tablones de madera y restos de vendajes. Estas evidencias tempranas, aunque difíciles de verificar hoy, apuntan a que los fenicios pudieron haber manipulado y tratado los cadáveres con la intención de preservarlos.

El caso emblemático del rey Tabnit de Sidón
La prueba más célebre procede del hallazgo en 1887 del sarcófago del rey Tabnit de Sidón, fechado hacia finales del siglo VI o inicios del V a. C. Cuando los arqueólogos retiraron la tapa de basalto, encontraron el cuerpo sumergido en un líquido descrito como “aceitoso”. Se conservaban los tejidos blandos y los órganos internos intactos. Esta circunstancia sorprendió a los especialistas, pues el proceso de momificación egipcia implicaba la extracción de las vísceras.
El rey Tabnit se convirtió así en la única “momia” fenicia documentada con cierta seguridad. Sin embargo, su conservación fue efímera. Al entrar en contacto con el aire, el cuerpo se desintegró rápidamente.
Con todo, el caso plantea algunas dudas. ¿El líquido hallado en el sarcófago deriva de una técnica aplicada de manera intencional o es el resultado de las reacciones postdeposicionales? Aun así, su estado inicial apunta al empleo de resinas y aceites como agentes de preservación ritual.

Tablas, vendas y resinas: las huellas materiales de la preparación del cuerpo
Otros hallazgos en los sitios de Sidón y Amrit apuntan en la misma dirección. Se encontraron, por ejemplo, tablones de madera que presentaban orificios que pudieron emplearse para sujetar el cadáver mediante cuerdas o tiras de telas. Estos elementos, junto con la presencia de fragmentos de vendajes de lino, se han interpretado como las pruebas de un intento de momificación.
Además, varios sarcófagos contenían residuos resinosos o aceitosos. En Cartago, por ejemplo, se hallaron depósitos que algunos excavadores del siglo XIX relacionaron con las técnicas de embalsamamiento inspiradas en Egipto. La reiteración de estos materiales en contextos funerarios de élite revela que la preparación del cuerpo respondía a rituales cuidadosamente codificados, aunque su eficacia en términos de conservación fuese limitada.

La momificación como símbolo: más allá de la preservación física
El argumento central de Dixon es que estas prácticas no buscaban, necesariamente, obtener un cuerpo incorruptible, como en Egipto, sino transmitir un mensaje simbólico. Así, más que la preservación orgánica del cadáver, los fenicios buscaron “colocar a sus muertos en la eternidad” como un modo de asegurar la estabilidad y permanencia del enterramiento.
El uso de aceites aromáticos y resinas cumplía una función performativa: envolver el cuerpo en sustancias preciosas asociadas a lo sagrado, garantizar la pureza del rito y crear la sensación de una preservación espiritual del difunto. El hecho de que los órganos no se extrayesen refuerza la hipótesis de que lo importante era mantener la integridad del cuerpo, no modificarlo.
El testimonio de las inscripciones funerarias
Las inscripciones halladas en los sarcófagos reales de Biblos y Sidón parecen respaldar esta interpretación. Una de ellas, perteneciente a un rey anónimo de Biblos del siglo V a. C., afirma explícitamente que el cadáver fue “preparado en mirra y bedelio”, dos resinas aromáticas muy valoradas en el Mediterráneo antiguo.
Otra inscripción, la de la reina Batnoam, madre del rey Azbaal de Biblos, describe cómo se la enterró con un atuendo regio, tocada con la tiara y los símbolos de su dignidad. Estos textos, por tanto, apuntan a que la preparación del cuerpo y su adorno se concebían como actos de trascendencia, parte de un ritual que vinculaba al difunto con la eternidad y con los dioses.

Paralelos culturales y reinterpretaciones modernas
Los sarcófagos antropoides y el empleo de resinas, vendajes y tablones recuerdan a las técnicas faraónicas. Sin embargo, Dixon insiste en que los fenicios adaptaron de forma creativa estos elementos al desarrollar un modelo propio de “momificación simbólica”.
El análisis histórico revela, además, un cambio en la percepción académica. Mientras los investigadores del siglo XIX tendían a exagerar las similitudes con Egipto, a partir de mediados del siglo XX se impuso el escepticismo y se minimizó la importancia de la práctica. El estudio actual propone un punto intermedio: reconocer que sí hubo intentos y rituales de preservación, aunque con objetivos distintos a los mostrados en Egipto.
Una eternidad simbólica
La investigación de Helen Dixon ofrece un marco renovado para comprender las prácticas funerarias fenicias. Lejos de limitarse a copiar modelos egipcios, las élites fenicias elaboraron un lenguaje ritual y funerario propio, en el que aceites, resinas y sarcófagos no solo cumplían funciones prácticas, sino también simbólicas.
Según el estudio, la momificación fenicia fue, más que un proceso técnico de conservación, un acto performativo que aseguraba al difunto un lugar en la eternidad. En este sentido, las tumbas fenicias revelan una concepción del más allá profundamente enraizada en la identidad cultural de estas comunidades del Levante, capaces de integrar y reinterpretar influencias externas.
Referencias
- Dixon, Helen. 2022. "Placing Them 'in Eternity': Symbolic Mummification in Levantine Phoenicia". Rivista di Studi Fenici, 50. DOI: https://doi.org/10.19282/rsf.50.2022.06
En las áridas laderas del Alto Atlas marroquí, donde hoy solo sopla el viento sobre la roca, hace unos 168 millones de años caminaba uno de los animales más insólitos que jamás haya existido. Medía apenas cuatro metros de largo y era herbívoro, pero su cuerpo estaba cubierto por una auténtica muralla viviente: placas, espinas y púas afiladas de todos los tamaños sobresalían de su cuello, su espalda, su cadera y sus costillas. Algunas de estas estructuras óseas alcanzaban casi un metro de longitud. El descubrimiento de Spicomellus afer, presentado recientemente en la revista Nature, ha sacudido los cimientos de la paleontología, revelando una versión primitiva, pero al mismo tiempo extraordinariamente elaborada, de los dinosaurios acorazados.
Hasta hace poco, Spicomellus era apenas un nombre en los márgenes de la ciencia, conocido únicamente por un fragmento de costilla fosilizada hallado en 2021. Sin embargo, el hallazgo de un conjunto más completo de restos —incluyendo múltiples vértebras, placas dérmicas y una especie de collar óseo con espinas— ha confirmado no solo su pertenencia al grupo de los anquilosaurios, sino que lo posiciona como el más antiguo de su linaje y el más ornamentado de todos ellos. Un hecho que contradice completamente las teorías evolutivas tradicionales.
Una armadura que no tiene igual
Los anquilosaurios son célebres por su blindaje corporal y, en sus formas más tardías, por la icónica maza en la cola. Pero este hallazgo va mucho más allá. Su esqueleto conserva evidencia de algo nunca antes visto: púas fusionadas directamente con las costillas. Este rasgo es absolutamente único en todo el reino animal, tanto en especies actuales como extintas. Es como si el dinosaurio hubiese nacido con lanzas saliendo directamente de sus costados. Y no hablamos de pequeñas protuberancias: algunas de estas espinas midieron hasta 87 centímetros, y posiblemente fueron más largas en vida.
Además del “collar” con púas, Spicomellus también tenía grandes placas y estructuras puntiagudas sobre las caderas, y una posible maza en la cola, de acuerdo con los restos fosilizados de vértebras caudales fusionadas que recuerdan a las de otros anquilosaurios más modernos. Estos rasgos sugieren que muchos de los elementos que definieron a este grupo ya estaban presentes mucho antes de lo que se pensaba.
Lo más desconcertante es que se trata del primer miembro del grupo que conocemos —vivió 30 millones de años antes que otros anquilosaurios ya descritos—, y sin embargo, ostenta la armadura más exagerada y variada. Esto desafía el patrón evolutivo habitual, donde las formas más primitivas suelen ser más simples y las complejidades aparecen con el tiempo. En este nuevo dinosaurio ocurre justo lo contrario.

¿Armas o adornos?
Una de las grandes preguntas que plantea el descubrimiento es la funcionalidad de semejante panoplia corporal. A primera vista, el blindaje sugiere una adaptación defensiva contra depredadores, y en parte lo sería. Sin embargo, los investigadores destacan que ciertas estructuras, como las púas del cuello, parecen demasiado exageradas y poco prácticas como para haber tenido solo ese propósito. El animal vivía en un entorno de vegetación densa y moverse con ese peso y tamaño extra habría supuesto un coste energético significativo.
Así, se plantea que muchas de estas estructuras pudieron tener funciones sociales y de exhibición, como ocurre hoy en día con las astas de los ciervos o la cola de los pavos reales. Podrían haber servido para atraer pareja, intimidar rivales o reforzar jerarquías dentro del grupo. Es un recordatorio de que, en la evolución, el combate y la reproducción son fuerzas tan poderosas como la supervivencia misma.
Una rareza africana que cambia la historia
El descubrimiento de Spicomellus también tiene una gran relevancia geográfica. Hasta ahora, la mayoría de los anquilosaurios se habían hallado en ecosistemas del hemisferio norte, particularmente en América del Norte, Europa y Asia. Este es el primer anquilosaurio conocido en África, y además, el más antiguo del mundo. Lo que indica que el grupo pudo haberse originado en este continente o, al menos, que tuvo una distribución mucho más amplia de lo que se pensaba durante el Jurásico Medio.
La región marroquí del Atlas, donde se hallaron los fósiles, está emergiendo como una mina de oro paleontológica. Con un registro fósil históricamente subestimado, Marruecos empieza a cobrar protagonismo como un enclave crucial para reconstruir la evolución de los dinosaurios en Gondwana, el antiguo supercontinente del hemisferio sur.

El hallazgo fue posible gracias a una colaboración internacional liderada por paleontólogos del Natural History Museum de Londres, la Universidad de Birmingham y la Université Sidi Mohamed Ben Abdellah de Fez. Fue en 2023 cuando un agricultor marroquí local encontró los restos tras unas inundaciones. El equipo acudió al lugar bajo un permiso oficial y realizó la excavación completa. Ahora, con los fósiles analizados y el estudio publicado, comienza una nueva etapa en la exploración de este ecosistema jurásico poco conocido.
Otro de los aspectos más fascinantes del caso Spicomellus es que su morfología podría representar un “experimento evolutivo” temprano dentro del grupo de los anquilosaurios. Posteriormente, con la aparición de grandes depredadores como Allosaurus en el Jurásico tardío y Tyrannosaurus rex en el Cretácico, los anquilosaurios evolucionaron armaduras más funcionales, menos vistosas y más eficientes desde el punto de vista defensivo. Su espectacularidad pudo haber sido un rasgo descartado por la selección natural conforme las amenazas crecieron.
Por tanto, el dinosaurio marroquí podría ser el último vestigio de una línea evolutiva más decorativa y exhibicionista, una que fue sustituida por la sobriedad letal de la funcionalidad pura. Pero en su tiempo, en un paisaje aún no dominado por los grandes carnívoros, Spicomellus fue un espectáculo andante: un herbívoro cubierto de espinas, caminando lentamente con su extravagante armadura como estandarte de un mundo aún en construcción.
El estudio ha sido publicado en la revista Nature.
Durante décadas, la idea de que el arco y la flecha eran exclusivos de Homo sapiens ha dominado los relatos sobre el desarrollo de las tecnologías de caza en la prehistoria. Esta narrativa ha servido, entre otras cosas, para subrayar la supuesta superioridad cognitiva de los humanos modernos frente a otros homínidos como los neandertales. Sin embargo, un descubrimiento reciente en el yacimiento de Obi-Rakhmat, en Uzbekistán, está sembrando dudas.
Un equipo internacional de arqueólogos ha presentado pruebas de lo que podrían ser las puntas de flecha más antiguas conocidas hasta la fecha, con una antigüedad de alrededor de 80.000 años. Y lo más llamativo no es solo su edad, sino su contexto: fueron halladas en un estrato muy anterior a la llegada documentada de Homo sapiens a la región, lo que plantea una pregunta tan fascinante como polémica: ¿podrían haber sido los neandertales los primeros en desarrollar armas con proyectiles?
Un hallazgo escondido en la microescala
El descubrimiento, publicado en PLOS ONE por Hugues Plisson y Andrei Krivoshapkin junto a un equipo multidisciplinar, no consiste en lanzas o restos óseos humanos, sino en micropuntas de sílex de apenas unos pocos centímetros de largo, muchas de ellas fragmentadas. Durante años, estos restos pasaron desapercibidos en las excavaciones realizadas en el refugio rocoso de Obi-Rakhmat, al norte de las montañas Tian Shan, en Uzbekistán.
A diferencia de las grandes puntas de lanza típicas del Paleolítico medio, estas piezas presentan características propias de proyectiles diseñados para alcanzar a distancia, como su forma triangular, su reducido tamaño y un patrón de fractura compatible con el impacto a alta velocidad. Lo más significativo: algunas conservan microtrazas de impacto, similares a las que se observan en las verdaderas puntas de flecha empleadas por grupos humanos miles de años después.
La mayoría de estas micropuntas fueron fabricadas con piedra caliza silificada local, talladas mediante técnicas sofisticadas de reducción Levallois y producción de láminas. En total, se han identificado tres tipos de armaduras líticas: puntas grandes retocadas, láminas delgadas, y especialmente estas micropuntas sin retocar que, según los autores, solo habrían podido fijarse a astiles delgados como los de las flechas.

¿Fueron flechas... y quién las fabricó?
La datación estratigráfica del nivel en el que se hallaron estas piezas sitúa el conjunto en torno a los 80.000 años antes del presente, es decir, mucho antes de las evidencias más tempranas de arcos y flechas en África (74.000 años en Sibudu, Sudáfrica) o Europa (unos 54.000 años en Mandrin, Francia).
Este dato por sí solo ya resulta impactante. Pero la controversia aumenta si se considera el contexto humano del yacimiento. En Obi-Rakhmat, los únicos restos humanos asociados a niveles semejantes corresponden a un niño de entre 9 y 12 años con rasgos dentales de neandertal, aunque su cráneo muestra características más ambiguas, lo que ha llevado a plantear la posibilidad de que se tratase de un individuo híbrido entre Homo sapiens, neandertal o incluso denisovano.
La hipótesis más plausible, según los investigadores, es que la población de Obi-Rakhmat estuviese compuesta por neandertales, o al menos por un grupo de origen neandertal adaptado al paisaje estepario del Asia Central. La región, situada en un corredor natural entre el Altái y el Cáucaso, pudo haber sido un crisol de intercambios biológicos y culturales entre diferentes poblaciones humanas.
Tecnología avanzada en tiempos insospechados
La importancia del hallazgo va más allá de la mera identificación de puntas. Implica una comprensión más profunda de cómo cazaban estos grupos humanos, y qué tipo de armas empleaban para sobrevivir en un entorno exigente.
El diseño de estas micropuntas revela una lógica de fabricación orientada a proyectiles ligeros, ideales para cazar presas ágiles como el íbice siberiano o el ciervo rojo, animales frecuentes en el registro faunístico de Obi-Rakhmat. Las armas pesadas, como lanzas, habrían sido menos efectivas para estos fines.
Además, los experimentos llevados a cabo por el equipo con reconstrucciones modernas —micropuntas fijadas a astiles de 8 mm de diámetro y lanzadas con arcos de 36 libras— confirman que estas puntas eran funcionales y mortales. Tras atravesar una carcasa animal suspendida, algunas se rompieron al impactar contra estructuras duras, dejando fracturas típicas de uso como proyectil.
Si bien es cierto que ni los arcos ni las flechas se conservan —los materiales orgánicos como la madera o las fibras vegetales raramente sobreviven 80.000 años—, la lógica del diseño y el patrón de fractura son, según los investigadores, pruebas razonables de que se trataba de armas lanzadas a distancia. Y si no eran arcos, debieron usarse con algún sistema de lanzamiento como propulsores. Pero todo apunta a un conocimiento técnico avanzado, insospechado en ese contexto temporal.

¿Y si fueron los neandertales?
El gran debate gira en torno a la autoría de estas armas. ¿Fueron inventadas por Homo sapiens y llevadas a Asia Central durante una migración temprana desde el Levante? ¿O fueron desarrolladas de forma independiente por grupos neandertales locales?
La segunda opción, aunque rompedora, es cada vez más plausible. La arqueología reciente ha demostrado que los neandertales no eran los “brutos” que durante tanto tiempo describieron los manuales escolares. Sabemos que enterraban a sus muertos, utilizaban pigmentos, tallaban herramientas complejas y ahora, quizá, también desarrollaron armas de proyectil sofisticadas.
En este sentido, el hallazgo de Obi-Rakhmat reabre el debate sobre la inteligencia tecnológica neandertal y la posibilidad de que ciertas innovaciones atribuidas exclusivamente a Homo sapiens hayan tenido un origen paralelo o incluso independiente. Además, la posibilidad de contactos o intercambios entre distintas poblaciones en Asia Central podría explicar similitudes tecnológicas observadas miles de kilómetros al oeste, en yacimientos europeos.
Un nuevo relato para una humanidad plural
Los investigadores no afirman haber resuelto el misterio, pero dejan claro que los resultados de su estudio exigen una revisión crítica de las narrativas lineales sobre la evolución cultural humana.
El hecho de que herramientas idénticas a las empleadas por Homo sapiens 25.000 años después aparezcan en este rincón del mundo, en manos quizás de otros homínidos, pone en cuestión la idea de que solo nuestra especie fue capaz de innovar.
Quizás, como ya se empieza a aceptar, la historia de la humanidad no fue una carrera en solitario, sino una red de trayectorias paralelas, con préstamos, convergencias y, por supuesto, grandes dosis de creatividad. Y es que Obi-Rakhmat, con sus piedras pequeñas y su enigma gigante, nos recuerda que aún queda mucho por descubrir sobre quienes fuimos… y sobre lo que fuimos capaces de imaginar.
Este artículo busca acercar al lector algunas de las ideas contenidas en un estudio galardonado con el premio a la “Mejor contribución metodológica en el campo de la Estadística”, otorgado por la Sociedad de Estadística e Investigación Operativa y la Fundación BBVA [1].
1. Estadística con curvas
Tradicionalmente, los resultados de los experimentos científicos se limitaban a valores numéricos concretos, como la velocidad de caída de un objeto o la temperatura corporal de una persona. Hoy en día, los avances tecnológicos permiten registrar de forma (casi) continua esos datos, convirtiéndolos en curvas: en lugar de medir la velocidad de llegada al suelo del objeto, se dispone de su velocidad (casi) instantánea durante toda la caída, o de la evolución de la temperatura de una persona a lo largo de todo un día. Este hecho ha requerido la creación de técnicas estadísticas específicas para el manejo de curvas, dando lugar al Análisis de Datos Funcionales (FDA por su nombre inglés) [2, 3].
En ciencia, es habitual construir modelos matemáticos que simplifican, en cierta medida, la realidad. El modelo de regresión lineal, cuyo origen se remonta al siglo XIX, es uno de los pilares de la estadística moderna. Este modelo plantea la relación Y = β0 + β1 X + ε entre dos variables numéricas X e Y que incluye un error aleatorio ε. Sin embargo, es obvio que para adoptar un modelo matemático hay que comprobar su ajuste al fenómeno que pretende modelar. La posible sobresimplificación impuesta por un modelo puede no ajustarse a la realidad, creando vacas esféricas o prediciendo que una niña se jubilará midiendo más de cuatro metros si utilizamos una regresión lineal que se ajusta bastante bien sus alturas desde los tres a los trece años.

El objetivo de [1] es evaluar el ajuste de un modelo de regresión lineal cuando se pretende utilizar una curva para predecir una variable numérica, concluyendo mediante un test de validez si en los datos existen discrepancias significativas con la predicción del modelo. El interés del contraste de hipótesis radica en que, cuando trabajamos con curvas, no disponemos de intuición gráfica para valorar si la regresión lineal puede ser razonable o no.
El modelo de regresión lineal destaca tanto por su simplicidad como por la variedad de situaciones en las que es aplicable. Un ejemplo de su empleo es usar la curva del número de infectados con cierto virus hasta hoy para predecir cuántos nuevos infectados van a surgir durante la semana que viene. Otro ejemplo es determinar el contenido de grasa de una pieza de carne a partir de una curva que describe cómo absorbe radiaciones de distintas longitudes de onda.
El contraste de hipótesis propuesto en [1] para evaluar el modelo de regresión lineal utiliza la simplificación proporcionada por las proyecciones aleatorias. Esta herramienta “comprime” cada curva en un número “representativo” de la misma. Esto simplifica notablemente el contraste del modelo, ya que, en vez de una curva y una variable numérica, se trabaja con dos variables numéricas. Un aspecto clave para esta “representatividad” es el carácter aleatorio de las proyecciones.
2. ¿Qué es una proyección?
La palabra proyección en matemáticas es (casi) equivalente a sombra. Si suspendemos en el aire una pelota y la iluminamos desde arriba con una linterna, la sombra que aparece en el suelo es su proyección sobre él.
Podemos identificar la linterna con un punto que emite rayos de luz en cierto embudo de direcciones. En Estadística, en lugar de linternas, se suelen usar “pantallas de rayos X” o pantallas luminosas, que son superficies planas formadas por infinitos puntos que emiten rayos perpendiculares a dicha superficie. Si iluminamos la pelota con una de ellas situada en el techo, la sombra proyectada es una circunferencia con radio igual al de la pelota. Si tomamos otra pelota de diferente tamaño, la sombra será también circular, pero las distinguiremos por el tamaño de sus radios. Pero si cogemos un balón de rugby, sucede que la sombra solo es una circunferencia si el eje más largo del balón es perpendicular a la pantalla. Obtendremos una elipse si es paralelo y sombras asimétricas en las demás orientaciones.

Los rayos X atraviesan un objeto perdiendo parte de su energía, absorbida por dicho objeto. Esta absorción depende de la composición y espesor del objeto que atraviesan: si el rayo X llega a una pantalla blanca sin interferencias, su energía quema el punto de llegada y este se vuelve negro. En caso de que el objeto absorba completamente el rayo, el punto de llegada no recibe energía y permanece blanco. Los tonos grises indican una absorción parcial de la energía del rayo por parte del objeto.
Con esta analogía, a diferencia de los rayos luminosos, los rayos X permiten, por ejemplo, distinguir un huevo de madera de otro de gallina con, exactamente, la misma forma y tamaño. El de madera tendrá una sombra más o menos homogénea (aunque más oscura en los bordes, porque se atraviesa menos madera), mientras que la sombra del de gallina mostrará con claridad la yema que hay en su interior, porque la yema y la clara absorben de manera diferente los rayos X.
Por lo tanto, si tenemos dos objetos diferentes (por forma o composición) y diseñamos un emisor del estilo de los de rayos X, en el que los rayos sean parcialmente absorbidos, las proyecciones de ambos objetos van a permitir saber cuál es cuál, a no ser que los objetos que se van a proyectar tengan cierta similitud y, además, los coloquemos muy cuidadosamente. En otras palabras: si elegimos al azar la posición de un balón de rugby, con total seguridad su proyección va a delatar que no es esférico.1 El posicionamiento al azar es clave para evitar engaños de objetos cuidadosamente construidos para proyectar sombras que no son representativas de su estructura (ver [4] para una colección de ejemplos inspiradores).

3. Proyecciones en Estadística
A partir de ahora, balones y huevos van a ser reemplazados por nubes de puntos en dimensión dos, tres o superior. Estos conjuntos de datos están formados por 𝑛 vectores Xi = (Xi1,…,Xip ), 𝑖 = 1,…,𝑛, de dimensión 𝑝 que aparecen cuando se miden simultáneamente 𝑝 variables numéricas. Ejemplos de datos tridimensionales (𝑝 = 3) son el peso, la altura y la presión sanguínea de personas. Pero la tecnología permite medir muchas variables al mismo tiempo y no es raro encontrar situaciones con millares de dimensiones, lo que aumenta la complejidad de los objetos considerablemente. Para distinguir estos objetos necesitaremos un emisor-receptor de rayos X adecuado.
Haremos dos suposiciones importantes:
- 3.1 Para cada conjunto de datos hay un patrón (llamémosle patrón poblacional) que determina cómo se distribuyen estos datos.
- 3.2 Los datos que tenemos son una muestra obtenida de cierta población, y, por lo tanto, siguen el patrón poblacional que corresponda.
Las pantallas planas emisoras de rayos X tienen sentido en dimensión tres. En dimensión cuatro aparece un problema (que se mantiene en dimensiones superiores): habría que usar pantallas tridimensionales. Pero, ¿qué es una pantalla tridimensional? ¿Cómo vemos las absorciones? El uso de pantallas de dimensión superior a dos no parece ni sencillo ni de utilidad.
La búsqueda de un buen emisor-receptor de rayos X, que sea manejable en cualquier dimensión, se resuelve de modo sorprendentemente sencillo: ¿y si usamos un alambre como receptor en todas las dimensiones? En dimensión tres solo hay que usar una pantalla emisora cilíndrica lo suficientemente grande como para contener la nube proyectada y situar un alambre en el eje del cilindro. Podemos imaginar que todos los puntos de la superficie interior de la pantalla emisora cilíndrica emiten rayos con la misma energía hacia el eje central. Si nos fijamos en el punto situado a altura x del eje del cilindro, como las absorciones solo se producen por choques con puntos de la nube, midiendo la energía de cada rayo a la llegada, sabemos cuántos choques ha sufrido y, como no puede haber un punto que interfiera con dos rayos, sumando el número de choques sabemos el número de puntos de la nube que están situados a la altura x.

En consecuencia, podemos olvidarnos de los rayos X, del cilindro y de todo, menos del alambre central. Vamos a fijar la recta que representa a este alambre. Lo único que tenemos que hacer es coger el punto que está a altura x en esta recta y mirar cuántos puntos de la nube están a esta misma altura.
Matemáticamente, esta operación está relacionada con el producto escalar de dos vectores, Xi (dato) y h = (h1,…,hp ) (colineal con el eje del cilindro), que se define como el número
Esta operación permite comprimir el conjunto de datos 𝑝-dimensional {X1,…,Xn } al conjunto de datos proyectado {X1 ⋅ h,…,Xn ⋅ h }, ahora contenido en dimensión uno. En el caso del cilindro de la figura 4, tomamos h = (0,0,1) y el producto escalar nos proporciona las terceras coordenadas de la nube de puntos tridimensional. Es obvio que esta construcción puede hacerse en cualquier dimensión, no solo en 𝑝 = 3.
Ahora bien, ¿mantiene esta compresión la información de los datos? La respuesta es afirmativa con matices. Si elegimos la recta h al azar, el resultado principal de [5] muestra que, si hacemos las proyecciones con dos nubes de puntos con patrones diferentes, ¡es imposible que los patrones de las proyecciones coincidan! Por lo tanto, podemos distinguir patrones en los datos originales a partir de sus proyecciones aleatorias.
4. Proyecciones aleatorias en la práctica
En el punto 3.2 hemos dicho que suponemos que se eligen muestras usando determinado patrón poblacional. Pero es bien conocido que las muestras tienen cierta variabilidad natural. Por ello, aun teniendo dos patrones idénticos de partida, esta variabilidad va a hacer imposible que dos muestras obtenidas con el mismo patrón coincidan exactamente.



Cada una de las figuras 5, 6 y 7 contiene dos muestras de 500 puntos tomadas de dos poblaciones. Las poblaciones son idénticas en la figura 5, diferentes pero parecidas en la 6 y muy diferentes en la 7. Además, se han calculado cuatro proyecciones sobre los ejes señalados que han sido elegidos aleatoriamente. En las esquinas de las cuatro figuras, se muestran cuatro gráficos que, en el pie, recogen las proyecciones obtenidas (cada rayita vertical corresponde a la proyección de un punto) y, encima, una estimación de la densidad de probabilidad (patrón) que las produjo.
En la figura 5 estas gráficas deberían haber sido idénticas, pero la variabilidad de las muestras hace que aparezcan pequeñas diferencias entre ellas. Las muestras de la figura 6 tienen proyecciones claramente diferentes, excepto que se elija como recta el eje vertical o el horizontal.2 Como la recta P1 está próxima al eje vertical, resulta que las diferencias entre las dos proyecciones en esta recta son pequeñas. Pero a medida que nos alejamos de esta recta, las diferencias entre las proyecciones aumentan. Finalmente, las dos poblaciones involucradas en la figura 7 son tan diferentes, que sus proyecciones no se parecen en ninguna de las rectas elegidas.
Estos hechos plantean dos problemas:
- 4.1 ¿Qué diferencia tiene que haber entre las proyecciones para que estemos razonablemente seguros de que no se deben al azar? Una vez resuelta esta cuestión, tendríamos un procedimiento para poder afirmar con seguridad que dos nubes proceden de patrones diferentes.
- 4.2 Aunque según la teoría de [5], con suficientes datos, una única proyección es suficiente para distinguir entre dos patrones diferentes, la figura 5 muestra que, en la práctica, el azar puede elegir una dirección en la que las diferencias entre proyecciones sean similares a las esperadas por el azar.
Está claro que, si se soluciona el primer punto y se dispone de una herramienta de proyección, podemos analizar la semejanza o diferencia entre patrones de objetos complejos (curvas o datos de alta dimensión) simplemente analizando diferencias entre sus valores proyectados (números), que es una tarea más asequible.
5. De vuelta a las curvas
Los problemas 4.1 y 4.2 han sido resueltos en [1] para construir el test de validez del modelo de regresión lineal cuando la variable X (t ) es una curva (por ejemplo, dependiente del tiempo t ). Este modelo establece que existe una función β (t ) desconocida, de modo que cada curva X (t ) tiene asociado un valor numérico de Y determinado por
donde ε es un error aleatorio. La proyección de la curva X (t ) en la dirección determinada por la curva h (t ) se define como
lo que representa una extensión natural del producto escalar entre dos vectores.
La solución del problema 4.1 ocupa la mayor parte de [1] porque es técnica y compleja. La complejidad proviene de que la dimensión del espacio de curvas es infinita, lo que dificulta la estimación de β (t ).
La solución del problema 4.2 es más sencilla. Consiste en elegir varias direcciones de proyección y usar los resultados para decidir.3 La experiencia muestra que la posibilidad de distinguir entre patrones diferentes aumenta bastante utilizando entre 5 y 15 proyecciones aleatorias.
En conclusión, las proyecciones aleatorias son una herramienta de uso sencillo, que permite responder al complejo problema de decidir si la relación entre una población de curvas y una de respuestas numéricas puede ser lineal. El lector interesado en profundizar en las contribuciones técnicas del trabajo puede encontrar en [6] una exposición más detallada.
Notas
- El balón de rugby se delata siempre que su eje mayor no coincida exactamente con la perpendicular de la pared roja.
- Estos ejes se comportan igual que el eje mayor del balón de rugby.
- Una solución puede ser aplicar el test a las proyecciones disponibles y quedarse con la dirección en que los patrones son más diferentes; pero también se pueden promediar los resultados del test en todas las direcciones.
Referencias
- [1] Cuesta-Albertos, J.A., García-Portugués, E., Febrero-Bande, M. y González-Manteiga, W. (2019). Goodness-of-fit tests for the functional linear model based on randomly projected empirical processes. The Annals of Statistics, 47(1), 439–467. doi:10.1214/18-AOS1693.
- [2] Cuevas, A. (2014). A partial overview of the theory of statistics with functional data. Journal of Statistical Planning and Inference, 147, 1–23. doi:10.1016/j.jspi.2013.04.002.
- [3] Wang, J.-L., Chiou, J.-M., Müller y H.-G. (2016). Functional data analysis. Annual Review of Statistics and Its Application, 3, 257–295. doi:10.1146/annurev-statistics-041715-033624.
- [4] Mitra, N. J. y Pauly, M. (2009). Shadow art. ACM Transactions on Graphics, 28(5):1–7. doi:10.1145/1618452.1618502. En acceso abierto a través de https://graphics.stanford.edu/~niloy/research/shadowArt/shadowArt_sigA_09.html.
- [5] Cuesta-Albertos, J.A., Fraiman, R. y Ransford, T. (2007). A sharp form of the Cramer–Wold theorem. Journal of Theoretical Probability, 20, 201–209. doi:10.1007/s10959-007-0060-7.
- [6] Cuesta-Albertos, J.A., García-Portugués, E., Febrero-Bande, M. y González-Manteiga, W. (2024). Tests de bondad de ajuste para el modelo lineal funcional basados en proyecciones. Boletín de Estadística e Investigación Operativa, 40(3), 7–20. https://www.seio.es/wp-content/uploads/2024_40_3_BEIO_Estadistica.pdf
Juan Antonio Cuesta Albertos
Doctor en Ciencias Matemáticas

Eduardo García Portugués
Doctor en Estadística e Investigación Operativa

Manuel Febrero Bande
Doctor en Estadística e Investigación Operativa

Wenceslao González Manteiga
Doctor en Estadística e Investigación Operativa

Cerca de los arrecifes del Pacífico occidental, entre ramas de coral que parecen salidas de un paisaje extraterrestre, vive un animal diminuto y casi imposible de ver. No es un mito marino ni una ilusión óptica. Se trata del Hippocampus bargibanti, un caballito de mar pigmeo que se esconde a plena vista gracias a un camuflaje tan perfecto que engaña tanto a depredadores como a buceadores. Su cuerpo reproduce con precisión los colores, formas y texturas del coral del que depende, hasta el punto de que durante años nadie supo que existía.
Un reciente estudio, publicado en la revista Proceedings of the National Academy of Sciences (PNAS), ha mostrado que este prodigioso mimetismo no se debe a una acumulación de adaptaciones genéticas, como cabría esperar, sino a una sorprendente pérdida de genes clave. El trabajo, liderado por un equipo germano-chino, ha secuenciado por primera vez el genoma completo del caballito de mar pigmeo y descubierto que su transformación evolutiva se debe, en gran medida, a lo que ya no tiene en su ADN. Lo que desapareció fue tan determinante como lo que quedó.
Una forma que desaparece en el entorno
La capacidad del caballito de mar pigmeo para fusionarse visualmente con su entorno no es anecdótica, puesto que es una cuestión de supervivencia. Su tamaño, de apenas dos centímetros, lo convierte en una presa fácil si no logra pasar desapercibido. Para evitarlo, ha evolucionado hasta desarrollar una textura corporal con pequeños nódulos que imitan los pólipos del coral Muricella, su anfitrión habitual. Además, su coloración cambia sutilmente para coincidir con la del coral específico donde vive.
Lo más llamativo de este caso es que estos cambios físicos tan específicos no se lograron añadiendo complejidad genética, sino suprimiéndola. El estudio descubrió que el Hippocampus bargibanti ha perdido al menos 438 genes completos en comparación con otros caballitos de mar, así como 635 genes adicionales que están presentes pero mutados y ya no funcionan. Estas pérdidas afectan no solo a la forma externa, sino también a sistemas internos fundamentales, como el inmunológico.

El gen perdido que modeló la cabeza
Una de las claves más sorprendentes del estudio tiene que ver con la forma de la cabeza del animal. A diferencia de otros caballitos de mar, que presentan un hocico alargado característico, el caballito pigmeo tiene un hocico corto, redondeado, similar a los nódulos del coral. Esta diferencia estructural no es casual. Los investigadores descubrieron que el gen hoxa2b, un gen regulador crucial en el desarrollo craneofacial, se ha perdido completamente en esta especie.
"Normalmente, una combinación de diferentes componentes genéticos hace que el hocico del caballito de mar crezca proporcionalmente más rápido que otras partes del cuerpo", explica Axel Meyer, coautor del estudio. "En el caballito pigmeo, sin embargo, hemos descubierto que estas tasas de crecimiento están suprimidas porque el gen hoxa2b se ha perdido". Esto mantiene la cabeza en un estado juvenil permanente, con proporciones pequeñas que coinciden mejor con la estructura del coral y mejoran su camuflaje.

Una piel diseñada por la pérdida
Además del hocico, la piel del Hippocampus bargibanti también revela huellas de una evolución por sustracción. La formación de los nódulos dérmicos que imitan el coral parece estar relacionada con la desactivación de ciertos genes que controlan la morfogénesis normal de la piel. Aunque aún no se ha determinado exactamente qué genes regulan la formación de estas protuberancias, los investigadores observaron una reorganización sustancial en los patrones de expresión genética durante el desarrollo embrionario, en especial en las regiones responsables del crecimiento de la cabeza y la piel.
El estudio también apunta a la pérdida de numerosos "interruptores genéticos", es decir, secuencias reguladoras cercanas a los genes que no codifican proteínas pero que controlan cuándo y cómo se activan ciertos genes durante el desarrollo. Esta pérdida de control habría contribuido a que ciertos rasgos, como el hocico corto y la textura de la piel, se mantuvieran constantes desde las primeras etapas del crecimiento hasta la adultez.

El sistema inmune más reducido entre los vertebrados
Uno de los descubrimientos más llamativos del estudio tiene que ver con el sistema inmunológico del caballito de mar pigmeo. El análisis genético reveló que esta especie ha perdido numerosos genes relacionados con la inmunidad, incluyendo los genes MHC, que codifican proteínas esenciales para reconocer y combatir agentes patógenos. Esto lo convierte, según los autores, en el vertebrado conocido con el repertorio inmunológico más reducido.
En otras circunstancias, esta fragilidad inmunitaria sería un grave problema. Sin embargo, el caballito pigmeo ha encontrado una solución inesperada: la vida en simbiosis con su coral huésped. Estos corales producen compuestos antimicrobianos naturales que actúan como una barrera química, protegiendo tanto al coral como al caballito. Al parecer, vivir permanentemente sobre el coral ha permitido al caballito desprenderse de parte de su sistema inmunológico sin sufrir consecuencias negativas.
El papel del sistema inmune en la reproducción
La pérdida de genes inmunitarios no solo influye en la defensa contra enfermedades, sino también en la forma en que estos animales se reproducen. En los caballitos de mar, el macho es quien incuba los embriones en una bolsa especial del abdomen. En la mayoría de los vertebrados, esta situación generaría una respuesta inmunitaria del cuerpo del macho contra los embriones, al considerarlos tejido ajeno. Sin embargo, en el Hippocampus bargibanti, la pérdida de genes inmunitarios habría facilitado esta peculiar forma de embarazo masculino al evitar el rechazo inmunológico de los embriones.
"Perder genes del sistema inmunológico fue necesario para debilitar la respuesta inmunitaria correspondiente", indicó Axel Meyer. Esta adaptación ha permitido que la reproducción en el caballito pigmeo ocurra de forma más eficiente en un entorno donde el mimetismo, la inmovilidad y la simbiosis son claves para la supervivencia.
Evolución por descarte: una estrategia poco común
El caso del caballito de mar pigmeo rompe con la idea convencional de que la evolución opera añadiendo complejidad. En lugar de ganar nuevos genes, esta especie ha ganado ventajas adaptativas al eliminar partes de su genoma. Esto sugiere que, en ciertos contextos, la pérdida genética puede ser no solo beneficiosa, sino fundamental para la supervivencia.
"En todas estas adaptaciones vemos ejemplos de pérdidas masivas de genes y una aparente liberación paradójica de creatividad evolutiva, que en última instancia explica el aspecto inusual y la biología extraordinaria de estas criaturas", escriben los autores del artículo. Esta perspectiva ofrece una nueva forma de entender cómo opera la selección natural, especialmente en organismos que dependen de una relación tan estrecha con su entorno.
Referencias
- M. Qu, Y. Zhang, J. Woltering, Y. Liu, Z. Liu, S. Wan, H. Jiang, H. Yu, Z. Chen, X. Wang, Z. Zhang, G. Qin, R. Schneider, A. Meyer, Q. Lin (2025): Symbiosis with and mimicry of corals were facilitated by immune gene loss and body remodeling in the pygmy seahorse, Proceedings of the National Academy of Sciences, 122 (35) e2423818122. https://doi.org/10.1073/pnas.2423818122.
La llamada dieta mediterránea suele considerarse un legado ancestral, una práctica alimentaria transmitida casi sin rupturas desde la antigüedad hasta el presente. Su prestigio contemporáneo, asociado a la salud, la longevidad y la identidad cultural, ha consolidado la idea de que se trata de una tradición milenaria. Sin embargo, las investigaciones arqueobotánicas matizan esta visión al revelar que la dieta en las orillas orientales del Mediterráneo experimentó variaciones, adaptaciones y tensiones ligadas tanto al entorno ecológico como a los cambios políticos y económicos.
Un reciente estudio firmado por Jessica Feito analiza los restos macrobotánicos procedentes de 65 yacimientos en el Levante para reconstruir de manera precisa qué comían sus habitantes entre el 1000 a.C. y el 500 d.C. El trabajo abarca desde la Edad del Hierro hasta la Antigüedad tardía, pasando por las etapas persa, helenística y romana. Los resultados destacan la importancia de los cultivos locales y la persistencia de hábitos alimentarios específicos frente a las modas imperiales.

Los cereales: entre la estabilidad y la adaptación
Los cereales constituyeron la base de la alimentación en el Levante, al igual que en otras regiones mediterráneas. La cebada (Hordeum vulgare) fue el cereal predominante en todos los periodos estudiados, más frecuente que el trigo libre de glumas (Triticum aestivum/durum/turgidum). Su resistencia a la sequía y su doble función como alimento humano y pienso animal explican esta persistencia.
Aunque el trigo se cultivó en proporción menor, adquirió una notable relevancia cultural al ser el cereal preferido para la panificación. Su cultivo, que se verifica en áreas áridas, revela la voluntad de los agricultores de asumir riesgos y emplear técnicas intensivas para satisfacer una demanda cultural más que práctica.
Otro fenómeno particularmente interesante que documenta Feito es la evolución de los trigos vestidos, como la escaña y el farro. Estos cereales, en retroceso desde la Edad del Hierro, experimentaron un repunte en el periodo romano tardío, quizás en relación con episodios de crisis, sequías o inestabilidad política. Su resistencia, así como la facilidad para almacenarlos, los convirtieron en un recurso alimenticio clave en tiempos de dificultades.

Las legumbres: diversidad y declive de ciertos cultivos
Aunque más difíciles de identificar en el registro arqueobotánico, las legumbres también formaron parte fundamental de la dieta. La lenteja (Lens culinaris) se mantuvo como la especie más habitual en todas las fases cronológicas, mientras que el consumo del haba (Vicia faba) y el guisante (Pisum sativum) aumentó en la época romana tardía.
Más llamativo resulta el caso de la Lathyrus sativus o almorta, cultivada en la Edad del Hierro y la etapa helenística, pero casi desaparecida en época romana. Su consumo excesivo provoca latirismo, una enfermedad neurotóxica, lo que explicaría su abandono progresivo en favor de legumbres más seguras.
El garbanzo (Cicer arietinum), hoy tan emblemático en la cocina mediterránea, aparece con mayor regularidad en el Levante que en otras regiones del imperio. Su presencia constante en yacimientos urbanos, rurales y militares demuestra que se trataba de un alimento de producción y consumo local, y no de una moda importada por Roma.

Frutas y frutos secos: de la tradición a la diversificación
Si los cereales garantizaban la subsistencia, las frutas aportaban diversidad en la dieta y nutrientes, además de prestigio social. El registro arqueobotánico muestra la importancia de la vid (Vitis vinifera), la aceituna (Olea europaea) y la higuera (Ficus carica), presentes en todos los periodos cronológicos analizados por Feito. Estas especies constituyen la auténtica triada mediterránea levantina, mucho antes de que se canonizase como símbolo de la dieta mediterránea.
Durante la época helenística y romana, se observa una creciente diversificación. El consumo de dátiles (Phoenix dactylifera) se expandió de forma constante. Está presente en todo tipo de asentamientos, desde aldeas rurales hasta centros urbanos. Su cultivo intensivo en oasis y zonas áridas refuerza la imagen de una dieta adaptada a entornos diversos. El granado (Punica granatum), por el contrario, alcanzó su máximo en la Edad del Hierro para luego decaer.
Los frutos del género Prunus (ciruelas, melocotones, almendras) se vuelven más visibles en época romana tardía, en consonancia con el auge de la horticultura intensiva. En cuanto a los frutos secos, el caso más revelador lo ofrece el nogal (Juglans regia). Ausente en la dieta durante siglos, a partir del periodo romano comienza a difundirse en contextos militares y urbanos como un producto prestigioso. Mientras tanto, el pistacho, asociado al mundo persa, perdió protagonismo tras la integración de estos territorios en el imperio romano.

Aceite y vino, pilares económicos y culturales
La expansión del olivo en el Levante durante el periodo romano y, sobre todo, en la Antigüedad tardía, es uno de los fenómenos mejor documentados. El cultivo del olivo se convirtió en un pilar económico y en una marca de identidad regional, con evidencias arqueológicas de prensas en toda la región y un notable aumento de restos de aceituna carbonizada. El aceite de oliva no solo se destinaba al consumo local, sino también a la exportación. Su producción masiva, además, generaba subproductos como el orujo, que se utilizaba como combustible en entornos urbanos y rurales.
El vino, por su parte, también adquirió un papel destacado. El cultivo de la vid y la elaboración de vino se intensificaron en época romana, impulsados por la demanda urbana y militar. El prestigio del vino mediterráneo se consolidó como elemento cultural y económico, aunque siempre en convivencia con otras bebidas locales.

Hierbas y especias: sabores antiguos en un registro fragmentario
Aunque las evidencias arqueológicas son más escasas, el estudio confirma la presencia de hierbas y especias en el Levante desde la Edad del Hierro. El cilantro, el comino y el laurel aparecen en depósitos antiguos, lo que demuestra que ya se usaban como condimento antes de la romanización.
A diferencia de lo ocurrido en las provincias occidentales, donde algunas hierbas se han interpretado como novedades introducidas por los romanos, en el Levante eran productos autóctonos de uso habitual. Esto refuerza la idea de que los sabores que asociamos hoy a la cocina mediterránea hunden sus raíces culturales en Oriente.

Cambios sociales y culturales en el acceso a los alimentos
El estudio de Jessica Feito demuestra que la dieta del Levante entre el 1000 a.C. y el 500 d.C. no refleja la moderna construcción de la dieta mediterránea, sino que presenta la alimentación como un conjunto de prácticas dinámicas, moldeadas por factores ambientales, culturales y políticos. Los cereales siguieron ocupando la base de la dieta, pero el papel de la cebada, más resistente que el trigo, subraya una estrategia agrícola adaptada a las condiciones locales.
El análisis arqueobotánico también permite comprender cómo los alimentos se distribuían en función de la organización social. En la Edad del Hierro, los grandes almacenes fortificados concentraban cereales y legumbres bajo el control de las autoridades. Con la llegada del periodo romano, el sistema cambió hacia una economía de mercados urbanos que se abastecían de las aldeas rurales.
Más allá de la triada mediterránea de pan, aceite y vino, el Levante de la antigüedad muestra una dieta diversa, con raíces profundas, pero en constante transformación. Lejos de ser una herencia inmutable en el tiempo, la llamada dieta mediterránea es el resultado de múltiples procesos históricos, en los que Oriente desempeñó un papel fundamental.
Referencias
- Feito, Jessica. 2025. "Ancient Diet and Agricultural Economy in the Levant: An Archaeobotanical Study". American Journal of Archaeology, 129.3: 323-345. DOI: https://doi.org/10.1086/735181
Menos dados a elucubraciones que los griegos y muy prácticos, los descendientes de Rómulo y Remo tomaron el relevo solo en las partes del legado heleno que más les interesaban. El pensamiento, las ciencias abstractas –aritmética, geometría y demás– e incluso la religión ya estaban bien como estaban, y más o menos así quedarían cuando la era romana tocó a su fin.
Lo que sí necesitaba un empuje eran los asuntos de infraestructura física, todas esas obras públicas en las que los helenos habían tenido buenas iniciativas que se quedaron flotando en la comodidad de aulas y tertulias y, sin duda, también en la que proporcionaba la mano de obra esclava. Además, y aparte de las ínfulas de Alejandro Magno, lo de los griegos había sido más colonizar que conquistar, mientras que los romanos iban a por todas, a por la Roma aeterna, imperio omnipotente y omnipresente. ¿Y quién había ido de esa cuerda antes que ellos? Pues los persas, sobre todo, y también los egipcios. En ellos se fijarían para erigir el fuerte esqueleto de su poderío a base de piedras, hormigón y ladrillos.
Abordaron así todas sus obras con un empeño muy inspirado: debían convencer y seducir a los conquistados en torno a la indiscutible superioridad romana, y tenían que hacer que fluyesen la comunicación y la organización, enfocadas ambas en los centros neurálgicos: las ciudades. Además, habrían de durar, por lo que las cantidades y pasos que resultaban de cálculos y proyecciones a menudo se duplicaban a la hora de construir.
Calzadas de presentación
Sus famosos caminos empedrados eran la primera impronta de romanización y, en un principio, maravillaban a las gentes conquistadas. Claro que eso no impedía las revueltas contra la dura dominación. Abatidos los rebeldes, se incrementaba el número de esclavos y, tangencialmente, el estancamiento técnico: ¿para qué desarrollar más este u otro sistema si los miles de esclavos hacen el trabajo estupendamente y sin costes?
Es decir, los impetuosos romanos al fin cayeron en la misma indolencia que achacaron a los griegos. No obstante, los logros en funcionalidad y en dimensiones fueron enormes, y hoy resultan aún más apabullantes debido al largo parón –al menos de quince siglos– que, en casi todos los aspectos de la civilización europea, supusieron el fin de Roma y la llegada del cristianismo y de los bárbaros.

Visigodos o predicadores religiosos siguieron usando las calzadas romanas, algunas de las cuales continuarían siendo transitadas prácticamente hasta el siglo xx. En su trazado básico se marcaba la anchura de 2,5 metros; luego se cavaba un lecho de al menos un metro, en el que se depositaban grandes piedras y, sobre ellas, una capa de gravilla o polvo para facilitar el drenaje. Por encima se acoplaban las piedras aplanadas que eran el firme de la calzada, con rebajes laterales que funcionaban de canalización para la lluvia. La estabilización se conseguía arrojando cal, y de la plena compactación se encargaban el tiempo y los factores climáticos.
Tales elementos fijarían los casi 100 000 kilómetros de calzadas principales que, de Britania a Persia, llegó a tener el imperio en su apogeo, señalizadas todas con sus característicos mojones o miliarios. Por delante, la Vía Apia, la primera y más importante, construida en 312 a. C., cuyos 560 kilómetros unían Roma con Capua. Hacia el este partía la Vía Emilia, erigida en el 187 a. C., a través de 282 kilómetros que llegaban hasta la actual Rímini en una ruta que hoy sigue una moderna carretera. Como igual ocurre en España en torno a la Vía de la Plata, vínculo entre Asturica Augusta (Astorga) y Emerita Augusta (Mérida). La calzada hispánica más larga era la Vía Augusta, con sus casi 1500 kilómetros, que unían el sur de la Galia con Cádiz.
Prodigiosos puentes
La continuidad de estas venas del imperio no hubiera sido posible sin el levantamiento de puentes, que en un principio eran sus famosos pontones de madera, tan eficientes en las lides bélicas. Pero luego había que implantarse, y entonces era el turno de la piedra y de un calculado proceso. Elegido el mejor vado, se procedía a levantar los cimientos, para lo que se desviaba la corriente con ataguías y se colocaban grandes bloques pétreos que, movidos por grúas sostenidas por esclavos, formaban a veces tajamares para mitigar el golpe de la corriente.
El interior se rellenaba con mortero cementado con puzolana, y así se elevaban los pilares enlazados por arcos de medio punto, que construían ayudándose de un tablazón. Un sistema muy concienzudo que ha hecho que muchos de sus puentes sigan en pie e incluso en servicio en la actualidad. Ahí continúan airosos los de Sant’Angelo y Milvio en la misma Roma, el de Tréveris en Alemania o los de Alcántara y Córdoba en España.
Calzadas y puentes aseguraban la llegada a las urbes, generalmente con un trazado de damero que dividía las casas en manzanas o insulae, en torno a dos vías más anchas principales: el cardo (norte-sur) y el decumano (este-oeste). Alrededor del cruce de ambas se disponían el foro y los principales edificios públicos. En las mayores urbes romanas había incluso edificios de varios pisos –hasta siete u ocho–, con varias casas en cada uno, en los barrios más humildes. Levantadas en ladrillo y a menudo con muy mala calidad, eran frecuentes los hundimientos y otros desastres. En su planta baja tenían tiendas y talleres, eran objeto de una especulación muy similar a la actual, y de ellas han quedado restos en Roma y en Ostia.
En el polo opuesto y en la cima de la calidad ingenieril, estaban los edificios públicos, ya fueran templos, teatros, anfiteatros o circos, en los que la Roma aeterna proyectó su orgullo y esencia. Eran instrumento inestimable de estabilidad social y simbolismo: su construcción ratificaba y engrandecía el poder de emperadores y patricios de alto rango. Las mejoras que en esta arquitectura a lo grande aportaron los romanos superaron la herencia griega, debido a elementos tan eficientes como el arco de medio punto, que no inventaron pero sí perfeccionaron al lograr realizarlo segmentado y no en una sola pieza, como se hizo hasta entonces.
Esta sabia solución dispersaba el peso soportado, lo que permitió diversificar el diseño arquitectónico, dando resultados como la cúpula, algo así como un gran arco segmentado en tres dimensiones. Este invento haría posible que, por primera vez en la historia, el interior de las grandes construcciones pudiera ser hueco y no lleno de columnas, como sucedía en Grecia o Egipto. Testimonio vivo y sobrecogedor es el Panteón de Agripa, realizado en tiempos del emperador Adriano, en el 126 d. C., cuya impresionante cúpula mide 43,44 metros de diámetro.

¡Que no cese el espectáculo!
La sucesión de arcos segmentados que hizo posible la cúpula también permitió dotar de bóvedas a teatros y anfiteatros en sus espacios interiores y en sucesivas plantas, asegurando así las gradas y pasillos donde tantos espectadores se sentaban o circulaban. Ese arco de medio punto hizo asimismo posible la altura de las fachadas de estas deslumbrantes edificaciones. Por delante, el Coliseo de Roma, levantado a finales del siglo i d. C., con sus ocurrentes soluciones para agilizar los espectáculos: la plataforma adaptable que cubría la arena, el drenaje que hizo posible las naumaquias o representaciones de batallas navales, los montacargas de poleas que permitían la súbita aparición de gladiadores o animales, el velario o cubierta de velas desplegable –también mediante poleas– que propiciaba sombra a las gradas…
Imaginar estos lugares en su apogeo, en pleno espectáculo y a tope de vibrante audiencia, ensalza su prodigiosa ingeniería. Conmovedores resultan los restos de anfiteatros tan impresionantes como los de Pozzuoli, Verona, Nimes, El Djem (Túnez) y Pula (Croacia). Como también ocurre con los teatros de Bosra (Siria), Orange (Francia) o Mérida, siempre con sus admirables cálculos para la acústica. Algo que también se tuvo en cuenta –junto a la visibilidad– en los circos, como el Máximo de Roma y el de Tarraco.
Los espectáculos realizados en estas grandiosas construcciones precisaban un buen fluir del agua, que no faltaba gracias a la infraestructura que en este asunto puso a los romanos por delante de anteriores civilizaciones. De nuevo, la fórmula del arco segmentado fue esencial para que airosos y bellos acueductos salvasen las irregularidades del terreno. La leve y constante inclinación empujaba el agua desde manantiales y embalses y, una vez traspasadas las murallas de la ciudad, se repartía en distintos depósitos, desde donde llegaba a fuentes, baños y edificios públicos y ricas casas patricias. Los últimos tramos llevaban el agua a las serrerías, donde su fuerza ayudaba a mover las ruedas que deshacían los detritos.
La ciudad de Roma llegó a tener 507 kilómetros de acueductos y, como otros muchos, seguirían cumpliendo su función incluso mil años después, ya que este sistema, evidente y admirable en Pompeya, no sería superado hasta el siglo xix. El de Segovia o el Pont du Gard en Francia son ejemplos vivos y muy vistosos de este gran logro romano. Como lo fueron igualmente las termas, tanto en su dimensión tecnológica como social, en cuanto favorecedoras de la higiene personal generalizada. Algo que Europa no recuperaría hasta bien entrado el siglo xx, como así pasó con la buena costumbre de dotar a las poblaciones romanas de alcantarillado y de baños públicos.

Pulcritud ante todo
El agua limpiadora corría por debajo de los retretes en hilera, algo que sorprende desde los actuales pudores, y desembocaba en unas cloacas que en un principio eran exteriores, aunque pronto tuvieron que surcar el subsuelo de las ciudades. En Roma, la principal fue la cloaca Máxima, donde destacan sus túneles abovedados. Hay que imaginar el olor y el aspecto del río Tíber, dado que era el desagüe final. Claro que poco importaba, pues el agua limpia ya la propiciaban los acueductos.
Muy cuidada era la que llegaba a las termas, herencia griega evolucionada hacia la popularidad y también la sofisticación. Comprendían la palestra o patio central, tiendas de comida y bebida, vestuarios masculinos y femeninos, gimnasio, caldarium o baño caliente, frigidarium o baño frío y tepidarium o habitación tibia de preparación. Muy a menudo se hallaban sobre manantiales de aguas termales, cuyas virtudes curativas fueron muy apreciadas por los romanos. Cuando no era así, el sistema de calentamiento se basaba en el hipocausto, una red de túneles subterráneos que repartían el calor desde las fogatas hechas en bocanas. Los espacios huecos entre columnatas de ladrillo que sostenían el suelo se aprecian en las ruinas de las termas de Caracalla, inauguradas en el año 217 d. C.
Su esplendor se apagaría al ser prohibidas por los mandatarios cristianos, así como le sucedió a la pecaminosa higiene personal tan cotidiana entre los romanos. Sobreviviría la tecnología del hipocausto como forma de calentar viviendas en varias zonas de Europa hasta finales del siglo pasado. También se mantendrían durante largo tiempo las norias, a las que los romanos añadieron los recipientes alfareros, y los molinos, que ellos desarrollaron en su versión hidráulica. La fuerza del agua movería también las ruedas giratorias que extraían carbón y otros elementos en las minas, y las que procesaban la aleación de metales, cuya fórmula permanecería a lo largo de toda la Edad Media.
Sentir miedo, alegría, sorpresa o tristeza no es solo una cuestión de “qué emoción” aparece, sino también de qué tan intensa se vive esa emoción. Esa dimensión, conocida como arousal afectivo, marca la diferencia entre un leve sobresalto y un pánico paralizante, o entre una ligera satisfacción y una euforia desbordante. Hasta ahora, la neurociencia había logrado describir bastante bien la valencia emocional —si algo nos resulta positivo o negativo—, pero medir de forma objetiva la intensidad seguía siendo un reto.
Los investigadores de la Universidad de Electronic Science and Technology of China y de otros centros internacionales se propusieron resolver esa pregunta. Usaron fMRI naturalista, un tipo de resonancia magnética que registra la actividad cerebral mientras las personas viven experiencias más cercanas a la vida real que simples imágenes estáticas. Los participantes observaron videos diseñados para provocar distintas emociones, desde miedo hasta alegría, y luego calificaron cuán intensas habían sido esas sensaciones.
El equipo empleó técnicas de aprendizaje automático para cruzar los datos de las respuestas subjetivas con los patrones de activación cerebral. Así lograron desarrollar lo que bautizaron como “Brain Affective Arousal Signature” (BAAS), una firma neuronal capaz de predecir con gran exactitud la intensidad de la experiencia emocional de una persona.

Una huella cerebral distribuida, no un único centro
Uno de los grandes hallazgos del estudio es que el arousal afectivo no depende de una sola región del cerebro. En lugar de encontrar un “botón” que regula la intensidad emocional, los científicos descubrieron que es un proceso distribuido en múltiples áreas, tanto corticales como subcorticales.
El sistema identificado involucra regiones clásicamente asociadas con las emociones, como la amígdala, clave en el procesamiento del miedo; la ínsula, que conecta las sensaciones corporales con la experiencia emocional; y la corteza prefrontal medial, vinculada a la conciencia de lo que sentimos. También aparece el cíngulo anterior, esencial en la toma de decisiones bajo presión, y estructuras del tronco cerebral, encargadas de mantener el estado de alerta.
Este mosaico neuronal explica por qué la intensidad de una emoción puede sentirse en todo el cuerpo: porque el cerebro integra información de múltiples redes a la vez.
La conclusión es clara: no existe un único “centro de la intensidad emocional”, sino un entramado dinámico que distribuye la experiencia a lo largo de varios sistemas interconectados.
Más allá de lo positivo y lo negativo
La mayoría de los estudios anteriores sobre emociones se centraban en diferenciar valencia positiva o negativa: si algo nos produce placer o disgusto. El nuevo trabajo demuestra que el arousal afectivo es una dimensión independiente de la valencia.
En la práctica, esto significa que tanto una situación muy agradable —como escuchar una canción que nos emociona— como una muy desagradable —como ver una escena de peligro— activan un mismo patrón de intensidad cerebral. El BAAS predice con gran precisión cuándo una emoción será fuerte, sin importar si es buena o mala.
Este hallazgo es relevante porque confirma la idea de un “espacio emocional” bidimensional, donde la valencia (positivo/negativo) y el arousal (bajo/alto) se combinan para dar forma a la experiencia consciente.
Así, la alegría tranquila y la euforia comparten valencia positiva, pero se distinguen por su intensidad; lo mismo ocurre con la tristeza leve frente al dolor insoportable.

La diferencia con la activación fisiológica
Otro de los aspectos más importantes del estudio es que el BAAS se distingue del llamado arousal autonómico, que es la respuesta fisiológica del cuerpo: sudoración, latidos acelerados o dilatación de las pupilas. Hasta ahora, muchos científicos habían equiparado ambas dimensiones, pero este trabajo demuestra que son procesos separados en el cerebro.
Los investigadores compararon el BAAS con patrones derivados de medidas fisiológicas, como la respuesta galvánica de la piel, que refleja cambios en la actividad del sistema nervioso autónomo. El resultado fue claro: aunque hay cierto solapamiento en regiones como la amígdala o el tálamo, la huella cerebral del arousal afectivo es distinta de la fisiológica.
En otras palabras, el hecho de que una persona sude o su corazón se acelere no siempre refleja con exactitud lo que está sintiendo. El estudio muestra que la experiencia consciente de “sentirse intensamente emocionado” tiene una representación propia en el cerebro, diferente de la activación corporal.
Validación en múltiples contextos
Para comprobar la robustez de su modelo, los científicos sometieron el BAAS a una batería de pruebas. No solo funcionó en el grupo inicial de participantes, sino que también se replicó en un segundo grupo independiente, con videos distintos y nuevas condiciones experimentales.
El BAAS fue capaz de predecir la intensidad emocional en situaciones muy diversas: desde ver imágenes de alimentos apetitosos hasta escuchar música, experimentar dolor físico o anticipar una descarga eléctrica. Incluso logró identificar la intensidad de emociones imaginadas, cuando los voluntarios pensaban en escenarios positivos o negativos sin estímulos externos.
La generalización de este patrón es lo que lo convierte en un avance clave. No se trata de un marcador aislado para una emoción concreta, como el miedo o el asco, sino de un modelo que captura la dimensión común de todas ellas: la intensidad.
Esto lo hace especialmente útil para el estudio de la vida emocional real, que rara vez se limita a estímulos simples y aislados.

Implicaciones para la salud mental y la neurociencia
Más allá del conocimiento básico, el BAAS tiene un enorme potencial en el terreno clínico. Muchos trastornos psicológicos, como la ansiedad, la depresión o el trastorno de estrés postraumático, se caracterizan por alteraciones en la intensidad emocional: desde sentir demasiado poco hasta sentir en exceso.
Al contar con una huella cerebral objetiva y validada, los médicos y científicos disponen de una herramienta que podría mejorar el diagnóstico y seguimiento de pacientes, evaluar la eficacia de terapias y distinguir entre distintos perfiles emocionales.
Además, puede ayudar a refinar otros biomarcadores neuronales ya existentes, eliminando la confusión generada por el componente de arousal.
En última instancia, este trabajo refuerza una idea cada vez más clara en la neurociencia: las emociones no son compartimentos aislados, sino procesos distribuidos en redes cerebrales que integran cuerpo, mente y experiencia consciente. Comprender cómo se representa la intensidad emocional es un paso esencial para acercarnos a una ciencia más precisa de los sentimientos humanos.
Referencias
- Zhang, R., Gan, X., Xu, T. et al. A neurofunctional signature of affective arousal generalizes across valence domains and distinguishes subjective experience from autonomic reactivity. Nat Commun. (2025). doi: 10.1038/s41467-025-61706-0
A lo largo de los últimos 200 años, se han dado pasos de gigante en lo que al desciframiento de las escrituras del pasado se refiere. Ahora, podemos leer el jeroglífico egipcio, el cuneiforme acadio o el alfabeto fenicio, pero ¿sucede lo mismo con otros sistemas de escritura? Durante más de un siglo, en los montes de Dhofar (Ẓufār), al sur de Omán, y en regiones vecinas que se extienden hasta el este de Yemen y la isla de Socotra, se habían identificado una serie de inscripciones enigmáticas datadas hace unos 2400 años. Emplazadas en cuevas, los lechos de los wadis o en piedras sueltas, estas grafías misteriosas se conocían como ejemplos de la escritura de Dhofar. Aunque varios investigadores las catalogaron y algunos incluso se aventuraron a proponer posibles lecturas para cada signo, hasta fechas recientes la escritura permanecía indescifrada.
Ahora, el arabista Ahmad Al-Jallad, profesor de la Universidad Estatal de Ohio, ha logrado descifrar uno de los sistemas principales de esta escritura. En su estudio, publicado en 2025 en la revista Jaarbericht Ex Oriente Lux, presenta los resultados de un análisis comparativo de tres abecedarios, conocidos como los “abecedarios halḥam”, procedentes de Dhofar y Duqm. Gracias a ellos, ha sido posible reconstruir un alfabeto de 26 signos y establecer relaciones con las lenguas semíticas antiguas de Arabia.

La escritura dhofarí: un enigma secular
Aunque los primeros testimonios de la escritura de Dhofar se publicaron a inicios del siglo XX, el primer estudio sistemático del corpus se realizó mucho más tarde, en 1993. Los investigadores al-Shaḥrī y Geraldine King identificaron dos variantes de la escritura, a las que llamaron “escritura 1” y “escritura 2”. Elaboraron tablas de signos y reconocieron que los grafemas pertenecían a la familia de escrituras sudsemíticas, relacionadas con las inscripciones sudarábigas y nordarábigas antiguas.
Sin embargo, los intentos de aplicar valores fonéticos conocidos de otras escrituras a la realidad de las grafías dhofaríes no produjeron resultados coherentes. La única excepción fue la secuencia bn (“hijo de”) que, una vez identificada, permitió reconocer las referencias a genealogías en las inscripciones. Más allá de ese destello, el sistema permanecía impenetrable.

Los abecedarios, la pieza que permitió solventar el misterio
El punto de inflexión llegó con el redescubrimiento de tres abecedarios, es decir, inscripciones que listan de manera ordenada los signos de la escritura dhofarí. Estos abecedarios, conocidos como KMG 120-126, KMD 28-31 y el abecedario de Duqm, resultaron ser auténticas piedras de Rosetta para el desciframiento.
Hallado en la zona de Ṭawi Atair, el abecedario KMG 120-126 había sido interpretado por King y al-Shaḥrī como un conjunto de siete inscripciones independientes. Al-Jallad, sin embargo, observó que ningún signo se repetía, lo que parecía indicar que se trataba de una secuencia alfabética. El orden seguía el sistema denominado halḥam, característico de las escrituras sudsemíticas.
El segundo abecedario, procedente de un área entre los wadis de Arzat y Medinat al-Ḥaq, mostraba variaciones y correcciones hechas por su autor. Este rasgo, según el autor del estudio, demostraría que la redacción de las secuencias gráficas habría servido a los escribas para practicar y memorizar la escritura. En cuanto al abecedario de Duqm, una reciente incorporación al corpus de inscripciones, aportó un alfabeto casi completo de 26 signos que, además, confirmaba las lecturas atribuidas.

Reconstrucción del alfabeto
A partir de estos tres testimonios, Al-Jallad estableció la existencia de 26 signos en la escritura 1a de la escritura dhofarí. Determinó, además, algunos rasgos llamativos, como el hecho de que no se distinguiera entre fonemas interdentales y sibilantes. Esto sugiere, según los expertos, que estos sonidos habían desaparecido de la lengua escrita. Se trata de un fenómeno lingüístico documentado en el oriente de Arabia, en dialectos como el hasaítico o el hadramítico.
El análisis de las formas gráficas, por otro lado, demostró que, aunque la escritura pertenece a la familia sudsemítica, sus rasgos derivan en gran medida de prototipos nordarábigos, especialmente de la escritura tamúdica B. Signos como el alif de dos “cuernos” o el tridente, que representa el fonema ṭ, se corresponden con grafías de esa tradición. Todo ello apunta a que la escritura dhofarí nació a partir de la adaptación local de un modelo nordarábigo.
Las primeras palabras descifradas
Al identificar el alfabeto, fue posible leer de manera segura varias inscripciones breves. Por ejemplo, el término interpretado como br (“hijo de”) aparece en genealogías, lo que corrige la lectura anterior de bn. Asimismo, se identificaron fórmulas de súplica, como ḥwg (“estar necesitado, anhelar”), expresiones de alabanza, como ḥmd (“alabar, agradecer”) y nombres propios vinculados a raíces semíticas conocidas.
Algunas fórmulas presenes en las inscripciones invocan los nombres de deidades, como Shams, el sol, o expresan deseos de una larga vida o de obtener ayuda divina. Así, gracias al desciframiento, por primera vez podemos vislumbrar la vida religiosa y social de las comunidades de Dhofar en época preislámica.

Implicaciones lingüísticas y culturales
El desciframiento ha revelado que la lengua de la escritura 1a guarda relación con las lenguas sudarábigas modernas (mehri, jibbali, socotrí, harsusi), pero no puede identificarse como su antecesora directa, ya que presenta rasgos distintos, como la mencionada pérdida de los sonidos interdentales. Es posible que represente una lengua emparentada, hoy desaparecida, que coexistió con las demás en la región.
Desde un punto de vista histórico, la escritura dhofarí muestra que, en el sur de Arabia, existió una tradición epigráfica autónoma, distinta de la sudarábiga monumental y de las inscripciones nordarábigas del desierto. Este descubrimiento, por tanto, multiplica la diversidad cultural y lingüística del mundo árabe preislámico.

Nuevas perspectivas de investigación
El trabajo de Al-Jallad se ha centrado en la llamada escritura 1a, pero existen variantes y subtipos aún sin descifrar. Se ha detectado que algunas inscripciones incluyen signos anómalos que podrían corresponder a sistemas de escritura emparantedos o a fases diferentes de la misma tradición escrita.
El siguiente reto será analizar la escritura 2 que, a primera vista, parece más cercana al sudarábigo clásico. También será necesario comparar de manera sistemática las fórmulas y expresiones con otros corpus epigráficos para entender sus usos en contextos de peregrinación, culto, comercio o vida cotidiana.
El desciframiento de la escritura dhofarí por Ahmad Al-Jallad marca un antes y un después en los estudios sobre Arabia antigua. Gracias a los tres abecedarios, se ha logrado reconstruir un sistema alfabético completo, identificar palabras y fórmulas y, sobre todo, abrir un camino para explorar la historia cultural del sur de Arabia antes del islam.
Referencias
- Al-Jallad, Ahmad. 2025. "Al-Jallad. 2025. The Decipherment of the Dhofari Script–Three halḥam abecedaries and the first glimpses into the corpus". Jaarbericht Ex Oriente Lux, 49. DOI: https://doi.org/10.5281/ZENODO.15853466
- OCIANA. Online Corpus of the Inscriptions of Ancient North Arabia. The Ohio State University. URL: https://ociana.osu.edu/inscriptions
A lo largo de las décadas, la desaparición del tilacino —también conocido como tigre o lobo de Tasmania— se ha atribuido a la caza implacable por parte de los colonos europeos. El último ejemplar murió en el zoológico de Hobart en 1936, y desde entonces se ha convertido en un símbolo icónico de la extinción causada por la humanidad. Pero una nueva investigación publicada en Proceedings of the Royal Society B sugiere que la historia es mucho más compleja, e incluso trágica. Porque esta criatura, que una vez vagó libre por Australia y Nueva Guinea, ya llevaba en su interior las semillas de su desaparición desde hacía millones de años.
Gracias a un análisis genético sin precedentes, investigadores del Instituto Indio de Ciencia Educativa e Investigación en Bhopal han descubierto que el tilacino había perdido genes cruciales para su supervivencia mucho antes de que los humanos pisaran Australia. La conclusión no solo reescribe lo que creíamos saber sobre su extinción, sino que plantea preguntas incómodas sobre cuántas otras especies hoy en peligro podrían estar librando batallas genéticas invisibles.
Un depredador condenado por su propia evolución
A simple vista, el tigre de Tasmania parecía un cazador formidable. Su aspecto recordaba a un lobo, con rayas que evocaban a un tigre, aunque era en realidad un marsupial, pariente del demonio de Tasmania. Su evolución lo convirtió en un hipercarnívoro, especializado en una dieta estrictamente carnívora. Pero esta especialización tuvo un precio.
Durante su transición a depredador exclusivo, hace unos seis millones de años, el tilacino perdió al menos cuatro genes fundamentales, principalmente relacionados con la defensa frente a virus, la metabolización de grasas, la producción de leche y la protección frente a enfermedades como el cáncer o la pancreatitis. Es decir, su capacidad para adaptarse a cambios en el entorno o responder a nuevas amenazas biológicas ya estaba comprometida mucho antes del impacto humano.
Esos genes no desaparecieron de un día para otro. Se fueron perdiendo lentamente, en un periodo marcado por intensas transformaciones climáticas que remodelaron Australia. Mientras el planeta entraba en ciclos glaciares y el continente sufría largos periodos de aridez, el tilacino se adaptó a duras penas. Su genética, sin embargo, no lo acompañaba en ese esfuerzo.

Una diversidad genética al borde del colapso
Los análisis del nuevo estudio se basan en muestras de museos y comparaciones con otros marsupiales como el demonio de Tasmania. El contraste fue revelador. Mientras que la mayoría de los marsupiales conservaron estos genes clave, el tigre de Tasmania ya los había perdido mucho antes de su aislamiento en la isla.
Este dato rompe con la visión tradicional de que la extinción del tilacino fue un evento exclusivamente reciente, provocado por la llegada de los colonos europeos, los perros salvajes (dingos) y las políticas de exterminio. Si bien todos estos factores jugaron un papel fundamental, lo cierto es que el lobo marsupial ya estaba biológicamente debilitado desde mucho antes. Su acervo genético era extremadamente pobre, lo que lo hacía vulnerable a enfermedades, cambios ambientales o incluso simples alteraciones en la cadena alimentaria.
En otras palabras, el tilacino no solo fue víctima de la caza humana. Fue también víctima de su propia historia evolutiva.
La paradoja de los supervivientes
Durante siglos, el tilacino logró resistir en Tasmania, donde no había dingos y donde su aislamiento pareció ofrecerle un respiro. Pero incluso allí, los problemas estaban escritos en su ADN. La pérdida de diversidad genética no se originó con su aislamiento, sino que lo precedía por miles de años. De hecho, los genes desaparecieron cuando el tilacino aún recorría libremente el continente, en una época en la que los ecosistemas australianos estaban en pleno cambio.
Los científicos creen que la pérdida de estos genes pudo ofrecer alguna ventaja puntual en el pasado —como una respuesta adaptativa a un virus concreto o a un nuevo nicho ecológico—, pero esas ventajas se convirtieron en una carga con el paso del tiempo. En cuanto la presión ambiental cambió de nuevo, y sobre todo con la aparición de nuevos competidores o enfermedades, el tilacino ya no tenía defensas genéticas suficientes para afrontarlo.
El estudio no niega el impacto devastador de la intervención humana, pero sí sugiere que el final del tilacino no fue tan abrupto como creíamos. No fue solo la caza, ni las trampas, ni los premios por su cabeza. Fue también un silencioso declive biológico, acumulado durante millones de años. Una historia que se fue escribiendo en su código genético, sin testigos y sin remedio.
La llegada de los humanos simplemente aceleró un proceso que ya estaba en marcha. Lo que parecía una desaparición rápida, en realidad fue el capítulo final de una decadencia mucho más larga y silenciosa.

¿Qué nos enseña el caso del tigre de Tasmania?
Este hallazgo tiene implicaciones importantes no solo para entender el pasado, sino también para proyectar el futuro. Muchas especies hoy amenazadas podrían estar sufriendo pérdidas genéticas similares, aunque no lo sepamos. La biodiversidad no se mide solo por el número de individuos, sino también por la riqueza de su ADN. Un ecosistema puede parecer saludable hasta que una crisis revela que su fauna ya estaba genéticamente desarmada.
Por eso, los científicos insisten en la importancia de analizar los genomas de las especies en peligro. La extinción no siempre empieza con una bala o una trampa. A veces empieza con una mutación silenciosa que nadie detecta hasta que ya es demasiado tarde.
El tilacino, al final, fue una criatura fascinante no solo por su aspecto o su comportamiento, sino por la lección que nos deja. Su historia nos recuerda que la evolución no es una garantía de supervivencia. A veces, es una trampa de la que no se puede escapar.
El estudio ha sido publicado en Proceedings of the Royal Society B.
Durante décadas, los apicultores han luchado contra una amenaza silenciosa pero persistente: la desaparición de las abejas. No es una exageración decir que del bienestar de estos pequeños insectos depende buena parte de la seguridad alimentaria mundial. Son responsables de polinizar cultivos que alimentan a miles de millones de personas, y sin embargo, sus colonias se han ido reduciendo alarmantemente debido a múltiples factores. Pérdida de hábitat, pesticidas, enfermedades, cambio climático... y una de las más subestimadas: la falta de una nutrición adecuada.
Ahora, un equipo internacional de científicos ha dado un paso gigante al frente. En un artículo publicado en la revista Nature, investigadores de la Universidad de Oxford, junto a colegas de Dinamarca y el Reino Unido, han presentado un suplemento alimenticio revolucionario. Se trata de un “superalimento” diseñado específicamente para las abejas, creado a partir de levadura modificada genéticamente para producir los nutrientes esenciales que las colmenas modernas simplemente no consiguen.
¿Qué les falta realmente a las abejas?
El problema central no es solo la cantidad de alimento disponible para las abejas, sino su calidad. Las flores no son todas iguales, y su polen contiene diferentes proporciones de nutrientes. Uno de los elementos más críticos para el desarrollo de las larvas de abeja son los esteroles, un tipo de lípido que los insectos no pueden sintetizar por sí mismos. Estos compuestos son fundamentales para el crecimiento celular, la formación de hormonas y la estructura de las membranas.
En la naturaleza, las abejas obtienen estos esteroles a través del polen de ciertas plantas. Pero con la homogeneización del paisaje agrícola, la diversidad floral ha caído en picado. La agricultura intensiva ha convertido praderas y bosques en monocultivos donde apenas florece nada más allá del cultivo principal. Esto significa que incluso si una colmena encuentra alimento en cantidad, este puede ser nutricionalmente insuficiente.
Los suplementos comerciales actuales, utilizados por apicultores en todo el mundo durante los meses fríos o de escasa floración, están compuestos principalmente de harinas proteicas, azúcares y aceites. Pero carecen de los esteroles adecuados. En otras palabras, son como una dieta sin vitaminas clave: puede saciar, pero no nutre.

Un “superalimento” fermentado
Aquí entra en escena la biotecnología. El equipo de Oxford, liderado por la entomóloga Geraldine Wright, decidió abordar el problema desde un ángulo innovador. Analizaron el contenido de esteroles en los tejidos de las abejas y aislaron seis tipos esenciales, siendo el más abundante la 24-metilene-colesterol. A partir de ahí, recurrieron a una levadura conocida por su capacidad de producir lípidos: Yarrowia lipolytica.
Con herramientas de edición genética como CRISPR, modificaron esta levadura para que fabricara exactamente esos seis esteroles clave. Luego, integraron la levadura modificada en una dieta artificial, equilibrada con todos los demás nutrientes necesarios, y la probaron durante tres meses en colmenas reales.
Los resultados fueron sorprendentes. Según el estudio, las colmenas que consumieron el nuevo suplemento lograron criar hasta 15 veces más larvas que aquellas alimentadas con los suplementos tradicionales. Además, las abejas continuaron produciendo cría hasta el final del experimento, mientras que las otras colonias cesaron la reproducción antes de tiempo, presumiblemente por estrés nutricional.
Este avance podría cambiar por completo la forma en que se alimentan las abejas en la apicultura moderna. En años especialmente secos o cuando las floraciones llegan antes de tiempo —como ha ocurrido recientemente en veranos inusualmente cálidos en Europa—, las colmenas pueden quedarse sin reservas antes del invierno. Ahí es donde este suplemento podría marcar la diferencia entre una colmena que sobrevive o una que desaparece.
Pero los beneficios podrían ir más allá de la abeja doméstica. Como explican los autores en el artículo de Nature, al reducir la necesidad de que las colmenas comerciales compitan por el escaso polen disponible, se alivia la presión sobre los recursos florales compartidos con abejas silvestres y otros polinizadores nativos, cuya situación es igualmente preocupante.
Phil Stevenson, coautor del estudio, lo plantea como un efecto colateral positivo: si los apicultores pueden mantener sus colmenas fuertes sin depender de los últimos restos de polen en el entorno, los polinizadores silvestres también tendrán más posibilidades de encontrar alimento.

Más allá de las colmenas: ¿una revolución biotecnológica?
Este tipo de suplemento también abre la puerta a nuevos desarrollos en la alimentación de insectos criados industrialmente. A medida que el mundo busca proteínas más sostenibles, los insectos se están posicionando como una alternativa prometedora. La capacidad de diseñar alimentos específicos para su nutrición óptima podría acelerar este cambio.
No es casualidad que esta investigación venga respaldada por instituciones como el Royal Botanic Gardens de Kew o la Universidad Técnica de Dinamarca. Combina lo mejor de la biología vegetal, la biotecnología industrial y la ecología aplicada. El enfoque es multidisciplinario y refleja una nueva tendencia: soluciones biotecnológicas pensadas no solo para humanos, sino también para nuestros ecosistemas.
Aunque los primeros resultados son muy prometedores, los investigadores advierten que se necesitan ensayos a mayor escala y de más larga duración para entender del todo el impacto del suplemento en las abejas. La salud de una colmena no depende solo de la nutrición, sino también de otros factores como la exposición a pesticidas, enfermedades o incluso el estrés térmico.
Y como recuerda Simon Noble, apicultor comercial británico entrevistado por Country Living, esta innovación no debe distraernos de las causas estructurales que están afectando a los polinizadores: la pérdida de hábitats, el uso intensivo de pesticidas y el cambio climático.
Aun así, hay motivos para el optimismo. Por primera vez, la ciencia ha conseguido producir de forma segura y eficaz los componentes nutricionales más complejos de la dieta de una abeja. Si se confirma su eficacia a gran escala, este “superalimento” podría convertirse en un pilar esencial para asegurar la supervivencia de las abejas en un mundo donde cada vez tienen menos flores que visitar.
El pequeño zumbido que escuchamos en un jardín o un campo de cultivo podría volver a ser símbolo de abundancia y no de una lucha desesperada por sobrevivir.
A los 103 años de edad, ha fallecido en Nebraska Donald McPherson, el último piloto de combate estadounidense considerado “as de la aviación” de la Segunda Guerra Mundial. Su muerte cierra un capítulo definitivo en la historia de la aviación militar estadounidense, uno marcado por valentía, juventud truncada por la guerra y una vida entera consagrada al servicio. Pero más allá del número de enemigos abatidos, McPherson deja un legado profundamente humano que va mucho más allá de sus hazañas en el aire.
El término “as” se reserva a aquellos aviadores capaces de derribar al menos cinco aeronaves enemigas en combate. McPherson, miembro del Escuadrón de Caza 83 (VF-83) a bordo del portaaviones USS Essex, logró esa marca en los cielos del Pacífico en la última gran campaña bélica de la Segunda Guerra Mundial: la batalla de Okinawa. Sin embargo, lo más notable de su historia es lo que vino después: la forma en la que un hombre moldeado por el horror de la guerra encontró propósito y redención en la vida cotidiana de su comunidad rural.
De los campos de Nebraska a los cielos del Pacífico
Donald McPherson nació en 1922 en Adams, una pequeña localidad agrícola del estado de Nebraska, en plena Gran Depresión. Como muchos jóvenes de su generación, el conflicto mundial lo arrancó de su rutina con la promesa de aventuras y el riesgo de no regresar. Se alistó en la Marina en 1943, y en menos de dos años ya pilotaba un Grumman F6F Hellcat desde la cubierta del Essex, en el corazón del conflicto contra el Imperio japonés.
Su bautismo de fuego llegó en marzo de 1945 durante los bombardeos previos al desembarco en Okinawa. Las condiciones eran extremas: vuelos de cientos de kilómetros, fuego antiaéreo constante, kamikazes lanzándose como proyectiles humanos y compañeros que no regresaban. El Museo Nacional de la Segunda Guerra Mundial, que ha documentado sus misiones, lo describe como un joven oficial que supo mantener la calma incluso cuando su avión recibió impactos a escasos centímetros de su espalda.
Durante la campaña, McPherson logró derribar dos bombarderos en picado Aichi D3A “Val” en una misma salida, y semanas después, sumó tres aparatos kamikazes más a su lista. Fue entonces cuando alcanzó el estatus de “ace”, una distinción que solo obtuvieron unos 1.400 pilotos estadounidenses durante toda la guerra, según la American Fighter Aces Association.

Kamikazes, coraje y supervivencia
Los enfrentamientos en Okinawa fueron quizás los más crudos y desesperados del conflicto en el Pacífico. Miles de jóvenes pilotos japoneses fueron lanzados en misiones suicidas contra los buques estadounidenses, en operaciones conocidas como kikusui. McPherson y su escuadrón fueron la última línea de defensa ante estos ataques.
Uno de los momentos más tensos de su carrera llegó el 6 de abril de 1945, cuando una oleada de más de 400 aviones enemigos, muchos de ellos kamikazes, se lanzó contra la flota estadounidense. Durante horas, los Hellcat del VF-83 combatieron sin tregua para evitar que las naves fuesen alcanzadas. En un día, McPherson abatió varios aviones enemigos que volaban tan bajo sobre el mar que apenas había margen para maniobrar. El propio piloto relató años después que, tras una de estas misiones, descubrieron que una bala había atravesado el fuselaje a escasos centímetros de su asiento. Ese día, comprendió que debía estar vivo por alguna razón.
Pese a sus condecoraciones —entre ellas tres Cruces de Vuelo Distinguido y la Medalla de Oro del Congreso que recibió en 2015—, McPherson nunca buscó protagonismo. Como han relatado sus hijos en entrevistas recogidas por medios como el Beatrice Daily Sun o Military Times, durante décadas apenas habló de la guerra. Volvió a Adams, se casó con su novia de la juventud y trabajó durante 20 años como cartero rural. También retomó la actividad agrícola y se volcó en su iglesia, en el movimiento scout y en el deporte infantil.
Fue precisamente ese compromiso con la comunidad lo que lo convirtió en una figura querida y respetada mucho más allá de sus méritos militares. Impulsó la creación de ligas de béisbol y sóftbol en su pueblo y se convirtió en entrenador, organizador y voluntario habitual. El campo donde se disputan hoy los partidos lleva el nombre de McPherson Field, en honor a él y a su esposa Thelma, que durante años fue la encargada de anotar las puntuaciones y llevar el puesto de refrescos.
En los últimos años de su vida, McPherson comenzó a recibir invitaciones para contar su experiencia. Acudió a escuelas, participó en actos conmemorativos y fue homenajeado en museos como el Fagen Fighters WWII Museum de Minnesota, que incluso restauró un avión Hellcat idéntico al que él pilotó y se lo llevó hasta su localidad para que pudiera subirse a bordo una vez más. A los 102 años, volvió a volar en una aeronave militar y, al aterrizar, dijo con una sonrisa que lo haría de nuevo.
Lo que marcó la diferencia en su testimonio es que nunca glorificó la violencia. Según testimonios de su familia, el piloto tenía claro que, aunque derribó cinco aviones, cada victoria aérea era también la pérdida de una vida humana. Sin embargo, encontraba consuelo en saber que, al detener un kamikaze, había salvado la vida de decenas de marineros. Años después de la guerra, recibió una llamada de un veterano agradeciéndole por evitar que su barco fuera hundido, algo que él valoró más que cualquier medalla.

El fin de una era
Con su fallecimiento el 14 de agosto de 2025, Donald McPherson se convirtió en el último piloto “as” estadounidense superviviente de la Segunda Guerra Mundial. Es un símbolo no solo del fin de una generación, sino también del tránsito entre el heroísmo bélico y la construcción de la paz. En un siglo marcado por la guerra, él eligió regresar a su comunidad para construir algo más perdurable: una vida sencilla, centrada en la familia, la fe y el bien común.
En palabras de sus hijos, su mayor orgullo no era haber sido un héroe, sino haber vivido con propósito. En su historia resuenan las de miles de personas anónimas que lucharon, sobrevivieron y luego eligieron vivir con humildad y esperanza.
Tal y como ha documentado el National WWII Museum, su historia nos recuerda que los héroes verdaderos no siempre son los que más ruido hacen. A veces, son los que, después de enfrentarse a la muerte en los cielos, vuelven a casa para cuidar un campo, enseñar a un niño a batear o entregar una carta a tiempo. Y eso también es historia.
Los robots siempre han despertado fascinación por su capacidad de ejecutar tareas repetitivas con precisión. Pero fuera de las fábricas, su desempeño es más torpe de lo que solemos pensar: la mayoría no sabe adaptarse a situaciones imprevistas. Si la cámara se mueve, si cambia el entorno o si el objeto no está justo donde debería, se bloquean. En contraste, una persona que cocina puede usar la misma sartén para freír, revolver o voltear un huevo sin pensarlo demasiado. La diferencia está en que los humanos aprendemos mirando y practicando, no siguiendo instrucciones rígidas.
Ese principio inspiró a un grupo de investigadores de la Universidad de Illinois Urbana-Champaign, en colaboración con Columbia University. En su trabajo muestran que un robot logró voltear un huevo en una sartén, clavar un clavo o equilibrar una botella de vino simplemente tras observar videos de personas realizando esas tareas. No hubo necesidad de programar cada movimiento ni de controlarlo con un joystick. Como escriben los autores en el artículo: “Nuestro marco permite la transferencia directa de datos de juego humano en políticas robóticas desplegables” .
Cómo funciona la idea de “herramienta como interfaz”
El equipo llama a su enfoque Tool-as-Interface, porque pone el énfasis en la herramienta que se usa (una sartén, un martillo, una cuchara) y no en la mano humana que la manipula. La clave está en que el robot no intenta copiar los gestos de la persona, sino que aprende la trayectoria y orientación del objeto. De esta forma, no importa si el brazo humano y el brazo del robot son diferentes, porque ambos comparten la herramienta como punto común.
Para entrenar al robot basta con grabar la acción desde dos cámaras. Esos dos ángulos permiten reconstruir en 3D la escena usando un modelo de visión llamado MASt3R. Luego, otra técnica llamada 3D Gaussian splatting genera vistas adicionales del mismo momento, de modo que el robot pueda “ver” la tarea desde distintos ángulos. Así, incluso si la cámara se mueve durante la ejecución, el sistema conserva estabilidad. No hacen falta sensores costosos ni entornos controlados.

El paso decisivo: borrar al humano del video
Un detalle fundamental es que los algoritmos eliminan la mano humana del material grabado. Con ayuda del modelo Grounded-SAM, se segmenta y enmascara todo lo que corresponde al cuerpo humano. Lo que queda en el video es únicamente la herramienta interactuando con los objetos. Así el robot aprende observando qué hace la sartén, el martillo o la cuchara, y no cómo se mueven los dedos de la persona.
Esto resuelve lo que los autores llaman la “brecha de encarnación”: el hecho de que los humanos y los robots tienen morfologías muy distintas. Como explican en el artículo, “abstraer las acciones al marco de la herramienta reduce la dependencia morfológica, permitiendo que las políticas se generalicen entre encarnaciones”. En la práctica significa que el mismo conjunto de datos sirve para entrenar brazos robóticos de seis o siete grados de libertad, sin necesidad de repetir todo el proceso.
Pruebas con clavos, albóndigas y huevos
Los experimentos incluyeron cinco tareas que exigen velocidad, precisión o adaptabilidad. Entre ellas: martillar un clavo de plástico, sacar una albóndiga de una sartén con una cuchara, voltear un huevo en el aire usando una sartén, equilibrar una botella de vino en un soporte inestable y patear una pelota con un palo de golf robótico.
Lo notable es que muchas de esas acciones son imposibles de capturar con los métodos clásicos de teleoperación, porque son demasiado rápidas o impredecibles. En la prueba de la sartén, por ejemplo, el robot fue capaz de voltear un huevo en apenas 1,5 segundos. En la de las albóndigas, siguió actuando correctamente incluso cuando un humano añadía más bolas al sartén en pleno proceso. El sistema no se desconcertó, simplemente se adaptó.

Resultados frente a los métodos tradicionales
Los investigadores compararon su enfoque con otros sistemas como la teleoperación con joysticks especializados o el uso de pinzas manuales impresas en 3D. La diferencia fue enorme: la tasa de éxito aumentó un 71% respecto a las políticas entrenadas con teleoperación y el tiempo de recolección de datos se redujo un 77% . Además, la técnica demostró robustez incluso cuando la cámara temblaba o cuando se movía la base del robot.
En cifras más concretas, en la tarea de clavar un clavo, los métodos clásicos fracasaron en los 13 intentos, mientras que con Tool-as-Interface el robot acertó las 13 veces. En el volcado de un huevo, los sistemas previos ni siquiera podían completarlo, mientras que el nuevo marco logró los 12 intentos exitosos. Es un salto cualitativo en la manera de entrenar robots.
Más allá del laboratorio: ¿qué significa esto?
El equipo resalta que este avance abre la puerta a entrenar robots con videos caseros, grabados con teléfonos móviles. Hoy existen más de 7 mil millones de cámaras de este tipo en el mundo, lo que convierte cada cocina, taller o almacén en un posible escenario de aprendizaje. Si los algoritmos se perfeccionan, un robot podría aprender a cortar verduras, a usar un destornillador o a doblar ropa viendo clips grabados por cualquier persona.
En palabras de los autores: “Nuestro enfoque elimina la necesidad de diseñar, imprimir o fabricar hardware adicional durante la recolección de datos, garantizando una solución rentable e inclusiva” . Esta accesibilidad es lo que diferencia a Tool-as-Interface de otros métodos más caros y exclusivos.
Limitaciones y retos futuros
El sistema todavía tiene puntos débiles. Para empezar, asume que la herramienta está firmemente sujeta al extremo del brazo robótico, algo que en la vida real no siempre ocurre. También depende de un modelo de estimación de poses que puede cometer errores, y los ángulos de cámara sintéticos generados a veces pierden realismo. Otro desafío es que de momento solo funciona bien con herramientas rígidas; faltaría ampliar el método a objetos flexibles o blandos.
Los propios investigadores reconocen que “mejorar la fiabilidad del sistema de percepción mediante algoritmos de estimación de pose más robustos es una dirección prometedora para el futuro”. Asimismo, planean explorar representaciones que permitan trabajar con utensilios deformables, como esponjas o pinzas blandas.
Un cambio de paradigma en la robótica
Aunque quede trabajo por delante, lo que muestra este estudio es un cambio de enfoque en la forma en que los robots pueden aprender. Ya no se trata de programar línea por línea ni de usar interfaces costosas, sino de aprovechar la manera natural en que los humanos interactúan con su entorno. Es un modelo inspirado en cómo los niños observan y luego imitan.
Como destacó Haonan Chen, autor principal, “nuestro enfoque se inspiró en la forma en que los niños aprenden, que es observando a los adultos”. Si un niño puede ver cómo se voltea un huevo y luego intentarlo por sí mismo, un robot también puede hacerlo. Y eso abre la posibilidad de máquinas mucho más versátiles, capaces de desenvolverse en escenarios reales con la misma naturalidad que las personas.
Referencias
- Haonan Chen, Cheng Zhu, Yunzhu Li, Katherine Driggs-Campbell. Tool-as-Interface: Learning Robot Policies from Human Tool Usage through Imitation Learning. arXiv (2025). DOI: 10.48550/arxiv.2504.04612.
Bien es sabido que la teoría de la Relatividad General (RG) de Einstein supuso un punto de inflexión para la física moderna a principios del siglo XX. Desde entonces, ha regalado increíbles avances tecnológicos indispensables para el día a día, como el GPS. Sin embargo, la RG contiene ciertas limitaciones en su margen teórico, es por ello que en las últimas décadas se ha intentado buscar una teoría unificadora que abarque la explicación de cualquier fenómeno físico. ¿Qué ocurre si se estudian dichas limitaciones?
Nacen así las teorías modificadas de gravedad las cuales añaden más correcciones matemáticas de orden inferior a la teoría de Einstein. Estas teorías permiten solucionar algunos de los problemas del modelo estándar del Big Bang, ajustándose mejor a las observaciones del fondo cósmico del microondas. Por tanto, amplían el marco de la RG de Einstein para abordar sus limitaciones y representan un posible puente hacia una futura teoría unificadora, como la teoría de cuerdas o supergravedad. Debido a la complejidad de dichas teorías modificadas se va a introducir la más sencilla, la cual se denomina teoría de gravedad modificada f (R ) o de forma más resumida, teoría f (R ).
Las nuevas leyes de la gravedad: la ecuación de campo en la teoría f (R )
La ecuación de campo de Einstein es el cimiento de la RG y explica fenómenos como la gravedad, los agujeros negros y la expansión del universo. De manera sencilla: “la materia le dice al espacio-tiempo cómo curvarse, y el espacio-tiempo le dice a la materia cómo moverse”.
En analogía, la teoría f (R ) dispone de una ecuación de campo modificada también, siendo el sustrato de la misma:
Donde:
- gij es la métrica: describe la geometría del espacio-tiempo.
- Rij es el tensor de Ricci: mide la curvatura local del espacio-tiempo.
- ∇i es la derivada covariante y □ = ∇i ∇i es el operador d’Alembertiano.
- Tij es el tensor energía-momento.
- f (R ) es la nueva función que surge de la teoría modificada, depende solo del escalar de Ricci R.
- F (R ) es la derivada de f (R ) con respecto al escalar de Ricci.
¿Qué ocurre si se toma f (R ) igual a R en la ecuación anterior? En ese caso, la teoría de f (R ) reproduce exactamente la RG de Einstein. Llegando a la siguiente fascinante conclusión: la teoría de f (R ) es una extensión de la RG de Einstein; es decir, una versión más amplia que contiene a la RG como un caso particular de esta. Así, en lugar de reemplazar a Einstein, lo abarca y permite explorar nuevas posibilidades cuando la gravedad se comporta de forma diferente a lo esperado.
Agujeros negros: la solución de Schwarzschild en f (R )
La ecuación de campo que se vio en el apartado anterior no es sencilla de resolver. De hecho, para encontrar soluciones que describan agujeros negros, deben imponerse ciertas condiciones matemáticas simplificadoras: se considera una métrica esféricamente simétrica, sin rotación, y con un escalar de Ricci constante. Además, se asume que no hay materia ni energía presentes, es decir, que el tensor energía-momento es cero: un vacío gravitacional.
En la RG, este mismo enfoque —resolver la ecuación de campo de Einstein bajo esas condiciones— lleva a una de las soluciones más famosas: la métrica de Schwarzschild. Dicha métrica fue encontrada por Karl Schwarzschild en 1915 bajo la presión de la Primera Guerra Mundial, mientras servía en el frente del este. Las condiciones inhumanas a las que estuvo sometido no fueron un impedimento para que lograra dar con la primera solución exacta a las ecuaciones de Einstein, publicada en 1916. Esta solución describe el espacio-tiempo alrededor de una masa esférica y estática, y se considera el punto de partida para entender los agujeros negros más simples.
En la teoría f (R ), si se resuelve la ecuación de campo modificada bajo las anteriores condiciones, surge una solución prácticamente idéntica a la de Schwarzschild en RG… ¡pero con un término extra! Aparece una pequeña contribución adicional que depende del escalar de Ricci, y este mismo está determinado por la función f (R ).
¿Cómo se recupera la solución clásica de la RG? Muy sencillo: basta con elegir f (R ) igual a R, de modo que el término extra resulta idénticamente nulo. Sin embargo, cuando f (R ) difiere de R, ese pequeño aporte modula por completo las propiedades del agujero negro.

Evento de sucesos: el “punto de no retorno” en agujeros negros
Una técnica eficaz para entender mejor las entidades físicas como los agujeros negros es desafiar a la propia capacidad de abstracción realizando un experimento mental: se puede imaginar el agujero negro de Schwarzschild como una esfera invisible: todo lo que cruza su superficie, llamada horizonte o evento de sucesos, desaparece irremediablemente de nuestro universo observable. Luz, materia o cualquier señal que lo atraviese queda atrapada para siempre en su interior. Mientras que fuera de ese límite podemos medir y predecir fenómenos físicos, pues dentro todo queda oculto e inaccesible.
En RG, ese horizonte se sitúa siempre a una distancia equivalente al doble de la masa del agujero negro. Pero en la teoría de gravedad modificada f (R ), la distancia de este “punto de no retorno” deja de ser un valor único y pasa a depender del escalar de Ricci R ; es decir, de la curvatura local del espacio‑tiempo… ¡Y hasta de si dicha curvatura es positiva o negativa!

En la gráfica de la izquierda, donde se considera el escalar de Ricci positivo, aparecen tres posibles soluciones para el evento de sucesos. No obstante, solo una de ellas tiene validez física, porque si el escalar de Ricci es cero, se debe volver al resultado de RG, el de dos veces la masa. Esa solución —marcada en rojo— es la única que respeta dicho límite y, a medida que R aumenta, el horizonte de sucesos es igual a tres veces la masa del agujero negro.
Por otro lado, cuando R es negativo (gráfica de la derecha) surge una única solución real para el horizonte de sucesos, adaptándose perfectamente al caso de la RG cuando la curvatura tiende a cero.
ISCO: El último baile estable alrededor del agujero negro
Ya se conoce cómo nace un agujero negro a partir de la solución descrita por Schwarzschild, así como su principal característica: el horizonte de sucesos. Pero ¿qué sucede si se coloca una partícula con masa en el entorno de un agujero negro? La respuesta está en el delicado equilibrio entre la atracción gravitatoria y la fuerza centrífuga que experimenta al moverse en torno al agujero negro.
Para ilustrarlo, basta imaginar el posible “camino” que describiría la partícula: desde órbitas circulares amplias, donde la velocidad de giro compensa la atracción, hasta trayectorias en forma de espirales que la arrastran inevitablemente hacia el misterioso interior. Sin embargo, existe un límite muy preciso: la ISCO —Innermost Stable Circular Orbit— u “Órbita Circular Estable más Interna”. En RG, este radio crítico se sitúa en seis veces la masa del agujero negro. Para distancias menores, ya no hay forma de mantener un equilibrio estable: cualquier pequeña perturbación precipita a la partícula hacia el horizonte de sucesos.
Pero la RG no es la última palabra. Estudiando la teoría de gravedad modificada f (R ) uno podría llegar a preguntarse: ¿Cómo se comporta la ISCO en esta teoría? Se trata de una trayectoria compleja que, al igual que ocurría con el evento de sucesos, depende del escalar de Ricci, así como de su signo.

Se aprecia que ambas gráficas cumplen el límite de RG, es decir, si R es cero, la ISCO se sitúa en seis veces la masa del agujero negro. Además, si el escalar de Ricci es positivo — gráfica de la izquierda — la ISCO alcanza su máximo en 7.5 veces la masa del agujero negro.
Potencial efectivo: el equilibrio entre “tirón” gravitatorio y “empuje” centrífugo
Para entender por qué la ISCO marca el último baile circular, hay que analizar el potencial efectivo, que combina en una sola curva:
- El “tirón” gravitatorio, que atrae la partícula hacia el agujero negro.
- El “empuje” centrífugo, que tiende a mantenerla alejada.
Al representarlo gráficamente frente a la distancia, aparece un máximo (órbita inestable) seguido de un mínimo (órbita estable). El punto de inflexión que marca la frontera entre el mínimo y el máximo es precisamente la ISCO.

Al representar el potencial efectivo en función de la distancia para diferentes valores del escalar de Ricci se aprecia que:
- Para R < 0 el mínimo local persiste, pero se estrecha, confinando las órbitas estables a un rango de distancias menor.
- Para R > 0, si es suficientemente grande, el mínimo desaparece por completo, convirtiéndose en un único punto de inflexión sin “valle” estable.
En consecuencia, un escalar de Ricci positivo demasiado grande borra el oasis de estabilidad donde la fuerza centrífuga compensa la atracción gravitatoria. Por tanto, para garantizar órbitas circulares estables, R debe mantenerse por debajo de un umbral que conserve ese mínimo en el potencial efectivo.
Desafío a Kepler: pequeñas correcciones en su famosa fórmula
La tercera ley de Kepler establece que la frecuencia angular orbital al cuadrado es inversamente proporcional al cubo de la distancia al cuerpo central. Durante siglos, esta ley ha imperado sobre el movimiento planetario, marcando un orden perfecto.
En el marco de la RG, con la métrica de Schwarzschild, dicha proporción se recupera de forma exacta, incluso en regiones de gravedad intensa, reforzando la confianza en las predicciones de Einstein.
¡Pero la teoría de gravedad modificada f (R ) plantea un giro inesperado! Al introducir una dependencia más compleja de la curvatura del espacio‑tiempo, aparece un segundo término, pequeño, pero no despreciable, que provoca una desviación sutil de la relación kepleriana.

¿Por qué importan las teorías de gravedad modificada?
La familia de teorías de gravedad modificada busca ir más allá de la RG. Dentro de estas teorías, la de f (R ) destaca por su simplicidad. Se ha obtenido la solución tipo Schwarzschild y sus propiedades más importantes — el horizonte de sucesos, el radio del ISCO y el potencial efectivo para partículas masivas— que desnudan matices inéditos en la física de agujeros negros.
¿No sorprende que hasta una ley tan consagrada como la tercera ley de Kepler muestre una pequeña desviación en estas teorías? ¡Ese “segundo término” que añade, f (R ) convierte a la ley kepleriana en una aproximación, y su violación leve se convierte en una oportunidad para experimentos de gran precisión! Así, f (R ) y el conjunto de teorías modificadas no solo refuerzan nuestro entendimiento de la gravedad, sino que ofrecen predicciones nuevas y medibles que podrían desvelar secretos más profundos de la naturaleza.
En definitiva, el valor de las teorías de gravedad modificada radica en su capacidad para extender el legado de Einstein, conservando sus aciertos y a la vez abriendo puertas a posibles explicaciones de misterios de los fenómenos físicos. Gracias a estos modelos, la física teórica y la observación se aúnan para poner a prueba los límites de la gravedad.
Referencias
- Ángel Alonso Paniagua. Teoría de Gravedad Modificada f (R ), Trabajo fin de Grado. Universidad de Murcia, Grado en Física (2025).
Ángel Alonso Paniagua
Grado en Física

El fin de los grandes imperios suele resultar más intrigante que la edad dorada en la que brillan con mayor intensidad. Cuando los grandes poderes que controlaron el mundo implosionan, surge la inevitable cuestión: ¿por qué sucedió? Así, el colapso de la civilización maya en el periodo Clásico Terminal (aproximadamente entre 800 y 1000 d. C.) ha intrigado a historiadores, arqueólogos y climatólogos. Las hipótesis sobre los motivos que llevaron a su desaparición han oscilado entre las guerras internas, la sobrepoblación, el agotamiento agrícola, el descontento social y las transformaciones en las rutas comerciales. Sin embargo, un nuevo estudio científico, basado en el análisis de las estalagmitas halladas en la cueva Grutas Tzabnah en el noroeste de Yucatán, ofrece la evidencia más precisa hasta la fecha sobre el papel que jugó el clima en este proceso.
La investigación, publicada en 2025 en la revista Science Advances, reconstruye con un grado de detalle sin precedentes las lluvias estacionales entre los años 871 y 1021 d. C. Todo, gracias a una estalagmita: Tzab06-1. El registro ha revelado que la clave del colapso maya no se explica a través de un único evento, sino de una sucesión de sequías multianuales que desestabilizaron la agricultura y minaron la legitimidad de las élites políticas.

La cueva de Tzabnah y el registro de las lluvias
La cueva de Tzabnah, situada cerca de Tecoh, Yucatán, se encuentra próxima a algunos de los grandes centros del Clásico Terminal, como Uxmal y Chichén Itzá. Fue allí donde, en 2006, se recuperó la estalagmita Tzab06-1, que presenta laminaciones anuales perfectamente visibles. Como si se tratase de los anillos de un árbol, cada capa corresponde a un año de crecimiento, de manera que constituye un archivo natural del clima del pasado.
El estudio, que analizó más de 2400 muestras de isótopos estables de oxígeno, logró reconstruir una cronología muy precisa, con una incertidumbre de apenas ±6 años. Esta altísima resolución permitió identificar las sequías estación por estación, diferenciando los años secos de los húmedos con gran exactitud.

Las sequías multianuales y su impacto en la agricultura
El registro muestra que entre 872 y 1021 d. C. se produjeron ocho sequías extremas en las que, al menos durante tres años consecutivos, las lluvias no fueron suficientes. La más severa de ellas se prolongó durante trece años, entre 929 y 942 d. C., y superó en duración a cualquier otra sequía documentada históricamente en la región durante la ocupación colonial.
Los mayas dependían de la agricultura de temporal basada, sobre todo, en el cultivo del maíz, cuya productividad exigía lluvias regulares. La irregularidad y la imprevisibilidad del régimen pluvial incrementaron el riesgo de hambrunas y socavaron la estabilidad de los sistemas de poder. Aunque existían técnicas de mitigación, como los chultunes (cisternas) y las aguadas (depósitos), estas infraestructuras resultaron insuficientes para hacer frente a sequías de varios años consecutivos.

Diferencias regionales: Uxmal y la región Puuc
El análisis comparado entre el registro climático y la cronología arqueológica de la región Puuc, donde se encuentra Uxmal, muestra un patrón dramático. Los últimos monumentos con inscripciones jeroglíficas en la zona datan de 907 d. C., en un periodo que coincide con una serie de sequías encadenadas entre 893 y 916 d. C.
Estas crisis climáticas encajan con la interrupción de la construcción monumental y el cese de la escritura jeroglífica, indicadores de la pérdida de legitimidad de las élites gobernantes. Así, el colapso político de Uxmal se vinculó estrechamente con tres sequías consecutivas que impidieron la recuperación agrícola y, en consecuencia, minaron la autoridad de los líderes de las comunidades.

Chichén Itzá: resiliencia y auge temporal
Situada más al este, Chichén Itzá muestra una respuesta diferente. Mientras que la Vieja Chichén, construida en estilo Puuc, declinaba durante las sequías del siglo IX, la Nueva Chichén, con arquitectura de estilo internacional, logró prosperar en el siglo X.
Esto fue posible gracias a varias circunstancias. En primer lugar, la ciudad se benefició de un periodo intermedio de lluvias más regulares entre 942 y 1022 d. C. Además, su integración en redes comerciales de largo alcance y la capacidad de recolectar tributos y recursos desde regiones menos afectadas tambiñen la benefició. Por ello, Chichén Itzá resistió mejor porque diversificó sus estrategias de poder y dependencia económica. De todos modos, no pudo evitar sucumbir a las megasequías que asolaren la región en el siglo XI.
La “megasequía” y el fin del Periodo Clásico
La estalagmita Tzab06-1 muestra un hiato de crecimiento entre 1021 y ~1070 d. C., un dato que se ha interpretado como el resultado de un periodo de sequía tan severo que incluso el goteo se interrumpió en la cueva. Este vacío coincide con los registros de otros lugares de Yucatán y Belice que apuntan a un evento climático extraordinario. Esta megasequía marcó el tránsito al Posclásico Temprano y precipitó la desintegración final de las estructuras mayas clásicas.

La imprevisibilidad climática como la verdadera razón del colapso
El estudio concluye que no fue una sola sequía, sino la reiteración de episodios prolongados de escasez de lluvias lo que erosionó la base de la sociedad maya. La alternancia entre años secos y húmedos, sin una estacionalidad predecible, resultó devastadora. En este contexto, la legitimidad de los gobernantes, que se basaba en su capacidad para garantizar la fertilidad de la tierra y el bienestar colectivo, se deterioró gravemente.
La solución oculta en una cueva
Las estalagmitas de la cueva de Tzabnah han logrado resolver uno de los enigmas más debatidos de la arqueología americana. Gracias a este archivo natural, hoy sabemos que la verdadera causa histórica del colapso maya no fue una catástrofe aislada, sino una secuencia de sequías multianuales que pusieron a prueba los límites de la resiliencia social, agrícola y política de esta civilización.
Referencias
- Daniel H. James et al. 2025. "Classic Maya response to multiyear seasonal droughts in Northwest Yucatán, Mexico". Science Advances, 11: eadw7661. DOI:10.1126/sciadv.adw7661
¿La teoría de las Formas o Ideas de Platón en un monográfico dedicado a la Historia de las Ciencias? Como acertadamente señaló A. C. Grayling en Historia de la Filosofía. Un viaje por el pensamiento universal, «durante casi toda su historia, la palabra filosofía tuvo el significado general de "investigación racional", aunque, a partir de los inicios de la modernidad, en el Renacimiento, hasta el siglo xix, significó lo que hoy día llamamos "ciencia", y un filósofo era alguien que investigaba cualquier cosa, o todas».
Por mencionar algunos ejemplos, Descartes, además de filósofo, era matemático –descubridor de las coordenadas cartesianas– y físico; Pascal, filósofo, matemático, físico y teólogo; Leibniz, filósofo, matemático –descubridor a la par que Newton del cálculo infinitesimal–, lógico, jurista y teólogo. La obra principal de Newton, considerada por muchos como la obra científica más importante de todos los tiempos, se titula Philosophiae naturalis principia mathematica (1687) (Principios matemáticos de filosofía natural). En fin, como añade Grayling, «la palabra científico se acuñó recientemente, en 1883, y dio al término relacionado "ciencia" el sentido que tiene hoy en día. Tras esa fecha, los términos filosofía y ciencia adquirieron el significado que poseen actualmente, a medida que las ciencias divergían cada vez más de la especulación general debido a su cada vez mayor especialización y tecnicismo».
No es fortuito, pues, que uno de los más reconocidos divulgadores de la ciencia de nuestra lengua, José Manuel Sánchez Ron, comenzara su «antología de momentos estelares de la ciencia» con Platón: «Nos transmitió aspectos básicos del pensamiento científico heleno: como, por ejemplo, la importancia que para muchos filósofos-científicos de su época tuvo la geometría –para ellos perfecta– del círculo. Esa importancia se plasmó especialmente, durante dos mil años, en la descripción de los cuerpos celestes, en la que los círculos, las circunferencias reinaron supremas (…) hasta la llegada de la elipse con Kepler a comienzos del siglo xvii». Aunque la filosofía no se reduce a ello, una de las funciones históricas que ha cumplido es ser una antesala de las ciencias en el sentido de que algunas de sus balbuceantes intuiciones se convierten, con suerte y esfuerzo, en ciencias, entendiendo por ello una disciplina empírica e independiente.

El contexto histórico
Cualquier pensador, sea de la índole que sea, es inconcebible sin su contexto histórico. Las cuatro principales influencias de Platón son Sócrates, Parménides y Heráclito, y los pitagóricos. Dado que estos últimos fueron los primeros en identificar la realidad con los números, nos centraremos brevemente sobre todo en ellos y en la Academia. Platón fundó la primera Academia de Occidente, que puede considerarse precursora de los espacios de enseñanza y las universidades, en el año 387 a. C. a las afueras de la Atenas de entonces, en un lugar sagrado dedicado a Academo (héroe mitológico griego), junto a un gimnasio donde se reunían los varones para realizar actividades relacionadas con el cultivo del cuerpo y del espíritu.
Enseñó hasta el año de su muerte en el 347, y perduró este legado en forma de una «organización liberal de la investigación y una orientación filosófica que influyó poderosamente en la ciencia posterior», según el catedrático de Lógica Javier Ordóñez.
Al igual que Parménides y Heráclito son fundamentales para comprender el mundo de las Formas o Ideas y el mundo sensible que distingue Platón en la alegoría de la caverna, Sócrates y los pitagóricos son decisivos a la hora de buscar definiciones universales que están más allá de la naturaleza. Los pitagóricos identifican los números en el kósmos, y el estudio de ambos es esencial para vivir en armonía con las leyes por las que se rige este. «Logos» es un término polisémico que significa «ley», pero a la vez «razón», «lógica», «discurso». Se diría que es conveniente conocer las leyes del mundo para vivir en consonancia con ellas, según una concepción de la sabiduría que, desde Sócrates y Platón, pasando por los estoicos, llega hasta el mundo moderno.
Es fama que al frente de la Academia se leía: «No entre nadie que no sepa matemáticas». W. K. C. Guthrie indicó que el mismo concepto de philosophia, tal como lo emplea Platón, está vinculado con los pitagóricos «y su interpretación del entendimiento filosófico en términos de salvación y purificación religiosa, su pasión por las matemáticas como vislumbre de la verdad eterna, su mención del parentesco de toda la naturaleza, de la reencarnación y la inmortalidad, su referencia al cuerpo como tumba temporal o prisión del alma, su elección de la terminología musical para describir el estado del alma, especialmente su explicación matemático-musical de la composición del alma del mundo», así como la música de las esferas.
La Academia: la primera universidad de Occidente
Según Diógenes de Laercio, Teodoro de Cirene, uno de los pitagóricos más destacados, fue maestro matemático de Platón, del mismo modo que Eudoxo de Cnido, autor del primer modelo astronómico conocido basado en esferas homocéntricas, fue amigo suyo. La academia platónica fue un lugar de acogida para muchos matemáticos griegos del siglo iv a. C., espacio donde la conversación giraba en torno a la importancia de la aritmética, la geometría, la astronomía y la armonía para conseguir una aproximación al mundo de las ideas, imprescindible para actuar con justicia o, lo que equivale a lo mismo, bien tanto en el ámbito privado como público.
Con Pseusipo, pariente del filósofo al frente de la Academia, los platónicos reconocieron tres sustancias: las ideas, las matemáticas y los objetos sensibles, y reducían las formas a números y figuras, o sea, a las matemáticas. De esta manera matematizaron el mundo de las ideas y se pitagorizó la Academia, se dio un alejamiento de la filosofía original y se desplazó su interés hacia los problemas de aritmética y geometría. A juicio de Bertrand Russell, «la preeminencia de los griegos aparece con mayor claridad en las matemáticas y en la astronomía.
Lo que hicieron en arte, en literatura y en filosofía, puede juzgarse mejor o peor según los gustos, pero lo que realizaron en geometría está por encima de toda cuestión». En cierto sentido, lo que alcanzaron en cada una de estas disciplinas se encuentra íntimamente vinculado. Como luminosamente escribió Santayana: «Entre los griegos, la idea de felicidad era estética y la de belleza era moral; y esto no porque los griegos estuvieran confundidos, sino porque eran civilizados».

La teoría de las formas o ideas
La muerte de su maestro, Sócrates, lleva a Platón a preguntarse: ¿cómo es posible que el mejor de los ciudadanos haya sido condenado? Esto solo es posible en un sistema cuyo paradigma de pensamiento sea relativista, es decir, aquel que defiende que no se puede alcanzar una verdad común y universal, sino que esto depende del individuo y las circunstancias. Por consiguiente, lo bueno o lo malo, lo justo o lo injusto, ética y política, también dependen del individuo y las circunstancias. Platón quiere que haya justicia en la polis, y para que se alcance, se requiere que haya ciencia, definiciones comunes y universales. Por ejemplo, justicia es equidad, tratar de forma imparcial, dar a cada uno lo que le corresponde… De lo contrario podemos seguir condenando a los mejores.
Ahora bien, si la ciencia existe es porque existen realidades universales y eternas. Y como estas no tienen lugar en el mundo sensible, compuesto de fenómenos concretos y cambiantes, ha de encontrarse otro mundo, el mundo de las Formas o Ideas. Inspirado por la tradición pitagórica, Platón considera que el ser humano es un alma encarcelada en un cuerpo. El alma ha vivido en el mundo de las Formas, el verdadero en tanto que es inmutable, pero al unirse al cuerpo ha olvidado lo allí conocido. No obstante, lo puede rememorar al ver sus copias en el mundo sensible. Para Platón, conocer es reconocer, aprender es sinónimo de recordar y enseñar equivale a «ayudar a recordar lo olvidado».
Para ello sigue el método de la dialéctica, que consiste en recorrer las sombras en el interior de la caverna representada en La República, el camino que va de las imágenes a las sensaciones, de las sensaciones a los conceptos, y de estos a las Formas o Ideas universales. Y una vez que se consigue salir de la caverna y se contempla el sol, que simboliza la Idea de Bien, causa suprema de todas las demás ideas, la dialéctica es también el camino descendente que hay que seguir para informar a los otros prisioneros de cuál es la auténtica realidad. Para Platón debe gobernar aquel conoce la Idea de Bien, pues según el intelectualismo ético, solo puede practicar el bien aquel que lo conoce, tanto en la vida privada como pública. Este es el filósofo-rey.
Platón toca todas las grandes cuestiones de la filosofía
Según Whilelm Nestle, «la filosofía de Platón es un gran intento de enlazar lo racional con lo irracional, lo sensitivo con lo suprasensible, lo perecedero con lo imperecedero, lo temporal con lo eterno, lo terrenal con lo celeste y lo humano con lo divino. Platón descubre la respuesta a la pregunta por las definiciones de Sócrates al dar con lo general, con los conceptos, pero los hipostatiza en ideas eternas y da lugar así a un completo desdoblamiento del mundo, un dualismo que, en contraposición con las originarias concepciones griegas, reconoce el ser verdadero solo en las ideas invisibles, mientras condena al mundo a la condición de inconsistente juego de sombras». Esta valoración y síntesis condensa tanto los logros de la filosofía de Platón como sus límites, incluyendo una crítica desde la perspectiva nietzscheana.
Tras esta visión irremediablemente panorámica, podemos concluir que la concepción de Platón de la teoría de las Formas o Ideas ha condicionado buena parte de la historia de la filosofía y, en menor medida, de las ciencias, especialmente si tenemos en cuenta que estas se despliegan a través de las matemáticas. Whitehead declaró que «toda la tradición filosófica europea consiste en una serie de notas a pie de página de Platón». Un requisito indispensable tanto de la filosofía como de las ciencias a partir de Sócrates y Platón es la aspiración a la universalidad.
No hay ciencia de lo particular, solo de lo universal. Ahora bien, las ciencias no son inmutables, sino históricas y cambiantes. Esta concepción relativista la heredamos de T. S. Kuhn. Y progresa, en caso de hacerlo efectivamente, debido a una constante revisión y crítica, a conjeturas y refutaciones, para expresarlo a la manera de Popper. Junto a ello instaló en el corazón de la filosofía y de las ciencias una dimensión ideal o, si se prefiere, utópica, sin la cual es inconcebible la historia.

Un legado que atraviesa la historia del pensamiento
Por lo que respecta al pitagorismo, la idea de que las matemáticas están en la naturaleza es una discusión que atraviesa las ciencias modernas desde Galileo a nuestros días: ¿está la realidad compuesta de números (realismo) o son signos con los que interpretamos el mundo (instrumentalismo)? Y si no es así, ¿por qué logramos explicar y predecir tantos fenómenos con ellos? Grayling ha escrito que Whitehead «exageraba, pero no demasiado, pues, en efecto, Platón trata o, como mínimo, toca casi todas las grandes cuestiones de la filosofía. En comparación no solo con lo que le precedió en la historia de la filosofía, sino con lo que le sucedió, los logros de Platón son enormes: una imponente montaña en medio de colinas».
Y no debemos olvidar que una de las funciones de la filosofía es regenerar a las ciencias, no solo reconociendo lo que aún no se sabe, formulando preguntas adecuadas, cada vez más precisas, ejerciendo la imprescindible crítica, sino además reconociendo que no nos conformamos con la naturaleza, que la realidad humana es la que es, pero parece que en el horizonte está lo que debe ser: el Ideal o las Formas.
Durante siglos, la imagen que hemos tenido de las antiguas ciudades del Mediterráneo ha estado ligada a templos majestuosos, mercados bulliciosos y foros donde se debatía el destino de imperios. Sin embargo, un hallazgo reciente en la cima del monte Sussita, en Israel, ha añadido un nuevo capítulo —inesperado y profundamente humano— a la historia de la Antigüedad: el posible descubrimiento del primer hogar de ancianos conocido del mundo.
La clave de esta revelación es un mosaico bizantino fechado hace unos 1.600 años, ubicado en la antigua ciudad de Hippos (también conocida como Sussita), que se alzaba con orgullo sobre el mar de Galilea. El elemento central del hallazgo es un medallón de mosaico ricamente decorado con aves, árboles y frutos, que incluye una breve inscripción en griego: “La paz sea con los ancianos”. A simple vista, puede parecer una bendición genérica. Pero su ubicación, su estilo y el contexto arqueológico que lo rodea han llevado a un grupo de investigadores a proponer una idea revolucionaria: este lugar pudo haber sido una institución destinada al cuidado comunitario de las personas mayores.
Una ciudad cristiana adelantada a su tiempo
Hippos fue una ciudad próspera durante el periodo bizantino, y los restos excavados hasta la fecha revelan una urbe con una marcada identidad cristiana. Se han hallado iglesias, basílicas y espacios comunales, lo que sugiere una sociedad profundamente influenciada por los valores del cristianismo primitivo. En este entorno, la aparición de un edificio aparentemente dedicado a los ancianos cobra todo su sentido.
El equipo liderado por arqueólogos de la Universidad de Haifa y la Universidad de Colonia publicó recientemente los detalles de su hallazgo en la revista Zeitschrift für Papyrologie und Epigraphik, donde explican que no se trata únicamente de una inscripción decorativa. La frase, su ubicación en la entrada de un edificio residencial, y el lenguaje visual del entorno —aves que beben de cálices, lirios egipcios, cipreses— sugieren una intención clara: aquí se brindaba algún tipo de atención especial a las personas mayores.

Es la primera vez que aparece una inscripción tan directa dirigida a este grupo etario en un contexto arqueológico. Si se confirma que el lugar funcionaba como una especie de residencia asistencial, no solo estaríamos ante un descubrimiento histórico, sino ante un testimonio material de un concepto que muchos creen exclusivamente moderno: el cuidado institucionalizado de los mayores.
Más allá de la familia: el inicio del bienestar comunitario
Hasta ahora, los estudios históricos asumían que el cuidado de los ancianos en la Antigüedad recaía exclusivamente en el entorno familiar. Sin embargo, el hallazgo en Hippos pone sobre la mesa la posibilidad de que, al menos en ciertas comunidades cristianas del siglo IV o V, existiesen estructuras sociales destinadas a asumir ese rol.
La hipótesis más aceptada es que esta transformación respondió a los nuevos modelos de vida promovidos por el cristianismo, donde la comunidad podía sustituir, complementar o incluso reemplazar el apoyo familiar tradicional. Fenómenos como el monacato, las viudas consagradas o los diáconos encargados de labores caritativas son ejemplos conocidos. Pero ahora, por primera vez, se abre la posibilidad de que existiesen espacios físicos dedicados a cuidar de quienes ya no podían valerse por sí mismos.
El concepto de un “hogar de ancianos” no se puede extrapolar directamente desde nuestros días al siglo V, por supuesto. No hablamos de camas articuladas ni de asistencia médica especializada, pero sí de un entorno residencial con una función claramente orientada al acompañamiento y la dignidad de la vejez. Un lugar donde los ancianos no solo eran tolerados, sino bendecidos y reconocidos.
Un lugar visible en el corazón de la ciudad
El edificio donde se halló el mosaico no estaba escondido en los márgenes de Hippos, sino estratégicamente situado cerca del cruce entre las dos arterias principales de la ciudad: el Cardo y el Decumanus Maximus. A solo unos cien metros de la plaza central, el lugar ocupaba una posición de gran visibilidad pública. Esta elección refuerza la idea de que se trataba de una institución reconocida y aceptada socialmente, no de un espacio marginal.
La iconografía también juega un papel crucial en la interpretación. El uso de elementos naturales como los lirios y cipreses, además de aves exóticas como los gansos egipcios, tiene una carga simbólica clara: longevidad, paz, espiritualidad. Todo apunta a que no se trataba simplemente de una residencia, sino de un espacio también cargado de significado religioso, donde la vejez era celebrada y acompañada desde una perspectiva espiritual.

Una visión diferente de la vejez en la Antigüedad
Este descubrimiento obliga a repensar muchas de las ideas preconcebidas que tenemos sobre el trato a los mayores en tiempos antiguos. A menudo, la historia pone el foco en los guerreros jóvenes, los emperadores en su plenitud o los mártires cristianos que entregaban su vida por la fe. Sin embargo, el mosaico de Hippos nos recuerda que también hubo espacio —y preocupación— por quienes ya no podían luchar, construir o gobernar.
La vejez, en este contexto, no era una carga sino una etapa reconocida dentro del ciclo vital de la comunidad. El simple hecho de dejar constancia de una bendición dirigida específicamente a los ancianos indica que se les valoraba como parte esencial del entramado social. Y si, como sugieren los investigadores, existía una institución que los acogía, estaríamos ante una de las primeras manifestaciones del bienestar social tal como lo entendemos hoy.
Sin duda alguna, el hallazgo en Hippos no solo aporta una nueva pieza al complejo rompecabezas del mundo bizantino. También lanza una pregunta incómoda al presente: ¿hemos avanzado tanto como creemos en el cuidado de nuestros mayores?
En una época donde las residencias de ancianos son a menudo sinónimo de soledad y abandono, este mosaico del siglo V ofrece una visión alternativa. Una comunidad que no solo atendía a sus mayores, sino que los bendecía públicamente, les dedicaba arte y los colocaba simbólicamente en el centro de la vida urbana. Una imagen que, mil seiscientos años después, aún tiene mucho que enseñarnos.
Los pulgares son tan cotidianos que rara vez se les presta atención, salvo cuando falta una uña o cuesta abrir un frasco. Sin embargo, un nuevo estudio revela que este dedo tan especial no solo ha servido para manipular objetos, fabricar herramientas o escribir en el móvil. La longitud del pulgar está directamente relacionada con el tamaño del cerebro en los primates, y en particular en el linaje humano. Esta relación confirma que la destreza manual y el desarrollo cerebral no evolucionaron por separado, sino de forma conjunta, con implicaciones profundas para comprender cómo surgió la singularidad de Homo sapiens.
El trabajo, publicado en Communications Biology por un equipo internacional, aporta por primera vez pruebas directas de esa conexión. Para llegar a esta conclusión, los investigadores analizaron fósiles y especies vivas de primates, estudiando sus huesos de la mano y comparándolos con el tamaño cerebral. El resultado es contundente: los primates con pulgares relativamente más largos tienen cerebros más grandes, y esto se cumple incluso cuando se eliminan los datos humanos del análisis. Como explica el artículo, “encontramos una asociación positiva significativa entre la longitud del pulgar y el tamaño del cerebro”.
Los pulgares como clave evolutiva
La importancia de los pulgares en nuestra evolución es bien conocida, pero hasta ahora faltaba un vínculo sólido que los relacionara con el cerebro. El nuevo estudio demuestra que esta conexión existía mucho antes de la aparición de Homo sapiens. Los investigadores examinaron 95 especies de primates, fósiles y actuales, y comprobaron que la relación entre pulgar y cerebro atraviesa todo el linaje, desde lémures hasta humanos.
Este hallazgo descarta la idea de que los pulgares largos fueran un rasgo exclusivo de los homínidos vinculados al uso de herramientas. Incluso en especies que nunca fabricaron instrumentos, la longitud relativa del pulgar ya estaba asociada a un mayor tamaño cerebral. El equipo lo explica claramente: “nuestros resultados indican una coevolución sostenida entre tamaño cerebral y destreza manual a lo largo del orden de los primates”. En otras palabras, la capacidad de manipular con precisión fue empujando la necesidad de más procesamiento cerebral, lo que a su vez alimentó nuevas posibilidades cognitivas.

Un pulgar que nos distingue, pero no tanto
El análisis muestra que los homininos, incluido Homo sapiens, tienen pulgares más largos de lo esperado en comparación con otros primates. Esto encaja con la enorme habilidad manual de nuestra especie y su papel en el desarrollo de la cultura material. Sin embargo, la investigación aclara que no somos una excepción que rompe las reglas, sino que seguimos un patrón general ya presente en otros primates.
Lo interesante es que el único hominino que se aparta de esta regla es Australopithecus sediba, que presenta un pulgar especialmente largo en relación con su cerebro. Según los autores, este caso plantea dudas sobre si realmente esa especie poseía una destreza superior o si se trataba de una combinación peculiar de proporciones de la mano y limitaciones en el procesamiento neuronal. El resto de homininos, desde Homo naledi hasta neandertales y nuestra propia especie, se ajustan a la tendencia general.

Cerebro y pulgares: una relación inesperada
El equipo esperaba que la conexión con el pulgar se manifestara en el cerebelo, el área del cerebro encargada del control motor y la coordinación. Sin embargo, los resultados apuntan a otra dirección. La longitud del pulgar se relaciona directamente con el neocórtex, la región que ocupa la mitad del cerebro humano y que se asocia con la percepción sensorial, la cognición y la conciencia.
Esto supone una sorpresa, ya que refuerza la idea de que la manipulación precisa de objetos no es solo una cuestión de movimiento, sino también de procesamiento cognitivo complejo. Según el artículo, “los procesos neuronales implicados en la evolución de la destreza manual afectan principalmente a las regiones neocorticales”. En la práctica, significa que agarrar una piedra o sujetar una ramita para obtener alimento requería no solo coordinación motora, sino también nuevas formas de planificación, percepción y aprendizaje.

La mano antes que la herramienta
Una de las preguntas clásicas en paleoantropología es qué apareció primero: las manos adaptadas para manipular o el uso de herramientas. Los datos de este estudio sugieren que los pulgares largos surgieron antes del desarrollo sistemático de la cultura lítica. Esto se debe a que ya estaban presentes en especies previas a la invención de herramientas de piedra, como Australopithecus afarensis.
No obstante, tener un pulgar largo no garantiza automáticamente una gran habilidad manual. El estudio subraya que la destreza depende de muchos otros factores anatómicos, como la forma de las articulaciones, la musculatura o la estructura ósea. En palabras de los autores, “la destreza de los primates está claramente facilitada por mucho más que la longitud del pulgar”. Este matiz es fundamental: un pulgar largo aporta ventajas, pero necesita ir acompañado de un cerebro capaz de aprovecharlas.
Homo sapiens y la expansión cerebral
En el caso de Homo sapiens, la relación entre pulgar y cerebro se volvió especialmente potente. Nuestros pulgares no solo son más largos en proporción al resto de los dedos, sino que están acompañados de un neocórtex excepcionalmente grande. Esta combinación permitió el desarrollo de la precisión en el agarre, algo clave para tallar herramientas, fabricar objetos complejos o escribir.
El estudio señala que esta relación ayudó a explicar los rápidos aumentos de tamaño cerebral en los homininos. A medida que la manipulación fina se hizo más frecuente, el cerebro tuvo que expandirse para gestionar esas nuevas demandas. De este modo, la coevolución entre mano y mente preparó el terreno para el lenguaje, el arte y la tecnología. Como resume el artículo, “nuestros resultados enfatizan el papel de las habilidades manipulativas en la evolución del cerebro”.
Más preguntas que respuestas
Aunque este hallazgo aporta una base sólida, también abre nuevas cuestiones. ¿Por qué el neocórtex y no el cerebelo parece ser el centro de esta relación? ¿Hasta qué punto la variación en los pulgares de diferentes especies refleja diferencias culturales, como el uso de herramientas? Y, sobre todo, ¿cómo se tradujo esta coevolución en comportamientos concretos que marcaron la diferencia entre homininos y otros primates?
El estudio sugiere que el próximo paso será combinar datos anatómicos con reconstrucciones biomecánicas más detalladas y con el análisis de fósiles mejor conservados. De ese modo, será posible comprender cómo se distribuían las cargas de procesamiento en distintas regiones del cerebro y cómo cada especie gestionaba sus capacidades manuales.
Una historia compartida por todos los primates
Lo que resulta más llamativo de este trabajo es que no se trata de una peculiaridad humana. El vínculo entre pulgar y cerebro recorre todo el árbol de los primates, desde los lémures hasta los chimpancés, pasando por capuchinos o gibones. Esto significa que la conexión entre mano y mente es mucho más antigua de lo que se pensaba y que probablemente ya estaba presente en los primeros antepasados comunes de los primates.
En este sentido, el hallazgo cambia la forma en que entendemos nuestra propia evolución. Homo sapiens llevó esta relación a un nivel extremo, pero la base ya estaba ahí, compartida con otros linajes. La evolución no inventó de cero nuestros pulgares largos ni nuestro cerebro grande, sino que potenció una tendencia que llevaba millones de años en marcha.
Referencias
- Joanna Baker, Robert A. Barton & Chris Venditti (2025). Human dexterity and brains evolved hand in hand. Communications Biology, 8:1257. DOI: https://doi.org/10.1038/s42003-025-08686-5.
CUPRA pisa el acelerador del futuro con una nueva creación que ya despierta admiración y expectativas: el CUPRA Tindaya Showcar, bautizado en honor a una imponente montaña volcánica de Fuerteventura. Este prototipo hará su estreno mundial en el Salón IAA Mobility 2025 de Múnich, el próximo 8 de septiembre, y sirve como ventana al lenguaje de diseño que marcará la próxima era de la marca.
Tindaya no es solo un nombre evocador; su estética —tonos cobrizos, formas brutas, superficies inspiradas en la roca volcánica— se funde con el ADN visual de CUPRA. El concepto se plantea como una “simbiosis perfecta entre humano y máquina”, donde el diseño y las emociones convergen en el máximo enfoque hacia el conductor: “No drivers, no CUPRA”.
Este prototipo marca un nuevo rumbo para la marca: un diseño radical pero funcional, con superficies angulares, texturas de fibra de carbono y firmas lumínicas que reflejan su carácter futurista. Pero CUPRA no espera al mañana: ya está activa hoy con una gama vibrante que mezcla gasolina, híbridos y eléctricos —un firme paso hacia la electrificación total sin perder identidad.
CUPRA Tindaya: el prototipo volcánico que mira al futuro
El CUPRA Tindaya Showcar anticipa el lenguaje de diseño que adoptará la marca en los próximos años. Inspirado en una montaña de Fuerteventura, sus formas brutas y tonos cobrizos conectan con la identidad visual de CUPRA.
Su filosofía central —“No drivers, no CUPRA”— subraya el enfoque emocional y exclusivo hacia el conductor, como núcleo de una experiencia única e intensa.

El simbolismo volcánico del CUPRA Tindaya
El nombre Tindaya no es casual. Hace referencia a una montaña emblemática de Fuerteventura, considerada un símbolo de fuerza telúrica y de espiritualidad en la cultura canaria. CUPRA ha querido trasladar ese carácter volcánico a un coche que se presenta como un objeto de deseo, de poder contenido y de energía en ebullición.
Los tonos cobrizos, las superficies brutas y los contrastes de luz evocan la textura de la roca volcánica. Con ello, CUPRA busca generar un vínculo emocional que va más allá del diseño automovilístico y se adentra en el terreno de lo artístico y lo poético.

Diseño interior: entre la emoción y la tecnología
El habitáculo del Tindaya sigue la filosofía de “simbiosis entre humano y máquina”. Está concebido como un espacio envolvente, donde el conductor se siente en el centro de la experiencia. Los asientos, materiales y la disposición de los controles transmiten un equilibrio entre radicalidad y confort.
A nivel tecnológico, el prototipo integra sistemas de infoentretenimiento de última generación, iluminación ambiental interactiva y detalles que refuerzan la sensación de cockpit futurista. Todo ello proyecta cómo CUPRA imagina el interior de sus modelos de la próxima década.

CUPRA Terramar: el crossover híbrido con herencia
Presentado en 2024, el CUPRA Terramar sustituye al Ateca y utiliza la plataforma MQB Evo del Grupo Volkswagen. Ofrece variantes mild-hybrid y plug-in hybrid, con autonomía eléctrica destacada en el modo PHEV.
Es el último modelo de combustión de la marca antes de su transición eléctrica hacia 2030, combinando deportividad y eficiencia con construcción en la planta de Győr, Hungría.

CUPRA Tavascan: audaz y 100 % eléctrico
El Tavascan es el primer SUV cupé eléctrico serializado de CUPRA, producido desde 2023 en China y lanzado en Europa en 2024. Utiliza la plataforma MEB y ofrece tracción trasera o total, con batería de 82 kWh y una autonomía de unos 450 km.
Además, la versión Tavascan Extreme E refleja su espíritu deportivo al haber sido adaptada para el campeonato eléctrico off-road Extreme E en colaboración con Abt Sportsline.

CUPRA León: compacta con múltiples caras
El León, derivado del SEAT León, es uno de los pilares de CUPRA desde 2020. Ofrece carrocerías compacta Five-Door y familiar Sportstourer, con motores gasolina potentes y opciones híbridas enchufables de hasta 310 CV.
En 2024 recibió una actualización estética y tecnológica que refuerza su carácter diferenciado frente a SEAT, con nuevas asistencias y un diseño más exclusivo.

CUPRA Formentor: el pionero de la marca
El Formentor fue el primer modelo desarrollado exclusivamente por CUPRA, lanzado en 2020. Combina deportividad y practicidad en un SUV compacto, con motorizaciones que van desde híbridos enchufables hasta potentes TSI de gasolina de hasta 390 CV. Su diseño y comportamiento lo convirtieron en una referencia dentro de la marca, consolidando la identidad fuerte de CUPRA.

CUPRA Born: el eléctrico urbano
Concebido como el primer modelo 100 % eléctrico de la marca, el Born se lanzó en 2021 y está destinado a un público urbano moderno. Ofrece versiones con 150 y 205 CV, gran eficiencia en autonomía y opción de suscripción flexible para adaptarse a diferentes estilos de vida.

CUPRA Raval: el eléctrico urbano que está por venir
El futuro compacto eléctrico de CUPRA, denominado Raval, surge del concepto UrbanRebel de 2021. Se construirá sobre la plataforma MEB Entry y está previsto para su lanzamiento en 2025, con potencia de hasta 320 kW. Será producido en Martorell, asumirá el papel de urbano premium y rivalizará con compactos eléctricos de precios competitivos.

Cupra como marca independiente y su espíritu de competición
Desde su creación como marca propia en 2018, CUPRA ha buscado desprenderse de su matriz SEAT para transmitir una identidad más atrevida y deportiva. Su gama hoy incluye desde SUV hasta eléctricos vanguardistas, con una red global enfocada al segmento premium.
Además, su división CUPRA Racing ha cosechado éxitos en campeonatos TCR y competiciones eléctricas como el Pure ETCR y la Fórmula E, demostrando su compromiso con la alta competición.

Visión de futuro: hacia la electrificación total
CUPRA ya anunció su meta de tener una gama completamente eléctrica para 2030. Este compromiso se refleja en su actual línea de modelos y en prototipos como el Tindaya, que dibujan un horizonte donde la pasión por conducir y la eficiencia energética van de la mano.

CUPRA en los eventos y cultura
La marca no solo innova en producto, también en presencia cultural. Presente en grandes salones como el IAA Mobility 2025, en eventos lifestyle y en colaboraciones artísticas, CUPRA busca transmitir un estilo de vida ligado al diseño, la tecnología y las emociones.

Con el Tindaya como estandarte, la marca CUPRA abre un nuevo capítulo estético y emocional: visceral, visionario y marcado por la metáfora del volcán y la simbiosis hombre-máquina. Al mismo tiempo, su sólida línea de modelos —Terramar, Tavascan, León, Formentor, Born y el futuro Raval— confirma que su estrategia avanza firme hacia la electrificación sin renunciar a su espíritu deportivo. CUPRA no se limita a fabricar coches; crea emociones y futuro.
El Alzheimer suele entenderse como un problema exclusivamente humano. Sin embargo, los gatos mayores también pueden desarrollar un síndrome de deterioro cognitivo que recuerda mucho a la demencia. Los investigadores lo llaman cognitive dysfunction syndrome (CDS) o síndrome de disfunción cognitiva. Los síntomas son visibles para cualquier dueño: maullidos excesivos durante la noche, desorientación dentro de la casa, cambios en el sueño, ansiedad o incluso olvidarse de dónde hacer sus necesidades.
Este nuevo estudio, liderado por el equipo de la Royal (Dick) School of Veterinary Studies de la Universidad de Edimburgo, examinó el cerebro de 25 gatos fallecidos, divididos en tres grupos: jóvenes, ancianos sanos y gatos con demencia diagnosticada. Al analizar sus tejidos mediante técnicas de inmunohistoquímica y microscopía confocal, los científicos se toparon con un escenario sorprendentemente similar al del Alzheimer humano.
El hallazgo central fue la presencia de placas de beta-amiloide, una proteína que se acumula en el cerebro y que en personas se considera un sello característico del Alzheimer. Pero no se trataba solo de depósitos aislados: en los gatos con demencia, esta proteína se encontraba dentro de las sinapsis, es decir, en los puntos de contacto donde las neuronas se comunican. Y si las sinapsis fallan, la memoria y el pensamiento se apagan poco a poco.

La beta-amiloide: un enemigo compartido
El papel de la beta-amiloide en el Alzheimer ha sido objeto de debate durante décadas. En humanos, se sabe que esta proteína puede acumularse de forma tóxica en el cerebro, interrumpiendo la señalización neuronal y desencadenando procesos inflamatorios.
En el caso de los gatos con CDS, los investigadores encontraron un patrón muy parecido: sinapsis cargadas de beta-amiloide y regiones cerebrales donde la comunicación entre neuronas estaba comprometida.
Lo interesante es que los gatos sanos y ancianos también presentaban cierta acumulación de esta proteína, aunque en menor grado. Esto refleja algo que ya ocurre en humanos: el simple envejecimiento puede traer depósitos de beta-amiloide, pero no siempre implican demencia. La diferencia parece estar en cómo el cerebro responde a esta carga tóxica.
En los gatos con demencia, la beta-amiloide estaba acompañada de un fenómeno clave: el ataque de las células gliales a las conexiones neuronales dañadas. Esta combinación —proteína tóxica más respuesta descontrolada de las células de soporte— podría explicar por qué algunos cerebros envejecen con normalidad, mientras que otros desarrollan un deterioro cognitivo devastador.
El papel de la microglía y los astrocitos
El estudio reveló que no solo las neuronas están implicadas en la demencia felina. Las células gliales, encargadas de mantener el entorno cerebral estable y saludable, también juegan un papel decisivo. En particular, los científicos observaron dos fenómenos: microgliosis y astrogliosis, es decir, una activación anormal de microglía y astrocitos.
Estas células actuaron como “barrenderas” del cerebro, engullendo sinapsis afectadas por beta-amiloide. En principio, la poda sináptica es un proceso natural: durante la infancia, ayuda a moldear el cerebro eliminando conexiones innecesarias. Sin embargo, en gatos con demencia —y en personas con Alzheimer— este proceso se vuelve excesivo y termina por eliminar conexiones útiles.
El análisis detallado mostró que las sinapsis que contenían beta-amiloide tenían más probabilidades de ser devoradas por microglía y astrocitos, lo que agrava la pérdida de comunicación neuronal. La consecuencia es un cerebro con menos circuitos funcionales, menos plasticidad y mayor dificultad para sostener procesos de memoria y orientación.

Por qué los gatos son un modelo natural
Hasta ahora, gran parte de la investigación sobre Alzheimer se ha basado en ratones modificados genéticamente para desarrollar depósitos de beta-amiloide. Estos modelos han sido útiles, pero tienen limitaciones: los ratones no desarrollan demencia de manera natural, y los fármacos que parecían prometedores en roedores muchas veces fracasan en humanos.
En cambio, los gatos ofrecen una ventaja única: envejecen desarrollando espontáneamente alteraciones similares a las humanas. Esto significa que sus cerebros reflejan mejor lo que ocurre en condiciones naturales, sin necesidad de manipulación genética artificial. En palabras simples, un gato con demencia es un espejo mucho más cercano al Alzheimer humano.
Además, al estudiar gatos con CDS, los investigadores no solo buscan ayudar a los humanos, sino también mejorar la calidad de vida de los propios gatos.
Se estima que hasta un 50% de los gatos mayores de 15 años muestran síntomas de demencia, lo que afecta tanto a los animales como a sus dueños. Avanzar en tratamientos compartidos podría beneficiar a ambos.
Más allá de la edad: la frontera entre el envejecimiento y la enfermedad
Uno de los hallazgos más llamativos del estudio es que los gatos ancianos sin demencia también tenían depósitos de beta-amiloide, pero sin el mismo grado de daño. Esto refuerza la idea de que el envejecimiento por sí solo no basta para explicar la demencia: la clave estaría en cómo interactúan la proteína tóxica, las células gliales y la capacidad del cerebro para resistir.
En los gatos con CDS, la acumulación de beta-amiloide se correlacionaba directamente con una mayor destrucción sináptica. En cambio, en los gatos ancianos sanos, esta relación no se daba con la misma fuerza. Dicho de otro modo, no es solo cuánto beta-amiloide hay, sino qué hace el cerebro con él.
Este punto es crucial también para los humanos: muchas personas tienen placas de beta-amiloide sin mostrar síntomas clínicos. Lo que diferencia a quienes desarrollan Alzheimer podría estar en los mecanismos de inflamación y respuesta celular.
Los gatos, con sus cerebros naturalmente afectados por procesos similares, se convierten así en una ventana privilegiada para observar esa frontera invisible entre envejecimiento normal y neurodegeneración patológica.

Lo que viene: tratamientos compartidos para gatos y humanos
Los investigadores de la Universidad de Edimburgo subrayan que este trabajo no solo busca entender mejor la enfermedad, sino también abrir nuevas oportunidades terapéuticas. Si los mecanismos de pérdida sináptica en gatos y humanos son tan parecidos, entonces los gatos podrían servir como modelo para probar fármacos que frenen la acción de la beta-amiloide o la respuesta excesiva de las células gliales.
En paralelo, estos avances podrían transformar la atención veterinaria. Muchos dueños asumen que los cambios de comportamiento en gatos mayores son “cosas de la edad”, sin sospechar que pueden estar frente a un caso de demencia. Reconocer la enfermedad permitiría ofrecer tratamientos más específicos y mejorar la calidad de vida de los animales.
En última instancia, la investigación apunta a un mismo horizonte: entender cómo mantener vivas las conexiones del cerebro el mayor tiempo posible. Ya sea en un gato doméstico que ronda los 18 años o en una persona que empieza a perder memoria a los 70, las sinapsis son el lenguaje del pensamiento. Y protegerlas puede marcar la diferencia entre una vejez con recuerdos o un viaje progresivo al olvido.
Referencias
- McGeachan, R. I., Ewbank, L., Watt, M., Sordo, L., Malbon, A., Salamat, M. K. F., ... & Spires‐Jones, T. L. (2025). Amyloid‐Beta Pathology Increases Synaptic Engulfment by Glia in Feline Cognitive Dysfunction Syndrome: A Naturally Occurring Model of Alzheimer's Disease. European Journal of Neuroscience. doi: 10.1111/ejn.70180
Los auriculares portátiles intraurales para running son la opción ideal para quienes buscan comodidad y ligereza de cara a la vuelta al cole. Sus diseños actuales mejoran la sujeción y la resistencia al sudor, garantizando un uso seguro en entrenamientos.
En pleno verano y con la vista puesta en la vuelta al cole, Bose refuerza su posición en el mercado de audio con una rebaja sin precedentes en sus auriculares Ultra Open Earbuds.

Aunque su precio habitual supera los 251€ en tiendas como PcComponentes o MediaMarkt, la alianza entre la marca estadounidense y Amazon lo sitúa ahora en tan solo 210,92 euros, una oportunidad difícil de dejar pasar.
Son auriculares de botón rediseñados con un innovador diseño abierto tipo brazalete que permite escuchar música sin aislarte del entorno. Incorporan la tecnología OpenAudio, que ofrece un sonido inmersivo y privado de alta calidad. Su estructura ligera, flexible y ergonómica asegura comodidad y estabilidad durante horas, incluso en movimiento.
En cuanto a autonomía, estos auriculares proporcionan hasta 7,5 horas de reproducción, 19,5 horas extra con su estuche de carga y carga rápida que ofrece 2 horas con solo 10 minutos. Además, cuentan con Bluetooth 5.3, resistencia al agua IPX4, controles físicos intuitivos y volumen automático adaptativo para una experiencia fluida. Incorpora, además, cuatro micrófonos integrados y materiales de alta calidad.
Bose intensifica la batalla de los precios con una gran rebaja en sus QuietComfort
Bose da un golpe de efecto en el mercado con una rebaja agresiva en sus auriculares QuietComfort, que ahora pueden conseguirse por solo 121,49 euros. Una oferta difícil de ignorar si tenemos en cuenta que en tiendas como Miravia, PcComponentes o Fnac su precio habitual supera los 159,99€.

Destacan por su combinación de sonido premium y cancelación de ruido avanzada. Su diseño compacto y ergonómico asegura comodidad durante todo el día, mientras que la conectividad Bluetooth multipunto permite cambiar sin esfuerzo entre varios dispositivos. Además, ofrece resistencia al agua con certificación IPX4, incluso bajo lluvia o sudor.
En cuanto a autonomía, los auriculares Bose QuietComfort ofrecen hasta 8,5 horas de reproducción continua, ampliables hasta 31,5 horas gracias a su estuche de carga inalámbrica. Incorporan la app Bose QCE, que permite personalizar el ecualizador de cinco bandas, ajustar controles táctiles y mucho más. Con tres micrófonos en cada auricular, materiales de alta calidad y carga rápida por USB-C.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
La imagen del vampiro que encontramos en la cultura popular —un aristócrata elegante, envuelto en una capa oscura que bebe sangre— dista mucho de la concepción original de estas criaturas. En su ensayo Matar a los muertos. Las epidemias de vampirismo desde Mesopotamia al Nuevo Mundo (Killing the Dead: Vampire Epidemics from Mesopotamia to the New World, 2025) John Blair desmonta esa visión literaria y cinematográfica para devolvernos al terreno más crudo y antropológico de la figura vampírica. Profesor emérito de Historia en Oxford, Blair examina la creencia en los cuerpos redivivos, esos cadáveres que se niegan a permanecer en la tumba y que encarnan la ansiedad de las comunidades humanas al tener que enfrentarse a la muerte. El ambicioso recorrido histórico de este estudio, que cubre desde las civilizaciones mesopotámicas hasta la Nueva Inglaterra decimonónica, propone una arqueología estimulante de los miedos colectivos.
Vampiro frente a fantasma: la materialidad de la amenaza
Uno de los ejes centrales del libro se centra en la definición del vampiro como redivivo. Blair insiste en que lo que caracteriza a un vampiro en la tradición histórica no es su capacidad para succionar sangre —un atributo tardío y popularizado, sobre todo, en las tradiciones de Europa del Este—, sino el hecho de que se trata de un cadáver que vuelve a la vida.
A diferencia del fantasma, que es incorpóreo y actúa como sombra o eco del difunto, el vampiro tiene cuerpo. Es tangible, ocupa espacio y, por eso, debe ser sometido a ritos físicos de neutralización. Por ello, se le estaca, se le decapita, se le quema o se le entierra siguiendo rituales concretos para asegurarse de que no pueda salir de la tumba.
En este sentido, el vampiro se concibe como una amenaza material. Es, precisamente, su corporeidad lo que lo convierte en un elemento perturbador del orden social. Allí donde el fantasma puede llegar a tolerarse, el vampiro representa una transgresión intolerable: la muerte inacabada, la ruptura de la frontera más absoluta.

El miedo a los muertos que regresan
La fuerza del ensayo radica en mostrar cómo el miedo a los muertos que vuelven constituye un fenómeno de alcance casi universal. En muchas sociedades, los cadáveres que no habían recibido un entierro correcto, los que morían de forma violenta o los que pertenecían a grupos considerados marginales —las brujas, los criminales, los extranjeros— se percibían como muertos inquietos, propensos a regresar. Blair interpreta estas creencias como una respuesta colectiva a las crisis y las ansiedades sociales. Al igual que sucedió con las cazas de brujas en la Europa moderna, las oleadas de pánico vampírico se verifican en momentos de transformación social, religiosa o económica.
Desde un punto de vista antropológico, la práctica de “matar al cadáver” mediante rituales post mortem tenía un efecto restaurador. Era una forma de reinstaurar los límites entre los vivos y los muertos, de volver a trazar las fronteras que la enfermedad, la violencia o la incertidumbre habían borrado. Los rituales destructivos contra los presuntos redivivos que se documentan históricamente, por tanto, cumplían una función tanto práctica como simbólica: devolvían a la comunidad la sensación de que el orden se había restablecido.

La terminología del vampiro en el mundo
En su trabajo, Blair también propone un fascinante mapa terminológico sobre las denominaciones que reciben, en las distintas tradiciones, los muertos que vuelven. En Mongolia, por ejemplo, se utilizaba la palabra bong para referirse a un cadáver reanimado, a menudo como consecuencia de la intervención de un animal. El término vrykolakas y sus derivados, por su parte, se atestiguan en Europa del Este y se vinculan tanto a los hombres-lobo como a la idea de los cuerpos que se levantaban de sus tumbas, mientras que, en Rumanía, se habla de los strigoi, asociados tanto a brujería como a muertos inquietos. Con todo, el término “vampiro”, tan popular en nuestro presente, se incorporó más tarde a los usos lingüísticos, gracias a la prensa y los observadores externos, quienes interpretaron las oleadas de vampirismo que azotaron la Europa moderna como reminiscencias del folklore europeo.
A pesar de su manifiesto interés por explorar el fenómeno cultural del cadáver que regresa, John Blair también analiza figuras menos corpóreas. Demonios aéreos, figuras pesadillescas y fantasmas de los muertos antes de tiempo, por ejemplo, se analizan en el ensayo como un modo efectivo de entender la complejidad del "muerto peligroso".

Epidemias históricas de vampirismo
Vampiros del este
Blair, además, presenta una serie de episodios documentados históricamente que ilustran la dimensión epidémica del vampirismo. En el siglo XVIII, la Europa del Este se convirtió en el escenario de auténticas oleadas de pánico. Casos como los de Petar Blagojević en Serbia en 1725 o de Miloš Čečar en 1726 provocaron que las autoridades locales y los soldados austríacos participaran en exhumaciones y ejecuciones de cadáveres sospechosos de volver a la vida. Estos episodios se difundieron en la prensa ilustrada europea y alimentaron encendidos debates entre médicos, teólogos y filósofos sobre la naturaleza del vampirismo.
La arqueología de los muertos que regresan
En paralelo, la arqueología muestra cómo ya en el Imperio romano o la Inglaterra medieval se practicaban entierros destinados a neutralizar a los muertos que se consideraban peligrosos. La presencia de cuerpos decapitados intencionalmente, enterrados boca abajo o aplastados por piedras en sus tumbas, por ejemplo, revela los intentos de inmovilizar a los cadáveres temidos. Estas prácticas sugieren que la preocupación por los redivivos fue relativamente común incluso en los contextos cristianos.
El vampirismo de ultramar
El salto al Nuevo Mundo confirma que el fenómeno no se circunscribía únicamente al Viejo Mundo. El caso de Nueva Inglaterra resulta especialmente revelador. Durante las epidemias de tuberculosis de los siglos XVIII y XIX, las familias que creían sufrir ataques vampíricos exhumaban los cadáveres de sus allegados. Extraían los corazones, los quemaban y esparcían las cenizas sobre la tierra o incluso las mezclaban en pociones y bebedizos. Al desenterrar los cuerpos y manipularlos ritualmente, los supervivientes buscaban cortar la cadena de muertes. En realidad, estaban enfrentándose a una dolencia infecciosa aún desconocida, pero, en términos culturales, tales procedimientos buscaban asegurar que los muertos permanecieran definitivamente en sus tumbas.

Un ensayo apasionante sobre el miedo a los muertos que regresan
Killing the Dead (Matar a los muertos) es un libro ambicioso que ofrece un enfoque comparado de enorme valor. Con su más de 500 páginas, 34 capítulos profusamente ilustrados y una amplia bibliografía final, el ensayo cubre materiales documentales de Europa, África, América y Oceanía, desde la antigüedad hasta la época contemporánea.
Más que catalogar tradiciones y prácticas que pueden parecer exóticas, Blair busca comprender qué revelan los vampiros sobre nosotros y nuestras sociedades. Lejos de ser monstruos de ficción, estos cadáveres redivivos encarnan temores ancestrales ante la fragilidad del cuerpo, la permeabilidad de las fronteras sociales y el miedo al desorden y el caos. Al analizar las epidemias de vampirismo como fenómenos comparables a las cazas de brujas, el autor nos recuerda que los muertos inquietos son, en última instancia, metáforas de tensiones muy vivas.
La obra, publicada en septiembre de 2025 de la mano de Princeton University Press, se perfila como una contribución fundamental a los estudios de antropología histórica. Blair nos obliga a replantearnos la esencia del vampiro. Atrás queda el conde transilvano, sustituido ahora por el cadáver que se niega a permanecer muerto y que, al hacerlo, nos revela los miedos más profundos de las sociedades humanas.
Referencias
- Blair, John. 2025. Killing the Dead: Vampire Epidemics from Mesopotamia to the New World. Princeton University Press.
En el árido y enigmático Valle de Chao, al norte del Perú, arqueólogos han descubierto un mural milenario que no se parece a nada hallado antes en la región. El hallazgo, liderado por la arqueóloga Ana Cecilia Mauricio y su equipo del Programa Arqueológico Ecodinámicas Tempranas (PRAET), ha sido descrito como único por su técnica, simbolismo y estado de conservación. Y lo más asombroso: podría tener entre 3.000 y 4.000 años de antigüedad, lo que lo convierte en uno de los murales más antiguos y sofisticados de la costa norte peruana. La revelación fue hecha pública en un comunicado oficial por la Pontificia Universidad Católica del Perú (PUCP), institución a la que pertenece Mauricio, y ya ha comenzado a captar el interés de la comunidad internacional.
Un templo enterrado y un mural que desafía lo conocido
El mural se encuentra en el interior de lo que parece ser un atrio ceremonial, parte de un antiguo templo en forma de U, característica arquitectónica que remite a otras culturas tempranas como la de Caral. Según los investigadores, es muy probable que el muro haya sido cuidadosamente enterrado por sus propios constructores, una práctica común en las culturas andinas cuando se renovaban o abandonaban espacios sagrados. Esa decisión, tomada hace más de tres milenios, ha resultado ser crucial: gracias a ella, los pigmentos y relieves tridimensionales se han conservado sorprendentemente bien.
Lo que diferencia a este mural de otros similares en el Perú antiguo no es solo su antigüedad, sino la complejidad y audacia artística que revela. La obra combina técnicas bidimensionales y tridimensionales, colores intensos como el rojo, el azul, el amarillo y el negro, y figuras que parecen emerger del muro. Uno de los elementos más llamativos es la representación de un pez con cuerpo de red de pesca en volumen, flanqueado por motivos estelares y plantas, lo que sugiere una cosmovisión profundamente conectada con el mar, el cielo y la fertilidad de la tierra.

Un lenguaje simbólico ligado al poder y la espiritualidad
Aunque las interpretaciones todavía están en proceso, los investigadores creen que el mural formaba parte de un complejo ceremonial vinculado al agua y la fertilidad, dos pilares fundamentales para las culturas de la costa norte del Perú, donde el desierto impone duras condiciones a la subsistencia. En este sentido, el templo habría sido un centro de poder espiritual donde chamanes —hombres y mujeres— ejercían funciones rituales esenciales para la cohesión social.
Las figuras antropomorfas, los peces con redes y las estrellas no son simples decoraciones. En el contexto de las sociedades formativas, estas imágenes podrían haber servido para canalizar la energía de los elementos naturales y propiciar la abundancia, especialmente en un entorno donde la pesca, la agricultura y los ciclos del agua eran claves para la supervivencia. Es más, la presencia de elementos celestes sugiere que quienes realizaron esta obra tenían un conocimiento avanzado de los ciclos astronómicos y su relación con las estaciones y las cosechas.
La lucha por conservar Huaca Yolanda
A pesar de la magnitud del hallazgo, el mural está en peligro. La expansión agrícola, el uso indiscriminado de maquinaria pesada y el saqueo sistemático de las huacas son amenazas reales que podrían borrar en semanas lo que ha permanecido intacto por milenios. De hecho, el mural fue encontrado en una zona donde ya se habían producido excavaciones ilegales, conocidas como huaqueo. Las grietas abiertas por los saqueadores expusieron accidentalmente parte del muro, lo que permitió su identificación y rescate justo a tiempo.
El equipo de PRAET ha hecho un llamado urgente a las autoridades peruanas para que se implementen medidas de protección inmediatas. Entre las más urgentes se encuentran la instalación de cercos perimetrales, vigilancia permanente y una cobertura adecuada del mural con materiales especializados para evitar su deterioro. Además, se están gestionando fondos para la conservación a largo plazo, que incluye análisis de pigmentos, datación por radiocarbono y la consolidación estructural del muro.
Pero no todo es pesimismo. En el cercano centro poblado de Tanguche, la comunidad ha comenzado a tomar conciencia del valor del sitio. Niños y adultos han participado en visitas educativas organizadas por los arqueólogos, y se ha propuesto crear un mural contemporáneo inspirado en el original, como símbolo de identidad cultural. Este tipo de participación ciudadana puede marcar la diferencia en la conservación del patrimonio arqueológico, un esfuerzo que va más allá de los muros y que involucra a toda una sociedad.

Un legado milenario que apenas empieza a contarse
El mural de Huaca Yolanda es más que una expresión artística: es una ventana abierta a los orígenes de las sociedades complejas en el Perú prehispánico. Su antigüedad lo sitúa en una etapa crucial en la historia andina en la que surgieron los primeros templos monumentales, los centros ceremoniales y las redes de intercambio que conectarían la costa con la sierra y la selva. Descubrimientos como este permiten reconstruir no solo estilos de vida, sino también estructuras de poder, jerarquías religiosas y vínculos con el entorno natural que definen la identidad de estas civilizaciones ancestrales.
A diferencia de las grandes culturas que dejaron ciudades de adobe o cerámica abundante, las sociedades formativas suelen hablar a través de sus símbolos, sus plazas enterradas y, como en este caso, sus muros pintados. La revelación de este mural podría cambiar la forma en que entendemos el desarrollo del arte y la religión en los Andes antiguos, demostrando que ya desde etapas muy tempranas existía una profunda sensibilidad estética y una cosmovisión compleja que integraba todos los aspectos de la vida.
El desafío ahora no es solo seguir excavando y descubriendo, sino proteger lo hallado para que generaciones futuras puedan estudiar, aprender y maravillarse ante el legado de quienes, hace miles de años, pintaron peces y estrellas para hablar con los dioses.
En las aguas turquesas del Mediterráneo, frente a la moderna ciudad egipcia de Alejandría, un equipo de arqueólogos ha recuperado los vestigios de una ciudad antigua que durante siglos permaneció sepultada bajo el lecho marino. Se trata de Canopo, uno de los grandes centros urbanos del Egipto helenístico y romano, cuyos restos han vuelto a la superficie después de más de dos mil años de olvido.
Durante una operación reciente, llevada a cabo por el Instituto Europeo de Arqueología Subacuática en colaboración con el Ministerio de Turismo y Antigüedades de Egipto, se extrajeron del agua impresionantes esculturas, restos arquitectónicos y objetos cotidianos que confirman la importancia histórica de esta urbe. Los trabajos arqueológicos se centraron en la zona oriental de la ciudad sumergida, en las inmediaciones de la localidad actual de Abu Qir.
El hallazgo incluye estatuas de mármol y granito de figuras reales, fragmentos de templos, una esfinge de cuarcita con inscripciones del faraón Ramsés II y piezas de infraestructura portuaria, como un muelle de 125 metros que habría funcionado como embarcadero hasta la época bizantina. También se han identificado estanques tallados en roca que se utilizaban para el almacenamiento de agua dulce y la cría de peces, una evidencia más de la compleja vida urbana y económica que caracterizó a Canopo en la Antigüedad.
Canopo, la ciudad que desafió al tiempo (y al mar)
Antes de que existiera Alejandría, Canopo ya era un emporio comercial y espiritual clave en el delta del Nilo. Su estratégica posición en la costa la convirtió en un nodo esencial para el comercio griego y romano. Estrechamente vinculada con los mitos y los cultos religiosos de su tiempo, Canopo fue conocida por su templo dedicado a Serapis y por la mezcla de creencias egipcias, griegas y romanas que se practicaban en su territorio.

Pero la ciudad no sobrevivió a los embates de la naturaleza. Una combinación de terremotos, tsunamis y un proceso geológico conocido como licuefacción del suelo provocó su hundimiento progresivo. Para finales del siglo II d.C., gran parte de Canopo había desaparecido bajo las aguas del Mediterráneo. Sus suburbios occidentales quedaron enterrados bajo la actual Abu Qir, mientras que los orientales pasaron a formar parte del patrimonio sumergido de Egipto.
La actividad sísmica en la región, junto con el aumento del nivel del mar, fue el detonante de esta transformación geográfica. Lo que en la Antigüedad fue un próspero asentamiento costero, acabó siendo un paisaje submarino que solo ahora comenzamos a redescubrir.
Estatuas, templos y monedas: fragmentos de una civilización sumergida
Entre los objetos recuperados recientemente destaca un busto de mármol blanco de un noble romano, parcialmente conservado, que muestra una vestimenta elaborada y un trabajo de talla refinado. Junto a él, una estatua de una reina ptolemaica de granito negro casi intacta ha captado la atención de los investigadores por su magnífico estado de conservación y su simbología.
También se han extraído monedas romanas, elementos portuarios como anclas de piedra y piezas de embarcaciones comerciales. En el lecho marino se han hallado restos de un navío mercante, lo que confirma la intensa actividad marítima de la zona, además del uso de grúas portuarias durante la antigüedad tardía.
Estos descubrimientos forman parte ahora de la exposición "Secretos de la ciudad sumergida", inaugurada en el Museo Nacional de Alejandría, donde se exhiben 86 piezas procedentes de Canopo y Heraclión. La muestra busca acercar al público el fascinante mundo de las ciudades hundidas del delta del Nilo, su riqueza material y su legado espiritual.
Una advertencia desde el pasado: el futuro de Alejandría
La historia de Canopo no es solo un relato del pasado; también es un presagio del futuro. Alejandría, la gran metrópolis fundada por Alejandro Magno en el 331 a.C., afronta hoy desafíos similares a los que un día condenaron a su antecesora. La ciudad se hunde unos tres milímetros al año, y los expertos advierten que, incluso en el escenario más optimista de las Naciones Unidas, un tercio de la ciudad será inhabitable o estará bajo el agua para 2050.

La relación entre el patrimonio sumergido y el cambio climático adquiere aquí un nuevo significado. Los restos de Canopo son, en cierto modo, una cápsula del tiempo que muestra las consecuencias de los desastres naturales en las ciudades costeras. Hoy, cuando las ciudades del Mediterráneo enfrentan amenazas similares por el aumento del nivel del mar, los hallazgos arqueológicos sirven también como advertencia.
Este tipo de descubrimientos arqueológicos no solo enriquecen el conocimiento histórico, sino que también abren una ventana de reflexión sobre la fragilidad de las civilizaciones humanas frente a la naturaleza. Canopo, que alguna vez fue sinónimo de esplendor y poder, desapareció sin dejar rastro en tierra firme. Solo el mar guardó su memoria.
La arqueología subacuática como herramienta de memoria
Desde hace más de tres décadas, el equipo liderado por el arqueólogo francés Franck Goddio ha explorado las profundidades del delta del Nilo. Gracias a técnicas de detección avanzadas, como la magnetometría y el sonar de barrido lateral, han logrado mapear y excavar extensas zonas que revelan no solo ciudades sumergidas, sino también un modo de vida perdido.
La ciudad de Heraclión (también conocida como Thonis), descubierta cerca de Canopo, comparte el mismo destino y ha aportado hallazgos igualmente notables. Ambas ciudades formaban un triángulo portuario con Naucratis, articulando la red comercial que unía Egipto con el mundo helénico. Hoy, ese triángulo sumergido está siendo reconstruido a través de los fragmentos que emergen del agua.
A pesar de los avances técnicos, los arqueólogos son conscientes de las limitaciones que impone el entorno. Solo una pequeña parte de lo que yace bajo el mar puede ser recuperada, y siempre bajo estrictos criterios de conservación. La mayor parte del patrimonio seguirá en el fondo marino, no solo como ruina silenciosa, sino como archivo vivo de una civilización que aún tiene mucho que contar.
La noticia de que un cúbit funcional se ha creado dentro de una célula viva puede sonar a ciencia ficción, pero ya es una realidad documentada en Nature. Un equipo de la Universidad de Chicago ha demostrado que una proteína fluorescente, usada durante años en biología celular, puede comportarse como cúbit dentro de organismos vivos.
Este avance se presenta como una intersección inesperada entre la biología y la física cuántica. Hasta ahora, mantener un cúbit estable requería condiciones extremas: temperaturas criogénicas, laboratorios libres de ruido y materiales diseñados para protegerlo. Lo sorprendente es que los investigadores lograron que una proteína fluorescente llamada EYFP (Enhanced Yellow Fluorescent Protein) cumpliera este papel dentro de células de mamífero y bacterias, un entorno mucho más complejo y ruidoso que los laboratorios cuánticos.
La proteína que se convirtió en cúbit
Las proteínas fluorescentes llevan décadas revolucionando la biología celular porque permiten visualizar procesos en tiempo real. Lo que el equipo de Chicago descubrió es que el fluoróforo de EYFP tiene un estado de electrones llamado estado triplete, en el cual los electrones pueden comportarse como un cúbit. Según el paper, “aquí realizamos un cúbit de espín en la proteína fluorescente EYFP, con un tiempo de coherencia de (16 ± 2) microsegundos bajo decoupling Carr–Purcell–Meiboom–Gill”.
Esto significa que la proteína no solo brilla, sino que también puede mantener un estado cuántico estable durante microsegundos, algo notable en un entorno biológico. Los investigadores aplicaron pulsos de láser y microondas para manipular y leer este estado, un proceso conocido como resonancia magnética detectada ópticamente.
La gran ventaja es que, al ser genéticamente codificable, esta proteína puede expresarse directamente en células y tejidos, ofreciendo una vía inédita para medir fenómenos biológicos con sensibilidad cuántica.

Cómo se midió el cúbit proteico
El equipo utilizó un microscopio confocal personalizado para excitar la proteína con láseres de 488 y 912 nanómetros. El primero llevaba los electrones al estado excitado, y el segundo permitía leer el estado cuántico mediante una técnica llamada fluorescencia retardada activada ópticamente.
En palabras del artículo: “expresamos el cúbit en células de mamífero, manteniendo el contraste y el control coherente a pesar del complejo entorno intracelular”. Esto demuestra que el fenómeno no se limita a proteínas aisladas en tubos de ensayo, sino que ocurre también dentro de organismos vivos.
Los experimentos confirmaron oscilaciones de Rabi y tiempos de coherencia medibles. Aunque las condiciones de laboratorio aún eran necesarias para estabilizar la señal, la clave está en que el cúbit funcionó dentro de células vivas, algo nunca logrado antes.

Aplicaciones inmediatas y potencial futuro
Uno de los puntos más fascinantes es que estos cúbits proteicos podrían servir como sensores cuánticos dentro de células vivas. Los sensores cuánticos tradicionales, como los basados en defectos de diamante, ya permiten medir campos magnéticos, eléctricos y temperatura con altísima precisión. Pero eran difíciles de introducir en células de forma controlada.
Con las proteínas, la situación cambia. Según los autores, “nuestros resultados introducen las proteínas fluorescentes como una poderosa plataforma de cúbits que allana el camino para aplicaciones en ciencias de la vida, como la detección de campos a nanoescala y modalidades de imagen basadas en espín”.
Esto abre la posibilidad de seguir en tiempo real procesos celulares críticos como:
- El plegamiento de proteínas, clave en enfermedades neurodegenerativas.
- La expresión génica a escala cuántica.
- Las interacciones de fármacos con proteínas específicas.
En biomedicina, la promesa es enorme: se podría observar cómo un medicamento actúa en el interior de una célula con una resolución que antes era impensable.

De los diamantes a las proteínas
Hasta ahora, los cúbits biológicos estaban asociados con tecnologías externas, como los centros de vacantes de nitrógeno en diamantes nanométricos. Estos sistemas ya habían mostrado aplicaciones en neurociencia o geología, pero su integración en biología era limitada.
El nuevo enfoque con proteínas evita esos problemas, porque el cúbit se expresa directamente dentro de la célula. Por otra parte, existe una biblioteca inmensa de proteínas fluorescentes desarrolladas durante años, lo que permite diseñar sensores a medida para diferentes objetivos biológicos.
Aunque la sensibilidad actual de los cúbits proteicos es menor que la de los diamantes, la versatilidad de la biología los convierte en candidatos a largo plazo para desplazar o complementar a los sistemas existentes.
Desafíos técnicos por superar
No todo está resuelto. Los investigadores reconocen que todavía se necesita mejorar la fotostabilidad de la proteína para evitar que se degrade bajo láseres intensos. También es necesario incrementar la eficiencia de lectura del espín, que hoy se limita a un número bajo de fotones.
El artículo propone que técnicas como la evolución dirigida de proteínas podrían optimizar las propiedades ópticas y cuánticas de EYFP y de otras proteínas relacionadas. Dado que ya se ha demostrado que es posible modificar proteínas fluorescentes para cambiar sus colores o su brillo, no parece descabellado pensar que se pueda hacer lo mismo para mejorar sus características cuánticas.
Además, integrar estos sensores en organismos completos y no solo en células cultivadas será un paso esencial hacia aplicaciones clínicas.
Una revolución en la biología cuántica
Este trabajo representa un cambio de paradigma: la biología cuántica deja de ser un campo especulativo y se convierte en experimental. La posibilidad de integrar cúbits en células vivas abre una disciplina híbrida que podría conocerse como biología cuántica aplicada.
Los autores incluso sugieren que este hallazgo permitirá nuevos métodos de imagen, con la posibilidad de combinar colores fluorescentes con firmas cuánticas distintas, lo que daría lugar a un sistema con decenas o incluso cientos de “colores cuánticos” para mapear procesos celulares complejos.
La perspectiva a largo plazo es que estos cúbits proteicos se conviertan en herramientas rutinarias en laboratorios de biología, igual que las proteínas fluorescentes ya lo son hoy. El salto conceptual es que ahora esas proteínas no solo sirven para ver, sino también para medir con precisión cuántica lo que ocurre dentro de las células.
Impacto más allá de la biología
Aunque el foco está en las ciencias de la vida, los propios investigadores apuntan que la técnica podría extenderse más allá. Al ser un sistema cuántico estable, los cúbits proteicos también podrían incorporarse en dispositivos de detección cuántica no biológica, por ejemplo en materiales o sensores ambientales.
El mensaje de fondo es claro: una proteína fluorescente, tan común en los laboratorios de biología celular, se ha convertido en la pieza central de un experimento que redefine la relación entre lo vivo y lo cuántico.
Referencias
- Feder, J. S., Soloway, B. S., Verma, S., Geng, Z. Z., Wang, S., Kifle, B. B., Riendeau, E. G., Tsaturyan, Y., Weiss, L. R., Xie, M., Huang, J., Esser-Kahn, A., Gagliardi, L., Awschalom, D. D. & Maurer, P. C. (2025). A fluorescent-protein spin qubit. Nature. https://doi.org/10.1038/s41586-025-09417-w.
En el actual contexto de transformación digital del sistema financiero global, la Unión Europea ha anunciado el lanzamiento del euro digital con características de monedero electrónico, concebido como un medio de pago genuinamente europeo. Aunque en su fase inicial estará limitado a un saldo máximo de 3000 euros por usuario, esta iniciativa genera debate sobre su verdadero valor añadido para los ciudadanos europeos.
En este sentido, expertos como Fabio Panetta —miembro del Comité Ejecutivo del Banco Central Europeo— señalan que el euro digital busca garantizar la soberanía monetaria europea y adaptarse a los hábitos de consumo digitales. Si bien no debe silenciarse que el euro digital puede llegar a ejercer un mayor control sobre las transacciones financieras —lo que ha suscitado preocupaciones sobre la privacidad—, no en vano ha sido comparado con el yuan digital chino, donde el anonimato financiero no existe gracias a la tecnología aplicada.

Al mismo tiempo, se observa una tendencia preocupante, en países como España, que restringe el uso del dinero en efectivo bajo el argumento de mejorar la lucha contra el fraude fiscal. Esta medida se traduce en un límite legal de solo 1000 euros para pagos con dinero en efectivo por parte de residentes en España, muy por debajo del máximo de 10 000 euros que permite la normativa comunitaria.
No obstante, estudios internacionales, como los del profesor Friedrich Schneider —para el Fondo Monetario Internacional—, muestran que países como Alemania, Chipre, Dinamarca, Estonia, Finlandia, Holanda, Hungría, Islandia, Irlanda, Luxemburgo, Noruega, Reino Unido a Suecia o Austria, donde no existen tales restricciones, presentan niveles más bajos de economía sumergida —8,8 % y 6,6 % del PIB para Alemania o Austria, respectivamente— frente al 11,2 % registrado en España. Esto plantea interrogantes sobre la eficacia real de tales límites y sobre la posible erosión del derecho de los ciudadanos a elegir libremente sus medios de pago.

¿El efectivo fomenta el fraude? Lo que dicen los datos
En pura lógica, las cifras sobre economía sumergida son muy dispares. Un informe del Departamento de Economía Aplicada de la Universidad de Murcia (2023), encargado por el Consejo Económico y Social, estima que esta representó el 15,8 % del PIB español en 2022, por debajo del promedio del 17,7 % en la UE. Mientras que estimaciones más recientes de Pappadá y Rogoff (2023), basadas en una nueva metodología, sitúan a España como el tercer país con la mayor cifra de economía sumergida entre 21 países europeos analizados. Estas divergencias subrayan la complejidad del fenómeno y cuestionan la eficacia de limitar el uso del dinero de curso legal como única herramienta de control fiscal. Especialmente cuando su retirada ya está restringida a importes que difícilmente pueden sostener grandes esquemas de fraude.
Esta vinculación entre el uso de billetes y el fraude fiscal sugiere, implícitamente que las bolsas de evasión son de escasa magnitud y lejos de fomentar una cultura de corresponsabilidad fiscal, refuerza una percepción de desconfianza institucional hacia el ciudadano que lo coloca en una posición de subordinación frente al Estado.
Sin embargo, la protección del dinero en efectivo, como medio de pago, varía considerablemente entre países occidentales. Así, mientras que algunos gobiernos avanzan hacia una sociedad prácticamente sin efectivo, otros promueven su defensa como símbolo de libertad económica. A modo de ejemplo, el Reino Unido ha dado pasos importantes en esta dirección: la Financial Conduct Authority (FCA), a partir de los nuevos poderes que le otorga la Ley de Mercados y Servicios Financieros de 2023, ha propuesto nuevas reglas para garantizar un acceso razonable al cash tanto para consumidores como para empresas, tratando de reducir la distancia para acceder a un cajero.
Por su parte, Suiza lidera el rechazo a una sociedad completamente cashless: actualmente está en fase de consulta una propuesta legislativa para proteger constitucionalmente el uso del efectivo, respaldada por una población que, según algunas encuestas realizadas, lo prefiere como medio de pago en un 90 %. Sin embargo, incluso en Suiza, el número de cajeros automáticos ha caído un 7 % desde 2021.

La rana cocida: cómo se erosiona poco a poco la libertad de pagar como queramos
El auge del euro digital y la creciente digitalización financiera pueden ofrecer oportunidades claras de modernización, eficiencia y seguridad. Sin embargo, estos avances deben ser compatibles con la preservación de derechos fundamentales como la libertad de elección y la protección de la privacidad. La evidencia empírica disponible, tanto en España como en el resto de Europa, demuestra que la restricción del efectivo no garantiza por sí sola una reducción efectiva del fraude ni de la economía sumergida. Al contrario, puede generar efectos colaterales indeseados, como la exclusión financiera o la pérdida de confianza institucional. Por ello, un enfoque equilibrado, basado en datos y buenas prácticas internacionales, debe guiar el diseño de las políticas públicas. Innovar sin imponer, regular sin tutelar y avanzar sin excluir son principios esenciales para que la transformación digital financiera sea inclusiva, legítima y socialmente sostenible.
En definitiva, las crecientes dificultades para formalizar los pagos en efectivo, la práctica inexistencia de consecuencias si no se permite pagar por este medio, la creciente dependencia de los sistemas informáticos de pago, la cesión de datos y la pérdida de la privacidad en las decisiones diarias de consumo, son algunos de los ejemplos de la fábula de la rana cocida. Si permitimos que el efectivo desaparezca, la lenta pero constante insensibilidad a esta cesión de derechos nos convierte en esclavos de un único medio de pago que, como todo monopolio, es lesivo para los intereses de los consumidores.
Referencias
- Bátiz-Lazo, B., & Efthymiadou, C. (2020). The Coming of Cashlessness: Towards a New Social Contract. Routledge.
- European Central Bank. (2023). Progress on the investigation phase of a digital euro. https://www.ecb.europa.eu
- Financial Conduct Authority. (2023). Access to cash framework consultation. https://www.fca.org.uk
- Kosse, A., & Mattei, I. (2022). Privacy and data protection in central bank digital currencies. BIS Papers, 123, 19–32.
- Ley 11/2021, de 9 de julio, de medidas de prevención y lucha contra el fraude fiscal. Boletín Oficial del Estado, 164, 2021.
- Panetta, F. (2022). Designing a digital euro for the people. European Central Bank speech. https://www.ecb.europa.eu
- Pappadá, F., & Rogoff, K. (2023). Measuring the shadow economy: A new approach. National Bureau of Economic Research Working Paper, No. 31548.
- Schneider, F. (2021). Size and development of the shadow economy of 36 European and OECD countries: 2003–2021. Journal of Economics and Statistics, 241(2), 177–204.
Stonehenge sigue siendo uno de los grandes enigmas de la historia. No solo por la disposición exacta de sus megalitos o por los rituales que se pudieron celebrar allí, sino por una pregunta que ha intrigado a generaciones de investigadores: ¿cómo y desde dónde se transportaron las enormes piedras que lo componen? Esta vez, la clave para responderla no ha llegado de una losa de piedra ni de una herramienta antigua, sino de un elemento mucho más modesto: un diente de vaca.
Este hallazgo no parece gran cosa a simple vista, pero los análisis científicos realizados sobre ese molar han arrojado información sorprendente sobre la movilidad de los animales y, posiblemente, de los humanos que los acompañaban hace cinco milenios. Gracias a tecnologías como la espectrometría de masas y el análisis isotópico, un equipo internacional ha sido capaz de reconstruir el recorrido geográfico, la dieta y hasta el estado fisiológico de un bovino que vivió en el Neolítico. Todo ello a partir de una sola pieza dental hallada en el entorno de Stonehenge.
Un molar que habla del pasado
El diente analizado, perteneciente a una vaca adulta (Bos taurus), fue excavado en 1924 en la entrada sur del recinto de Stonehenge. Durante años permaneció almacenado hasta que fue seleccionado para un estudio isotópico reciente. Su conservación y origen lo hacían ideal para analizar tanto el contenido de estroncio como el de plomo y oxígeno, tres elementos clave para reconstruir los movimientos y la alimentación del animal.
El molar registró cerca de seis meses de crecimiento dental, abarcando desde el invierno hasta el verano del segundo año de vida de la vaca. Este intervalo permitió a los investigadores observar cómo variaban los isótopos en función del entorno y la dieta estacional. Por ejemplo, se detectó un cambio en los valores de carbono que indicaba una transición desde un entorno forestal en invierno a pastos abiertos en verano. Este tipo de variación es consistente con el patrón esperado en animales que se alimentan de forraje almacenado durante el invierno y pasto fresco en los meses cálidos.
Por otra parte, se aplicó un análisis de péptidos que permitió determinar el sexo del animal. El resultado mostró una alta probabilidad de que se tratara de una hembra, una información importante para interpretar los cambios en los niveles de plomo observados en el esmalte.

Estroncio, plomo y oxígeno: un mapa en un diente
El análisis isotópico del diente reveló patrones distintivos que permitieron deducir el posible origen geográfico del animal y su desplazamiento a lo largo del tiempo. El estroncio, que se incorpora en los dientes a través de la dieta y refleja el tipo de suelo sobre el que se alimentaba el animal, presentó un cambio claro desde valores más radiogénicos (asociados a suelos antiguos, como los de Gales) a otros más jóvenes, característicos de la región de Salisbury, donde se encuentra Stonehenge.
La proporción de isótopos de estroncio pasó de un valor invernal de 0,7144 a uno veraniego de 0,7110, lo que sugiere que el animal se desplazó o fue alimentado con productos de distintas regiones a lo largo de ese periodo. Tal como indica el artículo, “el cambio en la composición del estroncio desde c. 0,7144 a <0,711 podría interpretarse como una señal de migración significativa”, aunque también podría deberse a variaciones locales o al transporte de alimento.
Los isótopos de oxígeno, por su parte, ofrecieron información sobre la estación del año en la que se formó cada parte del esmalte, lo que permitió situar temporalmente los cambios observados. Estos datos apoyan la hipótesis de un movimiento gradual desde un entorno más boscoso a otro más abierto, consistente con un desplazamiento estacional o una gestión agrícola que incluía forraje invernal.

El plomo y una historia de maternidad
El caso del plomo fue diferente. A diferencia del estroncio, cuyos niveles mostraban una evolución más continua, el plomo presentó picos abruptos de concentración en determinados momentos del crecimiento del diente, especialmente en la sección correspondiente a la primavera. Esta alteración fue interpretada como un signo de estrés fisiológico, probablemente relacionado con la lactancia o el parto.
Según explican los autores, el plomo puede liberarse desde los huesos al torrente sanguíneo durante situaciones de estrés metabólico, como la gestación o la producción de leche. En este caso, los niveles de plomo aumentaron sin que hubiera un cambio paralelo en el estroncio, lo que indica que no se trató de un cambio en la dieta o en el entorno, sino de un proceso interno del cuerpo del animal.
“El pico de liberación de plomo, que tiene una composición isotópica distintiva, se produce en primavera, una época probable para el nacimiento de una cría”, explican los autores. Además, la firma isotópica del plomo coincidía con la de regiones paleozoicas como Gales, lo que sugiere que el origen geológico del metal estaba en esa zona, reforzando la idea de una conexión entre el animal y el lugar de procedencia de las famosas bluestones de Stonehenge.
¿Una vaca arrastrando piedras?
Uno de los aspectos más intrigantes del estudio es su posible relación con el transporte de los megalitos. Aunque no hay pruebas directas de que esta vaca en particular ayudara a mover las piedras, el hecho de que procediera de una región tan lejana y que su esqueleto fuera hallado en la entrada principal del monumento abre nuevas hipótesis sobre el papel del ganado en estos grandes desplazamientos.
El artículo sugiere que el hallazgo “aporta más peso a las teorías que vinculan Stonehenge con el suroeste de Gales”, donde se encuentran las canteras originales de las piedras azules. El viaje de este animal podría reflejar prácticas de movilidad más amplias, no solo de personas, sino también de recursos y animales que formaban parte de una logística compleja y organizada.
Además, la vaca fue enterrada en un punto clave del monumento, lo que podría indicar cierto valor simbólico. Su esqueleto estaba bien conservado, lo que sugiere que pudo haber sido cuidado o incluso conservado durante años antes de ser depositado, una práctica que los arqueólogos llaman “curación de restos”.
Tecnología al servicio de la arqueología
El trabajo publicado en Journal of Archaeological Science destaca por su sofisticación técnica. Los investigadores usaron métodos avanzados como la espectrometría de masas con acoplamiento inductivo (ICP-MS), análisis de isótopos de estroncio (87Sr/86Sr), plomo (207Pb/206Pb) y oxígeno (δ18O), además del sexado mediante proteínas (peptide-based sex determination).
La combinación de todos estos métodos permitió crear una narrativa precisa del recorrido, alimentación y estado fisiológico de un animal individual del Neolítico, algo que hasta hace poco habría parecido imposible. Además, el uso conjunto de isótopos con funciones diferentes (algunos reflejan el entorno, otros el metabolismo) ofrece un enfoque más completo, aunque también exige cautela en su interpretación.
El propio estudio señala que “deben tomarse precauciones al usar estroncio y plomo juntos como indicadores de migración, ya que no siempre reflejan las mismas fuentes ni momentos del cuerpo”. Esta advertencia es importante porque resalta las limitaciones y fortalezas del enfoque multielemental en contextos arqueológicos.
Lo que nos cuenta un solo diente
Este estudio es un ejemplo perfecto de cómo los pequeños hallazgos pueden generar grandes preguntas. Un solo molar ha permitido reconstruir no solo la vida y el entorno de un animal del Neolítico, sino también plantear nuevas hipótesis sobre el origen de uno de los monumentos más emblemáticos del mundo. La idea de que una vaca preñada recorriera cientos de kilómetros hasta Stonehenge —quizás participando en tareas rituales o logísticas— transforma la manera en que entendemos las sociedades prehistóricas.
También pone de relieve el valor de los restos arqueológicos almacenados durante décadas. Este diente, excavado hace más de 100 años, solo ha podido revelar su historia gracias al desarrollo reciente de tecnologías analíticas avanzadas. Con cada nuevo avance, objetos aparentemente banales como un fragmento óseo pueden convertirse en claves esenciales para descifrar el pasado.
Referencias
- J. Evans, R. Madgwick, V. Pashley, D. Wagner, K. Savickaite, M. Buckley, M. Parker Pearson. Sequential multi-isotope sampling through a Bos taurus tooth from Stonehenge, to assess comparative sources and incorporation times of strontium and lead. Journal of Archaeological Science, Vol. 180 (2025). DOI: 10.1016/j.jas.2025.106269.
La narrativa histórica sobre la etnicidad itálica ha estado dominada por la idea de que la llegada masiva de influencias del Mediterráneo oriental se produjo tras la instauración del Imperio romano en el año 27 a. C.. Roma, en cuanto capital del nuevo orden, habría atraído flujos migratorios procedentes de Grecia, Anatolia, Siria y otras regiones bajo dominio imperial. Sin embargo, un reciente estudio publicado en 2025 cuestiona esta interpretación.
El trabajo, liderado por Francesco Ravasini y un equipo internacional de genetistas y arqueólogos, parte de la secuenciación del ADN de un individuo procedente de Villa Falgari (Tarquinia), fechado entre 341 y 53 a. C. Este análisis ofrece la primera evidencia clara de que los rasgos genéticos del Mediterráneo oriental ya estaban presentes en Italia durante la República tardía, es decir, unos dos siglos antes de la consolidación del Imperio romano.

El trasfondo histórico y genético
Italia como cruce de caminos
Desde la prehistoria, la península itálica ha sido un auténtico laboratorio de mestizajes. Las migraciones paleolíticas, las expansiones de comunidades neolíticas desde Anatolia y los contactos con las culturas del Egeo y el Oriente Próximo moldearon el perfil demográfico y cultural de sus poblaciones. Así, durante la Edad del Hierro, los pueblos itálicos mostraban una notable diversidad cultural, pero una relativa homogeneidad genética en comparación con otras regiones europeas.
La expansión de Roma durante la República (509–27 a. C.) cambió de manera radical este panorama. La absorción de Magna Graecia, las guerras contra Cartago y, posteriormente, la anexión de Grecia y Asia Menor, pusieron a Roma en contacto directo con comunidades de ascendencia oriental.
El paradigma dominante
Hasta hace poco, la mayor parte de los estudios de ADN antiguo coincidían en afirmar que la gran transformación genética en Italia se produjo en época imperial, cuando Roma se convirtió en un polo de atracción para migrantes de todo el Mediterráneo. Los genomas de Pompeya, datados en el año 79 d. C., mostraban una clara impronta oriental, y lo mismo ocurría con los individuos de las necrópolis imperiales cercanas a Roma.
La interpretación habitual sostenía que este cambio se debía a las migraciones masivas desde las provincias orientales hacia la capital imperial, motivadas por la presión demográfica de aquellas regiones y la capacidad de Roma para absorber mano de obra, esclavos y comerciantes.

El hallazgo de Villa Falgari
El individuo BSP71
El reciente estudio publicado en Genome Biology and Evolution se centra en el análisis de un individuo denominado BSP71, hallado en Villa Falgari, a tan solo 70 kilómetros de Roma. La datación por radiocarbono lo sitúa en la fase final de la República, en un momento histórico marcado por la expansión de Roma en Grecia y Anatolia. La secuenciación del genoma de BSP71 permitió comprobar que este hombre presentaba una marcada afinidad genética con las poblaciones del Mediterráneo oriental, en particular con comunidades de Anatolia y Levante.
Resultados comparativos
Al colocar el individuo BSP71 en un análisis de componentes principales (PCA), los investigadores observaron que no se agrupaba con los itálicos de la Edad del Hierro ni de la República temprana, sino con los individuos imperiales de época posterior. Además, compartía proporciones elevadas de componentes genéticos vinculados al Neolítico iraní y a las poblaciones de cazadores-recolectores del Cáucaso.
Otros análisis, como los de haplogrupos del cromosoma Y, reforzaron esta conclusión. BSP71 pertenecía a linajes con gran presencia en el Oriente mediterráneo, como los detectados en Armenia o Anatolia durante la Edad del Bronce. Incluso su haplogrupo mitocondrial mostraba afinidades con el de las colonias griegas del sur de Italia.

La difusión temprana de la ascendencia oriental
Un proceso republicano, no imperial
Los investigadores señalan que la presencia de este tipo de perfiles genéticos en el Lacio durante la República tardía obliga a retrasar dos siglos la cronología del influjo oriental en el centro de Italia. La conclusión parece clara: el proceso de mestizaje comenzó ya en la República, como consecuencia de las guerras púnicas, la expansión romana en Grecia y las migraciones internas desde el sur de la península.
Este hallazgo también explica por qué en los primeros siglos del Imperio romano ya se detectan poblaciones con alta carga genética oriental. No fue un fenómeno súbito, sino el resultado de un proceso acumulativo iniciado antes de Augusto.
El papel de Magna Graecia y Sicilia
Un aspecto clave del estudio radica en la hipótesis de que la Magna Graecia y Sicilia funcionaron como vectores de transmisión genética oriental hacia el centro de Italia. Las colonias griegas y fenicias establecidas en el primer milenio a. C. ya albergaban poblaciones con ascendencia del Mediterráneo oriental. Tras la conquista romana, estas poblaciones pudieron haber migrado hacia el norte, llevando consigo esa impronta genética.
El estudio sugiere, además, que los individuos republicanos constituyen la base de continuidad que enlaza la República tardía con el perfil genético del Imperio romano. En otras palabras, lo que se consideraba hasta ahora una ruptura histórica debe reinterpretarse como una transición progresiva.

Roma como sociedad cosmopolita temprana: implicaciones históricas y antropológicas
El estudio confirma lo que muchos textos clásicos ya intuían: Roma era cosmopolita mucho antes de convertirse en imperio. La ciudad y su entorno absorbieron flujos migratorios procedentes del Mediterráneo oriental en plena República, en paralelo a la expansión militar y comercial.
Hasta ahora, los individuos republicanos con ascendencia oriental se catalogaban como anomalías sin mayor trascendencia estadística. El estudio de Villa Falgari demuestra lo contrario: estos individuos son la prueba tangible de un proceso histórico en marcha, y no simples excepciones. Los análisis genéticos muestran que el perfil del individuo BSP71 guarda semejanza con las poblaciones modernas del sur y centro de Europa, lo que sugiere que estos movimientos poblacionales contribuyeron a la formación del acervo genético que aún hoy caracteriza a gran parte del continente.
Un cambio histórico rdical
El artículo firmado por Ravasini et al. supone un cambio de paradigma en la arqueogenética de Roma. La presencia de rasgos genéticos del Mediterráneo oriental no son una consecuencia del imperio, sino una herencia que comenzó a forjarse en la República tardía. Esto implica la necesidad de reconsiderar la historia de Roma no solo como un proceso de expansión militar y cultural, sino también como una continua reconfiguración biológica de sus gentes.
Referencias
- Ravasini, Francesco, Cecilia Conati Barbaro, Christiana Lyn Scheib, Kristiina Tambets, Mait Metspalu, Fulvio Cruciani, Beniamino Trombetta y Eugenia D’Atanasio. 2025. "A New Perspective on the Arrival of the Eastern Mediterranean Genetic Influx in Central Italy Before the Onset of the Roman Empire". Genome Biology and Evolution, 17.8: evaf149. DOI: https://doi.org/10.1093/gbe/evaf149
En la actualidad, las cafeteras express se han convertido en un imprescindible para los amantes del café que buscan disfrutar de una experiencia cercana a la de una cafetería sin salir de casa.
Y casi finalizando verano, dentro de un mercado cada vez más competitivo, De'Longhi ha decidido apostar fuerte por AliExpress para plantar cara a otras marcas con la rebaja de uno de sus modelos más icónicos: la De'Longhi Dedica Style.

Normalmente, el precio de este modelo supera los 150€, como se puede comprobar en PcComponentes, Worten, Miravia y Amazon. No obstante, De'Longhi se une con Aliexpress, junto al cupón descuento IFPJDIYS, para hundirla hasta los 135,98 euros.
Esta cafetera combina un diseño compacto de acero inoxidable con un potente sistema de 15 bares de presión y tecnología Thermoblock de 1300 W, que garantiza la temperatura óptima del agua. Además, su depósito extraíble de 1,1 litros facilita la recarga y limpieza, mientras que la bandeja de goteo de dos niveles admite tazas de hasta 12 cm de altura.
Incorpora un sistema Cappuccino ajustable para espumar o calentar leche según la preparación deseada, calienta tazas integrado, autoapagado de seguridad y compatibilidad con cápsulas ESE además del café molido. Equipada también con filtros presurizados de doble pared (2 incluidos), controles por botones, indicador de nivel de agua.
Dolce Gusto intenta ampliar su ventaja reduciendo considerablemente su cafetera Krups Piccolo XS
La competencia en el sector del café doméstico no se queda atrás, y Dolce Gusto ha movido ficha con una fuerte rebaja en su popular cafetera Krups Piccolo XS situándola en los 31,28 euros gracias al código ESBS05. Una gran oportunidad sabiendo que su precio en Amazon, PcComponentes y Miravia supera con creces los 40€.

Destaca por su diseño compacto y ligero, y por su sistema de cápsulas herméticamente selladas que preservan el aroma del café recién molido. Está equipada con una bomba de 15 bares de presión y una potencia de 1600 W. Además de una amplia variedad de preparaciones como cappuccino, latte macchiato, ristretto, café largo, té, chocolate caliente y hasta bebidas frías.
Su depósito de agua extraíble de 0,8 litros permite preparar una taza por uso, con manejo sencillo mediante controles de botón y sin pantalla. Mencionar que funciona de manera manual y cuenta con función de apagado automático a los 5 minutos para un consumo eficiente.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
A Pitágoras se le atribuye la afirmación: «Todo es número». Lo que sí sabemos con certeza es que, motivados por cuestiones estéticas y religiosas, los pitagóricos lograron establecer modelos matemáticos de fenómenos físicos, siendo el estudio de la armonía musical uno de sus principales logros. Durante 25 siglos la estela del pitagorismo en la historia del pensamiento científico ha sido brillante y exitosa, explicando el Universo a partir de los números.
Entre luces y sobras
Pitágoras de Samos (ca. 570 a. C. - ca. 490 a. C.) es considerado en numerosas fuentes bibliográficas como el primer matemático puro de la historia de la humanidad. Aunque no se ha conservado ninguno de sus escritos y en sus primeras biografías se le atribuyen poderes divinos, hay bastante acuerdo sobre los principales acontecimientos y logros científicos de su vida, no así sobre las fechas de los mismos, que varían de unas fuentes a otras.
Hijo de un rico comerciante afincado en Samos, próspera ciudad cercana a Mileto, recibió una buena educación. Aprendió a tocar la lira, poesía y recitaba a Homero. Entre sus maestros se citan tres filósofos, su tío materno Ferécides de Siros, Tales y su discípulo Anaximandro, ambos de Mileto y quienes le introdujeron en la geometría, astronomía y las matemáticas. Alrededor del 535 a. C., Pitágoras viajó a Egipto, donde entró en el sacerdocio del templo de Diospolis. Probablemente allí adoptaría buena parte de las creencias que más adelante enseñaría en su propia escuela en Crotona, en la Magna Grecia. Por ejemplo, el secretismo de los sacerdotes, su afán por la pureza o su negativa a vestir con pieles de animales o a comer judías.
En el 525 el rey de Persia invade Egipto y Pitágoras es tomado como prisionero y conducido a Babilonia. Allí es instruido en los ritos sagrados y místicos de los sacerdotes Magoi, completando su formación en aritmética, música y astronomía. Cinco años más tarde consigue regresar a su Samos natal, saliendo unos meses después hacia Crotona, una de las prósperas colonias griegas fundadas en el sur de la Italia actual. Allí Pitágoras se asentó definitivamente y fundó una escuela de pensamiento filosófico-religioso-científíco que ha llegado hasta nosotros, el pitagorismo. Según la RAE, este es el «conjunto de las doctrinas de Pitágoras y sus discípulos, que sostenía el carácter místico de los números, la armonía del universo basada en ellos y la transmigración de las almas».

Tras su larga experiencia en Egipto y Oriente, Pitágoras poseía un sistema de pensamiento más o menos ajustado. En Crotona, sus enseñanzas fueron recibidas con éxito, extendiendo su influencia en esta y otras localidades rápidamente. Proclamaban fundamentalmente la necesidad de ajustar la conducta humana a los cánones de armonía y justicia que se derivaban de la naturaleza. La inmortalidad del alma teñía la vida pitagórica de un profundo carácter religioso y ascético.
La comunidad pitagórica, mitad religiosa y mitad científica, seguía un código secreto y en la terminología de hoy en día, sería calificada de secta, sin matices peyorativos. El maestro, guía y máxima autoridad, ofrecía a sus seguidores una serie de reglas de obligado cumplimiento para caminar por la vida. La comunidad tenía una fuerte estructura jerarquizada con mandos intermedios y unos códigos de ascenso a la verdad. Los miembros del grupo se distinguían por su vestimenta, alimentación y rituales, siendo una forma de vida alternativa a la sociedad establecida. La traición a la comunidad se pagaba con el olvido e incluso la muerte. Según cuenta la leyenda, la revelación del secreto sobre la existencia de números irracionales terminó con el asesinato del pitagórico Hipaso de Metaponto.
El origen de las matemáticas, de religión y música a ciencia
Uno de los descubrimientos matemáticos más importantes de Pitágoras o de sus colaboradores es el celebérrimo teorema que lleva su nombre. La famosa proposición establece la igualdad entre el cuadrado de la hipotenusa y la suma de los cuadrados de los catetos en un triángulo rectángulo. Ya se conocía, en casos particulares, del resultado en culturas anteriores a la griega, como la egipcia y la babilónica e independientemente en la India o China. Los griegos fueron los primeros en demostrar el teorema en el caso general.
Pero si por algo ha trascendido hasta la actualidad el pensamiento pitagórico ha sido por su creencia fundamental de que los números eran la esencia de todas las cosas y que el mundo era armonía. Para ello, Pitágoras y sus discípulos se dedicaron a descubrir propiedades y relaciones numéricas, estableciendo analogías entre los números y la naturaleza. Como resultado de este proceso se creó una mística numérica que influyó en todo el mundo antiguo, y que acabó con la fundación de una nueva ciencia, las Matemáticas.
Las propiedades matemáticas de los números fascinaron a los pitagóricos, que edificaron sus creencias religiosas-filosóficas sobre ellas. Estudiaron los números triangulares, cuadrados, pentagonales o piramidales, en ocasiones con guijarros para realizar las figuras que les daban nombre. Fórmulas como 1+3+5+ ….+2n-1= n2 , que muestra que los cuadrados pueden descomponerse como suma de números impares, les parecían una pura expresión de lo divino.
Pero fue a través de la profunda conexión entre la música y las matemáticas donde los pitagóricos afianzaron sus creencias místicas en el poder matemático de la naturaleza. Cuenta la leyenda que una mañana, al pasar Pitágoras cerca de una herrería, comprobó que los sonidos que emitían varios martillos de diferentes tamaños al golpear láminas de diversas longitudes eran armoniosos. Esto le llevo a plantearse cuál era la causa por la que dos notas diferentes sonaran bien al oído cuando se tocasen a la vez o por el contrario sonasen disonantes.
Se le atribuye el diseño del monocordio (instrumento musical de una cuerda) que permitía variar fácilmente su longitud. Al dividir la longitud de la cuerda por 2, la frecuencia del sonido emitido, denotémosla por f, se duplica y el nuevo sonido está en consonancia con el inicial. La sensación percibida es que ambos sonidos son la misma nota, pero la segunda más aguda que la primera. Se dice que ambas notas están a distancia de una octava.
Estamos ahora interesados en rellenar el espacio de una octava entre f y 2f con otras notas consonantes. Lo lógico es seguir con fracciones sencillas y reducir la distancia de la cuerda en 2/3 de la inicial, esto es, multiplicar nuestra frecuencia por 3/2, obteniendo una nueva nota agradable de frecuencia (3/2)f y llamada quinta de f. Si repetimos el proceso obtendríamos un nota de frecuencia (9/4)f, mayor que 2f, y que se reduce a (9/8)f, dividiendo por 2 (bajarla una octava). Reiteramos este proceso dos veces más, ordenamos las frecuencias obtenidas y aproximamos los cocientes de las frecuencias consecutivas como se indica en la siguiente tabla.

Estas cinco notas forman la llamada escala pentatónica. Aunque parece ser que ya era conocida siglos antes de Pitágoras y su escuela, fue este quien realizó un estudio sistemático y explicó su armonía basándose en las matemáticas.
El tratamiento pitagórico de la música ha llegado hasta la actualidad. Sobre las escalas diatónicas y cromáticas, mejoras de la pentatónica, se ha edificado gran parte de la música occidental. Hoy en día se usa una modificación de esta última, la escala temperada, que distribuye equidistantemente las doce notas en una octava. Los múltiplos perfectos de las frecuencias de la escala diatónica se han perdido, las armonías no son tan redondas (con el consiguiente malestar de los más puristas) pero, a cambio, se simplifica la tarea de afinación de los instrumentos musicales.
El pitagorismo después de los pitagóricos: Da Vinci, Kepler, Galileo, Newton, Einstein…
Las relaciones numéricas entre las notas musicales consonantes llevaron a los pitagóricos a pensar que del mismo modo debían existir otras relaciones numéricas análogas que gobernaran el universo armonioso en el que vivimos, como por ejemplo, el movimiento majestuoso de los astros.
Tras casi dos mil años, la llegada del Renacimiento supuso un redescubrimiento de los clásicos, en particular de la tradición griega matemática y de sus orígenes en la escuela pitagórica. El Tratado de la Pintura de Leonardo da Vinci (1452-1519), contiene la siguiente reflexión: «Ninguna investigación humana se puede demostrar verdadera ciencia, si ella no pasa por las demostraciones matemáticas». El matemático y astrónomo alemán Johannes Kepler (1571-1630) defendía esa filosofía pitagórica, creyendo en los números como la esencia de la naturaleza y de Dios. En su libro en Mysterium Cosmigraphicum (1597) Kepler escribía «La Geometría es uno de los eternos reflejos de la mente de Dios».
En Il Saggiatore (1623) Galileo expone por primera vez las bases del método científico, que usamos hoy en día: combinación de observación, formulación matemática y experimentación. Además escribe la siguiente afirmación sobre el universo, de inspiración claramente pitagórico: «La filosofía [natural] está escrita en ese grandioso libro que tenemos abierto ante los ojos, (quiero decir, el universo), pero no se puede entender si antes no se aprende a entender la lengua, a conocer los caracteres en los que está escrito. Está escrito en lengua matemática y sus caracteres son triángulos, círculos y otras figuras geométricas, sin las cuales es imposible entender ni una palabra; sin ellos es como girar vanamente en un oscuro laberinto».

Con Philosophiae naturalis principia mathematica (1687), Isaac Newton (1642- 1727) consigue por vez primera construir un modelo matemático general que permite explicar tanto los movimientos de los cuerpos celestes como de los terrestres, enunciando la ley de gravitación universal. Citando a Kepler y Galileo, afirma: «Los últimos autores, como los más antiguos, se esforzaron por subordinar los fenómenos de la naturaleza a las leyes de las matemáticas».
En 1796 Pierre-Simon Laplace (1749-1827) publica su Exposition du système du monde en la que conjeturó la formación del Sol y del Sistema Solar a partir de una nebulosa, probó la estabilidad del Sistema Solar y defendió su fe en un mundo determinista, afirmando: «Todos los fenómenos de la naturaleza son solo los resultados matemáticos de un pequeño número de leyes inmutables».
El gran físico del siglo xx, Albert Einstein (1879-1955), pronunció la conferencia Herbert Spencer en la primavera de 1933 en Oxford donde lanzó las siguientes reflexiones: «La experiencia puede sugerir los conceptos matemáticos apropiados, pero estos, sin duda ninguna, no pueden ser deducidos de ella.
Por supuesto que la experiencia retiene su cualidad de criterio último de la utilidad física de una construcción matemática. Pero el principio creativo reside en la matemática. Por tanto, en cierto sentido, considero que el pensamiento puro puede captar la realidad, tal como los antiguos habían soñado». En el libro del año 2015 Nuestro universo matemático: En busca de la naturaleza última de la realidad, el cosmólogo y profesor del Instituto Tecnológico de Massachusetts Max Tegmark da un paso más allá en el pitagorismo al proponer que nuestro mundo físico no solo puede ser descrito por las matemáticas, sino que «es» matemáticas.
Así afirma que nuestra realidad física externa es una estructura matemática en sí misma y en aquellos universos lo suficientemente complejos que contienen subestructuras autoconscientes (nosotros mismos) se da el fenómeno de que son capaces de percibir el mundo real físico como un entorno holográfico (recordando la película de Matrix).
En estas hipótesis el multiverso serían todos los mundos posibles donde todas las verdades lógicas, ecuaciones, constantes, y teoremas matemáticos computables (en sentido de Gödel) existen por necesidad lógica.
Sin llegar a los extremos de la teoría de Max Tegmark, podemos estar seguros de la importancia histórica y científica de Pitágoras de Samos. Para corroborar esta idea nos sirve la afirmación del matemático, filósofo y premio Nobel de Literatura, el británico Bertrand Russell (1872-1970) en su Historia de la Filosofía Universal: «No conozco ningún otro hombre que haya tenido mayor influencia en el campo del pensamiento, porque lo que aparece como platonismo resulta después de analizarlo, esencialmente pitagorismo».
La automatización del hogar ya no es un lujo, sino una solución práctica. Entre todos los dispositivos inteligentes, los robots aspiradores destacan como uno de los gadgets más demandados, gracias a su eficiencia para mantener los suelos impecables sin esfuerzo.
Con la vuelta al cole a la vuelta de la esquina, Xiaomi sorprende al mercado tecnológico del hogar con un movimiento inesperado, llevando su modelo X20+ al precio más bajo registrado hasta la fecha.

Su precio habitual ronda los 390€, tal como se aprecia en la web oficial de Amazon, Miravia o PcComponentes. No obstante, en una jugada agresiva para impulsar ventas, la firma asiática lo liquida en AliExpress por solo 323,99 euros, aplicando el cupón del vendedor WDVR4QWD9ER3.
Se presenta como un robot aspirador todo en uno capaz de aspirar y fregar. Su estación base inteligente automatiza la recogida de polvo en solo 10 segundos y lava las mopas sin esfuerzo, mientras su depósito de 4 litros y bandeja extraíble facilitan el mantenimiento. Con una potencia de succión de 6000 Pa y fregado giratorio de 180 rpm, elimina manchas difíciles en suelos de cocina, salón o dormitorio.
Además, integra un avanzado sistema de navegación láser LDS que escanea la casa en 360° para planificar rutas eficientes y evitar obstáculos. Gracias a la aplicación Mi Home/Xiaomi Home, el usuario controla el dispositivo a distancia, programando limpiezas personalizadas por estancias.
Eureka quiere ganar terreno también con la bajada de precio de su J12 Ultra
Eureka se une a la ola de descuentos con una rebaja contundente en su robot aspirador J12 Ultra, que ahora puede conseguirse por solo 399,99 euros. Una oportunidad muy interesante, teniendo en cuenta que en tiendas como PcComponentes o Miravia su precio sigue cerca de los 429€.

Llega para revolucionar la limpieza inteligente con su sistema todo en uno que combina aspirado y fregado con autovaciado, autolavado de mopas y secado con aire caliente. Su avanzada tecnología de navegación LiDAR y AI 3D permite detectar obstáculos en tiempo real, evitando muebles, mascotas y objetos incluso en la oscuridad. Con una potente succión de 5000Pa y batería de hasta 150 minutos de autonomía.
Este robot cubre espacios de hasta 300 m² con una sola carga. Su estación de acoplamiento con bolsa de 3L permite olvidarse del polvo durante 75 días, mientras que la app de Eureka facilita la programación de rutinas, mapas en tiempo real y zonas prohibidas. Además, es compatible con Alexa y Google Assistant.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Hablar de amistad suele sonar poético o emocional, pero la ciencia está demostrando que también es una cuestión de química cerebral. Investigadores de la Universidad de California en Berkeley han encontrado que la oxitocina, una molécula que se libera en situaciones sociales, juega un papel clave en cómo y con quién decidimos vincularnos.
El estudio de la Universidad de California, Berkeley, publicado en Current Biology, muestra que la oxitocina —conocida como la “hormona del amor”— no es indispensable para tener amistades, pero sí para crearlas rápido, mantenerlas estables y diferenciarlas de simples conocidos. El hallazgo abre una ventana única para comprender la biología de la amistad humana.
Los protagonistas de este estudio no fueron humanos, sino topillos de la pradera, unos pequeños roedores que, como nosotros, establecen amistades duraderas además de vínculos de pareja. Esto los convierte en un modelo ideal para indagar en los mecanismos que sostienen las relaciones sociales.
El equipo liderado por la neurocientífica Annaliese Beery descubrió que, sin receptores de oxitocina, los topillos tardan mucho más en reconocer a un compañero como “amigo”. Este retraso, aparentemente pequeño, revela algo profundo: la oxitocina no solo nos acerca a los demás, sino que acelera la chispa de la amistad.

Lo que ocurre cuando falta oxitocina
Los investigadores modificaron genéticamente a algunos topillos para que carecieran de receptores de oxitocina (Oxtr1−/−). El resultado fue sorprendente: mientras que los animales normales consolidaban una amistad en apenas 24 horas de convivencia, los mutantes necesitaban hasta una semana para mostrar el mismo apego.
En la vida real, este retraso sería como ir a una fiesta y no ser capaz de reconocer rápidamente a quién confiarle tu compañía. Los topillos sin oxitocina formaban vínculos, sí, pero lo hacían con lentitud y sin la intensidad emocional que caracteriza a una relación estable.
Además, cuando se introducían en un entorno con muchos compañeros —como una especie de “fiesta de topillos”—, los mutantes perdían de vista a sus amigos con facilidad y se mezclaban con cualquiera, algo que los animales normales no hacían.
Para los investigadores, esto demuestra que la oxitocina es crucial en la selectividad social: no solo fomenta el acercamiento, también ayuda a distinguir entre amigos y extraños.
La doble cara de la oxitocina
La oxitocina suele ser llamada la “hormona del amor”, porque se libera durante el sexo, el parto, la lactancia y las interacciones afectivas. Sin embargo, este estudio muestra que su función va mucho más allá de los clichés románticos.
En el caso de la amistad, la oxitocina actúa como un filtro social: promueve la cercanía con conocidos de confianza y, al mismo tiempo, refuerza la distancia frente a los extraños. Los topillos sin receptores de oxitocina eran menos agresivos con desconocidos y no mostraban rechazo hacia ellos, lo que indica un déficit en esa capacidad de priorizar a los amigos por encima de otros.
Esto revela que la oxitocina no es simplemente una molécula de “bienestar”, sino un mecanismo evolutivo para gestionar relaciones: ayuda a consolidar la cooperación dentro del grupo y a mantener ciertos límites con los de fuera.
Algo similar ocurre en los humanos cuando confiamos más en nuestro círculo cercano que en completos extraños.

El cerebro detrás de la amistad
Para entender qué pasaba a nivel cerebral, el equipo utilizó una tecnología de nanosensores desarrollada en Berkeley que permite medir la liberación de oxitocina con gran precisión. El hallazgo fue claro: los topillos sin receptores no compensaban su déficit aumentando la producción de la hormona. Al contrario, liberaban menos oxitocina en el núcleo accumbens, una región cerebral clave en el circuito de recompensa social.
En términos sencillos, esto significa que para estos animales la amistad no resultaba tan “gratificante”. El placer asociado a pasar tiempo con un compañero conocido era menor, lo que explicaba por qué no presionaban tanto para estar con sus amigos en los experimentos de laboratorio.
Este resultado conecta directamente con lo que sabemos sobre los humanos: cuando la oxitocina funciona bien, relacionarnos con amigos y familiares se vuelve más satisfactorio. En cambio, si su señalización falla, la amistad puede perder parte de su atractivo emocional.
Qué nos dicen los topillos sobre nosotros
Aunque pueda parecer curioso que los humanos tengamos algo en común con unos pequeños roedores, lo cierto es que los topillos de la pradera ofrecen un espejo fascinante. Son una de las pocas especies de mamíferos que forman vínculos de pareja duraderos y, además, amistades selectivas.
Los investigadores creen que estudiar estas conductas puede iluminar problemas humanos como el autismo o la esquizofrenia, donde la capacidad de establecer y mantener relaciones sociales suele estar alterada.
Comprender cómo la oxitocina influye en la selectividad y la recompensa social puede abrir nuevas vías de investigación para abordar estas condiciones.
La idea de que la amistad tiene una base química no la reduce a algo “artificial”. Al contrario, nos muestra que los lazos sociales son tan importantes para la supervivencia que la evolución los ancló en nuestra biología más profunda.

Más allá del amor: la oxitocina como pegamento social
Durante años se habló de la oxitocina solo en términos de pareja, maternidad o apego romántico. Este estudio rompe ese paradigma al demostrar que también está en el corazón de la amistad. Sin ella, los vínculos se forman más despacio, se mantienen con dificultad y pierden parte de su atractivo emocional.
Los resultados, publicados en Current Biology, subrayan que la oxitocina no es necesaria para que exista la amistad, pero sí para que florezca con rapidez y se mantenga firme frente a la distracción de lo nuevo. Es un recordatorio de que los amigos no solo se eligen con el corazón, sino también con el cerebro.
Como explica Annaliese Beery, "La oxitocina parece ser particularmente importante en la fase de formación temprana de las relaciones y especialmente en la selectividad de esas relaciones: 'Te prefiero a ti a este extraño', por ejemplo".
Y aunque la amistad siempre tendrá algo de inexplicable, hoy sabemos que parte de su magia está escrita en nuestro propio tejido neuronal.
Referencias
- Black, A. M., Komatsu, N., Zhao, J., Taskey, S. R., Serrano, N. S., Sharma, R., ... & Beery, A. K. (2025). Oxytocin receptors mediate social selectivity in prairie vole peer relationships. Current Biology. doi: 10.1016/j.cub.2025.07.042
En el siglo IV d. C., con la oficialización del cristianismo como religión del Imperio romano, se desencadenaron intensos debates sobre el cuerpo y la apariencia femenina. Uno de los puntos más polémicos fue la cuestión del velo. ¿Debían las mujeres cristianas cubrir su cabeza como signo de modestia y sumisión? Los escritos de los Padres de la Iglesia parecían imponerlo con claridad, pero la evidencia visual y arqueológica muestra una realidad mucho más diversa. Esta polémica revela hasta qué punto el velo se transformó en un espacio de disputa en el que confluyeron religión, moda, estatus y agencia femenina.
El mandato paulino y la voz de los Padres de la Iglesia
La base doctrinal que sustenta la obligación del velo se encuentra en la primera carta de Pablo a los Corintios (1 Cor 11:2-16). Allí se establecía que el hombre debía rezar con la cabeza descubierta y la mujer cubierta como signo de sumisión. Autores como Clemente de Alejandría, Tertuliano, Juan Crisóstomo o Cirilo de Alejandría ampliaron esta idea al insistir en que la modestia femenina requería cubrirse en público. Tertuliano llegó a afirmar que las niñas debían asumir el velo en la pubertad, mientras Cirilo defendía que cubrirse la cabeza era parte de la ley natural.
Este consenso textual ha llevado a la historiografía a asumir que, a partir del siglo IV, la práctica del velo se convirtió en una norma social vinculada al cristianismo. Sin embargo, el contraste con la evidencia material obliga a cuestionar esa supuesta uniformidad.
Una tradición más antigua que el cristianismo
El uso del velo no fue una práctica introducida por el cristianismo. Durante siglos, en el Mediterráneo antiguo, las mujeres griegas, romanas y orientales habían utilizado velos y mantos como signos de respeto, modestia o estatus. En Mesopotamia, se velaban las mujeres casadas, mientras en Grecia se asociaba al recato femenino. Si bien el cristianismo heredó estas costumbres, lo que caracteriza a la antigüedad tardía es la abundancia de textos que insisten en normar el uso del velo, algo que refleja más un deseo de control eclesiástico que una práctica generalizada entre las mujeres.

Entre la norma y la práctica: el velo en la cultura visual
El análisis de mosaicos, retratos funerarios, textiles y esculturas ofrece un panorama menos rígido que el transmitido por los clérigos. La investigadora Grace Stafford ha documentado más de doscientos ejemplos de representaciones femeninas de los siglos III al VII, donde el velo aparece como una opción, no como una obligación.
En las imágenes incluidas en el proyecto Last Statues of Antiquity, menos de una cuarta parte de las mujeres aparecen con la cabeza cubierta. Incluso en el siglo V, cuando se reforzó la influencia social de la iglesia, la proporción entre mujeres veladas y no veladas es prácticamente equivalente. Esto demuestra que, en la vida cotidiana y en la representación social, la obligación de cubrirse la cabeza estaba lejos de ser universal.
Diversidad de estilos y funciones
Los hallazgos arqueológicos, procedentes, sobre todo, de Egipto, muestran diferentes tipos de velos y tocados. Se han identificado ajustadas cofias tejidas con la técnica de sprang, velos sueltos de lino o lana, así como combinaciones de ambos. Algunas piezas tenían una función práctica, destinada a sujetar el cabello en las labores domésticas o agrícolas. Otras eran prendas de lujo, decoradas con franjas doradas o bordados.
Este contraste también se observa en la iconografía. En los mosaicos rurales, por ejemplo, las campesinas y nodrizas aparecen con cofias ceñidas, útiles para trabajar. En cambio, en las escenas cortesanas, las damas y aristócratas las lucen como accesorios de prestigio, combinándolas con mantos de seda o tejidos teñidos de púrpura. El mismo objeto, por tanto, podía responder tanto a una voluntad práctica como a una vocación de manifestar el propio estatus social.

La Virgen María como modelo ambiguo
Un ejemplo paradigmático sobre la multiciplicidad de significados del velo lo ofrece la representación de la Virgen María en los mosaicos del siglo VI de la basílica Eufrasiana en Poreč, Croacia. En la escena de la Anunciación, María aparece en su casa, joven y virgen, apenas cubierta con un velo transparente. En la Visitación, en cambio, embarazada y en viaje, se la muestra con un manto opaco que le cubre por completo.
El mensaje parece claro. El velo operaba como un marcador narrativo que variaba según la edad, el estado civil y el contexto de la persona que lo llevaba. La misma figura sagrada podía representarse de formas distintas, lo que relativiza las supuestas normas rígidas que proclamaban los Padres de la Iglesia.

El velo como marcador social
El uso del velo también servía para distinguir jerarquías dentro de una misma escena. En los mosaicos domésticos, la señora aparece velada con cofias lujosas, mientras sus sirvientas permanecen descubiertas. En los banquetes representados en Germanicia y Saqqara, por su parte, las damas se cubren mientras las esclavas o músicas muestran sus cabellos adornados con joyas. Esta distinción parece indicar que, a finales del siglo IV, el velo se convirtió en un símbolo de distinción de élite más que en una obligación moral. El hecho de que las emperatrices adoptaran cofias ricamente decoradas –como en los retratos de Ariadna o en el séquito de Teodora en Rávena– refuerza esta interpretación.
Más allá de la sumisión: agencia y moda
Investigaciones como la firmada por la historiadora Grace Stafford subrayan la importancia de analizar el velo desde la perspectiva de las mujeres y no solo de los clérigos. Cubrirse podía ser una decisión práctica, una protección frente al sol o el viento, una estrategia para legitimar la presencia en espacios públicos o incluso una elección estética. Así, lejos de ser un mero signo de opresión, el velo se convirtió en un elemento con el que practicar la agencia y la creatividad. En este sentido, la moda desempeñó un papel clave. Los velos de colores brillantes o con detalles dorados se convirtieron en auténticos accesorios de lujo.

Continuidad y transformación en el uso del velo
Los testimonios funerarios muestran que, en los contextos de enterramiento, el velo fue habitual en todas las clases sociales, tanto paganas como cristianas. Ello no implica, sin embargo, que las mujeres vivieran siempre cubiertas. Más bien, el velo, en los funerales y tumbas, reflejaba un código de comportamiento vinculado a la solemnidad del rito.
La moda de las cofias ajustadas alcanzó su auge en el siglo V, y aunque decayó en el VI, sobrevivió combinada con velos sueltos. De este modo, el cristianismo no impuso un nuevo uso, sino que reconfiguró tradiciones preexistentes para añadir significados teológicos a un objeto ya de por sí cargado de connotaciones sociales y culturales.
Referencias
- Stafford, Grace. 2024. "Veiling and Head-Covering in Late Antiquity: Between Ideology, Aesthetics and Practicality". Past & Present, 263: 3–46. DOI: https://doi.org/10.1093/pastj/gtad017
A veces, los grandes avances tecnológicos no se encuentran en lo visible, sino en lo que parecía un simple error, una pérdida inevitable. Es el caso de un fenómeno cuántico llamado pérdida de espín (¿qué es el espín?), durante años considerado un obstáculo para mejorar la eficiencia energética en dispositivos electrónicos avanzados. Ahora, un equipo internacional de científicos ha demostrado que esa pérdida no solo puede aprovecharse, sino que podría convertirse en una de las claves para desarrollar los chips más eficientes del futuro.
Este hallazgo ha sido publicado en la revista Nature Communications y representa una desviación radical de lo que hasta ahora se creía sobre la espintrónica, una tecnología que usa el espín del electrón para procesar y almacenar información. El equipo, liderado por el Dr. Dong-Soo Han del Instituto Coreano de Ciencia y Tecnología (KIST), descubrió que la pérdida natural de espín puede inducir un cambio magnético útil para el funcionamiento de dispositivos, sin necesidad de fuentes externas de energía ni materiales complejos.
El espín del electrón: más que una rareza cuántica
El espín es una propiedad cuántica del electrón que puede pensarse como un pequeño "momento angular" que puede orientarse en dos direcciones: arriba o abajo. En la espintrónica, esa orientación representa los dos estados fundamentales de la información digital: el 1 y el 0. A diferencia de la electrónica convencional, que se basa solo en la carga del electrón, la espintrónica usa también su espín para realizar operaciones, reduciendo el consumo energético y aumentando la estabilidad de los datos.
El problema ha sido siempre que, al intentar controlar el espín, parte de él se “pierde”. Esta pérdida de espín (spin loss) se produce cuando los electrones no consiguen transferir correctamente su espín al material magnético. Se pensaba que era una fuente de ineficiencia. Por eso, la mayoría de los esfuerzos en el diseño de dispositivos espintrónicos se han centrado en minimizarla.
Pero esta investigación plantea un enfoque completamente diferente. No intentan evitar la pérdida, sino usarla a su favor. Según explican los autores, esa pérdida puede generar un “torque de espín” suficiente para inducir un cambio en la magnetización del material. Y lo hace sin necesidad de aplicar corrientes elevadas o de recurrir a materiales caros.

Magnones, disipación y control magnético sin esfuerzo externo
El mecanismo detrás de este descubrimiento tiene que ver con un tipo particular de excitaciones llamadas magnones, que son ondas cuánticas asociadas al movimiento colectivo de los espines en materiales magnéticos. En lugar de depender de la inyección de espines desde capas externas, como ocurre en los dispositivos clásicos, este nuevo enfoque aprovecha la disipación interna de esos magnones para inducir los cambios deseados en la magnetización.
En palabras del artículo, “la disipación de espín magnónico puede aumentar significativamente la eficiencia de los torques de espín, permitiendo un cambio robusto de magnetización”. Para comprobarlo, el equipo diseñó estructuras trilaminares con materiales antiferromagnéticos (NiO y Cr₂O₃) y metales ferromagnéticos (Ni), lo que permitió observar el fenómeno en condiciones bien controladas.
Los resultados fueron consistentes y sorprendentes: cuanta más pérdida de espín se producía, menos energía hacía falta para cambiar la orientación magnética del sistema. Es decir, una aparente desventaja se convertía en una ventaja funcional. Además, el proceso resultó compatible con los métodos de fabricación actuales, lo que abre la puerta a una integración industrial real.

Aplicaciones tecnológicas: de la IA al borde del dispositivo
Uno de los aspectos más relevantes de este avance es su aplicabilidad práctica. Los materiales utilizados no requieren procesos costosos, y la estructura del dispositivo puede integrarse fácilmente en las líneas de producción de semiconductores ya existentes. Esto es clave en campos como la inteligencia artificial, la computación neuromórfica y los sistemas de borde (edge computing), que requieren cada vez más potencia con el menor consumo posible.
La espintrónica ya se perfilaba como una alternativa real a la electrónica tradicional, pero su progreso ha estado limitado por problemas de eficiencia. Este nuevo principio no solo mejora esa eficiencia, sino que triplica la efectividad energética respecto a los métodos actuales. Esto permitiría fabricar chips más pequeños, rápidos y con menor generación de calor, características esenciales en dispositivos portátiles, sensores inteligentes y aplicaciones embebidas.
El propio Dr. Han señala que “hasta ahora, el campo de la espintrónica solo se centraba en reducir las pérdidas de espín, pero hemos presentado una nueva dirección al usar esas pérdidas como energía para inducir conmutación magnética”.

Un giro experimental con resultados inesperados
La parte experimental del estudio incluyó pruebas con distintos espesores de los materiales antiferromagnéticos para comprobar cómo variaba la eficiencia de la conmutación. Lo llamativo es que incluso con capas más gruesas, el efecto no desaparecía, lo que contrasta con las teorías anteriores. Esto sugiere que no se trata de una simple anomalía, sino de un comportamiento robusto con base física clara.
También realizaron mediciones de tipo Hall armónico, una técnica que permite observar las señales eléctricas generadas por el cambio de espín. En uno de los experimentos más relevantes, lograron inducir el cambio de magnetización aplicando una corriente alterna de densidad muy baja, sin necesidad de campos magnéticos externos ni calor añadido.
El efecto, además de reproducible, resultó ser dependiente de la orientación cristalina del material, lo que indica que se puede ajustar y optimizar según la aplicación deseada. En palabras del artículo, se observó que “la componente de espín longitudinal a lo largo del eje de Néel gobierna predominantemente la generación de los torques observados”.
Más allá del descubrimiento: rediseñar desde las pérdidas
Este trabajo no solo representa un avance puntual, sino que introduce una nueva forma de pensar en ingeniería cuántica aplicada. Tradicionalmente, las pérdidas se consideran fallos que hay que minimizar. Pero aquí se plantea que, si se entienden bien, esas pérdidas pueden ser reconvertidas en funcionalidad útil. Es una forma radical de innovación: no evitar lo inevitable, sino domesticarlo.
En un mundo donde los dispositivos electrónicos se enfrentan a límites físicos y térmicos cada vez más severos, aprovechar procesos internos que antes se desperdiciaban puede marcar la diferencia. La disipación cuántica, bien comprendida, podría ser una aliada para fabricar tecnologías más sostenibles, adaptables y eficientes.
Los autores concluyen que esta perspectiva puede servir de guía para el diseño de una nueva clase de dispositivos espintrónicos de bajo consumo, y que las posibilidades se extienden más allá de los materiales usados en este estudio.
Referencias
- Won-Young Choi, Jae-Hyun Ha, Min-Seung Jung, Seong Been Kim, Hyun Cheol Koo, OukJae Lee, Byoung-Chul Min, Hyejin Jang, Aga Shahee, Ji-Wan Kim, Mathias Kläui, Jung-Il Hong, Kyoung-Whan Kim, Dong-Soo Han. Magnetization switching driven by magnonic spin dissipation. Nature Communications. Publicado: 1 de julio de 2025. DOI: https://doi.org/10.1038/s41467-025-61073-w.
Durante más de un siglo, las cumbres volcánicas del Tibesti, en pleno corazón del Sahara, han fascinado a exploradores, geólogos y arqueólogos por igual. Hoy, ese interés ha cobrado nueva fuerza gracias a un descubrimiento que reescribe lo que creíamos saber sobre el clima de la región durante el Holoceno medio y, quizás, sobre las rutas que siguieron los primeros movimientos humanos hacia el Nilo. Una reciente investigación publicada en Nature Communications por un equipo interdisciplinar liderado por científicos de la Freie Universität Berlin y el Instituto Max Planck de Meteorología ha revelado que los cráteres de estas montañas albergaron profundos lagos durante milenios, alimentados por un mecanismo climático hasta ahora subestimado: lluvias originadas no en el sur, como dictaba la ortodoxia científica, sino en el norte, traídas por vientos del Mediterráneo.
Un Sahara que ya no existe
Durante el llamado Periodo Húmedo Africano, que se extendió aproximadamente entre hace 11.500 y 5.000 años, el Sahara fue cualquier cosa menos un desierto. Grandes extensiones de sabana, ríos efímeros, vida salvaje y comunidades humanas lo habitaban con naturalidad. En ese contexto, los lagos de los cráteres del Tibesti ocupan un lugar privilegiado: no solo por su altitud, a más de 3.000 metros sobre el nivel del mar, sino por su persistencia. Mientras los oasis del sur se secaban, estos cuerpos de agua, como el del Trou au Natron, seguían recibiendo lluvias en cantidades sorprendentes.
Y no eran lluvias esporádicas. Las nuevas simulaciones climáticas de alta resolución —capaces de captar con precisión los efectos de la orografía— indican que en torno al año 7.000 a. C., esta región recibía al menos diez veces más precipitación que las áridas llanuras que la rodean. Se trata de una diferencia abismal, que podría haber convertido a los cráteres del Tibesti en verdaderos refugios climáticos en medio de una progresiva desertificación.
El enigma de los vientos del norte
Lo realmente revolucionario de este estudio, que combina análisis de sedimentos, modelado climático y teledetección, es el origen de esa agua. Hasta ahora se atribuía el verdor del Sahara al fortalecimiento del monzón africano, que habría empujado las lluvias desde el Golfo de Guinea hacia el norte. Sin embargo, los datos recogidos por el equipo germano desafían esa interpretación: el grueso de las precipitaciones que llenaron los cráteres no procedía del sur, sino del norte.

El culpable es un viejo conocido meteorológico: una corriente de aire en altura que, durante el Holoceno medio, se desplazó hacia el norte, transportando masas húmedas desde el Mediterráneo hasta las montañas del Sahara central. Allí, el fuerte relieve del Tibesti actuó como trampolín, obligando al aire a ascender rápidamente y provocando lluvias intensas justo sobre los cráteres.
Este fenómeno no solo explica por qué el Trou au Natron conservó su lago mucho más tiempo que el cercano Era Kohor, en la cara sur del macizo, sino que obliga a repensar la forma en que los modelos climáticos interpretan las precipitaciones en regiones montañosas. Las simulaciones de baja resolución simplemente aplanan el terreno y, al hacerlo, eliminan la posibilidad de capturar estos picos de lluvia localizados pero cruciales.
Una ventana al pasado… y quizás al origen de las civilizaciones
Las implicaciones de este descubrimiento van más allá del clima. Si, como indican los sedimentos del Trou au Natron, el cráter albergó un lago de hasta 330 metros de profundidad durante varios milenios, es legítimo preguntarse quiénes vivieron allí. En un Sahara progresivamente más seco, estos oasis de altitud podrían haber atraído comunidades humanas en busca de agua, recursos y refugio.
Aunque aún no se han identificado asentamientos permanentes en los márgenes de estos antiguos lagos, la posibilidad de que existieran es real. Algunas teorías, todavía controvertidas pero cada vez más debatidas, sugieren que movimientos migratorios hacia el Nilo desde el Sahara podrían haber contribuido al auge de las primeras civilizaciones egipcias. En ese sentido, los cráteres del Tibesti no serían solo un capítulo climático, sino un escenario clave en la historia humana.
La cronología lo permite: el máximo desarrollo de estos lagos coincide con los siglos previos al establecimiento de las primeras comunidades agrícolas en Egipto. Y si los cráteres sirvieron como refugios durante la transición hacia un Sahara árido, bien podrían haber sido plataformas de innovación, intercambio o incluso creencias. El tiempo y la arqueología lo dirán.

Las montañas olvidadas del futuro
El estudio también es una llamada de atención hacia el presente. Mientras el cambio climático actual modifica patrones de lluvia y sequía en todo el mundo, los modelos globales siguen sin captar adecuadamente los efectos locales en regiones montañosas. Lo que ocurrió en el Tibesti hace 7.000 años podría repetirse —aunque con otras formas— en otras cordilleras olvidadas del planeta.
Comprender estos efectos no es solo una cuestión académica. Significa anticipar inundaciones repentinas, nuevos oasis o incluso migraciones climáticas en zonas consideradas marginales. En el caso del Sahara, significa aceptar que no todo fue desierto siempre… y que quizá no lo sea para siempre.
El descubrimiento de los lagos ocultos en el techo del Sahara nos invita a mirar al pasado con nuevos ojos, pero también a preparar el futuro con mayor precisión. En esa mirada, la Historia y la climatología se dan la mano para ofrecernos no solo respuestas, sino nuevas preguntas.
El estudio ha sido publicado en Nature Communications.
El cielo está lleno de enigmas que aún desconciertan a los astrónomos. Uno de los más intrigantes tiene que ver con el nacimiento de las estrellas gigantes, aquellas que superan con creces la masa de nuestro Sol. Su radiación es tan intensa que debería impedir que sigan acumulando materia, pero aun así crecen hasta convertirse en verdaderos colosos cósmicos. El misterio parecía irresoluble, hasta que un grupo de investigadores utilizó el telescopio ALMA en el desierto de Atacama para observar con una resolución inédita una de estas regiones de formación estelar.
El resultado fue sorprendente. El estudio, publicado en Science Advances, demostró que la clave no son los discos de acreción, como se pensaba hasta ahora, sino enormes flujos de gas llamados “streamers”. Estas corrientes actúan como rutas directas de material desde la nube molecular hacia la protoestrella, con la fuerza suficiente para vencer la presión de la radiación. En palabras del artículo, “estos flujos son lo bastante masivos como para alimentar la región central a un ritmo suficiente para contrarrestar los efectos de retroalimentación de la estrella joven”.
Un reto para las teorías clásicas
Las estrellas de alta masa (más de ocho veces la masa del Sol) siempre han sido un desafío para la astrofísica. Su influencia es decisiva: producen elementos pesados que enriquecen el medio interestelar y generan explosiones de supernova que remodelan su entorno. Sin embargo, había un problema teórico evidente. Si su radiación es tan poderosa, ¿cómo logran acumular suficiente gas para nacer?
El modelo más aceptado proponía que grandes discos de gas y polvo cumplían la función de alimentar a la estrella en formación. Al igual que ocurre con estrellas más pequeñas y con sistemas planetarios en gestación, los discos servían como reservorios y embudos naturales. Pero las observaciones de ALMA contradicen esa visión simplificada. En el caso de G336 ALMA1, la estrella joven observada, no se detectó un disco grande y estable, sino dos corrientes de gas que penetraban directamente hasta la región central.
Este hallazgo implica que los discos no son la única vía de crecimiento. El propio paper lo señala de manera clara: “estos flujos persisten bien dentro del radio esperado para un disco, lo que indica que desempeñan un papel sustitutivo canalizando material… directamente al protostar en formación”.

Los streamers como autopistas cósmicas
Lo que ALMA mostró en detalle fue la presencia de dos streamers principales, uno con movimiento azul desplazado hacia nosotros y otro rojizo en sentido contrario. Ambos transportan gas a gran velocidad desde distancias de miles de unidades astronómicas hasta apenas unas decenas alrededor de la estrella joven.
Estas corrientes no solo existen, sino que son lo bastante masivas como para garantizar el crecimiento estelar. Los cálculos del equipo indican tasas de acreción cercanas a 10⁻³ masas solares por año, un valor mucho mayor que el observado en estrellas de baja masa. Esto explica cómo los gigantes cósmicos logran desarrollarse en plazos relativamente cortos.
Un detalle relevante es que los autores midieron la competencia entre la presión de radiación de la estrella y la fuerza del flujo. El resultado fue claro: la presión del gas supera en dos órdenes de magnitud a la de la radiación cerca del núcleo. Gracias a esa diferencia, el material no es expulsado, sino que sigue cayendo sobre la estrella en formación.

Evidencia molecular y dinámica del gas
Las observaciones de ALMA no se limitaron a la imagen directa del polvo. Los científicos analizaron líneas de emisión de moléculas como el metanol y el óxido de azufre. Estas señales son importantes porque delatan zonas de gas caliente y choques locales, justo en los puntos donde los streamers impactan con el entorno cercano a la estrella.
En la Figura 1 del artículo puede verse cómo los mapas de velocidad revelan la conexión entre los flujos y el núcleo estelar. Además, en los diagramas de posición-velocidad, los patrones observados no coinciden con lo esperado de un disco rotatorio clásico, sino con la combinación de caída y rotación propias de un flujo en movimiento. Como resumen el equipo, “la continuidad del flujo desde unas 2000 hasta 60 unidades astronómicas indica que el material realmente llega a la estrella en formación”.
Estos datos no solo confirman la existencia de los streamers, sino que muestran que son estructuras activas y estables. No se trata de restos pasivos de gas, sino de corrientes vivas que transportan masa de manera continua.

Qué cambia con este descubrimiento
El impacto de este hallazgo es significativo. Si los streamers resultan ser comunes en otros sistemas, habría que replantear las teorías de formación estelar masiva. Ya no bastaría con suponer que los discos gigantes son la regla, sino que habría que incorporar mecanismos alternativos de transporte de materia.
Esto también tiene consecuencias para comprender la historia de nuestra propia galaxia. Las estrellas masivas modelan la evolución química de la Vía Láctea y de otras galaxias. Saber cómo surgen ayuda a reconstruir el ciclo de vida del gas interestelar y la aparición de nuevos sistemas estelares. En este sentido, los streamers podrían ser piezas clave del rompecabezas cósmico.
El trabajo también plantea nuevas preguntas. ¿Qué tan frecuentes son estos flujos en regiones de formación estelar? ¿Existen siempre en paralelo con discos pequeños, invisibles a las observaciones actuales, o pueden sustituirlos por completo? La investigación futura tendrá que responder a estos interrogantes.
El futuro de las observaciones
El equipo de Olguín y colaboradores planea extender su análisis a otros núcleos de formación masiva. El objetivo es comprobar si los streamers son un fenómeno aislado o un proceso recurrente. Para ello, ALMA seguirá siendo una herramienta esencial. Su capacidad de captar emisiones milimétricas con gran resolución es única, pero se combinará con telescopios infrarrojos como el James Webb, que aportan información complementaria sobre el polvo caliente y las moléculas orgánicas.
Además, los próximos radiotelescopios de nueva generación permitirán seguir estos flujos con mayor detalle y en diferentes etapas de la formación estelar. Con ello se podrá responder a la gran pregunta que ha motivado este trabajo: cómo es posible que surjan estrellas que parecen desafiar los límites de la física conocida.
Referencias
- Olguin, F. A., Sanhueza, P., Ginsburg, A., Chen, H-R. V., Tanaka, K. E. I., Lu, X., Morii, K., Nakamura, F., Li, S., Cheng, Y., Zhang, Q., Luo, Q., Oya, Y., Sakai, T., Saito, M., Guzmán, A. E. (2025). Massive extended streamers feed high-mass young stars. Science Advances, 20 August 2025. DOI: 10.1126/sciadv.adw4512.
En las colinas del corazón de Sicilia, donde el pasado parece haberse detenido bajo capas de tierra, historia y arte, un nuevo descubrimiento arqueológico ha devuelto a la luz un fragmento sorprendente de la vida cotidiana en la Antigüedad. En la Villa Romana del Casale, un yacimiento declarado Patrimonio Mundial por la UNESCO y célebre por sus espectaculares mosaicos, han salido a la luz nuevas escenas decorativas que parecen reescribir lo que sabíamos sobre la estética y la cultura visual de la Roma tardía. El hallazgo más llamativo: un par de sandalias azules y ocres representadas en un mosaico, con un diseño realmente moderno.
Este singular descubrimiento forma parte de los resultados más recientes de la cuarta edición de la Summer School internacional ArchLabs, una iniciativa liderada por la Universidad de Bolonia, el Consejo Nacional de Investigaciones de Italia y el Parco Archeologico di Morgantina e Villa Romana del Casale. Según el comunicado oficial difundido por la región de Sicilia, los trabajos arqueológicos han sacado a la luz no solo las sandalias, sino también una inscripción musiva y un conjunto de columnas con sus capiteles correspondientes. Elementos que, más allá de su valor estético, aportan nuevas claves sobre la organización, la vida cotidiana y la identidad cultural de los habitantes de esta lujosa residencia romana en el siglo IV d.C.
Unas sandalias milenarias que parecen de hoy
Aunque pueda parecer una coincidencia curiosa, los motivos decorativos que muestran calzado no eran inusuales en los complejos termales de época tardo-romana. Este tipo de representaciones simbólicas, como las encontradas también en regiones tan dispares como Chipre, Asia Menor, Jordania o incluso Hispania, formaban parte de un lenguaje visual refinado, donde lo cotidiano se transformaba en emblema de estatus y cosmopolitismo. En este caso, las sandalias no decoraban cualquier lugar, sino que se encontraban en el frigidarium, la sala de baño frío del complejo termal sur de la villa.
Debemos reseñar que su ubicación no es casual. Estos motivos tenían una función narrativa y simbólica clara, dado que sugerían la presencia del bañista, el tránsito, el confort, el estilo de vida asociado a las élites romanas que habitaban o visitaban este espacio.
Lejos de tratarse de una simple decoración, la calidad técnica del mosaico revela la mano de un verdadero maestro en la elaboración de teselas. Su ejecución, con tonalidades matizadas y proporciones estudiadas, refuerza la idea de que la Villa Romana del Casale no era una propiedad cualquiera, sino un centro de poder, cultura y representación aristocrática. Un lugar donde lo funcional y lo estético se fundían en una misma narrativa visual.

La importancia de ArchLabs: excavación, ciencia y formación internacional
Estos nuevos hallazgos no habrían sido posibles sin el trabajo conjunto de más de 40 estudiantes y jóvenes investigadores procedentes de 11 países diferentes, que participaron este verano en ArchLabs, una escuela arqueológica de campo que ha convertido la villa en un auténtico laboratorio internacional. Durante varias semanas, los participantes no solo aprendieron técnicas tradicionales de excavación, sino que aplicaron tecnologías punteras como el modelado 3D, la documentación digital y el análisis estratigráfico avanzado.
La Villa Romana del Casale, que comenzó a excavarse sistemáticamente en los años 50 del siglo XX, se considera hoy uno de los conjuntos de mosaicos romanos mejor conservados del mundo. Sus más de 3.500 metros cuadrados de decoración musiva cubren suelos, pasillos, salas privadas y espacios públicos. Escenas de caza, competiciones atléticas femeninas, banquetes, rituales o actividades agrícolas conviven en una narrativa visual que nos permite imaginar, casi como una reconstrucción cinematográfica, la vida de las élites rurales del Imperio romano tardío.
Un legado cubierto por un deslizamiento… y protegido por la tierra
Paradójicamente, fue una catástrofe natural lo que permitió que este lugar haya llegado hasta nosotros con tal grado de conservación. Durante la Edad Media, un deslizamiento de tierra sepultó buena parte del complejo residencial bajo una capa protectora de sedimentos. Este fenómeno preservó no solo las estructuras arquitectónicas, sino también los suelos decorados, los frescos de las paredes interiores y, como ahora vemos, nuevos mosaicos aún por descubrir.
Aunque durante el siglo XIX se realizaron algunos trabajos y exploraciones, no fue hasta mediados del siglo XX, con el impulso del arqueólogo Gino Vinicio Gentili, fallecido en 2006, que se emprendió una excavación sistemática y científica del conjunto. Hoy, gracias a proyectos como ArchLabs, el yacimiento continúa revelando nuevos secretos, que no solo enriquecen nuestro conocimiento del pasado romano en Sicilia, sino que también fortalecen la dimensión internacional y formativa del sitio.

¿Quién vivía en esta villa de ensueño?
Una pregunta que aún no tiene respuesta definitiva es la identidad de los propietarios de la Villa Romana del Casale. Aunque durante años se pensó que podría tratarse de una residencia imperial, la hipótesis más aceptada hoy apunta a un miembro destacado de la aristocracia romana, posiblemente vinculado con la administración del grano y la organización de espectáculos públicos en Roma.
Esta teoría se ve reforzada por algunas de las escenas más conocidas del lugar, como la llamada "Gran Caza", que muestra la captura y transporte de animales exóticos, o el mosaico de las “chicas en bikini”, que representa a mujeres en competiciones deportivas, una imagen que ha cautivado al público general y a los investigadores por igual.
La villa se articula en tres grandes terrazas construidas al pie de una colina, y cuenta con un esquema arquitectónico de inspiración urbana: incluye un atrio, una gran basílica para funciones sociales y administrativas, una sala de recepción con ábside y un complejo termal de gran sofisticación. Todo esto la convierte en un modelo perfecto del tipo de residencia que surgió en el siglo IV d.C., cuando las élites romanas comenzaron a trasladar sus centros de poder y gestión al ámbito rural, especialmente en zonas estratégicas del Mediterráneo como Sicilia.

Más que un hallazgo estético: una ventana a lo invisible
La representación de unas sandalias puede parecer un detalle menor en el inmenso tapiz de la historia romana. Pero, como todo en arqueología, lo que parece anecdótico a veces resulta ser revelador. Este motivo concreto nos habla de modas, de estatus, de simbolismo, de la vida cotidiana, pero también de conexiones culturales que iban más allá de Roma: este tipo de sandalias ya eran conocidas en Egipto, y su representación en Sicilia sugiere una red de influencias mucho más amplia y cosmopolita de lo que se pensaba.
Además, el hallazgo se produce en un momento en que las autoridades patrimoniales italianas han alertado sobre la necesidad urgente de invertir más en la conservación del sitio. La presión del turismo, la falta de recursos y la exposición a fenómenos climáticos extremos ponen en riesgo la estabilidad de las estructuras y mosaicos. Por ello, iniciativas como ArchLabs no solo permiten investigar el pasado, sino también preparar a nuevas generaciones para protegerlo.
En un quirófano todo parece brillar: instrumentos relucientes, superficies limpias, manos enguantadas. Pero la seguridad del paciente no comienza con la primera incisión. Empieza mucho antes, en una sala desconocida donde no hay bisturís ni monitores. Allí, una máquina trabaja sin pausa: elimina virus, bacterias y hongos en cuestión de minutos. No suena a héroe, pero lo es. Se llama autoclave, y su misión es simple y vital: esterilizar.
Puede que no sea la pieza más vistosa del hospital, pero sin ella no habría cirugía segura, ni instrumentos reutilizables, ni prevención eficaz contra las infecciones. Porque en la batalla diaria contra los microorganismos, el vapor a presión es uno de los aliados más poderosos que tiene la medicina.
Lo que ocurre dentro de una autoclave es pura ciencia aplicada. Aunque por fuera parezca una caja de acero inoxidable, en su interior se libra una batalla microscópica a temperaturas que ningún ser vivo puede resistir. En cada ciclo, el vapor satura todos los rincones del material médico, penetrando en tejidos, metales, empaques porosos y cavidades internas. Es la forma más eficaz y segura de garantizar que todo lo que entra en contacto con un paciente esté libre de vida… excepto la suya.

Más allá del agua hirviendo: ciencia en cada ciclo
El principio de la autoclave parece sencillo: vapor de agua a alta temperatura y presión para destruir cualquier forma de vida microbiana. Pero en realidad, detrás de cada ciclo hay todo un proceso calculado al milímetro: tiempos, temperaturas, fases de vacío, control de humedad… Todo pensado para garantizar que hasta el rincón más oculto de una pinza quede libre de microorganismos.
A diferencia de otros métodos, como la desinfección química o el calor seco, la esterilización por vapor combina alta temperatura con una conductividad térmica superior, lo que permite alcanzar todos los puntos del instrumental sin dejar zonas sin tratar. Y no solo destruye bacterias comunes: también elimina esporas bacterianas, hongos, virus envueltos y no envueltos, e incluso priones con programas específicos. Por eso sigue siendo el método de referencia en los protocolos hospitalarios de todo el mundo.

Hoy en día, muchas autoclaves están diseñadas con sensores inteligentes y software de validación automática. Esto permite detectar fallos en tiempo real, registrar cada proceso y adaptarse al tipo de carga: desde bandejas quirúrgicas hasta textiles, instrumentos huecos o soluciones líquidas. Algunos modelos incluso permiten programar ciclos diferenciados para quirófanos, odontología, ginecología o laboratorios de microbiología. Eficaz, segura y más económica que otros métodos, la esterilización por vapor sigue siendo pilar fundamental de la seguridad sanitaria. Además, la gran mayoría de los materiales sanitarios reutilizables han sido diseñados específicamente para ser compatibles con esta tecnología, lo que refuerza su papel central en la medicina moderna. La tecnología se adapta al entorno… pero la misión sigue siendo la misma: eliminar cualquier riesgo invisible.
Donde la prevención comienza: la barrera silenciosa contra infecciones
Cada día, millones de instrumentos médicos se reutilizan en todo el mundo. Un error en la esterilización puede significar una infección postoperatoria, una complicación inesperada o una cadena de contagios. Por eso, el papel de la autoclave es tan crítico como discreto: si hace bien su trabajo, nadie debería notarlo.
El proceso no termina cuando se apaga la máquina. Tras la esterilización, cada instrumento debe manipularse con cuidado para mantener su estado estéril hasta su uso. Por eso, las autoclaves actuales también contemplan sistemas de secado avanzados y registros de lote que permiten una trazabilidad completa ante cualquier incidencia detectada o necesidad de inspección sanitaria o auditoría interna.

En un contexto hospitalario cada vez más exigente, donde la prevención de infecciones hospitalarias es una prioridad global, el papel del área de esterilización central cobra un protagonismo desapercibido pero decisivo. Se trata del primer eslabón en la cadena de seguridad del paciente.
Porque al final, en medicina, la diferencia entre el riesgo y la seguridad puede comenzar en una cámara de acero inoxidable llena de vapor. Una máquina que no necesita aplausos, pero que salva vidas todos los días sin que nadie se dé cuenta.

José Domingo Sanmartín Sierra
Físico. Jefe de Servicio de Electromedicina del Hospital Universitario Virgen del Rocío.

Durante siglos dimos por hecho que el cerebro adulto era un terreno baldío para el nacimiento de nuevas neuronas. Era un dogma asentado con la fuerza de una sentencia: lo que se pierde no se recupera. Pero la ciencia, como la vida, no deja de sorprendernos. Hoy sabemos que el cerebro es capaz de reinventarse, aunque con ciertas limitaciones. En este número, el neurocientífico cognitivo Manuel Martín-Loeches nos explica cómo la neurogénesis en adultos (aquel «cruel decreto» que Ramón y Cajal desafió) es ya una realidad y qué implicaciones tiene para enfermedades como el alzhéimer o la depresión. No hay duda de que este asombroso hallazgo exige replantearse las futuras investigaciones sobre el cerebro y sobre nosotros mismos. Pero, este número está lleno de más preguntas esenciales: ¿los animales también aman? ¿Está regulado el uso de las sustancias humanas que se pueden donar? ¿Lo que no fue nos deja cicatrices neurológicas? ¿Es posible ya el teletransporte de información? ¿Encierra peligros el deshielo del permafrost? ¿Puede una máquina ver tu rostro en la oscuridad? ¿Es la ciencia capaz de predecir el pasado y reinventar el futuro? Algunas de estas preguntas tienen respuesta. Otras, como la neurogénesis, apenas empiezan a asomar tímidamente entre las conexiones de nuestras neuronas más jóvenes. En cualquier caso, te deseamos una buena lectura.
Neurogénesis: de dogma inamovible a frontera de la neurociencia
No hace tanto que insistíamos una y otra vez y con vehemencia a nuestros alumnos que las neuronas eran las únicas células del cuerpo (a excepción de los gametos) que no sufrían mitosis, es decir, división celular. La mitosis es necesaria para el desarrollo del cuerpo y, una vez culminado este, para la renovación y reparación de los tejidos. En el cerebro, sin embargo, las neuronas con las que nacíamos eran todas las que íbamos a tener para el resto de nuestra vida. Es más, perderíamos miles de ellas cada día, de manera que no solo no íbamos a tener más, sino que iríamos a menos. Este sí que era uno de esos dogmas de la neurociencia que parecían más seguros y asentados. El mismísimo Santiago Ramón y Cajal tuvo en gran parte la culpa, pues afirmó que «los circuitos nerviosos son algo fijo, cerrado e inmutable. Todo puede morir, pero nada puede regenerarse. Es tarea de la ciencia del futuro modificar este cruel decreto». Y, claro, ¿quién osaría contradecir al gran maestro?
Has leído un extracto del artículo de portada, escrito por Manuel Martin-Loeches. Para seguir leyendo, puedes comprar el número 532 de Muy Interesante en un quiosco de prensa o por internet.

Reportajes
- Secretos del permafrost, por Óscar Herradón
- ¿Por qué nos obsesionamos con lo que no pudo ser?, por Vicente Bustillo
- Teletransporte cuántico, por Antonio Acín
- Neurogénesis, por Manuel Martin-Loeches
- Amar como un animal, por Javier Rada
- Reglamento SoHo, por Laura G. de Rivera
- El metal de los dioses, por Alejandro Navarro
- No hay dónde esconderse, por Eugenio Manuel Fernández Aguilar
- La vida sexual en la sociedad victoriana, por Elena Benavides
- ¿Eres búho o alondra?, por Lourdes Cutillas
Entrevistas
- José Antonio Marina. El filósofo y ensayista nos habla de su último libro, Vacuna contra la insensatez, por Gema Boiza
- Wilhelm Schmid. Este filósofo, autor de Sobrevivir a la muerte, admite que hay algo después de una pérdida, por Gema Boiza
Firmas
- Gran Angular. Narrar, por Jorge de los Santos
- Hablando de ciencia. La pérdida de la ciudad de los mil pilares, por Miguel Ángel Sabadell
- Palabras cruzadas. El saber busca su lugar, por Lucía Sesma
- Pensamiento crítico. ¿Qué papel juegan el aquí y el ahora?, por David Pastor Vico
- Neurociencia. La red por defecto y lo que nos hace humanos, por Manuel Martín-Loeches
- Pinceladas de meteorólogo. La enigmática tempestad de Giorgione, por José Miguel Viñas

Cuando pensamos en la España del Siglo de Oro, solemos evocar las hazañas imperiales de Felipe II, la magnificencia del Monasterio de El Escorial o la pujanza de las letras y las artes. Sin embargo, hay otra dimensión de la vida cotidiana que resulta menos visible: ¿cómo se curaban los españoles en el siglo XVI? Un reciente estudio de la historiadora Lara Barreira, centrado en un pleito judicial en Valladolid entre 1577 y 1578, nos permite asomarnos de manera excepcional a este mundo. A través de más de doscientas recetas farmacéuticas conservadas, la estudiosa ha logrado reconstruir tanto el catálogo de medicinas disponibles como las dinámicas económicas, sociales y culturales que rodeaban a la práctica de la salud en tiempos de Felipe II.
Farmacias, pleitos y deudas en la Castilla del siglo XVI: el caso del boticario Francisco de Madrid
Francisco de Madrid fue un reputado boticario vallisoletano que, entre 1545 y 1576, abasteció con sus preparados tanto a instituciones como el Hospital de Santa María de Esgueva como a destacados miembros de la corte. Su archivo de 213 recetas constituye un testimonio único de la práctica farmacéutica de la época.
Entre sus principales clientes figuraba Félix de Manzanedo, catedrático y canciller de la Universidad de Valladolid. Durante más de una década, su familia adquirió numerosos remedios a crédito hasta acumular una deuda que, tras la muerte del boticario, recayó en su viuda, María de Ayala. Fue ella quien, en 1577, emprendió un pleito para reclamar 15.717 maravedís, suma equivalente a varios años de salario de un profesor universitario.
En el proceso judicial, los jueces solicitaron organizar y valorar todos los remedios que se habían entregado a los Manzanedo. Así nació lo que Barreira denomina una “farmacopea funcional”, es decir, una lista real de los medicamentos que se habían, efectivamente, preparado y consumido, y que difería de aquellas farmacopeas normativas que aconsejaban lo que debía existir en las boticas.

¿Qué medicinas se vendían en la España de Felipe II?
El protagonismo de la rosa
De todas las sustancias registradas, la más sorprendente es la omnipresencia de la rosa. Según el análisis de los inventarios, uno de cada cinco remedios estaba basado en derivados de la rosa. Se empleaba en múltiples formas: aceites, jarabes, aguas destiladas, ungüentos, azúcares rosados, vinagres y hasta polvos. Se consideraba útile para calmar fiebres, inflamaciones, hemorragias y dolencias femeninas, en continuidad con una tradición que se remontaba a los textos médicos clásicos de Dioscórides, Mesué y las traducciones árabes medievales.
La rosa se percibió como un fármaco milagroso en la Europa medieval y moderna. En Valladolid, los Manzanedo la emplearon repetidamente, en especial para sus hijas, convencidos de su eficacia calmante y reguladora. El prestigio cultural y simbólico de esta flor, vinculado a la Virgen y a la pureza, reforzaba su poder curativo en el imaginario colectivo.
Otros remedios frecuentes
Aunque la rosa ocupaba un lugar central, también aparecen otros ingredientes naturales como las violetas (jarabes violados), las almendras dulces (aceites calmantes), la borraja, los mirabolanos, las lenguas de buey y distintos y preparados con cassia. Así, la botica de Francisco de Madrid revela un equilibrio entre la herencia grecolatina, la tradición árabe y las adaptaciones locales castellanas.
Medicinas para mujeres y niños
Los registros, además, dejan entrever las preocupaciones sanitarias de la familia Manzanedo. Muchas recetas iban destinadas a “una niña” o “la más pequeña”, lo que indica la alta demanda de remedios pediátricos. Asimismo, la conexión de las rosas con la salud femenina remite a compendios medievales como el Trotula, atribuido a la médica Trota de Salerno, centrados en dolencias ginecológicas.

La farmacia como negocio: del curar al cobrar
Cada receta incluida en el archivo de la botica de María de Ayala implicaba una transacción comercial. Las medicinas tenían un precio fijado en maravedís, registrado en las cuentas como una deuda pendiente de pago. Tales deudas, sin embargo, podían negociarse: la suma inicial reclamada por María de Ayala se rebajó a 11.800 maravedís.
Este caso judicial ilustra que era común recibir medicinas a crédito, incluso durante años. Las deudas sugieren tanto la confianza en el boticario como el prestigio social de la clientela. Con todo, cuando las muertes o las herencias complicaban los pagos, los pleitos judiciales se convertían en la vía preferente para conseguir saldar cuentas.
María de Ayala se convierte, aquí, en la encarnación de un fenómeno frecuente. Las viudas de los boticarios heredaban tanto el negocio de sus maridos como las deudas pendientes y, en consecuencia, asumían un rol activo en la defensa de sus derechos. Pese a los límites que imponía la sociedad patriarcal, las mujeres fueron agentes clave en la continuidad de la farmacia castellana del siglo XVI.

Entre la práctica local y la tradición erudita
Mientras los tratados oficiales de farmacología, como la Concordia de los boticarios de Barcelona (1511), fijaban listas ideales de remedios, la documentación vallisoletana muestra qué se usaba en la práctica cotidiana. La diferencia entre teoría y práctica revela la capacidad de adaptación de las farmacias a las necesidades reales de sus pacientes.
A pesar de la innovación que suponían estas listas funcionales, la base conceptual del sistema médico seguía siendo galénica. El equilibrio de los humores, la importancia de las plantas y la herencia árabe seguían dominando la terapéutica española del siglo XVI, incluso cuando ya comenzaban a circular nuevos productos llegados de América o del comercio mediterráneo.

Un caso revelador
El pleito entre María de Ayala y los herederos de los Manzanedo constituye un testimonio excepcional sobre cómo se practicaba la medicina en la España de Felipe II. Gracias a los 213 resguardos de farmacia, podemos asomarnos al universo de las boticas castellanas: un mundo donde la salud era, al mismo tiempo, una transacción económica, una red de confianza social y un espacio de saberes compartidos entre médicos, boticarios, notarios y pacientes.
La rosa, omnipresente en las recetas, simboliza esa intersección entre práctica, tradición y creencia. Curarse en el siglo XVI significaba confiar tanto en la eficacia de un jarabe o un aceite como en la reputación del boticario y en la fuerza de la costumbre. Hoy, gracias a los archivos judiciales, podemos recuperar la memoria de esos gestos cotidianos que, más allá de los grandes acontecimientos políticos, dieron forma a la vida y la salud de los españoles del Siglo de Oro.
Referencias
- Barreira, Lara. 2025. "The Payment Cure Debts and a Sixteenth-Century Valladolid Pharmacopeia Lara Barreira History of Pharmacy and Pharmaceuticals". History of Pharmacy and Pharmaceuticals, 66.2: 180-202. DOI: https://doi.org/10.3368/hopp.66.2.180.
¿Qué simboliza exactamente Atenea? ¿Cómo se convirtió Hades en el señor del inframundo? ¿Por qué es Zeus el padre de todos los dioses y todos los hombres? Preguntas de este talante comenzaron a hacerse los antiguos griegos respecto a sus creencias a medida que se sofisticaba su pensamiento. Y era algo que venía a cuento porque la suya era una religión al servicio de la vida, a diferencia de los posteriores cultos monoteístas, ideados para predeterminar la existencia. Los dioses, semidioses y héroes griegos tenían pasiones altas y bajas y, a pesar de sus poderes, eran tan inestables y vulnerables como los humanos que en ellos trataban de identificarse o inspirarse. Por eso eran susceptibles de ser repensados, replanteados.
Moviendo estos hilos del razonamiento, los pensadores helenos fueron tejiendo poco a poco el entramado que luego se llamaría filosofía. La reflexión y el entendimiento se irían así imponiendo sobre el arte y la fantasía, y la conclusión de que el comportamiento humano dependía del saber desarrollaría el concepto de ética. Pero ¿qué era exactamente el saber? Pues la realidad en su conjunto, tangible o no, y no solo las vidas y los relatos divinos. Esta ramificación de la cuestión se encontraría forzosamente con la naturaleza, el universo y las leyes físicas, lo que creó la necesidad de especializaciones de esa filosofía primaria: las ciencias.
Creando un mundo
De esta manera, entre el 600 y el 200 a. C., se da forma a la ética de la cultura occidental, se elaboran los preceptos en que se basará la teoría política y se conciben las hipótesis que construirán las ciencias modernas. En el punto álgido de este río de ideas están, por supuesto, Sócrates y el encauzamiento reflexivo que supusieron sus axiomas dialécticos. Planteamientos, preguntas, análisis, conclusiones y consecuencias conforman un sistema que posteriormente sistematiza Platón, quien señalará el hecho de que tanto los objetos como quien los observa están en constante cambio. Algo en lo que no coincidiría Aristóteles, quien trató de definir las características o leyes que sí son comunes y constantes.
Asomaban así indicios de ciencia que, de una u otra manera, estuvieron presentes en muchos filósofos griegos desde el principio, desde el siglo vi a. C., cuando en Mileto se dio la primera especulación científica que se conoce. En esta ciudad, situada en la actual costa turca del Egeo, Tales se hizo famoso por predecir un eclipse solar, con lo que realizó la primera aproximación a los misterios de la naturaleza desde el raciocinio. No se conservan sus escritos, pero de sus inquietudes daría fe su discípulo Anaximandro, a quien se tiene por la primera persona que intentó realizar un mapa del mundo.

En su afán explicativo, este pensador elaboró una teoría del origen del universo, la cual se basa en la lucha de dos opuestos, el calor y el frío, que acabarían separándose y formando una gran bola de fuego que, contraída y endurecida, daría lugar a la Tierra, rodeada por una niebla resultante de esta convulsión y esencia de la atmósfera. Este planteamiento le llevó a afirmar que los humanos no podían haber existido siempre como tales y que provenían de criaturas desarrolladas en el agua por efecto del calor.
Del mapa de Anaximandro nada se sabe; sin embargo, a finales de ese mismo siglo vi a. C., y también en Mileto, Hecateo recoge el testigo y describe el mundo como un gran círculo plano con centro en el Egeo. Este mar, que describe delimitado por el estrecho de Gibraltar y el Bósforo, separaría los dos semicírculos que forman el mundo: arriba quedaba Europa, abajo se situaba Asia.
Pitágoras y la fuerza de los números en el cosmos
Quizá cargado de todos estos conceptos, Pitágoras, que había nacido en el 570 a. C. en la isla de Samos, se traslada a Crotona, próspera ciudad de la Magna Grecia, en el sur itálico. Allí funda una secta que llegará a tener gran predicamento e incluso influencia gubernamental. Se trata de una espiritualidad que recoge el bagaje de anteriores filósofos griegos, pero añade el toque científico de los números como base de los elementos del cosmos y, consecuentemente, de muchos aspectos de la existencia. Y tras los números están las formas, que dicha secta define y llega casi a adorar. Números y formas darán lugar al famoso teorema de Pitágoras.
Sus seguidores, ya en el siglo v a. C., usarían estos conceptos para construir una teoría astronómica, según la cual el círculo que forma la Tierra gira en torno a su propio eje y sigue una órbita en torno al «gran fuego», del cual sería el cuerpo más cercano, seguido por la Luna, el Sol, los planetas y finalmente las estrellas. Nace así la célebre teoría de los círculos concéntricos que, ratificada posteriormente por Ptolomeo y aunque errónea, será canon indiscutible durante los siguientes 2000 años. Antes de este destacado astrónomo greco-egipcio del siglo ii, la idea sería ponderada en el iv a. C. por Eudoxo de Cnido, quien imaginó estas esferas transparentes y portadoras de cuerpos celestes a diferente velocidad y vinculados en grupos. La idea la recogería después Aristóteles y fijaría el número de esferas concéntricas en 55.
Desde esta noción de la Tierra como centro estático sobre el que gira todo lo demás, incuestionable para casi todos los pensadores griegos y posteriores hasta la irrupción de Copérnico, Hiparco de Nicea, ya en siglo ii a. C., realizará un estudio profundo de esos planetas y estrellas que sí se mueven y será el primero en dividir el día en veinticuatro horas.
Explicar todo lo posible
Pero mucho antes había llegado el momento de dejar un poco de lado la disposición de las cosas y escudriñar su composición. A mediados del siglo v a. C. Empédocles, natural de la Sicilia helena, llegó a la conclusión de que la materia está compuesta, en diferentes medidas, de tierra, aire, fuego y agua; la famosa teoría de los cuatro elementos, que permanecería vigente hasta el siglo xvii.
Aunque ciertamente errónea, esta concepción encendería el afán por la física: estudiar las cosas y sus comportamientos. Toda una atracción en este sentido supondría el descubrimiento de las propiedades magnéticas del ámbar y de la llamada piedra imán, que los griegos extraían en la región de Magnesia, situada al norte de Atenas, origen de la posterior nomenclatura.
La física empieza así a seguir su propio camino y, unas décadas después de Empédocles, Demócrito de Abdera afirma que toda materia está compuesta por partículas infinitamente pequeñas, indestructibles, eternas e indivisibles, que se unen entre ellas en diferentes combinaciones. Es el primer y admirable apunte de la teoría de los átomos. Y no solo eso: este pensador tracio también esbozó una hipótesis sobre el origen del universo, que definió como un movimiento caótico de estos átomos hasta que su colisión dio lugar a unidades mayores. Una teoría abiertamente desdeñada hasta la reciente llegada a escena del concepto del big bang.
Y son también los átomos los que conforman los elementos y criaturas de la naturaleza. Biología, medicina, zoología, anatomía y botánica están a punto de nacer. A principios del siglo iv a. C. se va dibujando un primer perfil de la biología, si bien Alcmeón, que vivió en Crotona en tiempos de la secta de Pitágoras pero sin aparente vinculación con ella, ya había hecho sus pinitos con anterioridad. Se le tiene por el primero que realizó disecciones y, aunque lo hizo en busca del lugar de la inteligencia, dio con los primeros descubrimientos de anatomía. En concreto halló las conexiones entre el cerebro y los ojos y entre la boca y los oídos.

Los síntomas y las causas
Sobre sus presupuestos y los de otros investigadores, Aristóteles, aunque siempre convencido de que el cerebro era el corazón, dio uno de los empujes más significativos a la biología. A la teoría de los cuatro elementos añadió el rango de combinaciones que a estos ofrecían las alternancias de frío, caliente, húmedo y seco. Desde tales esquemas, se aplicó con entusiasmo a ciencias como la zoología, siendo un entregado observador sobre todo de la vida marina en las costas griegas. Y en su intento de establecer una clasificación de los animales, se fijó en patrones de cambios y vínculos que, de alguna manera, esbozaban un primer perfil de la teoría de la evolución.
Se sabe de sus muchas anotaciones sobre plantas que, aunque se perdieron, están contenidas en Historia de las plantas, libro escrito por su discípulo favorito, Teofrasto, con clasificación y descripción de la vegetación de Grecia y de las tierras orientales que en su día habían sido conquistadas por Alejandro Magno.
De aquellos mundos, sobre todo de Persia, llegaron algunas ideas que ayudaron a Hipócrates, nacido en Cos en el 460 a. C., a sacar a la medicina de sus primitivas premisas. Su innovación fundamental y todavía vigente: no solo prestar atención a los síntomas, sino también a las causas. Tanto es así que siempre se le atribuyeron los principios que conforman el llamado juramento hipocrático, aunque investigaciones más recientes afirman que se basan en escritos posteriores.
Cuatro formas de ser
Ciertamente, esta permanencia secular no deja de asombrar y también atribular: ¿cómo es posible que en tantos siglos posteriores no se avanzase nada o muy poco? Dos milenios se mantuvo como texto médico de cabecera un libro atribuido a un tal Pólibo, que sería posterior a Hipócrates y que, inspirándose en la teoría de los cuatro elementos, establece que el ser humano está compuesto de cuatro sustancias o humores: sangre, bilis amarilla, bilis negra y flema. Según su proporción, una persona podía ser optimista, flemática, melancólica o colérica.
Todas estas derivaciones científicas de la filosofía griega serían muy bien acogidas en el siglo iii a. C. por los pensadores de Alejandría, mundo heleno en Egipto muy entregado al comercio y otras tareas de la economía, lo que precisaba planteamientos más prácticos. Lo que en Atenas era analizar, en esta bulliciosa ciudad era aplicar: entender para facilitar, desarrollar para ir más deprisa. Terreno abonado para aquellos investigadores más inclinados hacia la ciencia. Por ahí se removían los requerimientos de la boyante industria de los metales y sus aleaciones. Por ahí se auparían los principios de la química.
De la gran ciudad-puerto surgen Euclides y sus amplios y clarificantes escritos sobre geometría, que serán la biblia de esta ciencia hasta el siglo xix. Como igualmente sucederá con muchas de las fórmulas de Arquímedes, otro sabio alejandrino, que halló la manera de calcular el área de superficie y el volumen de esferas y cilindros. Sus libros e inventos continuarían siendo muy inspiradores.
De geometría y del mismo tiempo es el trabajo conocido de Aristarco en su isla de Samos. De él se afirma que, tras llevar a cabo varios estudios de astronomía, llegó a la inopinada y «escandalosa» conclusión de que la Tierra gira alrededor del Sol, idea por la que estuvo a punto de ser procesado. Ciertamente Copérnico, tiempo después, lo citaría como el primero que tuvo la «idea correcta».

La criba de Eratóstenes
Todos estos temas y anatemas circularían por los pasillos del Museo de Alejandría, donde Eratóstenes tenía el cargo de bibliotecario. Gran amigo de Arquímedes, este matemático, astrónomo y geógrafo aplicó su ingenio a diseñar un mapa de las estrellas o a la búsqueda de los números primos, para lo que utilizaría un método que todavía se conoce como la criba de Eratóstenes. Su logro más reconocido, no obstante, es el cálculo de la circunferencia de la Tierra, al que llegaría gracias a ser capaz de medir la inclinación de los rayos del sol. En el proceso, inventaría un aparato de medición astronómica llamado esfera armilar, que permaneció en uso hasta el siglo xvii. Asimismo, elaboró varios mapas y esbozó los conceptos de longitud y latitud.
Y ya estaban por ahí los romanos dominando el mundo. Y todos estos avances del pensamiento continuarían a la cabeza de la cultura, si bien poco evolucionaron: los dueños del Mare Nostrum los dieron todos por axioma y se dedicaron a lo suyo, que era lo práctico. Lo peor vendría tras ellos: el olvido de lo aprendido, la pérdida de muchos documentos, el atraso descomunal. Condena inicua y ostracismo fatal por siglos y siglos.
El hallazgo de una gigantesca reserva de oro en la provincia china de Hunan ha desatado una auténtica conmoción en el mundo de la minería y la geología. Según un reciente estudio liderado por la Oficina Geológica de la provincia, se trataría no solo de un yacimiento de alta calidad, sino también del mayor jamás descubierto en la historia. La magnitud del descubrimiento, estimado en al menos 1.100 toneladas de oro, ha provocado un repunte inmediato en los precios internacionales del metal y podría cambiar por completo el mapa global de este recurso milenario.
El anuncio se basa en los resultados preliminares de un exhaustivo estudio geológico, publicado en noviembre de 2024 y recientemente ampliado con nuevos modelos tridimensionales. El informe técnico revela que las reservas, localizadas en el campo aurífero de Wangu, se extienden a profundidades de hasta 3.000 metros y concentran oro en al menos 40 vetas visibles. La cifra, si se confirma, superaría incluso a la mítica mina South Deep de Sudáfrica, considerada hasta ahora la mayor reserva conocida, con unos 1.025 toneladas.
Pero lo más llamativo no es solo la cantidad: es la calidad. Mientras que muchas minas operan con leyes de entre 1 y 8 gramos de oro por tonelada de roca extraída, en Wangu se han encontrado concentraciones de hasta 138 gramos por tonelada. Una proporción extraordinaria, difícil de hallar incluso en los yacimientos más antiguos de Australia o Canadá.
Esta combinación de volumen y pureza ha llevado a los expertos a clasificar el hallazgo como un “supergigante”, un término poco habitual que solo se ha aplicado a contadas formaciones minerales en todo el planeta. De hecho, algunos especialistas ya lo consideran uno de los descubrimientos geológicos más importantes de las últimas décadas.
Un hallazgo que desafía las predicciones
Durante años, los analistas han alertado sobre la inminente llegada del “peak gold”: el punto de inflexión a partir del cual las nuevas reservas de oro serían tan escasas y caras de explotar que la producción mundial comenzaría a caer de forma irreversible. Las razones son claras: la mayor parte de los depósitos accesibles ya han sido explotados, y los que quedan están enterrados a grandes profundidades o en entornos hostiles desde el punto de vista logístico y medioambiental.
Sin embargo, el hallazgo de Wangu pone en entredicho esa narrativa. Si bien no significa que el oro vuelva a ser fácil de extraer —la profundidad del yacimiento implica operaciones costosas y complejas—, sí demuestra que la Tierra aún guarda secretos geológicos por revelar. Y que, quizás, la era del oro no esté tan cerca de su fin como algunos pensaban.
Este descubrimiento también tiene una implicación geopolítica de primer orden. China ya es el mayor productor de oro del planeta, con un 10% del total mundial en 2023, y también el mayor consumidor, importando oro a gran escala desde países como Australia o Sudáfrica. La posibilidad de contar ahora con un yacimiento nacional de esta magnitud podría reducir su dependencia exterior y consolidar su posición estratégica en el mercado de metales preciosos.

¿Cómo se forma un tesoro así?
La ciencia detrás de este tipo de formaciones es tan fascinante como compleja. Tradicionalmente, se pensaba que el oro se concentraba en las rocas mediante la acción de fluidos hidrotermales que, al enfriarse, precipitaban el metal en las fracturas del subsuelo, muchas veces junto al cuarzo. Sin embargo, esa teoría no explica del todo cómo se forman vetas tan ricas como las halladas en Hunan.
Un estudio reciente publicado en Nature Geoscience sugiere que los terremotos podrían desempeñar un papel crucial en este proceso. Los seísmos alteran bruscamente la presión en las capas profundas de la corteza terrestre, provocando que el oro disuelto en los fluidos precipite de forma repentina en concentraciones mucho mayores. Esta hipótesis explicaría no solo la riqueza de ciertas vetas, sino también la disposición irregular de los filones.
En el caso del yacimiento de Wangu, los modelos geológicos apuntan a una estructura tectónica activa en el pasado, lo cual refuerza la teoría de la precipitación sísmica. Además, algunos de los núcleos de perforación muestran oro visible a simple vista, algo poco común en la minería moderna, y que normalmente indica depósitos de altísima ley.
Un proyecto ambicioso en marcha
Las autoridades chinas no han tardado en poner en marcha una operación de exploración intensiva. La estrategia, liderada por el recién creado grupo estatal Hunan Mineral Resources Group, ya ha perforado 55 pozos, acumulando más de 65 kilómetros de muestras. La idea es confirmar las estimaciones actuales y expandir el área de exploración hacia las zonas periféricas del yacimiento, donde también se han detectado indicios de mineralización.
El plan quinquenal del gobierno prevé incorporar más de 110 toneladas adicionales a las reservas nacionales antes de 2030. Para ello, será necesario desarrollar tecnologías avanzadas de perforación, ventilación y transporte subterráneo a gran profundidad, así como respetar las crecientes exigencias medioambientales que rodean la minería moderna.

No hay que olvidar que, aunque valioso, el oro no deja de ser un recurso no renovable, y su extracción conlleva impactos sobre el terreno, el agua y la biodiversidad. En ese sentido, el reto será doble: explotar un tesoro sin destruir el entorno que lo contiene.
Una historia que apenas comienza
La historia del oro está marcada por grandes descubrimientos que, en su momento, parecieron imposibles: el filón de Witwatersrand en Sudáfrica, las minas de Yukón en Canadá, o los depósitos amazónicos en Brasil. Pero pocas veces un hallazgo ha llegado con tal cantidad de oro, tal calidad y tal potencial para reconfigurar un sector entero.
Aún queda mucho por verificar: el volumen final, la viabilidad económica, la dificultad técnica y los costos medioambientales. Pero si las cifras se confirman, estaremos ante el mayor yacimiento de oro jamás encontrado por el ser humano. Y eso, sin duda, reescribe lo que sabíamos sobre nuestros propios recursos naturales.
La vida cotidiana está llena de situaciones en las que reaccionamos gracias a la combinación de vista y oído. Cruzar la calle porque vemos el semáforo en verde al mismo tiempo que escuchamos el tráfico detenerse, o girarnos porque alguien nos llama mientras se acerca por detrás son ejemplos simples, pero fundamentales, de cómo la integración multisensorial mejora nuestras decisiones. Hasta ahora, los neurocientíficos habían comprobado que recibir información de dos sentidos a la vez acelera la respuesta, pero no estaba claro si el cerebro integra esos datos desde el principio o si cada sentido funciona por separado antes de juntarse en una misma acción.
El estudio liderado por investigadores de University College Dublin, University of Rochester y Trinity College Dublin arroja luz sobre esta cuestión. Utilizando técnicas de electroencefalografía (EEG) y modelos computacionales, los investigadores demostraron que los estímulos visuales y auditivos se procesan de manera independiente al inicio, pero que en la fase final ambos confluyen en el sistema motor, donde se toma la decisión de actuar. Esta precisión en el proceso resuelve dudas que llevaban décadas en debate dentro de la neurociencia.
La importancia del hallazgo es enorme. Comprender cómo se combinan los sentidos no solo responde a una curiosidad científica, sino que ofrece un modelo claro del “cableado” cerebral para la toma de decisiones multisensoriales. Esta información puede servir de base para nuevas terapias dirigidas a personas con trastornos sensoriales o cognitivos. En otras palabras, el trabajo no solo nos ayuda a entender cómo reaccionamos al mundo, sino que también tiene implicaciones para mejorar la calidad de vida en quienes perciben los estímulos de manera distinta.

El experimento detrás del descubrimiento
Para desentrañar este mecanismo, los investigadores diseñaron un experimento aparentemente sencillo. Los participantes, un total de 43 en dos estudios distintos, miraban una animación de puntos mientras escuchaban una serie de tonos. Su tarea consistía en presionar un botón tan pronto como detectaran un cambio en los puntos, en los tonos o en ambos. Aunque pueda sonar básico, este tipo de tareas permite a los científicos medir con gran precisión los tiempos de reacción y la actividad cerebral asociada.
Mediante electroencefalografía, los investigadores registraron la actividad cerebral durante cada decisión. Observaron una señal característica llamada “positividad centro-parietal”, que indica cómo el cerebro acumula información hasta alcanzar un umbral necesario para generar una acción.
Analizando esta señal, comprobaron que los procesos de decisión de la vista y el oído comenzaban por caminos separados, como dos corredores que parten en paralelo. Pero la diferencia crucial llegó cuando ambos estímulos aparecían al mismo tiempo: en lugar de competir, sus señales se integraban en la fase motora, acelerando el momento de apretar el botón.
Los científicos también introdujeron retrasos intencionados en uno de los dos estímulos, ya fuera el visual o el auditivo. Este detalle fue clave. Si ambos sentidos hubieran estado “corriendo una carrera” por separado, los retrasos habrían cambiado los resultados de manera drástica. Pero lo que encontraron fue distinto: aunque cada proceso se iniciaba de forma independiente, el cerebro lograba combinarlos en la fase final, confirmando que no se trata de una simple carrera entre sentidos, sino de un sistema de integración.
El modelo de integración frente al modelo de carrera
Para interpretar los datos, el equipo comparó dos modelos computacionales distintos. El primero, conocido como modelo de carrera, propone que la vista y el oído compiten entre sí para ver cuál llega primero a generar una acción. Según esta idea, la respuesta se desencadenaría en cuanto uno de los sentidos llegara al umbral de decisión. Este modelo parecía lógico y había sido sugerido en el pasado, pero no explicaba por qué reaccionamos más rápido cuando ambos estímulos ocurren juntos.
El segundo modelo, llamado modelo de integración, planteaba algo diferente: los dos sentidos recogen información de forma independiente, pero sus señales se suman antes de llegar al sistema motor. En otras palabras, el cerebro junta las “pistas” recogidas por la vista y el oído para llegar antes al umbral de acción.
Los resultados del experimento encajaron mucho mejor con esta explicación, especialmente cuando se introducían pequeños retrasos en los estímulos. La integración permitía entender por qué la reacción seguía siendo eficiente, incluso si uno de los sentidos llegaba un poco tarde.
Este hallazgo tiene una importancia clave: nuestro cerebro no se limita a dejar que los sentidos compitan entre sí, sino que aprovecha la fortaleza de ambos para generar respuestas más rápidas y eficaces. Este sistema ofrece una ventaja evolutiva clara. Un animal que oye un ruido sospechoso y ve un movimiento extraño al mismo tiempo tendrá más probabilidades de escapar a tiempo que si solo confiara en un único sentido.

Un puente hacia aplicaciones clínicas
Más allá de la teoría, los resultados del estudio abren la puerta a aplicaciones médicas. Muchas personas con trastornos del procesamiento sensorial —como quienes tienen autismo, esquizofrenia o secuelas de daño cerebral— presentan dificultades para integrar la información de diferentes sentidos. Conocer el “circuito real” de esta integración multisensorial puede ayudar a diseñar terapias más precisas. Por ejemplo, ejercicios de rehabilitación cognitiva podrían entrenar al cerebro a mejorar la coordinación entre vista y oído.
Los investigadores destacan que este modelo de integración también puede servir como base para el desarrollo de herramientas de diagnóstico más finas. Si los patrones de integración sensorial son distintos en personas con alteraciones neurológicas, entonces medir esas diferencias podría ser útil para detectar problemas de forma temprana. Esto es especialmente relevante en niños, donde las dificultades de integración pueden afectar al aprendizaje y la comunicación.
En un futuro, incluso podrían diseñarse interfaces tecnológicas que aprovechen este conocimiento. Por ejemplo, sistemas de realidad aumentada o prótesis auditivas y visuales que trabajen juntas de manera más eficiente, basadas en el modo real en que el cerebro humano integra la información multisensorial. Así, este hallazgo no se limita a la investigación básica: tiene un potencial muy concreto en la vida real.
Lo que este hallazgo significa para todos nosotros
Aunque pueda parecer un tema abstracto, entender cómo el cerebro integra vista y oído afecta directamente a nuestra vida diaria. Cada vez que reaccionamos al mundo en milésimas de segundo —cuando esquivamos un coche, respondemos a una alarma o seguimos una conversación en un lugar ruidoso— estamos usando este sistema de integración multisensorial. Saber cómo funciona nos ayuda a comprender por qué somos capaces de sobrevivir y adaptarnos a entornos cambiantes y complejos.
El estudio también nos recuerda que los sentidos no funcionan en compartimentos aislados. No vemos por un lado y escuchamos por otro: vivimos en un mundo donde las experiencias llegan mezcladas, y nuestro cerebro está diseñado para aprovechar esa mezcla en beneficio propio.
Esta visión puede cambiar incluso cómo entendemos la educación, el diseño de tecnologías o la atención a personas con necesidades especiales.
En definitiva, la investigación publicada en Nature Human Behaviour muestra que el cerebro no es solo un receptor de información pasiva, sino un sistema activo que combina, filtra y acelera la información para ayudarnos a actuar con mayor eficacia. Un recordatorio de que, detrás de cada decisión rápida que tomamos, hay una maquinaria cerebral que lleva millones de años perfeccionándose para mantenernos un paso adelante.

Ciencia construida en equipo
Un aspecto llamativo del estudio es su carácter colaborativo. Los autores destacan que este trabajo no surgió de la nada, sino que se apoyó en décadas de investigación y en una red de cooperación científica entre Irlanda y Estados Unidos. John Foxe, director del Del Monte Institute for Neuroscience de la University of Rochester, recordó que la idea se gestó a lo largo de muchos años de colaboración entre distintos laboratorios y generaciones de científicos.
Simon Kelly, profesor en University College Dublin, había desarrollado en 2012 un método para medir cómo el cerebro acumula información en el tiempo, lo que resultó fundamental para este nuevo estudio. Gracias a ese avance previo, ahora pudieron rastrear con detalle cómo evolucionaban las señales visuales y auditivas hasta converger en la fase motora.
La ciencia, como recalcan los autores, es también un proceso de integración humana, donde la cooperación internacional permite que las ideas maduren y se concreten en descubrimientos.
Este enfoque subraya una lección importante: los grandes avances suelen necesitar tiempo, paciencia y trabajo conjunto. No basta con tener una buena pregunta; también hacen falta herramientas adecuadas, colaboración entre expertos de distintas áreas y, a menudo, años de experimentación.
Referencias
- Egan, J.M., Gomez-Ramirez, M., Foxe, J.J., Kelly, S., et al. Distinct audio and visual accumulators co-activate motor preparation for multisensory detection. Nat Hum Behav (2025). doi: 10.1038/s41562-025-02280-9
Existe un lenguaje del color que, de manera consciente o no, aún utilizamos en el presente. Ya sea en ceremonias religiosas, reuniones profesinales o eventos lúdicos, los colores que elegimos para vestirnos funcionan como signos de la comunicación no verbal. Este uso del color como símbolo cargado de significados sociales, religiosos y políticos también se registra en el pasado. En la China imperial, por ejemplo, cada tono estaba vinculado a los principios cosmológicos de los cinco elementos (metal, madera, agua, fuego y tierra) y a los cinco puntos cardinales (norte, sur, este, oeste y centro), una concepción única del orden universal que organizaba tanto la naturaleza como la jerarquía social. Dentro de este sistema, el amarillo ocupó un lugar especial: representaba la tierra y el centro, es decir, el punto de equilibrio del cosmos. Entonces, ¿por qué el amarillo se convirtió en un color prohibido para la mayoría de la población?
El sistema cromático de los Wu Xing o cinco elementos
Colores y orden cósmico
La antigua cosmovisión china integraba colores, elementos y puntos cardinales en un sistema coherente que servía tanto para guiar los rituales religiosos como para organizar la sociedad en su conjunto. Por su asociación con la tierra, el amarillo se vinculaba al centro, punto de equilibrio y sostén del universo. Mientras que el rojo se relacionaba con el sur y el fuego, y el negro con el norte y el agua, el amarillo se concebía como la base sobre la cual descansaban los demás elementos.
Esta posición privilegiada lo convirtió en un color fundamental en las ceremonias y rituales. En los textos clásicos, como el Libro de los ritos, se menciona que las ofrendas a la tierra debían realizarse con objetos amarillos, un ejemplo de la profunda relación simbólica entre este color y el culto a los ancestros y a los dioses tutelares del cosmos.
De la tierra al poder imperial
La región del río Amarillo se considera la cuna de la civilización china hasta el punto de que sus aguas guladas, cargadas de loess (los sedimentos limosos que le proporcionan su característica tonalidad), se convirtieron en símbolo del país. De ahí derivó la identificación del amarillo con la centralidad política y cultural del Imperio del Centro. El emperador, en cuanto soberano absoluto, se concebía como el mediador entre el cielo y la tierra, y por tanto el único portador legítimo del color central, el amarillo.
Esa centralidad simbólica hizo que, con el paso de los siglos, el amarillo se convirtiera en el color por excelencia de la autoridad imperial. Desde las dinastías Sui (581-618) y Tang (618-907) hasta los Qing (1644-1912), el amarillo se reservó en exclusiva para el emperador. Su utilización por parte del pueblo, de hecho, estaba severamente prohibida. Esta prohibición formaba parte de un elaborado sistema de tabúes cromáticos cuyo fin era mantener el orden social y reforzar el poder del trono.

El origen del tabú del amarillo
El privilegio de los emperadores
Aunque ya desde la dinastía Zhou se reconocía la importancia del amarillo, fue en la época Sui (581–618) cuando se estableció formalmente como color exclusivo de la corte. El emperador Gaozu de los Tang (618–626) imitó esa costumbre y la consolidó como norma imperial. Así, solo el soberano podía vestir túnicas amarillas, lo que convertía este color en una señal inequívoca de majestad y supremacía.
El emperador Taizong de Tang (626–649) es el primer monarca que se representa en retratos vistiendo túnicas amarillas, inaugurando una tradición que se mantendría hasta la caída de los Qing, ya en el siglo XX. Vestir de amarillo equivalía a proclamarse hijo del Cielo. Por eso, cualquier súbdito que osara llevarlo podía ser acusado de usurpación, rebelión o incluso traición.
Variantes y jerarquías dentro de la familia imperial
El tabú del amarillo, sin embargo, no se aplicaba de manera sistemática dentro de la propia familia real. Durante la dinastía Qing, por ejemplo, aunque el emperador era el único que podía usar el amarillo brillante, el príncipe heredero tenía la posibilidad de lucir prendas de un tono albaricoque. Otros príncipes estaban autorizados a vestir un amarillo dorado más apagado. Cada matiz, por tanto, servía para marcar diferencias jerárquicas y reforzar así la idea de que el amarillo puro correspondía únicamente al trono.

El amarillo en los rituales y la vida cotidiana imperial
El color de las ceremonias
El amarillo también formaba parte esencial de los rituales de sacrificio a los ancestros. Durante esas ceremonias, el emperador debía vestir de amarillo, cabalgar caballos amarillos y usar estandartes del mismo color. Incluso los alimentos del banquete ritual, como el mijo, debían ser amarillos. Este despliegue cromático buscaba reafirmar la idea de que el soberano encarnaba la centralidad de la tierra y garantizaba la armonía cósmica.
El amarillo en la arquitectura y la escritura
En la arquitectura imperial, el amarillo también estaba presente. Así, las tejas de la Ciudad Prohibida de Pekín son amarillas, símbolo del poder exclusivo de los emperadores Ming y Qing. Del mismo modo, los edictos imperiales se redactaban en papel amarillo, conocido como huangbang o “anuncio amarillo”, que reforzaba la asociación entre autoridad y color.

El amarillo como símbolo de rebelión
Resulta paradójico que el mismo color que simbolizaba la autoridad imperial pudiera convertirse en emblema de rebelión. En la revuelta de Chenqiao de 960, por ejemplo, los soldados vistieron con una túnica amarilla al general Zhao Kuangyin y lo proclamaron emperador: nacía, así, la dinastía Song. Desde entonces, la expresión “huangpao jiashen” (vestirse con la túnica amarilla) pasó a significar usurpar o recibir el poder imperial.
Asimismo, en distintas rebeliones campesinas se emplearon estandartes amarillos para transmitir la idea de que los sublevados aspiraban al trono. El uso del amarillo fuera del marco oficial, por tanto, se percibía como un desafío abierto al orden establecido.

La caída del tabú y las nuevas connotaciones del amarillo
La Revolución de 1911, que puso fin a la dinastía Qing, derribó también el sistema simbólico que sustentaba los privilegios cromáticos. Desde entonces, el amarillo perdió su aura imperial y, sorprendentemente, adquirió connotaciones negativas. Influido por la prensa occidental de finales del siglo XIX, el término “amarillo” pasó a asociarse con lo vulgar y lo obsceno. En la China contemporánea, “amarillo” es sinónimo de pornografía, un giro semántico radical si se compara con su antiguo estatus sagrado.
El recorrido del amarillo en la historia china refleja de manera paradigmática cómo un color puede condensar significados de poder, religión y cultura, y cómo esos significados pueden invertirse radicalmente con el paso del tiempo. El tabú del amarillo imperial nos recuerda que los colores no son neutrales, sino elementos de poder y símbolos de identidad que cambian junto con las sociedades que los utilizan.
Referencias
- Bi, Wei. 2024. "Five basic colour terms and colour taboos in ancient China (part one)." Roczniki Humanistyczne, 72.9: 101-120. DOI: https://doi.org/10.18290/rh24729.6
Montañas hay muchas, pero pocas tienen la carga simbólica, estética y emocional del monte Fuji. Esta cumbre de 3.776 metros que domina el horizonte japonés ha sido durante siglos musa de artistas, escenario de rituales espirituales y meta para aventureros. Pero lo que ocurrió el pasado 5 de agosto de 2025 supera cualquier relato de ficción. Ese día, un hombre de 102 años y 51 días alcanzó la cima tras tres jornadas de escalada. Se llama Kokichi Akuzawa y su gesta ha batido un récord Guinness. Pero detrás del reconocimiento hay mucho más que una simple marca numérica: hay una historia de perseverancia, familia, coraje y un ejemplo silencioso de lo que significa envejecer con dignidad.
La hazaña ha sido confirmada oficialmente por Guinness World Records, que publicó un comunicado de prensa detallando cada paso de esta epopeya. Pero los hechos, por sí solos, no alcanzan a capturar todo lo que simboliza este ascenso. Porque Akuzawa no sólo luchó contra la altura, el frío y la falta de oxígeno. También lo hizo contra su propio cuerpo: meses antes había sufrido una caída, una infección por herpes zóster y un fallo cardíaco. Y, aun así, volvió a calzarse las botas, ajustar el bastón de trekking y emprender una nueva subida a la montaña más emblemática del país.
Un logro fuera de lo común
Desde hace décadas Kokichi lidera el Club de Montañismo de Gunma, y ha hecho de la escalada una forma de vida. Incluso en su cumpleaños número 99 celebró coronando otra cumbre, la del monte Nabewariyama, de 1.272 metros. Pero escalar el Fuji, con sus pendientes empinadas, su aire cada vez más escaso y las noches frías en los refugios de altura, es otro nivel.
Akuzawa ya había subido al Fuji antes. La última vez fue cuando tenía 96 años. Seis años después, decidió repetir la hazaña, pero esta vez su cuerpo no estaba en las mismas condiciones. Aun así, se entrenó con disciplina: cada mañana salía a caminar durante una hora, y cada semana subía alguna montaña de menor altitud. La preparación no era solo física, también mental. Y, como cualquier buen alpinista, sabía que la mente es tan importante como las piernas.
El 3 de agosto, acompañado por su hija de 70 años y algunos compañeros de montaña, comenzó la subida por la ruta Yoshida, la más popular entre los peregrinos. Es cierto que esta ruta es la “más fácil” de las cuatro opciones que tiene el monte, pero eso es relativo: la ascensión implica más de 1.700 metros de desnivel positivo, aire enrarecido y temperaturas que descienden drásticamente a medida que uno se aproxima a la cima.

Una subida de tres días, paso a paso
A diferencia de la mayoría de los excursionistas, que hacen la subida en un día y descansan solo unas horas en un refugio, Akuzawa se tomó su tiempo. Dividió la travesía en tres días, durmiendo dos noches en diferentes estaciones de montaña. El clima, afortunadamente, le fue favorable durante la mayor parte del trayecto, aunque el viento y el frío no se hicieron esperar al alcanzar las cotas más altas.
El momento más crítico fue al llegar a la novena estación. Exhausto, afectado por la altitud y el esfuerzo acumulado, Akuzawa pensó en abandonar. Nadie de su grupo se atrevía a presionarlo. Había dado ya una lección monumental solo por intentarlo. Pero fue su hija quien, con serenidad, lo animó a continuar. Le pidió que se concentrara en dar un solo paso a la vez. Y eso fue lo que hizo.
El 5 de agosto, a las 11:00 de la mañana, pisó la cumbre del monte Fuji. Firmó en el libro de visitas del santuario Fujisan Sengen, se tomó unas fotos con su equipo y recibió, días después, el certificado que lo acredita como el hombre de mayor edad en lograrlo.

Más que un récord, una lección de vida
La hazaña de Kokichi Akuzawa trasciende lo deportivo. En un mundo que a menudo relega a los mayores a un papel secundario o los encierra en estereotipos de fragilidad, este anciano japonés ha desmontado todos los prejuicios con una sola caminata de tres días. No es sólo que haya llegado a la cima de una montaña, es que lo hizo tras enfrentarse a enfermedades, lesiones y con una edad que para muchos sería sinónimo de inmovilidad.
En Japón, donde los centenarios se cuentan por decenas de miles, Akuzawa es parte de una generación que ha redefinido lo que significa envejecer. No se trata de ignorar los límites del cuerpo, sino de convivir con ellos, adaptarse y no rendirse. En muchos sentidos, su historia recuerda a la de otras personas que siguen corriendo maratones, pintando cuadros o tocando instrumentos musicales con más de un siglo de vida a cuestas.
Además, hay una dimensión espiritual en su logro. El monte Fuji no es solo una montaña para los japoneses. Es un símbolo sagrado, un lugar de peregrinación y contemplación. Subirlo es, para muchos, un acto de purificación, de renovación interior. Que alguien de 102 años haya completado ese ritual adquiere una resonancia profunda, casi poética.

¿Lo volverá a hacer?
Cuando le preguntaron si pensaba repetir la hazaña, Akuzawa bromeó diciendo que no. Pero luego matizó: quizás el año que viene cambie de opinión. Porque si algo ha demostrado esta historia es que, mientras haya ganas y fuerza de voluntad, no hay edad que nos impida alcanzar una cumbre. Literal o metafóricamente.
Su historia ha dado la vuelta al mundo. Y no es para menos: en un tiempo en que buscamos referentes, inspiración y relatos que nos conecten con lo esencial, la historia de Kokichi Akuzawa brilla como una de esas rarezas verdaderas que parecen sacadas de una película… pero que ocurrieron en la vida real.
Hay personas que van a los museos con un interés por el detalle técnico, por la pincelada, por la luz, por la época. Otras se detienen simplemente porque una imagen las conmueve. Lo que tienen en común es una certeza: esa obra es el resultado de una mano humana. Pero, ¿y si no lo fuera del todo? ¿Y si un algoritmo cuántico decidiera cómo se debe ver un cuadro de Caravaggio? No con filtros ni efectos digitales, sino con lógica matemática pura, probabilística, ejecutada en un ordenador que no se comporta como los convencionales.
Un equipo internacional de investigadores ha llevado esta pregunta al límite. En su trabajo Quantum computing inspired paintings: reinterpreting classical masterpieces, aplican computación cuántica real para transformar obras icónicas de Caravaggio, Magritte y Richter. A partir de los resultados generados por circuitos cuánticos, no solo crean nuevas composiciones, sino que las reproducen físicamente con óleo sobre madera. “Buscamos combinar la estética clásica y la cuántica a través de estas tres obras de arte”. Este es un experimento pionero que fusiona los principios fundamentales de la física con la sensibilidad artística.
La idea: arte asistido por computación cuántica
El proyecto no se limita a la digitalización o a la reinterpretación visual. La propuesta es más radical: se parte de una pintura clásica, se discretiza su imagen en una cuadrícula y cada fragmento se transforma de acuerdo con el resultado de una simulación cuántica. “Utilizamos la salida de un cálculo cuántico para cambiar la composición de las pinturas”.
El equipo empleó un modelo físico conocido como Hamiltoniano de Ising, que describe interacciones entre partículas con espines —una propiedad cuántica—. Esta estructura matemática se implementa en un circuito cuántico real ejecutado en hardware de IBM, sin corrección de errores. El resultado es una especie de barajado visual: el orden original de los fragmentos se altera según las probabilidades generadas por el sistema cuántico, que evoluciona en el tiempo.
“Quantum Transformation I”: Narciso deformado por la mecánica cuántica

La primera intervención se realizó sobre el famoso Narciso de Caravaggio. En la obra original, el joven se contempla en el agua, fascinado por su reflejo. En la versión cuántica, ese reflejo ha perdido su forma. Ahora se ve perturbado, con una geometría fragmentada e impredecible.
Para lograr esto, los investigadores dividieron la parte inferior del cuadro en una cuadrícula de 16 columnas y 13 filas. “Medimos el valor esperado del operador Pauli Z para cada qubit y usamos los resultados para definir el nuevo orden de los elementos en la pintura”. Es decir, cada fragmento del reflejo fue desplazado siguiendo una lógica probabilística, basada en la evolución temporal de los cúbits.
El resultado fue una imagen modificada digitalmente que luego fue seleccionada y reproducida en pintura al óleo sobre un panel de madera. La elección de no corregir los errores del hardware cuántico también es intencionada: esas “imperfecciones” aportan un componente humano y orgánico al resultado final.

Magritte sin máscara: el surrealismo como reflejo cuántico
En la segunda intervención, la pintura elegida fue Le fils de l’homme de René Magritte. El equipo tomó la imagen completa del cuadro y la sometió a un reordenamiento general, excluyendo únicamente la icónica manzana que cubre el rostro del personaje.
Se dividió la imagen en una cuadrícula de 16 por 20. Pero en lugar de aplicar un solo proceso de evolución temporal, se ejecutaron dos simulaciones cuánticas independientes: una para la mitad superior (con el hardware ibm sherbrooke) y otra para la inferior (con ibm strasbourg), ambas con 10 pasos de evolución. Esto generó una distorsión especular que se concentra en el centro del cuadro.
La parte más interesante es conceptual. Magritte decía que “todo lo que vemos esconde otra cosa y siempre queremos ver lo que está oculto por lo que vemos”. El equipo tomó esta idea al pie de la letra: desplazaron el cuadro entero para dejar al descubierto el rostro, reconstruido con referencia a otra obra del artista, La bonne foi. La IA cuántica no solo fragmenta, también revela.
Colores en caos: cuando Richter se encuentra con la aleatoriedad cuántica

La tercera pintura reinterpretada es 192 Farben, de Gerhard Richter. Aquí no hay figuras humanas ni paisajes, solo 192 cuadrados de colores. Ya en su versión original, el cuadro explora el azar en la elección cromática, pero todavía dentro de un marco decidido por el artista.
Los investigadores utilizaron esta base estructural para ir más allá. Cada color fue tratado como una unidad susceptible de ser modificada por el cálculo cuántico. “En nuestro proyecto, eliminamos completamente la decisión del artista y la ‘aleatoriedad’ es decidida únicamente por la computación cuántica”.
La imagen se transformó usando el mismo tipo de evolución cuántica, pero sin tener en cuenta el índice original de cada fragmento. El nuevo orden responde a los valores esperados de los observables cuánticos multiplicados por 192, es decir, uno por cada color. El resultado mantiene la paleta pero altera la disposición. Se produce un caos ordenado, aleatorio pero estructurado.

¿Es arte si lo hace un algoritmo?
Uno de los aspectos más provocadores de este trabajo es la implicación filosófica: ¿quién es el autor de estas pinturas? ¿La máquina cuántica? ¿El equipo humano que selecciona los parámetros y ejecuta los circuitos? ¿La persona que pinta a mano sobre la madera?
Para los autores, la clave está en la colaboración. “El objetivo es reproducir estas obras como pinturas físicas al óleo sobre paneles de madera. Con este proceso, completamos un círculo completo entre técnicas clásicas y cuánticas”. La IA no sustituye al artista, lo acompaña, lo reta, le ofrece una nueva forma de observar.
Este enfoque no busca automatizar la creatividad, sino expandir sus posibilidades. El algoritmo cuántico no “sabe” lo que es bello, pero introduce una variable que ni siquiera el azar humano puede igualar: la superposición de estados. Cada pintura cuántica es, en cierto sentido, una posibilidad entre muchas.
El futuro de la estética cuántica
Este experimento no es un punto final, sino un punto de partida. Los autores del paper abren la puerta a nuevas técnicas. “Solo usamos un algoritmo en particular —evolución temporal mediante trotterización—, pero podrían explorarse métodos variacionales, aprendizaje automático cuántico o resoluciones diferenciales cuánticas”.
El arte, históricamente, se ha apropiado de cada tecnología nueva: desde la cámara oscura hasta la inteligencia artificial. Lo novedoso aquí es la naturaleza misma del procesamiento. La computación cuántica no imita al cerebro humano, sino que responde a reglas de una física que apenas empezamos a comprender.
Lo que antes era una pincelada ahora puede ser una función de onda. Y lo que parece abstracto no lo es tanto: quizás solo está en otro estado, esperando a colapsar en algo nuevo.
Referencias
- Arianna Crippa, Yahui Chai, Omar Costa Hamido, Paulo Itaborai, Karl Jansen. Quantum computing inspired paintings: reinterpreting classical masterpieces. arXiv: https://doi.org/10.48550/arXiv.2411.09549.
Los bifaces achelenses o hachas de mano se han convertido en un emblema de las actividades humanas durante la prehistoria. Estas herramientas de piedra tallada, creadas por homínidos hace más de medio millón de años, forman parte del repertorio más duradero y universal de la humanidad. Sin embargo, su historia social —es decir, su percepción, uso y significado en las épocas históricas posteriores— parecía comenzar recién en el siglo XVII, cuando los naturalistas y los anticuarios empezaron a coleccionarlos y a debatir sobre su origen humano. Un reciente estudio multidisciplinar, publicado en 2024 en la revista Cambridge Archaeological Journal, cambia esta cronología de manera radical.
La investigación demuestra que en el Díptico de Melun, una pintura ejecutada hacia 1455 por el maestro francés Jean Fouquet, aparece representado un objeto que cumple con todas las características de un bifaz achelense. Esto supone que ya en pleno siglo XV, en el marco del Renacimiento temprano, estas herramientas prehistóricas ya se percibían como dotadas de un valor simbólico o cultural relevante. El enigma arqueológico sobre el momento en el que los bifaces entraron en el imaginario cultural europeo parece haberse resuelto gracias a un cuadro religioso.

El contexto histórico del hallazgo
El Díptico de Melun y su comitente
El Díptico de Melun fue una obra encargada por Étienne Chevalier, el tesorero de Carlos VII de Francia. La tabla, que estaba destinada a su capilla funeraria en la colegiata de Notre-Dame de Melun, constaba de dos paneles. A la izquierda, Chevalier aparece acompañado de su patrón, san Esteban, primer mártir cristiano; a la derecha, la Virgen entronizada con el Niño. En la actualidad, el panel con el donante se conserva en la Gemäldegalerie de Berlín, mientras que la tabla mariana se encuentra en Amberes.
Considerado el más importante pintor francés de su tiempo, Jean Fouquet fue capaz de combinar un realismo minucioso —gracias a la recién adoptada técnica al óleo— con una idealización espiritual. Sus obras se distinguen por la atención en los detalles materiales, los ropajes, las joyas, los mármoles y, en este caso, un objeto, en apariencia, secundario que se revela de enorme trascendencia.
El atributo insólito de san Esteban
En la iconografía cristiana, san Esteban suele representarse acompañado de piedras, símbolo de su martirio. En la tabla de Fouquet, sin embargo, este elemento muestra una dimensión nueva. El santo sostiene un objeto grande, afilado, con punta, base globular y superficie facetada: se trata, pues, de un bifaz en toda regla. La pintura, además, resalta su color rojizo, con reflejos luminosos, mientras que su textura recuerda las marcas derivadas de la talla del sílex.
Hasta ahora, los historiadores del arte lo habían descrito de forma genérica como una piedra o un gran canto. El nuevo estudio, en cambio, lo identifica con un hacha achelense, lo que adelanta en dos siglos la primera representación inequívoca en la Europa moderna de estos utensilios.

La investigación científica
Análisis de la forma, el color y las marcas de elaboración
Para analizar el díptico, los autores del estudio aplicaron tres vías de análisis. Primero, compararon el contorno bidimensional del objeto pintado con conjuntos de bifaces hallados en los yacimientos achelenses de Europa y el Mediterráneo. Los resultados mostraron que la silueta pintada entra dentro de los parámetros típicos de los bifaces franceses, en particular, de los hallados en lugares como Saint-Acheul o La Noira.
En segundo lugar, realizaron un muestreo digital de los colores de la pintura y lo contrastaron con la gama cromática presente en las hachas de sílex recuperadas en el norte de Francia. El espectro compuesto por el amarillo, el marrón y el rojo coincidía estrechamente con los tonos habituales de estos materiales, cuya apariencia cromática suele verse alterada por la pátina y el paso del tiempo.
Por último, los investigadores contabilizaron los posibles negativos de lascado que Fouquet había representado en la superficie del objeto. El promedio de marcas visibles coincidía casi exactamente con el que presentan las piezas auténticas. La precisión pictórica, por tanto, sugiere que el artista observó un ejemplar real y lo reprodujo con notable fidelidad.

La disponibilidad de bifaces en el siglo XV
¿Cómo pudo Fouquet acceder a un bifaz achelense? Los investigadores recuerdan que en la Francia medieval los cantos tallados emergían con frecuencia en las terrazas fluviales y en las canteras de gravas, como las que se emplazan en las cercanías de Tours y Melun. Estos objetos, conocidos como ceraunia o “piedras de rayo”, se interpretaban como formaciones naturales caídas del cielo durante las tormentas. Sin embargo, su rareza y aspecto singular debieron llamar la atención del artista. No es descabellado pensar que el pintor, o alguien de su entorno, hubiese encontrado un ejemplar y lo hubiese utilizado como modelo para representar la piedra del martirio.

Implicaciones para la historia de la arqueología
Una cronología adelantada
Hasta ahora, los primeros testimonios claros de bifaces en contextos históricos provenían de textos del siglo XVII, cuando anticuarios como William Dugdale (1656) empezaron a describirlos. Su reconocimiento como artefactos producidos por los humanos no llegaría hasta fines del XVIII y XIX. El hallazgo de Fouquet, por tanto, adelanta al menos dos siglos la biografía cultural de estas herramientas y prueba que ya circulaban en el siglo XV.
Significado simbólico y religioso
La elección de un bifaz como atributo de san Esteban puede interpretarse de varias maneras. Quizás se trataba de un objeto extraño, visto como una maravilla natural con connotaciones divinas. O bien pudo responder a algún tipo de tradición local que atribuía a las piedras de formas peculiares algún tipo de poder. Sea como fuere, su inclusión en un retablo de prestigio revela que, probablemente, se consideraba una piedra de naturaleza excepcional.
La iconografía de san Esteban en el siglo XV suele mostrarlo acompañado de piedras pulidas y sin rasgos distintivos. Solo en contadas ocasiones —como en una miniatura también de Fouquet o en una escultura de Hans Leinberger (c. 1525)— se advierten formas talladas. Ninguna, sin embargo, alcanza el nivel de detalle del Díptico de Melun. Esto lo convierte en la primera representación convincente de un bifaz paleolítico en el arte europeo.

Entre arte, arqueología y memoria cultural
El hallazgo plantea preguntas sobre la relación entre objetos prehistóricos y sociedades históricas. ¿Se transmitieron ciertas memorias materiales a lo largo de los siglos, asociadas a piedras de factura peculiar encontradas en los campos? ¿Se percibieron como reliquias naturales, como restos de un pasado mítico o como vestigios humanos? El estudio no ofrece respuestas definitivas, pero abre una nueva línea de investigación sobre la “vida social” de los objetos arqueológicos antes de que se fundase la arqueología científica.
Además, el estudio demuestra la capacidad del arte medieval para conservar, de manera inadvertida, un testimonio del mundo prehistórico. La minuciosidad de Fouquet, al representar el bifaz con el mismo cuidado que los mármoles y las joyas, ha permitido que, cinco siglos más tarde, podamos reconocerlo como tal.
Referencias
- Key, A., J. Clark, J. DeSilva y S. Kangas. 2024. "Acheulean Handaxes in Medieval France: An Earlier ‘Modern’ Social History for Palaeolithic Bifaces". Cambridge Archaeological Journal, 34.2: 253-269. DOI: 10.1017/S0959774323000252
Todo un tramo de 150 kilómetros de la vía férrea que une actualmente Karachi con Lahore, en Pakistán, debe su construcción a la antigua civilización del Indo, que prosperó hace nada menos que 5000 años. No es que sus brillantes arquitectos y planificadores urbanos hubiesen concebido el transporte por tren antes de tiempo, no eran tan visionarios, pero sí fueron capaces de levantar sus ciudades con materiales de primera calidad.
Por eso, cuando a mediados del siglo xix los ingenieros coloniales ingleses buscaban balasto, la piedra utilizada para pavimentar la base de las vías de ferrocarril y dotarlas de estabilidad, acabaron usando ladrillos de la antigua ciudad de Brahminabad. Eran tan sólidos que constituyeron la materia prima ideal para la infraestructura ferroviaria. Y eso que databan del año 3000 a. C.
Esa decisión de los ingleses fue un éxito para el tren y un desastre para la arqueología. En su furor por tender el trazado destrozaron una de las ruinas que podrían haber ofrecido más pistas sobre aquellos fantásticos constructores capaces de erigir en ladrillo ciudades que tardaron milenios en poder ser emuladas en otras latitudes. Lamentablemente, los restos de Brahminabad fueron reducidos a minúsculos fragmentos para servir de alfombrado al paso del ferrocarril.
Los vestigios de la civilización del indo
Por suerte, con el paso del tiempo empezaron a aparecer vestigios de otras urbes. Y es que la civilización del Indo se extendió sobre un enorme territorio de 800 000 kilómetros cuadrados que comprendía el actual Pakistán y el noroeste de la India, y que llegó a proyectarse también hacia Afganistán. Su expansión demográfica fue muy fuerte, quizá como consecuencia de un periodo histórico muy favorable en cuanto a las condiciones climáticas.
Ese clima benigno no solo aumentó la población, sino que facilitó el progreso en la forma de vida de los habitantes del Indo. Gracias a esa mejora, durante dos milenios –el tiempo en que transcurrió su historia hasta que acaeció su súbita desaparición– aquellos pueblos produjeron algunos de los más impresionantes conjuntos urbanísticos de la Antigüedad, que permiten situarlos al nivel –o incluso por encima en algunos aspectos– de las civilizaciones más avanzadas de su época, como el Egipto de los primeros faraones o Mesopotamia.
Se tiene noticia de al menos ocho grandes ciudades que debieron acoger a decenas de miles de habitantes cada una. A través de ellas conocemos el sorprendente legado de los habitantes del Indo, cuya cultura prosperó entre el 3300 y 1300 a. C. alrededor de la cuenca de este gran río, en una zona muy amplia a caballo de la frontera entre Pakistán y la India, en la región del Punyab.

Sus increíbles grandes ciudades
El más conocido de esos poblamientos es Mohenjo-Daro, situado en el sur de Pakistán y nombrado patrimonio cultural de la humanidad por la Unesco en 1980. Durante su apogeo, unas 40 000 personas llegaron a habitar esta ciudad. No hay que olvidarse de Harappa, también en Pakistán, pero más al norte, que pudo albergar a unos 23 000 residentes; ni de otras urbes como Dholavira, Lothal y Kalibangan, situadas en la actual India.
Tres son las características de la cultura del Indo que impresionan a los arqueólogos actuales: su planificación urbana sistemática, cuyos rasgos permiten afirmar que estaba pensada con criterios de interés público y bienestar general; por la calidad de los materiales utilizados y, por último, por sus sistemas de saneamiento y drenaje o alcantarillado, que llaman la atención de forma muy particular por su modernidad.
Calles de más de un kilómetro
En cuanto al primer aspecto, en las ruinas de las principales urbes es perceptible que la organización del callejero resultaba de lo más precisa y ordenada. Las calles estaban dispuestas en un plano ortogonal, de forma que se cruzaban perpendicularmente en ángulo recto. Las principales solían correr siempre en dirección norte-sur, como se aprecia en el caso de Mohenjo-Daro, mientras que las secundarias lo hacían en dirección este-oeste. Las primeras, las principales, medían alrededor de un kilómetro o kilómetro y medio de longitud, con una anchura que podía alcanzar los diez metros.
Estas grandes vías contaban con carriles para los vehículos de ruedas y resulta muy claro que los habitantes del Indo conocían los principios básicos del tráfico, ya que, por ejemplo, construían las esquinas con forma redondeada para facilitar que los carros pudieran tomar las curvas. Las arterias secundarias tenían una anchura menor –aproximadamente, la mitad– que las grandes. También había pequeños callejones que contaban con una amplitud de solo un tercio o un cuarto respecto a las vías mayores.
Entre otros avances y servicios públicos que implantaron, destaca la iluminación mediante lámparas. Todo apunta a que dictaban estrictas normativas urbanísticas y a que estaba prohibido construir anárquicamente e invadir impunemente las calzadas o los caminos públicos para edificar las casas. La ciudad tenía una división en función de aspectos sociales y de liderazgo. El más perceptible es que existía una zona alta, protegida por una especie de fuerte, que debió de ser el lugar de residencia de la élite gobernante.
Mientras tanto, en la parte baja, y según indica la configuración de sus construcciones, habitaba el pueblo llano. A su vez, en las casas también se aprecian diferentes tipologías: las había con multitud de habitaciones, mientras que las más pequeñas contaban solo con un par de cámaras. Es muy posible que algunas estuvieran construidas en varios pisos. Una curiosidad es que la puerta de entrada a las viviendas no se situaba en la fachada principal, sino a uno de los lados.
Junto a las casas de vecinos, había otras clases de edificios. Los que aparecen más claramente identificados son los baños públicos, así como unas grandes construcciones que parecen destinadas a usos oficiales o de prestigio y que se distinguían por contar con patio. También había templos y graneros.

Con polígonos artesanales
La división de la ciudad no solo se basaba en criterios sociales, sino también funcionales, un aspecto que resulta tremendamente actual. Su manifestación más clara es que los barrios o áreas de trabajo de los artesanos, donde estaban los talleres, se encontraban separados y diferenciados de la zona de viviendas, lo que permitía aislar el espacio laboral del habitacional.
Esta planificación tan científica y práctica llevó a un considerable crecimiento espacial de los centros urbanos, que llegaron a ocupar entre ochenta y doscientas hectáreas en la fase de mayor apogeo. Se trata de dimensiones muy elevadas para una época tan remota. En su actividad constructora, las gentes del Indo demostraron gran capacidad tecnológica y una aptitud innata para el progreso. Uno de sus mayores logros fueron los ladrillos cocidos.
Sus artesanos pueden ser considerados los pioneros históricos en la exigente manufactura que requieren estos elementos: para secarlos y darles su forma permanente hacía falta calentarlos en hornos a temperaturas de más de 500 ºC, un proceso muy difícil y costoso. Lograron dominar la tecnología y llegaron a producirlos con total fiabilidad, por lo que se convirtieron en uno de sus signos de identidad arquitectónicos.
Previamente habían aprendido a fabricar ladrillos de barro simplemente secándolos al sol, pero resultan mucho menos resistentes al agua y a la compresión. Y, aunque estos más primitivos y permeables continuaron siendo habituales en la construcción de muchos edificios, los de barro cocido los sustituyeron en aquellos usos en los que era importante mantener la estanqueidad frente al agua. Así, se convirtieron en el material propio de los baños, el alcantarillado y las estructuras que protegían las ciudades de las periódicas inundaciones del Indo y sus afluentes. También fueron empleados para levantar aquellos edificios y obras arquitectónicas donde era importante contar con mayor resistencia y capacidad de compresión, caso de las murallas y los graneros.
Los albañiles del Indo no fabricaban estos elementos constructivos de cualquier manera, sino que establecieron unas dimensiones basadas en una ratio idéntica entre longitud, anchura y altura, que los arqueólogos conocen como «proporción del Indo» y que era de 4:2:1. Los ladrillos que se han encontrado en MohenjoDaro y otras ciudades solían tener unas dimensiones de 28 x 14 x 7 cm. Para estandarizar su fabricación utilizaban moldes con estas medidas.
Servicio de mantenimiento
Aunque no sabemos mucho sobre los artesanos que los elaboraron, resulta evidente por todo lo explicado que se trataba de especialistas cualificados, cuyos conocimientos se transmitían entre generaciones. Los ladrillos debían ser sustituidos cada cierto tiempo, en particular los que formaban parte de las estructuras protectoras frente a las inundaciones: según cálculos, se renovaban cada doscientos años.
Uno de los signos de la decadencia de la civilización del Indo es precisamente que, en su fase tardía, dichas piezas de barro empezaron a divergir de la citada proporción 4:2:1 y se fabricaron con medidas diferentes. Esto podría indicar que los artesanos habían abandonado este trabajo, o sencillamente que se marcharon a otro lugar. En este sentido, es curioso constatar que la primera fecha de aparición de ladrillos cocidos en otras culturas es el año 1800 a. C. en Susa (Persia), un momento coincidente con el declive de la cultura del Indo.
Pero el aspecto más destacado del urbanismo en Mohenjo-Daro y sus ciudades hermanas era el sistema de drenaje. Sus habitantes llegaron a organizar una avanzadísima infraestructura de gestión de los desechos producidos por la actividad humana. La red de alcantarillado comprendía tanto el vaciamiento individual en cada casa de aguas residuales como el transporte colectivo a través de canalizaciones mayores. En conjunto estaba diseñado con un nivel de sofisticación correspondiente a casi un milenio por delante de su tiempo, y de hecho no carecía de ninguno de los aspectos imprescindibles desde un punto de vista científico. Además, hay que valorar que su grado de implantación era total: en las principales urbes, como Harappa y Mohenjo-Daro, no había ninguna vivienda que careciera de instalaciones y conducciones de drenaje.

Higiene pública irreprochable
Las canalizaciones colectivas corrían por debajo de las calles y las calzadas. Los ingenieros responsables sabían que tenían que estar convenientemente tapadas para evitar los malos olores y la transmisión de enfermedades. Así que utilizaban ladrillos y piedras con esta función, para construir techos en voladizo. A intervalos regulares colocaban trampillas de inspección que les permitían controlar el grado de acumulación de residuos sólidos e intervenir cuando fuese necesario.
En la ciudad de Lothal, en el noreste de la India, se han preservado las ruinas del colector principal, que pueden observarse a simple vista e incluso han proporcionado a los arqueólogos interesantes pistas para deducir cómo tuvo que ser la estructura general de sus calles. El colector medía 1,5 metros de profundidad, mientras que los de cada casa oscilaban entre 20 y 46 centímetros. Se encontraba conectado a muchas alcantarillas situadas en los ejes norte-sur y este-oeste. Estaba hecho de ladrillos alisados unidos entre sí a la perfección con la técnica de la mampostería, es decir, mediante su colocación manual y posterior ensamblaje con barro o excrementos a modo de argamasa. Un sistema de goteo a intervalos regulares mantenía limpio el colector.
Contaba también con otras sofisticaciones, como un filtro de madera al final de los desagües, que retenía los residuos sólidos. En algunos tramos, se empleaban redes sostenidas por palos, para lo que practicaban agujeros a ambos lados del colector.
Estructuras portuarias antiguas
Las aguas residuales llegaban al colector principal pasando por pozos de unos dos metros y medio de diámetro, cuyo fondo estaba fabricado con ladrillos colocados en estructura radial, lo que permitía que el líquido corriera con facilidad. El colector de Lothal estaba comunicado mediante túneles con una dársena en el estuario del río Sabarmati, uno de los mayores de la región. Los muelles y estructuras portuarias de esta ciudad están consideradas como de las más antiguas conocidas de la historia.
El esfuerzo por canalizar las aguas residuales llevaba a los pueblos del Indo a mostrarse muy cuidadosos con lo que sucedía en los tramos individuales de drenaje. Para evitar que nadie echase desde su hogar basura sólida a las canalizaciones, cada casa tenía un pozo para depositar los residuos orgánicos. Todo indica que los ciudadanos conocían con exactitud la problemática que podía comportar contaminar el agua con desechos, lo cual es un signo de la elevada educación cívica que había adquirido esta cultura en una época tan remota.
Con todos estos hallazgos de la civilización del Indo, aparece no solo un pueblo que merece figurar entre los más destacados de la Antigüedad, sino un modo de vivir que cuestiona la visión habitual del pasado remoto, el que va más allá del segundo milenio antes de Cristo, como un mundo anárquico, rudimentario y más bien sucio.
Cuando pensamos en lo que nos hace sentir que la vida vale la pena, lo primero que viene a la mente suele ser la felicidad. Otros dirán que es la gratitud, esa capacidad de valorar lo que tenemos. Sin embargo, la nueva investigación ha demostrado que hay una emoción que las supera: la esperanza. No se trata de un deseo ingenuo ni de un optimismo vacío, sino de una fuerza emocional que nos impulsa hacia adelante, incluso en medio de la incertidumbre.
El equipo analizó seis estudios con más de 2.300 participantes y comparó cómo distintas emociones influían en la percepción de sentido en la vida. Los resultados fueron consistentes: solo la esperanza predecía de forma estable un mayor propósito vital. Esto significa que, incluso cuando la felicidad o la gratitud fluctuaban, la esperanza permanecía como un motor firme.
La investigación —publicada en Emotion en 2025— cambia la perspectiva que la psicología tradicional tenía sobre esta emoción. Hasta ahora, se entendía la esperanza como un recurso cognitivo ligado a establecer metas y buscar caminos para alcanzarlas. Hoy sabemos que va más allá: es una experiencia emocional central, un pegamento invisible que da coherencia a nuestra existencia.

Más que metas: una brújula vital
Los autores del estudio, entre ellos Megan Edwards y Laura King, destacan que la esperanza no es simplemente un cálculo racional sobre la posibilidad de lograr objetivos. Es un sentimiento profundamente arraigado que nos ayuda a soportar la adversidad y a mantener la confianza en que el futuro puede mejorar.
En palabras de Edwards, esta investigación "cambia la perspectiva de la esperanza de un mero proceso cognitivo relacionado con el logro de objetivos a reconocerlo como una experiencia emocional vital que enriquece el significado de la vida". La distinción es clave: no es solo pensar en metas, sino sentir que existe un camino posible.
King subraya además que vivir con un sentido de propósito se asocia con beneficios concretos: mejor salud física y mental, relaciones más sólidas, mayor satisfacción personal e incluso niveles de ingresos más altos. No es solo una cuestión filosófica: sentir que la vida tiene un propósito tangible puede transformar realidades.
La esperanza, entonces, no se limita a ser un acompañante de otras emociones. Es, según la evidencia, un pilar autónomo del bienestar humano, una brújula que organiza nuestras acciones y experiencias.
La diferencia frente a la felicidad y la gratitud
La felicidad suele describirse como un estado momentáneo: un instante de alegría, placer o calma. La gratitud, por su parte, se relaciona con apreciar lo que ya tenemos. Ambas emociones son valiosas, pero el estudio demuestra que no garantizan, por sí solas, que sintamos nuestra vida como significativa.
La esperanza se distingue porque está orientada hacia el futuro. Implica la creencia de que lo que viene puede ser mejor, aun cuando la realidad actual sea dura. Y ese matiz es lo que, según los investigadores, la convierte en una herramienta más sólida para sostenernos. La esperanza no niega las dificultades, las reconoce, pero al mismo tiempo abre la puerta a la posibilidad de cambio.
En los seis estudios revisados, ninguna emoción analizada —ni la diversión, ni el entusiasmo, ni siquiera la felicidad— mostró una capacidad tan fuerte y consistente de predecir sentido en la vida. La esperanza fue la única constante. Y ese hallazgo obliga a replantear cómo entendemos la construcción del bienestar.
"Esta idea abre nuevas vías para mejorar el bienestar psicológico"
dijo Edwards

Cómo cultivar la esperanza en lo cotidiano
Una de las grandes aportaciones del estudio es que no se limita a demostrar el valor de la esperanza, sino que ofrece pistas sobre cómo alimentarla día a día. Los investigadores sugieren prácticas sencillas que pueden hacer una gran diferencia.
Entre ellas está apreciar los pequeños momentos positivos, incluso aquellos que solemos pasar por alto: una conversación agradable, un logro mínimo, un instante de calma. También recomiendan aprovechar oportunidades, incluso en tiempos caóticos, porque sentir que avanzamos, aunque sea poco, refuerza la percepción de futuro.
Otra estrategia es reconocer el crecimiento personal y el de quienes nos rodean. Ver cómo cambiamos y evolucionamos da sentido a nuestras experiencias. Y dedicar tiempo a actividades de cuidado y nutrición —desde plantar un árbol hasta cuidar de otra persona— refuerza esa mirada hacia adelante. En resumen: la esperanza se construye con actos pequeños y concretos que alimentan la creencia en un futuro posible.
"Esta piedra angular del funcionamiento psicológico no es una experiencia rara, está disponible para las personas en su vida cotidiana y la esperanza es una de las cosas que hacen que la vida se sienta significativa"
dijo King
La ciencia conecta con la vida real
Lo interesante es que este hallazgo no se queda en lo académico. Otros estudios ya habían sugerido que la esperanza puede ser más eficaz que la atención plena para sobrellevar periodos de estrés. Investigaciones en profesionales durante la pandemia mostraron que mirar hacia adelante con confianza resultaba más útil que enfocarse únicamente en el presente.
La ciencia también ha encontrado vínculos entre la esperanza y la protección contra la depresión, la promoción de conductas saludables y la construcción de resiliencia en adolescentes. Incluso, algunos estudios han explorado cómo el humor puede reforzar la esperanza, convirtiéndose en un aliado inesperado para resistir tiempos difíciles.
Esto confirma que no hablamos de un concepto abstracto. La esperanza impacta en la salud, en el trabajo, en las relaciones y en la forma en que enfrentamos los retos diarios.
El nuevo estudio de la Universidad de Missouri simplemente le da un lugar protagónico, demostrando que es una de las emociones más poderosas que tenemos a nuestro alcance.

Un motor universal y accesible
La conclusión del estudio es clara: la esperanza está disponible para todos, no es una experiencia rara ni exclusiva de situaciones excepcionales. Se encuentra en la vida diaria, en los momentos más sencillos, y tiene la capacidad de transformar cómo sentimos y entendemos nuestra existencia.
Para King, "experimentar la vida como significativa es crucial para casi todas las cosas buenas que puedas imaginar en la vida de una persona". Y la esperanza, según la ciencia, es uno de los caminos más directos para lograrlo.
Esto abre una invitación poderosa: si queremos construir vidas más plenas, tal vez no debamos obsesionarnos con perseguir la felicidad como meta final. Quizá lo que necesitamos es aprender a cultivar la esperanza como hábito emocional, un recurso que nos permite seguir avanzando incluso cuando el camino es incierto.
La ciencia lo confirma: la esperanza no es ingenuidad, es resistencia emocional. Y en esa resistencia encontramos, muchas veces, el verdadero sentido de vivir.
Referencias
- Edwards, M. E., Booker, J. A., Cook, K., Miao, M., Gan, Y., & King, L. A. (2025). Hope as a meaningful emotion: Hope, positive affect, and meaning in life. Emotion. doi: 10.1037/emo0001513
El fondo del océano, ese territorio silencioso donde reina la oscuridad absoluta, ha vuelto a sorprendernos. Semanas después de que el hallazgo de una estrella de mar “con trasero” viralizara una expedición científica frente a las costas de Argentina, el equipo de investigadores a bordo del buque Falkor (too) ha desvelado nuevos detalles que superan lo anecdótico y rozan lo extraordinario: más de 40 especies posiblemente desconocidas para la ciencia, corales resplandecientes en rojo intenso y un jardín abisal formado por criaturas nunca antes vistas.
El protagonista sigue siendo el cañón submarino de Mar del Plata, una grieta colosal que se hunde a más de 3.500 metros en el Atlántico Sur. Pero esta vez, el foco se ha desplazado de las formas graciosas al asombro profundo: a lo largo de sus laderas verticales, los científicos descubrieron una verdadera “alfombra viviente” compuesta por colonias de Anthomastus, un tipo de coral blando de color rojo que, bajo la tenue luz del vehículo submarino SuBastian, parecía encenderse desde dentro.
Corales en flor y esponjas depredadoras
Semanas atrás, este mismo cañón submarino fue noticia tras el hallazgo de una estrella de mar de formas tan curiosas que evocaba, de manera cómica, al personaje Patricio Estrella. Pero si aquel hallazgo encendió la chispa de la curiosidad, los descubrimientos que han seguido son una llamarada de asombro científico: lo que parecía una simple anécdota viral ha dado paso a una avalancha de sorpresas que están reescribiendo lo que sabíamos del Atlántico profundo.
A diferencia de los corales que solemos asociar con aguas cálidas y claras, los que habitan estas profundidades extremas no dependen de la luz solar. Se alimentan de partículas orgánicas que arrastra la corriente, y crecen lentamente durante siglos. En esta expedición, se encontraron colonias intactas de Bathelia candida, un coral pétreo de estructura robusta y aspecto cristalino. Lo más sorprendente: su presencia no estaba documentada en estas latitudes ni a esta profundidad.
Entre los corales, los científicos detectaron también esponjas carnívoras. Estas criaturas fijas, que a primera vista parecen inofensivas, están armadas con estructuras filamentosas capaces de atrapar pequeños crustáceos o larvas que se aventuran demasiado cerca. En lugar de filtrar agua como las esponjas comunes, estas han evolucionado para devorar activamente.
Este hallazgo refuerza la idea de que las profundidades marinas no son desiertos biológicos, sino hábitats repletos de estrategias de supervivencia insólitas.

Animales que parecen lámparas flotantes
Uno de los organismos más fascinantes avistados durante la expedición fue un sifonóforo: una criatura gelatinosa y alargada, compuesta por múltiples cuerpos clonados que actúan en conjunto como un solo ser. Su forma y movimiento le han valido el apodo de “candelabro viviente”. En los videos captados por el ROV SuBastian, el sifonóforo aparece girando lentamente en la corriente, proyectando destellos azules y violetas como si respondiera a una coreografía invisible.
Este tipo de bioluminiscencia es común en especies de aguas profundas, pero su función sigue siendo un misterio parcial. Algunas teorías sugieren que podría servir para confundir depredadores, atraer presas o facilitar la reproducción.
Aunque las cámaras captaron imágenes espectaculares, no todo lo que se descubrió es visible a simple vista. Las muestras recolectadas durante la expedición incluyen microinvertebrados, huevos, larvas y fragmentos de tejido que ahora están siendo analizados en laboratorios del CONICET y del Museo Argentino de Ciencias Naturales.
Los científicos sospechan que muchas de estas criaturas no corresponden a ninguna especie conocida. De confirmarse, se trataría de una de las mayores adiciones a la biodiversidad marina registrada en aguas sudamericanas en la última década.

Una misión científica que emociona al país
Como ya ocurrió con la ahora célebre “estrella culona”, el resto de la expedición también fue transmitido en vivo y seguido por millones de personas. Docentes utilizaron las transmisiones en sus clases, familias se reunieron frente a la pantalla para “viajar al fondo del mar” y las redes sociales se llenaron de memes y mensajes de asombro.
Este componente humano ha sido clave para el éxito del proyecto. La expedición ha conseguido lo que muchas veces parece imposible: combinar ciencia de vanguardia con entusiasmo popular. Lo que antes parecía un universo frío e inaccesible —el lecho oceánico a 3.500 metros— hoy es motivo de orgullo colectivo.

Lo que nos dicen los abismos
Más allá de los descubrimientos puntuales, lo que se revela es un mensaje más amplio: nuestro conocimiento del océano sigue siendo parcial. La propia existencia de corales, animales bioluminiscentes y esponjas cazadoras en este rincón del mundo obliga a revisar mapas biológicos y modelos ecológicos.
Además, la presencia de basura humana en esas profundidades —desde bolsas plásticas hasta zapatos— demuestra que nuestra huella llega incluso donde creíamos que no. Por eso, cada nueva especie documentada es también una llamada a la conservación.
Como explicaron los responsables de la misión, estos hallazgos pueden contribuir a futuras medidas de protección y manejo responsable de los fondos marinos. Pero también tienen el poder de inspirar: no solo a científicos, sino a cualquier persona que, por un instante, haya sentido el vértigo de lo desconocido frente a una criatura brillante en la oscuridad.
La historia de la lepra, también conocida como enfermedad de Hansen, siempre ha estado rodeada de incertidumbre. Tradicionalmente, se pensaba que esta dolencia llegó al continente americano tras el contacto europeo en el siglo XVI, como parte de los males derivados de la colonización. Sin embargo, un estudio reciente publicado en Nature Ecology & Evolution ha cambiado de manera radical esta visión. Un equipo internacional de investigadores ha logrado reconstruir el genoma de Mycobacterium lepromatosis en restos humanos hallados en Chile con una antigüedad de alrededor de 4000 años. Se trata de la evidencia más temprana de la presencia de la lepra en el continente americano. El hallazgo, además de revolucionar la cronología de esta enfermedad en América, también abre interrogantes sobre su origen, transmisión y posibles reservorios animales en el periodo precolombino.

Los orígenes de la lepra y la aparición de Mycobacterium lepromatosis
La lepra y su historia global
La lepra es una enfermedad causada por dos bacterias: la Mycobacterium leprae y la Mycobacterium lepromatosis. Mientras la primera, más estudiada, se asocia con casos detectados en Eurasia desde hace milenios, la segunda tan solo se identificó en 2008. Así, la Mycobacterium lepromatosis se vincula a formas más graves de la enfermedad, como la lepra lepromatosa difusa y el fenómeno de Lucio.
Hasta ahora, la mayoría de los análisis paleogenómicos se habían centrado en el estudio de la M. leprae, de la que se tiene evidencias de hasta 5000 años de antigüedad en restos humanos de Europa, Asia y Oceanía. Con todo, no existían pruebas directas de la presencia de la M. lepromatosis en contextos arqueológicos antiguos, pese a que en la actualidad está bien documentada en México, el Caribe y el sudeste asiático.
El giro americano
El nuevo estudio demuestra que la M. lepromatosis no es un patógeno de desarrollo reciente en América. Al contrario: su presencia en el continente cuenta con, al menos, cuatro milenios de antigüedd. Este hecho contradice la idea de que la lepra llegó con los europeos y sugiere escenarios mucho más complejos para la historia de la enfermedad.

El hallazgo en Chile: los yacimientos de La Herradura y El Cerrito
Contexto arqueológico
Los investigadores responsables del estudio analizaron restos de 41 individuos procedentes de cinco yacimientos de la región semiárida del norte de Chile. Entre ellos, dos esqueletos destacaron de forma excepcional: el ECR001, hallado en el sitio de La Herradura, y el ECR003, procedente de El Cerrito. Ambos se dataron mediante radiocarbono en un periodo cronológico de entre 3900 y 4100 años antes del presente, es decir, en un periodo muy anterior al contacto con Europa.
Los restos pertenecían a dos varones adultos, uno de entre 35 y 40 años y el otro de entre 40 y 44 años. Ambos presentaban ciertas alteraciones óseas, como deformaciones en la tibia y lesiones en la zona nasal y los huesos pequeños de las manos. Aunque estas modificaciones son compatibles con los efectos de la lepra, los autores prefirieron ser cautelosos antes de establecer un diagnóstico osteológico definitivo.

El hallazgo genómico
La clave llegó gracias a la paleogenómica. Se extrajo ADN de un diente (ECR003) y de un fragmento de tibia (ECR001). Tras aplicar técnicas de captura y secuenciación masiva, los científicos lograron reconstruir dos genomas completos de Mycobacterium lepromatosis con coberturas de 45 y 74 veces, lo que constituye una calidad extraordinaria en los estudios de ADN antiguo. Este hallazgo constituye la primera evidencia genómica de M. lepromatosis en restos humanos arqueológicos y demuestra que el patógeno circulaba en poblaciones cazadoras, recolectoras y pescadoras de Chile hace cuatro milenios.

Un linaje antiguo y sorprendentemente estable
Divergencia con M. leprae
El análisis comparativo reveló que, pese a su parentesco, las bacterias M. leprae y M. lepromatosis muestran una gran divergencia genómica. Solo alrededor del 25 % de su material genético es idéntico. Este dato confirma que la evolución de ambas especies emprendió caminos distintos desde hace decenas de miles de años. De hecho, los investigadores estiman que el último ancestro común de M. lepromatosis existió hace unos 26.800 años.
La estabilidad del patógeno
Uno de los datos más sorprendentes proporcionados por la investigación apunta a que los genomas antiguos de Chile no difieren sustancialmente de los modernos que se han aislado en países como México. Esto implica que la bacteria ha mantenido una notable estabilidad genética durante miles de años, pese a infectar diferentes poblaciones humanas y animales.

Implicaciones para la historia de América
Una enfermedad precolombina
La investigación plantea que la lepra ya estaba presente en América miles de años antes de la llegada europea. Esto cambia por completo la narrativa tradicional, que asociaba la enfermedad con el intercambio colombino de patógenos.
En este sentido, los investigadores han planteado dos posibles escenarios. El primero es que la M. lepromatosis hubiese llegado al continente en migraciones humanas tempranas, quizá durante el poblamiento inicial de América. El segundo sugiere que la bacteria pudo haber circulado en especies animales locales que la transmitieron a los humanos en tiempos prehistóricos.
Un posible origen americano
Si este segundo escenario fuese correcto, la M. lepromatosis podría ser uno de los pocos patógenos globales originados en América. Esta hipótesis, aunque aún no se ha confirmado, revolucionaría la historia de la epidemiología mundial y obligaría a replantear nuestra visión sobre los orígenes de las enfermedades infecciosas.

Una enfermedad aún activa: perspectivas modernas y desafíos
Los armadillos en América y las ardillas en el Reino Unido, por ejemplo, han demostrado ser reservorios de bacterias relacionadas con la lepra. Este hecho invita a realizar nuevas investigaciones sobre la transmisión zoonótica y el papel de los animales en la historia de la enfermedad.
Pese a la existencia de tratamientos eficaces, la lepra sigue presente en más de cien países, con 174.000 nuevos casos reportados en 2022. En América Latina, se diagnostican infecciones tanto por M. leprae como por M. lepromatosis de manera regular. Se trata, por tanto, de una enfermedad vigente ligada a factores como la pobreza, el hacinamiento y el debilitamiento de los sistemas inmunológicos cuya importancia no debe ignorarse.
Referencias
- Ramirez, D.A., Sitter, T.L., Översti, S. et al. 2025. "4,000-year-old Mycobacterium lepromatosis genomes from Chile reveal long establishment of Hansen’s disease in the Americas". Nature, Ecology & Evolution. DOI: https://doi.org/10.1038/s41559-025-02771-y
En el mundo de la arqueología, hay descubrimientos que parecen esperar pacientemente, escondidos entre rocas y sombras, a que alguien los vea con los ojos adecuados. Es lo que ocurrió en una modesta expedición en 2023, cuando un equipo de investigadores israelíes se adentró en una cueva del desierto de Judea para estudiar una antigua inscripción hebrea de la época del Primer Templo. Lo que encontraron superó cualquier expectativa: cuatro espadas romanas meticulosamente escondidas en una grieta de la roca, y, justo debajo de la estalactita donde estaba la inscripción principal, otra mucho más pequeña y casi invisible, escrita en arameo.
Este hallazgo, documentado recientemente en el volumen New Studies in the Archaeology of the Judean Desert: Collected Papers, abre una nueva ventana a los días convulsos del siglo II de nuestra era, cuando los judíos, liderados por Simón Bar Kojba, se alzaron contra el dominio romano en una insurrección feroz que duró del año 132 al 135 d.C. y que acabó en desastre para los rebeldes.
Un mensaje casi invisible
La inscripción, apenas del tamaño de una tarjeta de crédito, estaba grabada en la parte inferior de una estalactita. A simple vista, era imperceptible. Solo mediante técnicas de imagen multiespectral fue posible distinguir las letras, escritas en un tipo de letra cuadrada hebrea que comenzó a popularizarse tras el exilio babilónico. El mensaje es escueto, pero potente: “Abba de Naburya ha perecido”. Junto a esa frase, se han identificado otras palabras sueltas, como “sobre nosotros”, “tomó” o “el”.
Pese a su brevedad y la dificultad para interpretarlo completamente, este fragmento escrito cobra una dimensión extraordinaria por su contexto. Las inscripciones de este periodo son extremadamente raras. Más allá de los conocidos rollos del mar Muerto, muy pocos textos legibles han llegado hasta nosotros desde los tiempos de las rebeliones judías. Y mucho menos con un contenido narrativo que insinúe una historia personal en medio de un conflicto mayor.
“Abba” era un nombre común en la Judea del siglo I y II, y Naburya, un antiguo poblado en la región de Galilea, cerca de la actual Safed. ¿Quién era este Abba? ¿Un rebelde que encontró la muerte en una incursión contra las legiones romanas? ¿Un refugiado escondido en una cueva con la esperanza de sobrevivir al cerco romano? Nadie lo sabe. Pero que su nombre haya quedado grabado en la roca sugiere un intento desesperado por dejar constancia de su destino.

Espadas escondidas, silencio armado
Apenas unos centímetros separaban la inscripción de otro hallazgo impresionante: cuatro espadas romanas ocultas entre las grietas más inaccesibles de la cueva. Tres de ellas estaban todavía dentro de sus vainas de madera, perfectamente conservadas. La cuarta, algo más corta, también presentaba detalles que permitieron identificarla como una espada de pomo anular. Todas mostraban señales de haber pertenecido al ejército romano, probablemente confiscadas por los rebeldes en medio de una escaramuza o una batalla.
La elección del escondite no fue casual. La cueva, de dimensiones reducidas y difícil acceso, no servía como vivienda. Todo indica que fue utilizada como refugio temporal o puesto de observación por parte de los insurgentes. Es probable que los rebeldes escondieran allí las armas robadas a los romanos para reutilizarlas en futuras acciones, o quizás simplemente para evitar ser capturados con ellas en su poder. Portar espadas del enemigo, en una época donde la posesión de armas por parte de civiles estaba severamente prohibida, podía ser una sentencia de muerte inmediata.
Además de las armas, los arqueólogos encontraron un pilum (lanza romana), correas de cuero, fragmentos de madera trabajada y una moneda de bronce de la época de Bar Kojba, que refuerza la hipótesis de que la cueva fue utilizada durante la revuelta.

Historia escrita en piedra
El hallazgo, aunque aparentemente modesto, tiene un valor excepcional para los investigadores. En un entorno como el desierto de Judea, donde la sequedad y el aislamiento han permitido conservar materiales orgánicos durante milenios, cualquier nuevo descubrimiento tiene el potencial de reescribir parte de la historia del judaísmo en época romana.
Y es que la rebelión de Bar Kojba no fue un simple levantamiento local. Fue una de las últimas grandes guerras de resistencia contra Roma en Oriente Próximo. Su brutal represión provocó la destrucción de ciudades enteras, la prohibición del culto judío en Jerusalén y el inicio de una diáspora masiva que cambiaría para siempre la historia del pueblo judío.
La inscripción de “Abba de Naburya” no es solo una frase perdida en una estalactita. Es el testimonio de una voz que, pese al paso de casi dos milenios, ha logrado sobrevivir al olvido. Una voz que, junto con las espadas, evoca un capítulo de violencia, resistencia y sufrimiento en una tierra marcada por la fe y la lucha.

¿Cuántas historias quedan por descubrir?
Tras este hallazgo, los investigadores, liderados por el Dr. Asaf Gayer (Universidad de Ariel), han intensificado la búsqueda en otras cuevas del desierto. El uso de tecnologías avanzadas como la fotografía multiespectral está permitiendo descubrir nuevas inscripciones y fragmentos que habían pasado desapercibidos durante décadas.
El descubrimiento de esta inscripción, anunciado en un primer momento en 2023, ha sido presentado públicamente en agosto de 2025 durante el Congreso Mundial de Estudios Judíos en la Universidad Hebrea de Jerusalén. Allí se ha confirmado que se trata de una de las pocas inscripciones legibles halladas en el desierto de Judea que puede datarse con relativa precisión en el contexto de la revuelta de Bar Kojba.
Se espera que la publicación completa del estudio en curso ofrezca más información sobre el contexto exacto del hallazgo, así como sobre los materiales encontrados. Pero lo que ya es evidente es que las paredes de esta pequeña cueva siguen hablando, en silencio, del coraje y la tragedia de un pueblo que se resistió a ser borrado.
En algún momento del siglo XVIII a. C., en la ciudad mesopotámica de Sippar —hoy en ruinas en el actual Irak—, un escriba babilonio talló cuidadosamente en una tableta de arcilla húmeda una serie de advertencias que parecían extraídas del juicio final. Las palabras, grabadas en escritura cuneiforme, no eran simples supersticiones, sino parte de un complejo sistema de vigilancia astronómica al servicio del poder.
Estas tabletas, que llevan más de un siglo custodiadas por el British Museum, acaban de ser descifradas por los investigadores Andrew George y Junko Taniguchi, quienes han desvelado un inquietante compendio de 61 presagios ligados a eclipses lunares. El hallazgo, publicado en el Journal of Cuneiform Studies, representa la colección más antigua de este tipo jamás registrada y nos ofrece una visión sin precedentes del modo en que los babilonios interpretaban los movimientos celestes como señales divinas.
Lejos de ser un simple calendario o registro de observaciones, estas tabletas eran herramientas de alto voltaje político y religioso. Sus advertencias no iban dirigidas al pueblo llano, sino al mismísimo rey, cuyo destino, según los astrónomos babilonios, estaba atado al cielo.
Una astrología para proteger el trono
La antigua Babilonia no separaba religión de ciencia, ni el cielo de la tierra. Las estrellas eran vistas como un lenguaje codificado de los dioses, y los eclipses lunares, en particular, tenían un peso fatalista. Para los asesores reales, cada oscurecimiento del satélite podía anunciar desastres naturales, guerras, traiciones palaciegas o incluso la muerte del soberano.
Este tipo de interpretación no era arbitraria. El momento exacto del eclipse —si ocurría en la primera, segunda o tercera parte de la noche—, el lugar desde donde se ocultaba la luna, la dirección del paso de la sombra terrestre y su duración eran todos elementos clave para interpretar los augurios. Un eclipse al comienzo de la noche podía ser señal de una peste; uno en el último tramo, de una revolución. Y si la luna se cubría de forma repentina y total, la advertencia era inequívoca: un rey estaba destinado a morir.

La labor del astrónomo babilonio no se limitaba a observar; también debía intervenir. Si los augurios eran negativos, se activaban protocolos de emergencia. Se realizaban rituales de purificación, se sacrificaban animales para consultar a los dioses y, en casos extremos, se nombraba a un rey sustituto: un hombre cualquiera que asumiría el trono simbólicamente durante unos días para absorber el mal destino… antes de ser ejecutado.
Ciencia y superstición en la cuna de la civilización
Las tabletas recientemente traducidas no solo reflejan un temor casi obsesivo por los eclipses, sino que revelan una forma de pensamiento extremadamente meticulosa. Los babilonios no eran meros creyentes en lo sobrenatural; eran observadores sistemáticos del firmamento.
Durante siglos, Babilonia fue uno de los centros astronómicos más avanzados del mundo antiguo. Las escuelas de escribas formaban especialistas que sabían leer los cielos y registrar los patrones de los cuerpos celestes con una precisión asombrosa para su época. Esos conocimientos se codificaban en listas como las ahora descifradas, que combinaban experiencia empírica y tradición oral para establecer una especie de manual de profecías astronómicas.
Muchas de estas predicciones tienen un tono casi apocalíptico. Se habla de invasiones de los gutis y los elamitas, pueblos enemigos de la región; de plagas mortales; de sequías devastadoras; de perros rabiosos cuyos mordiscos siempre resultaban fatales. Lo fascinante es que, en algunos casos, estos presagios podrían haber tenido un origen real, en eventos pasados que quedaron grabados en la memoria colectiva y convertidos en augurios universales.
El sistema de interpretación astral babilonio fue tan influyente que sobrevivió siglos, inspirando prácticas similares en otros pueblos mesopotámicos y, más adelante, en Grecia y Roma. Aunque con el tiempo su carácter mágico se diluyó, su base observacional perduró en la astronomía moderna.
Un hallazgo que reescribe la historia de la astrología
Hasta ahora, los únicos compendios similares conocidos eran un conjunto de 32 tablillas encontradas cerca del Éufrates, pero que no diferenciaban entre eclipses solares y lunares. Las cuatro tabletas analizadas por George y Taniguchi, en cambio, sí lo hacen con precisión, y su origen común en Sippar sugiere que formaban parte de un archivo oficial o biblioteca palaciega.

Esta colección se convierte así en el conjunto más antiguo y sofisticado de predicciones lunares jamás hallado. Y su importancia va más allá de lo anecdótico: demuestra que, hace cuatro milenios, ya existía en Mesopotamia una tradición astronómica sólida, ligada estrechamente al poder político y al culto religioso.
El estudio de estas tablillas nos obliga a replantear cómo entendemos la relación entre ciencia y religión en las civilizaciones antiguas. Para los babilonios, observar el cielo no era una curiosidad académica, sino una cuestión de supervivencia nacional.
Más aún, este sistema demuestra hasta qué punto los líderes antiguos confiaban su destino a los signos celestes. Los reyes podían construir palacios, dirigir ejércitos y someter pueblos, pero ante un eclipse lunar, no eran más que piezas en el tablero de los dioses.
Cuando el cielo era un texto sagrado
Hoy, en una era de telescopios y estaciones espaciales, cuesta imaginar un mundo en el que un eclipse desencadenaba sacrificios humanos o podía hacer temblar un trono. Pero esas tabletas de arcilla, que durante más de 100 años permanecieron mudas en una vitrina del museo, nos recuerdan que durante milenios, el cielo fue algo más que un espectáculo natural: era un texto sagrado, una advertencia perpetua escrita por los dioses en la oscuridad de la noche.
Y en ese texto, los eclipses no eran simplemente sombras pasajeras, sino líneas subrayadas en rojo en el gran libro del destino.
Las noticias recientes sobre la grave escasez de alimentos en Gaza ilustran crudamente los efectos de la inanición en seres humanos. De hecho, se ha declarado la hambruna de forma oficial por parte de la ONU. Organismos internacionales advierten de una hambruna catastrófica en ese territorio, con más de 100.000 niños en riesgo de morir por falta de alimento y al menos 127 personas fallecidas ya por hambre. No es algo solo del pasado. Estas cifras estremecedoras nos llevan a preguntarnos: ¿qué ocurre dentro del cuerpo humano cuando este se ve privado de comida durante mucho tiempo?
Más allá del drama humano inmediato, la ciencia médica ha estudiado en detalle cómo el organismo se adapta y finalmente colapsa ante la ausencia prolongada de nutrientes. En este artículo vamos a presentar las fases de la inanición, los procesos fisiológicos implicados (como la cetosis, el catabolismo muscular o la hipoglucemia) y el deterioro progresivo de los órganos, apoyándonos en ejemplos históricos y actuales para comprender la dimensión humana de esta tragedia.
Fases iniciales de la inanición: consumiendo las reservas de glucosa
En cuanto una persona deja de comer, el cuerpo comienza a utilizar sus reservas de energía inmediatas. En la primera fase, que dura aproximadamente un día y medio, se consumen los hidratos de carbono almacenados en forma de glucosa y glucógeno (una cadena de glucosa) en el hígado y los músculos. Un individuo promedio de 70 kg tiene unas reservas de glucosa de apenas unos 300 gramos (alrededor de 1200 kcal), suficientes para unas 24 horas. Durante este periodo posabsortivo inicial, la hormona insulina (encargada de almacenar energía) disminuye, mientras que aumentan hormonas contrarreguladoras como el glucagón y la adrenalina, que ordenan al cuerpo liberar glucosa de sus depósitos para mantener el nivel de azúcar en sangre (evitando una hipoglucemia severa). No obstante, a medida que pasan las horas y se agotan estos recursos rápidos, la glucemia (nivel de glucosa en sangre) comienza a descender ligeramente. Hacia los dos o tres días sin ingerir alimentos, los niveles de glucosa disponibles caen lo suficiente para que el metabolismo empiece a cambiar de fuente de energía: el cuerpo deja de depender principalmente de los carbohidratos y pasa a usar las grasas almacenadas. En esta transición, muchas personas sienten síntomas como debilidad, mareos, irritabilidad e intensa sensación de hambre; el organismo está dando señales del déficit energético mientras agota los últimos restos de glucosa.

Cetosis: el cuerpo quema grasas para sobrevivir
Tras los primeros días de ayuno, el organismo entra en una fase de cetosis. Esto significa que el hígado comienza a descomponer las grasas corporales (triglicéridos del tejido adiposo) y convierte los ácidos grasos en cuerpos cetónicos (como el betahidroxibutirato y la acetona). Los cuerpos cetónicos son un combustible alternativo que puede ser utilizado por muchos órganos, incluido el cerebro, en lugar de la glucosa. Esta adaptación metabólica es crucial: alrededor del tercer día de ayuno, el cerebro obtiene ya cerca del 30% de su energía de los cetónicos y, hacia el cuarto día, puede cubrir hasta un 75% de sus necesidades energéticas con ellos. Gracias a ello, el consumo de glucosa por parte del cerebro disminuye drásticamente, lo que ahorra proteínas musculares (evitando tener que degradar tanto músculo para fabricar glucosa). Paradójicamente, los cuerpos cetónicos también generan un efecto anorexígeno: su acumulación en sangre suprime la sensación de hambre que inicialmente era intensa. Muchas personas en ayunos prolongados describen que, tras los primeros días de malestar y apetito feroz, luego “el hambre desaparece” debido a esta cetosis. En esta fase cetogénica pueden aparecer signos característicos como el aliento con olor a acetona (un olor dulce afrutado), producto de la expulsión de cetonas por la respiración y la orina.
Durante varias semanas, si la persona dispone de reservas de grasa suficientes y se mantiene hidratada, el cuerpo puede subsistir principalmente de sus depósitos grasos. En esta etapa, el peso corporal baja de forma notable a expensas del tejido adiposo. El metabolismo basal suele ralentizarse para ahorrar energía: disminuye la frecuencia cardíaca, la presión arterial y la temperatura corporal, y la persona se siente fatigada y con frío. El organismo prioriza el mantenimiento de las funciones esenciales, destinando la energía disponible principalmente al cerebro, el corazón y otros órganos vitales, mientras suspende o reduce funciones no críticas (por ejemplo, en las mujeres suele interrumpirse la menstruación). La hipoglucemia, aunque controlada dentro de cierto rango gracias a la gluconeogénesis (fabricación de glucosa a partir de grasas y aminoácidos) y al uso de cetonas, puede manifestarse en niveles bajos constantes de azúcar en sangre. Si estos niveles descienden demasiado, pueden aparecer síntomas neurológicos como confusión, mareos, visión borrosa e incluso pérdida de la conciencia o convulsiones en casos extremos. Afortunadamente, el cuerpo sano cuenta con mecanismos hormonales que previenen una hipoglucemia profunda durante el ayuno, activando la liberación de glucosa desde el hígado cuando es necesario. De este modo, durante esta fase de adaptación cetogénica el organismo logra un frágil equilibrio: mantiene al cerebro funcionando con combustible alternativo y preserva la vida consumiendo sus “ahorros” de grasa.

Catabolismo muscular: el organismo se devora a sí mismo
Cuando el ayuno se prolonga más allá de un punto crítico, las reservas de grasa comienzan a agotarse y el cuerpo no tiene más remedio que volcarse a consumir sus propias proteínas para sobrevivir. Esta podría considerarse la tercera fase de la inanición: el catabolismo proteico masivo. Aproximadamente tras 20 días sin alimento, dependiendo de la cantidad de grasa inicial de la persona, se empiezan a descomponer aceleradamente los tejidos musculares ricos en proteínas. El cuerpo literalmente “se come” sus músculos (autofagia) para obtener aminoácidos que transforma en glucosa y otros compuestos vitales. En este periodo, curiosamente, puede regresar un apetito desmedido y desesperado después de la relativa apatía hacia la comida que caracterizó a la fase cetósica. Sin embargo, el individuo suele estar tan débil que difícilmente podría buscar alimento por sus propios medios. Clínicamente, se observan signos claros de desnutrición proteica: caen los niveles de albúmina en la sangre (una proteína plasmática importante) y aparecen edemas (hinchazón en piernas, pies e incluso abdomen) debido a que la falta de proteínas disminuye la presión osmótica de la sangre y los líquidos se filtran a los tejidos. La persona luce extremadamente delgada (emaciada), con músculos atróficos que marcan el contorno de los huesos, piel seca y fina. En casos severos el abdomen puede verse abultado por la combinación de órganos agrandados (hígado) y acumulación de líquidos.
En esta fase de inanición avanzada, prácticamente todos los sistemas del cuerpo se deterioran. El tejido adiposo casi ha desaparecido y los músculos se consumen, incluyendo los músculos respiratorios (lo que puede provocar respiración superficial y lenta) y el músculo cardíaco, que pierde masa y fuerza. La persona sufre una debilidad extrema, cansancio hasta para hablar o moverse. La inmunidad también se ve gravemente afectada: la producción de glóbulos blancos disminuye y estos funcionan deficientemente, por lo que el organismo no puede combatir infecciones adecuadamente. De hecho, en inaniciones prolongadas es común que se desarrollen infecciones oportunistas (neumonías, tuberculosis, infecciones de la piel, etc.), que pueden precipitar la muerte del paciente. A nivel mental, se suele observar una profunda apatía, depresión y pérdida de la motivación; en etapas previas pudo haber habido irritabilidad y obsesión por la comida, pero en la caquexia terminal el individuo a menudo está letárgico o confuso. La hipotermia (temperatura corporal baja) es frecuente debido al gasto energético reducido y a la falta de aislamiento graso. La deshidratación también puede presentarse si la ingesta de líquidos ha sido insuficiente, agravando los desequilibrios electrolíticos.

Fallo multiorgánico y causas de muerte
Si el proceso de inanición continúa sin intervención, el desenlace fatal es inevitable. ¿Cómo muere exactamente una persona de hambre? La respuesta inmediata es que el cuerpo sufre un fallo multiorgánico: llega un punto en que ya no puede mantener en funcionamiento sus órganos vitales. Médicamente, la muerte por inanición se atribuye típicamente a un colapso cardiovascular o a una arritmia cardíaca letal, producto de la degradación del músculo del corazón junto con severos desequilibrios electrolíticos (alteraciones en los niveles de potasio, sodio y otros minerales que son críticos para la función cardíaca). El corazón debilitado puede presentar ritmos anormales y finalmente detenerse. Otra vía común hacia la muerte es la falla circulatoria cerebral: la presión arterial cae tanto (por la combinación de deshidratación, bradicardia y atonía muscular) que el cerebro deja de recibir el flujo sanguíneo suficiente. Además, como mencionamos, las infecciones graves prosperan en un cuerpo desnutrido y pueden causar sepsis (infección sistémica) y choque. En resumen, el individuo pierde la batalla porque su organismo ya no puede sustentar la vida: no queda combustible, los órganos se han encogido y debilitado (la inanición provoca atrofia y pérdida de peso en prácticamente todos los órganos) y los procesos bioquímicos fundamentales se detienen.
Desde una perspectiva clínica y humanitaria, se sabe que la muerte por inanición no es ni rápida ni indolora. Tras días sin alimento, el cuerpo consume la grasa; una vez que la grasa se ha ido, la persona queda como un esqueleto de lo que fue y entonces el organismo empieza a canibalizar sus propias proteínas musculares, incluyendo las del corazón. La consecuencia final es que el cuerpo deja de funcionar: el pulso se vuelve débil y lento o muy irregular, la presión arterial se desploma y la temperatura corporal cae peligrosamente. La persona pierde la capacidad de moverse, e incluso de digerir si de pronto recibiera comida (un estómago inactivo y encogido no tolera alimentos normales). Sin asistencia médica, el ayuno extremo conlleva la muerte en un rango aproximado de 45 a 90 días desde su inicio, dependiendo de las reservas iniciales y la hidratación. Estudios estiman que teóricamente un adulto promedio podría sobrevivir unos dos meses (alrededor de 60–70 días) solo con agua antes de agotar completamente sus fuentes de energía interna. En la práctica, muchos factores influyen en la resistencia: las personas con mayor porcentaje de grasa corporal pueden aguantar algo más que las muy delgadas (que consumen sus proteínas vitales más pronto); la presencia de enfermedades o infecciones intercurrentes puede acortar la supervivencia; y las condiciones ambientales (por ejemplo, clima frío) pueden aumentar el gasto energético y precipitar el desenlace.
Ejemplos históricos y casos reales de inanición
A lo largo de la historia, lamentablemente, la muerte por hambre ha sido documentada en diversas circunstancias, desde víctimas de guerras y encierros hasta huelguistas que voluntariamente dejaron de comer. Un caso conocido es el del famoso lógico y matemático Kurt Gödel. Aquejado de un grave trastorno paranoide, Gödel desarrolló un temor patológico a ser envenenado y se negaba a ingerir alimentos que no preparase su esposa. Cuando ella estuvo hospitalizada y no pudo cocinar para él, Gödel prácticamente dejó de comer. En 1978 falleció por desnutrición e inanición, con un peso de tan solo unos 30 kg, según recogió su certificado de defunción. Su muerte fue el resultado trágico de una auto-inanición motivada por su enfermedad mental, un recordatorio de que la inanición no siempre se produce por falta de alimentos en el entorno, sino que a veces es consecuencia de problemas psicológicos (como también ocurre en la anorexia nerviosa extrema).
En contextos de encierro forzado o conflictos, la inanición ha cobrado innumerables vidas. Por ejemplo, en los campos de concentración nazis durante la Segunda Guerra Mundial, el hambre crónica era omnipresente y la esperanza de vida de un prisionero se reducía a pocas semanas o meses. Los supervivientes liberados relataron la extrema debilidad y caquexia que sufrían; de hecho, tras apenas unas semanas con dietas de míseras calorías (sopas aguadas, un mendrugo de pan), muchos prisioneros morían desfallecidos por la combinación de diarreas, dolores abdominales y absoluta extenuación. Imágenes históricas de esos campos muestran a personas reducidas a piel y huesos, con edema en los pies y mirada vidriosa, signos inequívocos de inanición en fase terminal. También en grandes hambrunas provocadas por guerras o desastres (como la del Sitio de Leningrado en 1941-1944, o más recientemente en Yemen), se han documentado cuadros similares de masas de población entrando en colapso físico por falta prolongada de alimento.
Las huelgas de hambre constituyen otro escenario en el que se han observado de cerca los efectos letales de la privación voluntaria de comida. Históricamente, se han reportado múltiples casos de huelguistas que llegan hasta las últimas consecuencias. Por ejemplo, en 1981 el activista irlandés Bobby Sands murió tras 66 días en huelga de hambre en la prisión de Maze, Irlanda del Norte. Tenía solo 27 años y prácticamente ninguno de sus órganos quedó indemne: al fallecer, la causa oficial que se registró fue precisamente "inanición". De modo similar, el disidente cubano Pedro Luis Boitel mantuvo una huelga de hambre durante 53 días recibiendo solo líquidos, antes de morir por inanición en 1972. Casos extremos muestran que algunos individuos han llegado a sobrevivir casi tres meses sin ingerir alimentos sólidos –por ejemplo, Orlando Zapata, también en Cuba, murió en 2010 tras unos 85 díasde ayuno prolongado en protesta. Estas historias, al margen de su contexto político, confirman los límites fisiológicos del ser humano: pasado cierto umbral de tiempo sin nutrientes, el desenlace fatal es prácticamente inevitable. No en vano, los médicos señalan que en una huelga de hambre indefinida la muerte suele sobrevenir entre los 60 y 90 días desde el comienzo, dependiendo de las condiciones.
Ciencia y sensibilidad humana
Entender qué le sucede al cuerpo al morir de hambre no es solo una cuestión académica, sino también un ejercicio de empatía. Detrás de los procesos de cetosis, catabolismo muscular e insuficiencia multiorgánica que hemos descrito, hay un sufrimiento humano profundo. El organismo lucha tenazmente por sobrevivir, adaptándose de formas extraordinarias, pero con un costo creciente para sí mismo, hasta que finalmente ya no puede sostener la vida. Saber esto nos permite apreciar la urgencia de prevenir y aliviar el hambre en el mundo.
Es un desastre provocado por el hombre, una crítica moral y un fracaso de la humanidad
António Guterrez, Secretario General de la ONU
Hoy, cuando vemos las imágenes de niños desnutridos y familias enteras debilitadas en lugares como Gaza, comprendemos que lo que está en juego no es solo la nutrición, sino la vida misma en su nivel más básico. La ciencia nos ha mostrado con claridad los mecanismos implacables de la inanición, y esa comprensión debería impulsar una respuesta humana: aliviar el hambre allí donde ocurra y tratar a quienes la padecen con prontitud y compasión. Evitar que un ser humano llegue al punto de morir de hambre es una responsabilidad colectiva. En pleno siglo XXI, con los conocimientos médicos y los recursos globales disponibles, cada muerte por inanición (sea en Gaza, en áreas de conflicto o en cualquier comunidad marginada) representa un fracaso que debemos esforzarnos por corregir. Informar con rigor científico sobre este proceso devastador, como hemos hecho aquí, es un paso para tomar conciencia de la gravedad del problema. Y ojalá esa conciencia vaya acompañada de la solidaridad y la acción necesarias para que, algún día, nadie más tenga que sufrir ni perecer por la ausencia de algo tan fundamental como el alimento.
La primera vez que el telescopio de rayos X Chandra de la NASA mostró al mundo la imagen de una nebulosa con forma de mano fue en 2009 (descubre las nebulosas más espectaculares). El objeto, situado a unos 17.000 años luz de la Tierra, sorprendió por su apariencia tan humana que fue bautizado de forma divulgativa como la “Mano de Dios” (PSR B1509-58). En realidad se trataba de un fenómeno producto de la muerte de una estrella masiva, cuyo núcleo colapsado quedó transformado en un púlsar. Desde entonces, esa imagen se convirtió en una de las más icónicas de la astronomía moderna.
Hoy, 16 años después de aquella primera observación, un nuevo estudio publicado en The Astrophysical Journal ha ofrecido un retrato mucho más detallado de la nebulosa, combinando datos en radio y rayos X. La investigación, liderada por Shumeng Zhang de la Universidad de Hong Kong, muestra que la estructura es todavía más compleja de lo que se pensaba. En palabras de los autores, “la emisión de radio está compuesta por una estructura filamentaria compleja”. Este hallazgo confirma que los restos de la supernova y el viento de partículas del púlsar B1509-58 siguen interactuando de forma enigmática, dando forma a los “dedos” que tanto impresionan en las imágenes.
Un púlsar diminuto con un poder descomunal
En el centro de la Mano de Dios se encuentra el púlsar B1509-58, un remanente estelar de apenas 20 kilómetros de diámetro. A pesar de su tamaño minúsculo, gira casi siete veces por segundo y genera un campo magnético unas 15 billones de veces más intenso que el de la Tierra. Estas características lo convierten en uno de los motores electromagnéticos más poderosos de la Vía Láctea.
El estudio explica que la energía liberada por el púlsar produce un flujo de electrones y otras partículas relativistas que, al chocar con el medio circundante, originan la nebulosa de viento pulsar (PWN). Este proceso es tan violento que la nube resultante alcanza los 150 años luz de extensión, mucho más grande que la famosa Nebulosa del Cangrejo, considerada otro de los ejemplos clásicos de este tipo de estructuras. La paradoja es evidente: un objeto increíblemente pequeño es capaz de esculpir una estructura colosal visible a escalas galácticas.

La forma de una mano en el cosmos
Lo que distingue a MSH 15-52 de otros restos de supernova es su morfología inusual. Las imágenes en rayos X revelan que la nebulosa parece una mano extendida, con “dedos” que se proyectan hacia arriba. En el nuevo trabajo, los investigadores comprobaron que algunos de estos “dedos” son visibles también en radio, aunque otros solo aparecen en rayos X. Según señalan, “algunas estructuras prominentes en rayos X, incluido el chorro hacia el sur y las formaciones en forma de dedos, no se detectan en radio”.
Esto significa que diferentes regiones de la nebulosa emiten distintos tipos de radiación, lo que indica que las partículas responsables tienen energías muy diferentes. En particular, las zonas que brillan solo en rayos X contienen electrones extremadamente energéticos que se escapan a lo largo de las líneas del campo magnético. Este fenómeno es comparable a un “boom sónico” cósmico, una onda de choque que libera partículas a velocidades increíbles.

El papel de RCW 89: los restos de la explosión
La Mano de Dios no está sola. Al norte de la nebulosa se encuentra RCW 89, el remanente de supernova asociado a la explosión que dio origen al púlsar. Este objeto muestra un conjunto de “nudos” brillantes en rayos X y óptico, dispuestos en forma de herradura. El nuevo estudio en radio confirma que muchos de estos nudos también tienen contrapartidas en radio y en emisión de hidrógeno, lo que indica que son restos de material expulsado durante la supernova.
Los autores destacan que la radiación de RCW 89 “se extiende mucho más allá del límite marcado por la emisión en rayos X”. Esta característica es extraña porque, en supernovas jóvenes, las ondas de choque suelen ser más brillantes en radio. El hecho de que aquí ocurra lo contrario sugiere que el remanente está interactuando con una nube densa de hidrógeno cercana. En consecuencia, la evolución de RCW 89 es distinta a la de otros restos, lo que convierte a este sistema en un laboratorio natural para estudiar la relación entre supernovas y el medio interestelar.
Filamentos, campos magnéticos y misterio
Uno de los resultados más llamativos del trabajo es la detección de filamentos de radio alineados con el campo magnético. Estas estructuras largas y delgadas parecen marcar la dirección de las fuerzas que gobiernan la nebulosa. En algunas zonas, la polarización de la luz alcanza valores del 70 %, lo que indica un campo extremadamente ordenado. Este nivel es inusual en fuentes de este tipo y revela que los procesos de aceleración de partículas están más controlados de lo esperado.

Sin embargo, también aparecen contradicciones. Mientras algunos “dedos” son más extensos en radio que en rayos X, otros solo existen en rayos X. Esta diferencia dificulta encajar los datos en un modelo sencillo. Los científicos plantean que puede deberse a diferentes orígenes de las partículas, lo que significaría que los electrones que producen rayos X no son los mismos que generan la emisión en radio.
Más de 15 años de enigmas acumulados
El interés renovado por la Mano de Dios se debe a que, después de más de una década de observaciones, la ciencia aún no logra explicar por completo su naturaleza. La estructura semicircular que rodea al púlsar, conocida como “sheath” o envoltura, sigue siendo única: no se ha visto nada parecido en otras nebulosas de viento de púlsar. El propio equipo admite que “su naturaleza sigue siendo difícil de interpretar”.
Algunos expertos sugieren que esta envoltura podría haberse formado por la interacción con una onda de choque inversa de la supernova, pero las simulaciones actuales no logran reproducir la forma tan peculiar que se observa. Esto convierte a MSH 15-52 en un caso excepcional que todavía desafía las predicciones de los modelos astrofísicos.
Una ventana al origen de los rayos cósmicos
Más allá de su belleza visual, la Mano de Dios tiene implicaciones para entender fenómenos que nos afectan de manera indirecta en la Tierra. El sistema produce partículas de altísima energía, algunas de las cuales podrían convertirse en rayos cósmicos que eventualmente alcanzan nuestro planeta. Descifrar cómo se generan y escapan estas partículas es clave para comprender el flujo de radiación que circula por la galaxia.
La combinación de datos en múltiples longitudes de onda, como la realizada en este estudio, permitirá afinar los modelos de aceleración de partículas en entornos extremos. La esperanza de los investigadores es que futuros telescopios y simulaciones más precisas logren desentrañar la dinámica completa del sistema.
El futuro de la Mano de Dios
El trabajo de Zhang y sus colegas es un paso más en una historia que seguramente seguirá abierta. Gracias a la sensibilidad de telescopios modernos como el ATCA en radio y Chandra en rayos X, se han descubierto detalles que no eran visibles antes. Sin embargo, el rompecabezas está lejos de resolverse. El equipo concluye que “existen aún muchas preguntas abiertas respecto a la formación y evolución de estas estructuras”.
Lo que está claro es que la Mano de Dios seguirá siendo un referente tanto científico como visual. Su forma inconfundible conecta con el público general, mientras que sus complejidades físicas representan un desafío para los astrofísicos. Es un recordatorio de que el universo aún guarda secretos que, incluso tras siglos de observación, siguen siendo esquivos.
Referencias
- S. Zhang, C.-Y. Ng, N. Bucciantini. High-resolution Radio Study of Pulsar Wind Nebula MSH 15–52 and Supernova Remnant RCW 89. The Astrophysical Journal, 989:221 (11pp), 2025 August 20. DOI: https://doi.org/10.3847/1538-4357/adf333.
La historia suele esconder sus tesoros bajo capas de arena y siglos de silencio. En la isla emiratí de Sir Bani Yas, un lugar hoy conocido por su reserva natural y fauna protegida, un equipo de arqueólogos ha encontrado un objeto que conecta el presente con un pasado mucho más complejo de lo que suele creerse. Se trata de una cruz de piedra, cuidadosamente tallada, que formaba parte de un monasterio cristiano activo entre los siglos VI y VII. El hallazgo no es solo un objeto arqueológico, sino una pieza clave para entender que en esta región del Golfo, a menudo asociada exclusivamente con el Islam, existieron comunidades cristianas organizadas que convivieron con otras religiones durante siglos.
El descubrimiento fue anunciado por la DCT Abu Dhabi (Departamento de Cultura y Turismo– Abu Dhabi) a principios de 2025, en el marco de las más recientes campañas de excavación. En palabras del organismo, la cruz apareció “en el patio de una casa perteneciente a la iglesia del monasterio de la isla”, y su diseño recuerda a ejemplos encontrados en Irak y Kuwait. La confirmación de su antigüedad ha despertado un interés global, no solo porque amplía la visión histórica del cristianismo en la península arábiga, sino porque ofrece una prueba material de un pasado de coexistencia religiosa mucho antes de la llegada del Islam al área.
Una cruz que ilumina el pasado del Golfo
El objeto hallado no es un simple fragmento decorativo. Se trata de una cruz de piedra completa, tallada con líneas firmes y de estilo similar a las cruces monásticas del Oriente Próximo. Según los arqueólogos, fue usada por los monjes en sus oraciones y posiblemente estuvo integrada en la vida cotidiana del monasterio. La DCT Abu Dhabi destacó que “el diseño de la cruz se asemeja a patrones encontrados en Irak y Kuwait”, lo que subraya las conexiones culturales y religiosas de la época.
Este descubrimiento tiene un valor simbólico profundo. Al encontrar una cruz en un monasterio situado en lo que hoy es Abu Dabi, se confirma que el cristianismo no fue ajeno a estas tierras, sino que formó parte activa del tejido social y espiritual de la región. Documentos anteriores ya sugerían la presencia de comunidades cristianas en la península arábiga, pero pocas veces había surgido una evidencia tan clara y tangible como esta.
La importancia no es solo arqueológica. Al situar este monasterio en el contexto del Golfo, se refuerza la idea de que la zona era un espacio de intercambios culturales, donde comerciantes, viajeros y comunidades religiosas se encontraban y convivían.

El monasterio de Sir Bani Yas
La isla de Sir Bani Yas ya era conocida desde la década de 1990 como un lugar de interés arqueológico, cuando se descubrieron restos de un monasterio cristiano. Sin embargo, la nueva campaña de excavación ha permitido confirmar y ampliar estos hallazgos. Los arqueólogos han documentado casas, pequeñas celdas monásticas y espacios de oración. La cruz hallada ahora enriquece esa imagen, ofreciendo un símbolo de fe usado por aquellos monjes.
El propio organismo de Abu Dabi señaló que este hallazgo es una prueba de que “los valores de tolerancia y convivencia están profundamente enraizados en la historia de los Emiratos Árabes Unidos”. Es una afirmación que conecta la investigación arqueológica con un mensaje contemporáneo: la coexistencia de religiones no es una novedad, sino una herencia histórica.
Sir Bani Yas no fue un caso aislado. Investigaciones arqueológicas han demostrado que, entre los siglos IV y VI, el cristianismo estuvo presente en distintas áreas del Golfo, con hallazgos similares en Kuwait, Arabia Saudí e incluso Irán. El monasterio de esta isla muestra cómo los monjes vivían en relativo aislamiento, pero en contacto con las rutas comerciales que atravesaban la región.
Tolerancia y convivencia en la historia
Uno de los aspectos más llamativos de este hallazgo es la forma en que conecta con el discurso actual de los Emiratos. Según declaraciones recogidas en el informe oficial, el presidente de la DCT Abu Dhabi, Mohamed Khalifa Al Mubarak, afirmó: “Este descubrimiento confirma que los valores de convivencia pacífica y tolerancia están presentes en la historia de los Emiratos Árabes Unidos desde hace siglos”.
Para los arqueólogos, la relevancia de la cruz no radica únicamente en su antigüedad, sino en lo que revela sobre la vida cotidiana de la región. Monjes y comunidades cristianas compartieron espacio con otras religiones durante generaciones, mucho antes de la expansión islámica. Esto se refleja también en los restos de viviendas y objetos encontrados alrededor del monasterio, que muestran una vida en comunidad adaptada a un entorno árido, pero conectado al comercio regional.
El hallazgo también invita a repensar la narrativa histórica de la península arábiga. Muchas veces se presenta como un territorio abruptamente transformado por la llegada del Islam en el siglo VII, pero la evidencia arqueológica revela una diversidad religiosa previa, en la que el cristianismo tuvo un papel significativo.

Un legado protegido y abierto al público
El sitio arqueológico de Sir Bani Yas no ha permanecido oculto a la población. Desde 2019, tras labores de restauración, la iglesia y el monasterio fueron abiertos al público, con paneles explicativos y un centro de visitantes que exhibe piezas recuperadas durante las excavaciones. El objetivo es acercar este legado a la sociedad y mostrar la riqueza cultural de los Emiratos más allá de su historia reciente.
Las autoridades culturales han subrayado que la preservación de estos hallazgos es una prioridad. “Garantizar la sostenibilidad del patrimonio arqueológico de los Emiratos Árabes Unidos para las generaciones presentes y futuras” es uno de los compromisos oficiales del proyecto. De esta manera, no solo se asegura la conservación del pasado, sino que se convierte en un recurso educativo y turístico.
La experiencia de visitar la isla combina naturaleza y arqueología. Entre gacelas, oryx y manglares, los visitantes pueden recorrer los restos del monasterio y contemplar cómo un pequeño grupo de monjes cristianos dejó huella en el corazón del desierto.
Significado global del hallazgo
El descubrimiento de la cruz en Sir Bani Yas no es un acontecimiento aislado en términos internacionales. En los últimos años, hallazgos similares en otras regiones del Golfo han permitido reconstruir una red de comunidades cristianas que existieron desde la Antigüedad tardía hasta los primeros siglos del Islam. La cruz hallada en Abu Dabi se convierte así en una pieza fundamental para completar ese mapa histórico.
Además, este hallazgo envía un mensaje poderoso en un mundo marcado por tensiones religiosas. La coexistencia documentada en el pasado demuestra que la diversidad no es una invención moderna, sino una realidad histórica. La arqueología, en este sentido, se convierte en una herramienta para recordar y valorar la convivencia.
Para los lectores interesados en historia, religión y cultura, esta noticia muestra cómo un simple objeto puede transformar nuestra visión del pasado. La cruz de Sir Bani Yas no solo pertenece al patrimonio emiratí, sino a la historia compartida de la humanidad.
La genética se ha convertido en una herramienta decisiva para iluminar aquellos episodios del pasado que apenas dejaron huella en los registros arqueológicos. La identificación de ascendencia africana en varios restos humanos procedentes de la Inglaterra del siglo VII se ha convertido en uno de esos hallazgos capaces de transformar nuestra comprensión de los patrones de movilidad y las interacciones sociales en la temprana Edad Media. Así lo afirma un reciente estudio, publicado en Antiquity por Leslie Aiello y su equipo, que se ha centrado en el análisis de dos individuos, uno procedente de Kent y otro de Dorset. Para sorpresa de la comunidad científica, sus perfiles genómicos han revelado conexiones directas con África occidental. Los sorprendentes resultados plantean cuestiones fundamentales sobre el alcance de los contactos intercontinentales en un momento en el que comenzaban a formarse las identidades políticas y culturales de la Europa noroccidental.
Inglaterra en la Alta Edad Media: un mundo en proceso de cambio
Durante el siglo VII, Inglaterra se encontraba en plena transformación. Los reinos anglosajones estaban consolidando sus estructuras de poder, el cristianismo comenzaba a expandirse y los contactos con el continente europeo se intensificaban. En este marco histórico, la idea de que pudiera existir un vínculo directo con África occidental puede parecer sorprendente. Sin embargo, el análisis de los restos humanos hallados en Kent y Dorset muestra evidencias genéticas que cuestionan las narrativas tradicionales: la Europa del siglo VII, por tanto, no fue un espacio aislado.
En este contexto, el área de Kent, por su proximidad al continente, fue un punto clave de intercambio comercial y cultural. Dorset, por su parte, contaba con asentamientos que mantenían conexiones marítimas con otros puntos del Atlántico. Por su posición geográfica, ambos lugares se convirtieron en espacios propicios para el tránsito de personas y mercancías. Sin embargo, hasta ahora se había subestimado la posibilidad de que se hubieran producido contactos tan lejanos como los que sugieren los datos genómicos.

Las evidencias del ADN antiguo
La investigación se centró en el ADNa (ADN antiguo) extraído de los restos óseos, una técnica que ha revolucionado los estudios arqueológicos al permitir reconstruir genealogías y linajes con gran precisión. El equipo se apoyó en técnicas de secuenciación de última generación. En el caso de estos dos individuos, las secuencias genéticas mostraron un patrón inequívoco: la presencia de un componente de ascendencia procedente de África occidental.
El individuo de Kent presentaba un perfil genético mixto, con una proporción significativa de ascendencia africana, junto a componentes europeos. El hallazgo resulta aún más relevante en el caso del individuo de Dorset, cuyos datos genómicos también confirman la misma procedencia. Estos resultados se obtuvieron mediante análisis comparativos con amplias bases de datos poblacionales que permitieron trazar las afinidades genéticas con precisión.
La metodología empleada, además, incluyó controles estrictos para descartar posibles contaminaciones modernas. El rigor de los análisis refuerza la solidez de la conclusión: en la Inglaterra anglosajona vivieron personas con vínculos genéticos claros con África occidental.

Implicaciones históricas del hallazgo
El descubrimiento plantea interrogantes sobre las dinámicas de movilidad en el mundo altomedieval. ¿Cómo llegaron estas personas o sus ancestros a Inglaterra? Una de las hipótesis más plausibles apunta a las redes comerciales de largo alcance, en las que el Mediterráneo, el norte de África y el Atlántico habrían jugado papeles clave. Puesto que el comercio de objetos de lujo, marfil, oro y esclavos vinculaba distintas áreas geográficas, no es improbable que individuos de origen africano se desplazaran a través de estos circuitos.
Otra posibilidad que han propuesto los investigadores apunta a que las conexiones se produjeron a través del Imperio bizantino y de las rutas marítimas que enlazaban África con el Mediterráneo oriental, desde donde los contactos habrían podido extenderse hasta el norte de Europa. En cualquier caso, el hallazgo demuestra que la movilidad humana en la Edad Media temprana fue mucho más amplia y compleja de lo que se suponía.

Repercusiones para el estudio de la Inglaterra anglosajona
El estudio publicado en Antiquity obliga a repensar las nociones de identidad y diversidad en la Inglaterra anglosajona. La historiografía tradicional ha tendido a imaginar sociedades relativamente homogéneas y, en el caso de Inglaterra, a enfatizar el peso de las migraciones germánicas desde el continente europeo. Sin embargo, la presencia de individuos con ascendencia africana muestra que el paisaje humano de las islas fue mucho más rico y variado.
Estos resultados también sugieren que la diversidad biológica y cultural fue una característica estructural de las comunidades medievales, incluso en regiones periféricas del noroeste europeo. Reconocerlo no solo amplía la comprensión del pasado, sino que también contribuye a matizar los discursos actuales sobre las identidades nacionales y los supuestos orígenes “puros”.

La importancia del ADNa en la arqueología contemporánea
Los hallazgos de Kent y Dorset ofrecen un ejemplo paradigmático del papel del ADNa en la investigación arqueológica contemporánea. Gracias a estas técnicas, hoy es posible reconstruir biografías invisibles en las fuentes escritas. El análisis genómico abre un nuevo camino para explorar historias de movilidad, mestizaje y contacto que, de otro modo, permanecerían ocultas. En este caso, el ADN antiguo ha permitido documentar por primera vez conexiones genéticas entre África occidental y la Inglaterra medieval. Este resultado habría sido impensable hace apenas dos décadas.
El estudio de los individuos de Kent y Dorset, por tanto, constituye una aportación fundamental para la historia de la Inglaterra altomedieval y, más ampliamente, para la comprensión de las conexiones globales en el pasado. La detección de ascendencia africana occidental en los restos óseos de dos individuos del siglo VII demuestra que los destinos de la Europa atlántica y África estuvieron unidos en fases muy tempranas de la historia.
Referencias
- Sayer, D., J. Gretzinger, J. Hines et al. 2025. "West African Ancestry in Seventh-century England: Two Individuals from Kent and Dorset". Antiquity:1-15. DOI: 10.15184/aqy.2025.10139
En enero de 2016, la revista Science publicó un estudio que puso en cuestión algunas de las ideas más asentadas sobre la historia de la astronomía en la Antigüedad. En él se indicaba que hace más de 2000 años los sacerdotes de la Antigua Babilonia (la civilización babilónica existió entre 2100 y 538 a. C.) ya recurrían a métodos geométricos para calcular la posición de Júpiter, algo que en Europa no se consiguió hasta el siglo xiv. Esto se dedujo del estudio de unas tablillas, guardadas en el Museo Británico, que habían sido recogidas en Irak, en 1881, pero nadie les había prestado atención hasta entonces. Y no es de extrañar, pues su contenido resultaba de lo más críptico. Por ejemplo, una dice: «El día cuando aparece, 0; 12, hasta 1,0 días, 0; 9,30». Pues bien, el arqueoastrónomo Mathieu Ossendrijver, de la Universidad Humboldt de Berlín, aseguró haberlas descifrado.
Una tablilla misteriosa
Esta tablilla está ligada a otras cuatro que describen numéricamente el desplazamiento del gigante de gas. Según Ossendrijver, los escribas babilonios tomaban los datos a partir de observaciones y los representaban en una gráfica de la velocidad angular –la variable física que determina el número de vueltas que se dan por unidad de tiempo– frente al tiempo. Después, el área bajo la curva obtenida se troceaba en diferentes segmentos de forma trapezoidal: calculando su área, se obtenía la distancia que había viajado Júpiter por el cielo en un tiempo dado.
«La tablilla contiene una explicación completa del movimiento de este planeta e indica cómo cambia su velocidad angular, medida en grados por día, de un segmento a otro», explica Ossendrijver, que conoce bien la ciencia babilónica. Esta hipótesis podría obligar a revisar nuestras ideas sobre la capacidad de abstracción matemática de esta y otras civilizaciones antiguas. Sabemos que la geometría se inventó en Mesopotamia hacia 1900 a. C., pero, hasta recientemente, no había pruebas de que tal conocimiento se hubiera aplicado a la astronomía; se solía usar en cuestiones más terrenales, como la medición de parcelas.

Con un ojo en la luna
Eso sí, no todos los expertos comparten el entusiasmo de Ossendrijver. El físico e historiador James Evans, de la Universidad de Puget Sound, en EE. UU., indica que esta interpretación puede ser incorrecta, ya que en la tablilla brilla por su ausencia cualquier gráfica, al contrario de lo que sucede en otras que muestran la forma de medir geométricamente la tierra.
El arqueólogo Alexander Marshack, del Museo Peabody de la Universidad de Harvard, ya defendía en los 70 en su obra The Roots of Civilization que el hombre prehistórico tenía una capacidad para el razonamiento abstracto mayor de lo que imaginamos. Marshack llegó a tal conclusión gracias a la Luna. Desde Groenlandia a la Patagonia, todos los pueblos antiguos la han saludado y adorado. De hecho, el registro arqueológico más antiguo conocido de una primitiva conciencia astronómica es un calendario lunar. Este fue ideado por la cultura auriñaciense, que ocupó Europa y el sudoeste asiático hacia 38 000 a. C.
Marshack sospechaba que unas marcas dejadas por nuestros antepasados prehistóricos en algunos huesos de animales, desdeñadas por los arqueólogos como fruto del aburrimiento de un anónimo artista, eran en realidad registros del ciclo lunar. Pero cuando las estudió en detalle con el microscopio, halló que no habían sido hechas al azar: su autor se había esmerado en controlar el grosor de cada línea de forma que, a partir de ellas, era posible seguir las fases de nuestro satélite. Para Marshack, esos primitivos calendarios debían tener alguna utilidad práctica, como ayudar a las partidas de caza, pues se podían transportar con facilidad.
En este mismo sentido, la arqueoastrónoma Chantal Jègues-Wolkiewiez cree que los humanos del Paleolítico eligieron plasmar sus pinturas en ciertas cuevas de la Dordoña francesa porque el interior se ilumina con el sol de la tarde del día del solsticio de invierno. Si de verdad fuese cierto, no nos quedaría más remedio que concluir que aquellos primeros astrónomos habían comprendido las interrelaciones entre el ciclo anual lunar, los solsticios y los cambios estacionales.
Los cielos rigen la vida
La supervivencia de los grupos de cazadores-recolectores y de los primeros agricultores dependía de conocer con la mayor precisión posible los ciclos de la vida, y estos se encuentran indisociablemente unidos a los astronómicos. Pero darse cuenta de todas estas cosas no es, en absoluto, algo evidente. De hecho, según Marshack, para alcanzar tales conocimientos, el hombre primitivo debió de haber pasado antes por el descubrimiento intuitivo de los principios matemáticos subyacentes. No es extraño que, con el tiempo, todo lo relacionado con los cielos fuese motivo de especulación religiosa, aunque, desde sus mismos orígenes, también ha tenido importantes implicaciones en la vida cotidiana.
Prueba de ello son los monumentos megalíticos que podemos encontrar en numerosos enclaves de todo el planeta. De entre ellos, Stonehenge, en Inglaterra, es seguramente el más conocido. Empezó a erigirse hacia 3100 a. C., y durante un milenio y medio fue aumentado, completado y modificado. Todo lo que lo rodea es un misterio, desde los motivos que tuvieron los habitantes de la zona para dedicarle casi un centenar de generaciones o la técnica que utilizaron para trasladar los bloques que lo integran desde más de doscientos kilómetros, hasta su función.
Aquellas gentes no dejaron registros escritos, así que se han ofrecido muchas y muy diversas explicaciones a todo ello: quizá fue una especie de centro dedicado a la sanación –una especie de Lourdes de la prehistoria–, o quizá tuvo por objeto exaltar la paz y la unidad. Lo único cierto es que Stonehenge está alineado en dirección al amanecer, en el solsticio de verano, y del atardecer, en el de invierno.
En Armenia, existe otro complejo parecido, denominado Zorats Karer, una expresión que podría traducirse como ‘ejército de piedras’. Algunos investigadores han sugerido que diecisiete de las rocas que lo componen fueron colocadas en su lugar para marcar el amanecer y el atardecer en los solsticios y equinoccios. Otras catorce parecen tener cierta relación con nuestro satélite. Este mismo nexo podemos encontrarlo en muchos otros puntos del planeta, como es el caso de Calçoene, municipio situado en el nordeste del estado brasileño de Amapá. Allí, sobre una colina, 127 piedras de granito de 3 metros de alto apuntan al solsticio de invierno desde hace unos 2000 años.

Juegos de luces y rocas
Algo similar ocurre en el Observatorio Astronómico de Zaquencipa, también llamado El Infiernito, en Colombia, donde treinta megalitos marcan el comienzo de las épocas de verano e invierno. Y lo mismo subyace en muchos otros monumentos megalíticos estudiados por los arqueólogos: un marcado interés por esos momentos del año en que el día y la noche tienen la misma duración.
Está claro que nuestros ancestros comprendían perfectamente el significado de los solsticios y equinoccios, a los que añadía una gran carga sagrada y ritual. El espectacular monumento funerario de Newgrange, en Irlanda, que se empezó a construir hacia el 3300 a. C., muestra la finura del conocimiento astronómico y las habilidades arquitectónicas prehistóricas. En su interior, y solo durante el solsticio de invierno, la luz del sol penetra hasta el centro del túmulo.
Esto mismo sucede en dos tumbas de corredor cercanas, Knowth y Dowth, con las que integra el complejo arqueológico Brú na Bóinne (Palacio del Boyne, en gaélico). A principios de los años 80, se descubrió en Dowth algo fascinante: justo en el solsticio de invierno, la luz del sol poniente se mueve por el lado izquierdo del corredor que lo atraviesa, hasta que alcanza una habitación circular. De este modo, las tres piedras que hay en su interior acaban siendo iluminadas por el astro rey.
El malo, a oscuras
Este tipo de construcciones que aprovechan los conocimientos astronómicos son más comunes de lo que en principio pudiera parecer. Por ejemplo, el eje central del complejo de Abu Simbel, en el sur de Egipto, fue orientado de forma que los haces solares entraran en el santuario dos veces al año, el 22 de octubre y el 22 de febrero. La luz baña así las grandes esculturas situadas en la pared, excepto la de Ptah, una divinidad conectada con el inframundo y que siempre permanece en la oscuridad.
Desde el Neolítico, por lo menos, la astronomía ha mantenido una íntima relación con lo místico. Como, en general, se consideraba que los dioses residían en el cielo, era preciso conocer lo que sucedía en él para comprender sus designios. Las culturas que florecieron en Mesopotamia desde el quinto milenio antes de nuestra era fueron las que mejor reflejan esa creencia.
La civilización sumeria, la primera que se desarrolló en la región, en el suroeste de Irak, quizá hacia el 5500 a. C., fue la primera que contó con una astronomía «moderna». Aunque era algo rudimentaria, influyó notablemente en los pueblos que la sucedieron, como los asirios y los babilonios. Estos compilaron sus primeros catálogos de estrellas hacia el 1200 a. C. Además de la escritura cuneiforme o el sistema numérico sexagesimal, con el que se simplifica la notación de números muy grandes y pequeños, a los sumerios les debemos el nombre más antiguo conocido de un grupo de estrellas, recogido en un texto de gramática de 2500 a. C.: Mul-mul, las Pléyades.
Al final del tercer milenio antes de Cristo, los acadios se hicieron con el control de la región. En muchos de sus documentos los dioses son representados con figuras de leones, toros, escorpiones..., tal y como aparecerían más tarde las constelaciones. Hacia el 1500 a. C., un pueblo proveniente de Irán, los casitas, instauró una dinastía que reinó en Babilonia durante cuatrocientos años. Entre los textos más famosos de esa época se encuentra el Enuma Anu Enlil, una recopilación de presagios que interpretan una amplia colección de fenómenos celestes y atmosféricos, desde la aparición de la Luna en diversos días del mes hasta la formación de eclipses. De las setenta tablillas que componen el Enuma Anu Enlil destaca la de Venus de Ammisaduqa. En ella aparece una lista de las salidas y puestas de Venus en un ciclo de veintiún años. Se trata de la primera identificación en la historia de un movimiento astronómico periódico.
En Mesopotamia, la astronomía jugó un papel determinante en la elaboración de efemérides, unas tablas que dan las posiciones de los cuerpos celestes en un momento dado. Sus autores, sin embargo, no mostraron interés en desarrollar teorías que explicaran sus movimientos. Hasta que Mathieu Ossendrijver anunció su hallazgo, se ha venido suponiendo que sus modelos planetarios, exquisitamente empíricos, se basaban en la aritmética, al contrario de lo que sucedería más tarde con los griegos, que se inclinaron por la geometría.

Astrólogos y astrónomos
La dedicación a este asunto en Mesopotamia puede observarse, por ejemplo, en la Oración a los dioses de la noche, un texto acadio del periodo babilónico antiguo (hacia 1830-1530 a. C.) donde se mencionan diecisiete deidades-astros. No es un texto científico –la idea era hacer uso de esta relación en tareas adivinatorias–, pero el orden en que aparecen esos objetos es prácticamente el mismo que recogería más tarde el compendio más importante de la astronomía mesopotámica, conocido como Mul Apin.
El título de esta obra, que podría remontarse al 1000 a. C., significa «el Arado». Los arqueólogos lo han bautizado de ese modo porque comienza con el nombre de esta constelación, que, según se cree, correspondería a la del Triángulo. Este conjunto de tablillas ofrece un catálogo de estrellas y constelaciones ordenadas en las tres zonas en que se dividía el cielo –norte, central y sur–, y que se referían, respectivamente, a los dominios de Enlil –la divinidad del viento–, a los de Anu –rey de los dioses– y a los de Ea –señor de la tierra–.
Mul Apin también contiene anotaciones sobre los métodos para calcular los ortos o levantamientos helíacos –el momento en que una estrella sale por el horizonte, al este, cuando el Sol se pone por el oeste–, los pares de constelaciones que se encuentran al mismo tiempo en el cénit y en el horizonte o el denominado camino de la Luna, es decir, el zodíaco.
Con el reinado de Nabonasar (747-733 a. C.) aumentó la calidad de las observaciones y se empezaron a archivar sistemáticamente los fenómenos celestes que se consideraban importantes para la adivinación. Esto tuvo como efecto colateral que los sacerdotes babilónicos descubrieran el ciclo de dieciocho años que separa dos eclipses lunares. Sus mediciones eran tan fiables que varios siglos después Ptolomeo fijó el origen de su calendario en el inicio del reino de Nabonasar. El mayor logro de los astrónomos babilónicos se debe, sin embargo, a Seleuco de Seleucia, que vivió en el siglo ii a. C. Este propuso un modelo heliocéntrico para explicar las observaciones de los planetas y fue el primero que mostró que el movimiento de las mareas se debía a la acción de la Luna. También relacionó la intensidad de las mismas con las posiciones relativas del Sol y nuestro satélite respecto a la de la Tierra.
El primer calendario moderno
Lo que está claro es que toda civilización necesita un modo de cuantificar el paso del tiempo, sobre todo si es agrícola. Para ello, se buscan sucesos que se repitan de manera cíclica, algo que siempre se ha encontrado en el Sol y la Luna, y que dio origen al calendario. Los antiguos babilonios y los chinos idearon los suyos basándose en las fases de nuestro satélite. Los agricultores, sin embargo, precisan un método fiable para predecir cuándo van a llegar las lluvias y cuándo deben sembrar, algo que la Luna no resuelve satisfactoriamente. Los sacerdotes babilonios tuvieron que usar todo su ingenio para poder adaptar el ciclo lunar a las estaciones. En este sentido, los egipcios dieron un paso de gigante. A principios del tercer milenio antes de Cristo descubrieron la duración del año solar y, de forma muy práctica, idearon un calendario que colmaba sus necesidades cotidianas.
El año egipcio constaba de doce meses, cada uno de treinta días –existían tres estaciones, denominadas inundación, siembra y recolección, de 120 jornadas–, a los que se sumaban otros cinco, conocidos como epagómenos. Se trataba de fechas de carácter festivo en las que se celebraba el nacimiento de los dioses.
Según parece, este calendario ya se utilizaba durante el reinado de Shepseskaf, un faraón de la IV dinastía (aproximadamente, entre el 2630 a. C. y el 2500 a. C.). Los egipcios fijaron el comienzo del año respecto a Sirio, la estrella más brillante del firmamento, que tenía una gran importancia en esta cultura. Cuando Sirio aparecía por el horizonte al tiempo que el Sol se ponía –el levantamiento helíaco–, comenzaba la crecida anual del Nilo y con ella el año nuevo.
En un contexto donde las tablets han recuperado un papel protagonista en nuestro día a día, cada vez más usuarios buscan dispositivos versátiles capaces de combinar ocio, productividad y aprendizaje.
Si además se le añade la inminente vuelta al cole, Xiaomi ha aprovechado para mostrar su poderío dentro de la gama media liquidando nuevamente su modelo más vendido: la Redmi Pad Pro.

Actualmente su precio oscila alrededor de los 200€ en plataformas como Miravia, Amazon, PcComponentes y MediaMarkt. Sin embargo, Xiaomi refuerza su alianza con AliExpress para hundirlo gracias al cupón BSES15 hasta los 144,93 euros.
Esta tablet cuenta con una pantalla LCD de 12,1 pulgadas WQHD+ en formato 16:10, tasa de refresco AdaptiveSync de hasta 120 Hz, brillo máximo de 600 nits y muestreo táctil de hasta 240 Hz. Además incorpora el procesador Snapdragon® 7s Gen 2 de 4 nm, acompañado de 6 GB de RAM y 128 GB de memoria.
Su sistema de sonido está compuesto por cuatro altavoces estéreo con Dolby Atmos. Así como cámara trasera y delantera de 8 MP con grabación FHD a 30 fps. En conectividad cuenta con Wi-Fi 6, Bluetooth 5.2 y una batería de 10.000 mAh admitiendo carga rápida de 33 W.
Xiaomi también quiere reforzar su dominio recortando el precio de su POCO Pad
Además de apostar fuerte con la Redmi Pad Pro, Xiaomi no se olvida de su otra gran apuesta, el POCO Pad recortando su precio, junto con el código descuento ESBS28, hasta los 161,47 euros. Otra ganga sabiendo que su precio también se acerca (incluso supera) los 200€ en Amazon, Miravia y PcComponentes.

Este modelo dispone de una pantalla LCD de 12,1 pulgadas con resolución 2.5K, densidad de 249 ppp y tasa de refresco AdaptiveSync de 120 Hz. Teniendo en su interior el procesador Snapdragon 7s Gen 2 de 4 nm y ocho núcleos (hasta 2,4 GHz), acompañado de 8 GB de RAM y 256 GB de almacenamiento.
Incorpora también cuatro altavoces estéreo con certificación Dolby Atmos, cámaras frontal y trasera de 8 MP, y una batería de 10.000 mAh con carga rápida de 33W. Además de Wi-Fi 6 y Bluetooth 5.2.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El esmalte es la primera barrera de defensa de nuestros dientes. Más duro que el hueso, está diseñado para resistir la presión de la masticación y el contacto diario con alimentos y bebidas. Sin embargo, también es un recurso limitado: cuando se desgasta, no vuelve a crecer. Esa fragilidad convierte la erosión del esmalte en un problema mundial de salud bucal.
Factores cotidianos como consumir bebidas ácidas, llevar una higiene deficiente o simplemente envejecer contribuyen a su deterioro. El resultado puede ser dolor al frío o al calor, hipersensibilidad e incluso la pérdida del diente. Hasta ahora, las pastas dentales con flúor han sido la mejor herramienta para ralentizar este proceso, pero no logran detenerlo.
En este contexto, la búsqueda de un método que pueda reparar de verdad el esmalte ha sido uno de los grandes retos de la odontología moderna. El estudio publicado en Advanced Healthcare Materials abre una vía inesperada: aprovechar la queratina, una proteína abundante en la naturaleza, como material de regeneración.

La proteína que llevamos puesta
La queratina es una de las proteínas más conocidas del cuerpo humano. Forma parte de nuestro cabello, de las uñas y de la piel, pero también está presente en animales como las ovejas, en cuya lana se encuentra en grandes cantidades. Lo interesante es su capacidad para crear fibras duras y resistentes, con propiedades muy similares a las del esmalte.
El equipo de King’s College London decidió probar si esta proteína podía convertirse en un “andamio” capaz de guiar la regeneración dental. Para ello, extrajeron queratina de lana y la aplicaron en dientes humanos en laboratorio. La clave estuvo en observar qué ocurría cuando esa proteína entraba en contacto con los minerales naturales presentes en la saliva.
El resultado fue sorprendente: la queratina organizó esos minerales en una estructura cristalina muy parecida a la del esmalte natural. En otras palabras, actuó como un molde biológico que permitió que los dientes crearan una capa protectora nueva.
"La queratina ofrece una alternativa transformadora a los tratamientos dentales actuales. No solo se obtiene de forma sostenible de materiales de desecho biológicos como el cabello y la piel, sino que también elimina la necesidad de resinas plásticas tradicionales, comúnmente utilizadas en la odontología restaurativa, que son tóxicas y menos duraderas," dijo Sara Gamea, investigadora de doctorado en King's College de Londres y autora del estudio.
Más allá del flúor: detener la caries
Las pastas dentales con flúor han sido, durante décadas, la primera línea de defensa contra las caries. El flúor fortalece lo que queda de esmalte y retrasa su degradación, pero no tiene la capacidad de generar una nueva capa completa. Lo que propone este nuevo método va un paso más allá: no ralentiza el daño, lo detiene.
En los experimentos, la queratina formó un recubrimiento denso que no solo imitaba la dureza del esmalte, sino que también sellaba los canales microscópicos que conectan la superficie dental con los nervios. Ese sellado es lo que reduce la sensibilidad y evita el dolor.
De confirmarse en ensayos clínicos, esta técnica supondría un cambio de paradigma: dejar de enfocarse solo en la prevención y pasar a la reparación activa, devolviendo a los dientes la protección que habían perdido.
"Estamos entrando en una era emocionante en la que la biotecnología nos permite no solo tratar los síntomas, sino restaurar la función biológica utilizando los propios materiales del cuerpo. Con un mayor desarrollo y las asociaciones adecuadas para la industria, pronto podríamos desarrollar sonrisas más fuertes y saludables a partir de algo tan simple como un corte de pelo", dijo Sherif Elsharkawy, autor principal y consultor en prostodoncia en King's College de Londres.

Del laboratorio al baño de casa
Los investigadores plantean dos vías de aplicación práctica. La primera es quizá la más atractiva para el público general: una pasta de dientes que contenga queratina, diseñada para usarse a diario. Así, cualquier persona podría reforzar su esmalte mientras se cepilla con normalidad.
La segunda opción sería más clínica y especializada. Se trataría de un gel profesional que los dentistas aplicarían directamente sobre la superficie dental, creando un recubrimiento más duradero y específico, parecido a la manera en que se coloca un barniz de uñas.
Ambas alternativas tienen en común un objetivo ambicioso: llevar la regeneración del esmalte a la vida cotidiana. Y los científicos creen que podrían ser realidad en apenas dos o tres años, si los ensayos clínicos avanzan como esperan.
"Esta tecnología cierra la brecha entre la biología y la odontología, proporcionando un biomaterial ecológico que refleja los procesos naturales"
dijo Gamea.
Una idea que suena extraña, pero funciona
Hablar de una pasta dental hecha “con cabello” puede sonar extraño. En realidad, lo que se utiliza es la queratina, que también está en nuestro pelo, pero los experimentos se hicieron con lana, una fuente más abundante y práctica. La comparación con el cabello es un recurso que ayuda a imaginar cómo una proteína tan común puede esconder propiedades tan extraordinarias.
Lo llamativo es que, en lugar de recurrir a materiales sintéticos complejos, la investigación encuentra la solución en una proteína natural que el cuerpo ya reconoce. Esa biocompatibilidad es lo que podría hacer que el tratamiento sea seguro, sostenible y accesible.
El mensaje detrás del estudio es claro: a veces la innovación no está en inventar de cero, sino en redescubrir el potencial de lo que ya existe en la naturaleza.

El futuro de la salud dental
Si esta tecnología llega a comercializarse, las consecuencias para la salud bucodental serían enormes. No solo ayudaría a frenar la epidemia global de caries, que afecta a miles de millones de personas, sino que también podría reducir la necesidad de empastes, coronas y otros tratamientos invasivos.
"La queratina también se ve mucho más natural que estos tratamientos, ya que puede coincidir más estrechamente con el color del diente original"
dijo Gamea.
Además, al basarse en queratina natural, el impacto ambiental sería menor que el de otros productos químicos usados en odontología. La lana, de hecho, es un recurso abundante y renovable.
Por ahora, queda camino por recorrer: ensayos clínicos en humanos, pruebas de seguridad y evaluaciones regulatorias. Pero el hallazgo ya apunta a un horizonte optimista. Puede que en pocos años, cada vez que nos cepillemos los dientes, estemos aplicando un refuerzo natural inspirado en la misma proteína que da fuerza a nuestro cabello.
Referencias
- Gamea, S., Radvar, E., Athanasiadou, D., Chan, R. L., De Sero, G., Ware, E., ... & Elsharkawy, S. (2025). Biomimetic Mineralization of Keratin Scaffolds for Enamel Regeneration. Advanced Healthcare Materials. doi: 10.1002/adhm.202502465
El código GKP adopta un enfoque diferente. En lugar de basarse en múltiples cúbits físicos, codifica la información cuántica en un solo oscilador armónico, como el movimiento vibratorio de un ion. Esto permite corregir errores sin tanto gasto de hardware, aunque a cambio requiere un control experimental muy sofisticado. Hasta ahora, esta complejidad había impedido su implementación práctica. El estudio liderado por el Dr. Tingrei Tan y su equipo ha logrado sortear ese obstáculo con éxito.
“Nuestro enfoque es compatible con arquitecturas de hardware existentes y demuestra el potencial de las técnicas de control óptimo combinadas con esquemas avanzados de codificación para acelerar el camino hacia el procesamiento cuántico de información a gran escala y con tolerancia a fallos”, afirma el artículo. Es una afirmación ambiciosa, pero respaldada por resultados concretos.
Una puerta lógica universal con un solo ion
Uno de los mayores logros del experimento es haber demostrado una puerta lógica universal usando un solo ion de iterbio, atrapado en una estructura llamada trampa de Paul. Este ion actúa como sistema físico sobre el que se implementan dos modos vibratorios distintos, que permiten codificar cúhttps://www.muyinteresante.com/ciencia/que-es-un-cubit.htmlbits GKP en direcciones ortogonales del movimiento.
Este diseño experimental permite realizar tanto operaciones individuales sobre cúbits como entrelazamientos entre dos de ellos, lo cual es fundamental para ejecutar cualquier algoritmo cuántico completo. Según explican los autores, lograron implementar un conjunto de puertas lógicas esenciales —incluyendo rotaciones y una operación de control entre dos cúbits— que, en conjunto, forman la base mínima necesaria para realizar una computación cuántica universal.
Estas puertas se aplicaron mediante pulsos láser con modulación precisa, optimizados numéricamente para evitar distorsionar los delicados estados GKP. Los autores destacan que su método evita el deterioro de las envolventes gaussianas que estabilizan estos cúbits, un problema habitual en intentos anteriores.

¿Qué son los códigos GKP?
Uno de los mayores retos de la computación cuántica es que los cúbits, las unidades básicas de información, son extremadamente sensibles al ruido y a las interferencias del entorno. Para evitar que pierdan su información, normalmente se recurre a técnicas de corrección de errores que duplican o triplican los cúbits físicos. El problema es que esto aumenta exponencialmente la cantidad de hardware necesario, dificultando la construcción de ordenadores cuánticos funcionales a gran escala.
Los códigos GKP, propuestos en 2001 por Gottesman, Kitaev y Preskill, ofrecen una solución alternativa: en lugar de usar varios cúbits físicos, codifican la información en un solo sistema físico que vibra de forma controlada, como un oscilador armónico. Estos sistemas tienen un espacio de estados continuo, y el código GKP crea una especie de cuadrícula interna, un patrón matemático muy preciso que permite detectar y corregir desviaciones. Así, cada punto de esa cuadrícula actúa como una referencia para saber si el estado cuántico se ha desviado por culpa del ruido.
Este enfoque combina lo mejor de dos mundos: usa sistemas continuos, que son más fáciles de manipular con precisión, y añade una estructura digital interna que permite corrección de errores eficiente con menos recursos físicos. En la práctica, un código GKP funciona como si se superpusieran múltiples estados cuánticos perfectamente alineados, de forma que cualquier perturbación saca al sistema de ese patrón y puede ser detectada. Por eso, algunos investigadores lo llaman la “Piedra de Rosetta” de la computación cuántica: traduce los comportamientos complejos y ruidosos del mundo cuántico en señales ordenadas y reconocibles.
El papel del software y el control óptimo
Uno de los factores clave detrás de este avance ha sido el uso de herramientas de control cuántico desarrolladas por la empresa emergente Q-CTRL, una spin-off del propio laboratorio de investigación. El software permitió diseñar con precisión las secuencias de pulsos que implementan las puertas lógicas, minimizando la pérdida de fidelidad por factores externos.
Gracias a este control avanzado, las operaciones implementadas obtuvieron fidelidades medias de entre 0,94 y 0,96 para las puertas de un solo cúbit, y de 0,73 para la puerta de dos cúbits. Aunque esta última cifra es más baja, sigue siendo notable considerando la complejidad del proceso. Además, los modelos numéricos indican que con mejoras modestas en el hardware, estas fidelidades podrían aumentar significativamente.
El artículo indica que “estas operaciones alcanzan fidelidades de compuerta promedio cercanas a la unidad en ausencia de decoherencia”, lo que subraya que los principales límites actuales son técnicos, no conceptuales.

Preparación directa de un estado Bell
En un segundo experimento dentro del mismo estudio, el equipo logró preparar directamente un estado entrelazado Bell entre dos cúbits GKP, partiendo del vacío. Este resultado es importante porque evita la necesidad de crear primero los cúbits y luego entrelazarlos, lo que normalmente requiere más pasos y genera más errores.
El estado preparado fue |Φ+L⟩ = (|+ZL, +ZL⟩ + |−ZL, −ZL⟩)/√2, y se obtuvo mediante una secuencia de tres operaciones optimizadas aplicadas en 1,86 milisegundos. La fidelidad del estado final, medida mediante tomografía cuántica, fue de 0,83, lo que demuestra una alta coherencia del sistema durante el proceso.
Esta demostración sugiere que en el futuro podría ser posible generar directamente otros estados GKP complejos sin pasar por pasos intermedios costosos. En la práctica, esto se traduce en un ahorro de tiempo, energía y errores acumulados.

Una arquitectura adaptable y escalable
Uno de los aspectos más prometedores del estudio es su compatibilidad con plataformas de hardware ya existentes. El artículo menciona que los métodos utilizados podrían aplicarse a “cristales de Coulomb lineales, arreglos bidimensionales de iones, dispositivos cuánticos acoplados por carga y trampas de Penning en miniatura”.
Además, los investigadores proponen extender su enfoque a átomos neutros en pinzas ópticas y a arquitecturas distribuidas que se comuniquen mediante fotones. Esta flexibilidad es clave para escalar la computación cuántica sin depender de un único tipo de dispositivo.
También es relevante que estas técnicas podrían servir para otros códigos bosónicos más resistentes al ruido, como los códigos simétricos de rotación o los códigos de rejilla multimodo. En conjunto, estas perspectivas convierten este avance en una piedra angular para el desarrollo futuro de sistemas cuánticos robustos.
De la prueba de concepto al salto tecnológico
Aunque este experimento aún está lejos de construir un ordenador cuántico funcional con miles de cúbits, representa un paso claro hacia ese objetivo. Es la primera vez que se logra aplicar operaciones universales a cúbits GKP con alta fidelidad y sin necesidad de estructuras experimentales gigantescas.
El código GKP ya no es solo una teoría elegante: se ha demostrado que puede funcionar en la práctica, al menos en pequeña escala. Como reconoce el artículo, “nuestra demostración de un conjunto universal de puertas en cúbits GKP proporciona una base para permitir el procesamiento de información cuántica a gran escala con recursos bosónicos en dispositivos de iones atrapados”.
La computación cuántica está llena de promesas que aún no se han cumplido del todo. Pero experimentos como este nos recuerdan que detrás de cada promesa hay personas trabajando, línea a línea, pulso a pulso, para traducir lo ininteligible en una herramienta útil. Exactamente como hizo la verdadera Piedra de Rosetta.
Referencias
- Matsos, V. G., Valahu, C. H., Millican, M. J., Navickas, T., Kolesnikow, X. C., Biercuk, M. J., & Tan, T. R. (2025). Universal quantum gate set for Gottesman–Kitaev–Preskill logical qubits. Nature Physics. https://doi.org/10.1038/s41567-025-03002-8.
Hyundai refuerza su liderazgo en movilidad de hidrógeno con una estrategia integral basada en el desarrollo de vehículos FCEV (Fuel Cell Electric Vehicle). Desde el pionero ix35/Tucson FCEV de 2013, el primer vehículo de producción en serie con pila de combustible, hasta el actual NEXO, la marca coreana ha recorrido un camino que combina innovación técnica, visión ecológica y una apuesta decidida por un ecosistema renovable.
El recién presentado NEXO de segunda generación, exhibido en el Seoul Mobility Show 2025, marca una evolución radical en diseño, autonomía y funcionalidad: más de 700 km de alcance con una recarga rápida de apenas cinco minutos, un nuevo lenguaje estético denominado “Art of Steel”, interiores más amplios y prácticos, y por primera vez una capacidad de remolque relevante para un FCEV.
Esta estrategia se complementa con la electrificación de otras gamas. Hyundai ha demostrado que puede ofrecer soluciones para todos los perfiles de conductor: desde modelos urbanos pensados para el día a día, como el Inster, del que se dice Pequeño por fuera, gigante por dentro, hasta propuestas de gran formato como el IONIQ 9, el SUV insignia que acaba de presentarse como Hyundai presenta el IONIQ 9, un gigante eléctrico con tracción total. En este contexto, el hidrógeno se posiciona como el tercer pilar de una oferta diversa que abarca desde la movilidad urbana hasta los vehículos pesados.
Hyundai no se detiene ahí. Otros modelos muestran su ambición más allá del automóvil: el camión pesado XCIENT Fuel Cell ya circula en Suiza como parte de una flota comercial, y el concepto INITIUM, presentado en 2024, anticipa futuros FCEV con diseño provocador y tecnología avanzada. La estrategia global de Hyundai, agrupada bajo la marca HTWO, también incluye el desarrollo de infraestructura de hidrógeno, desde producción hasta consumo, con el objetivo de generar un ecosistema completo de movilidad sin emisiones.
El pionero ix35/Tucson FCEV
En 2013, Hyundai lanzó el ix35/Tucson FCEV, el primero producido en serie con pila de combustible. Su autonomía alcanzaba cerca de 600 km gracias a un mayor espacio de almacenamiento de hidrógeno y tanques de alta presión.
Este modelo demostró que una movilidad eléctrica basada en hidrógeno era viable, con recargas rápidas y cero emisiones. Fue un hito que posicionó a Hyundai como referente global en FCEV.

Avance imparable: el nuevo NEXO FCEV
La segunda generación del NEXO redefine la categoría. Con más de 700 km de autonomía tras una recarga de solo cinco minutos, se establece como el FCEV más avanzado del mercado.
Además de su eficiencia, integra un diseño refinado, un interior cómodo y práctico, y ahora ofrece capacidad de remolque. Es un SUV ecológico y funcional, preparado para el usuario moderno.

“Art of Steel”: una nueva estética tecnológica
Hyundai introduce el lenguaje de diseño “Art of Steel”, visible en el NEXO y en su concepto INITIUM. Se caracteriza por líneas limpias, superficies precisas y una presencia robusta que refleja los valores de HTWO, su marca de hidrógeno.
Esta estética busca transmitir una visión futurista, sostenible y emocional, alineada con una movilidad más responsable.

El concepto INITIUM como preámbulo
El INITIUM FCEV concept, presentado en 2024, anticipa un nuevo modelo de producción destinado a lanzar la nueva generación de FCEV. Es una declaración de intenciones, señalando el inicio de una etapa centrada en diseño sofisticado y tecnología limpia. Este concepto subraya la ambición de Hyundai de liderar el salto hacia una sociedad energética basada en hidrógeno.

XCIENT Fuel Cell: hidrógeno en el transporte pesado
Hyundai lleva el hidrógeno más allá del automóvil con el XCIENT Fuel Cell, un camión pesado que ya opera en Suiza integrándose en una flota comercial sostenible. Esta iniciativa demuestra que los FCEV también son viables en el segmento industrial. Es un paso clave hacia una economía libre de emisiones en la logística de gran tonelaje.

HTWO: infraestructura y ecosistema de hidrógeno
La marca HTWO representa la visión de Hyundai de construir un ecosistema completo: desde la producción y almacenamiento, hasta el transporte y la utilización de hidrógeno. Su objetivo es facilitar una adopción masiva y coherente de esta tecnología.
Esta estrategia convierte a Hyundai en un actor clave en la transición energética global.

Tecnología madurada y accesible
Hyundai lleva años perfeccionando su tecnología de pilas de combustible. Desde 1998 ha desarrollado componentes propios, logrando que los sistemas FCEV sean más robustos, eficientes y seguros. Esta madurez tecnológica reduce costes y facilita su adaptación a distintos formatos de vehículo.

Rango extendido y recarga instantánea
Los FCEV de Hyundai ofrecen una ventaja clave respecto a los eléctricos de batería: recarga en minutos y rangos superiores a 600 km. El NEXO amplía esta ventaja con más de 700 km autonomía tras solo cinco minutos de repostaje. Esto los hace ideales para aplicaciones donde el tiempo de carga es crítico.

Compromiso con el transporte público sostenible
Además del NEXO y el XCIENT, Hyundai apuesta por soluciones de transporte público con emisores cero. Sus autobuses Elec City y Universe Fuel Cell están enfocados en masificar el uso del hidrógeno en la movilidad colectiva. Esta visión refuerza su rol como impulsor de ciudades más limpias.

Una apuesta a largo plazo
Mientras otros fabricantes reconsideran su apuesta por el hidrógeno en turismos, Hyundai mantiene su firme compromiso con esta tecnología, apostando por su potencial en transporte y logística. Su postura demuestra una estrategia sostenida basada en innovación y diversificación.

Liderazgo en ventas e infraestructura
Aunque los FCEV aún son una minoría, modelos como el ix35 y el NEXO acumulan ventas acumuladas relevantes. Hyundai también participa activamente en proyectos de infraestructura y arrendamientos de flotas con socios energéticos. Estas acciones refuerzan su posición como líder real en la tecnología de hidrógeno.

El futuro de la movilidad limpia
Con una línea completa de vehículos FCEV, respaldados por infraestructura, diseño avanzado y colaboración industrial, Hyundai está construyendo las bases de un futuro donde el hidrógeno juega un papel clave en la descarbonización del transporte.

Este enfoque le permite abordar distintos segmentos —desde SUV hasta camiones pesados— con soluciones adaptadas, limpias y competitivas.
Era una tarde como cualquier otra a orillas del Misisipi, en la tranquila localidad de Sartell, Minnesota. Dos amigos habían salido a pescar, como tantas veces. Pero aquel 9 de agosto de 2025, la rutina se vio interrumpida por algo inesperado. En la pantalla del sonar que utilizaban para rastrear peces apareció una forma inusual, alargada, sólida, que no correspondía con las habituales formaciones del fondo del río. Lo que parecía un bulto sin importancia se convirtió, días después, en un suceso histórico que ha conmocionado a toda la región: la posible resolución de una desaparición ocurrida en 1967.
Con la ayuda de la tecnología de sonar y el instinto de unos pescadores atentos, se localizó un automóvil antiguo sumergido a unos seis metros de profundidad en el cauce del Misisipi, justo a la altura de la cuadra 300 de Riverside Avenue North, en Sartell. El vehículo, un Buick Electra de los años 60, fue extraído del agua el 13 de agosto por el equipo de buceo conjunto de los condados de Stearns y Benton, en colaboración con los servicios locales de emergencia y una grúa especializada. Pese a estar cubierto de sedimentos y mostrar el deterioro esperable tras tantos años sumergido, el coche mantenía su estructura reconocible.
Pero lo más impactante vendría al inspeccionar su interior. Dentro del vehículo, las autoridades hallaron restos humanos, junto con efectos personales que permitieron identificar rápidamente al propietario del automóvil: Roy Benn, un vecino de Sauk Rapids desaparecido misteriosamente en septiembre de 1967.
Un caso olvidado que vuelve a la luz
Roy Benn tenía 59 años cuando fue visto por última vez. Dueño de un negocio local de reparación de electrodomésticos en St. Cloud, acababa de enviudar y, según las escasas pistas disponibles en su momento, llevaba consigo una cantidad significativa de dinero el día de su desaparición. Su último paradero conocido fue un club de cenas al norte de Sartell, pero después de eso, el silencio.
Durante años, la investigación se mantuvo activa, con numerosos intentos por localizar al desaparecido. Sin embargo, ni los rastreos, ni las entrevistas, ni los avisos de búsqueda dieron resultados concluyentes. Roy Benn fue declarado legalmente muerto en 1975. Desde entonces, el caso pasó a formar parte del archivo de personas desaparecidas del estado de Minnesota, uno de tantos enigmas sin resolver que con el tiempo se diluyen en el olvido colectivo.
Sin embargo, el destino —y el Misisipi— guardaban todavía la verdad.

Una cápsula del tiempo bajo el agua
El descubrimiento del coche ha sido tratado como una escena forense de alto valor histórico. Después de su extracción, el vehículo fue llevado a las instalaciones del Departamento de Policía de Sartell, donde fue procesado cuidadosamente por el equipo de criminalística del Buró de Aprehensión Criminal de Minnesota, en coordinación con los investigadores de los condados de Stearns y Benton. El número de identificación del vehículo (VIN) confirmó su conexión con el expediente de Roy Benn.
La confirmación definitiva de la identidad de los restos humanos dependerá de los análisis del Midwest Medical Examiner’s Office, que ya trabaja con muestras de ADN proporcionadas por familiares lejanos de Benn desde hace años, en previsión de un eventual hallazgo. Aun así, las autoridades han expresado una “alta certeza” de que se trata del empresario desaparecido hace casi 58 años.
El hallazgo no solo ha generado una fuerte respuesta emocional entre los descendientes de Benn, sino que ha reactivado el interés público por la historia local y por el valor que puede tener la tecnología —y la casualidad— a la hora de esclarecer casos históricos.
¿Accidente o crimen?
A pesar de las especulaciones que han surgido en redes sociales y foros comunitarios, no hay indicios claros de que Roy Benn fuera víctima de un crimen. Algunos sugieren que pudo haber sido víctima de un robo, mientras que otros, entre ellos familiares del desaparecido, creen más probable que se tratase de un accidente: una salida de carretera durante la noche, un deslizamiento fortuito, una tragedia sin testigos.
La zona donde fue hallado el vehículo coincide con un tramo del río de corriente moderada, rodeado de vegetación y sin mucha visibilidad desde la orilla. No es difícil imaginar cómo un coche pudo pasar desapercibido durante décadas, especialmente antes del uso extensivo de tecnologías como el sonar.
Y aquí es donde la historia se tiñe de cierto simbolismo: el caso de Roy Benn, al igual que muchos otros, no fue resuelto por grandes operativos policiales ni por confesiones tardías, sino por la casualidad de un pez mordiendo un anzuelo y una pantalla que mostró algo que no debía estar allí.

Historia, memoria y justicia tardía
Lo sucedido en Sartell es mucho más que un hecho policial. Es una historia con raíces profundas en la memoria colectiva del estado. En muchas familias del centro de Minnesota, el nombre de Roy Benn circulaba como un susurro, como parte de esos relatos que se transmiten con cierta melancolía, sin saber si pertenecen al pasado real o a la leyenda local.
Ahora, con este hallazgo, se cierra un ciclo. No solo para los parientes de Roy Benn, sino también para una comunidad que durante décadas vivió con una historia inconclusa. Saber qué ocurrió, aunque no se tenga aún una versión definitiva, tiene un poder simbólico enorme. Da sentido al esfuerzo de generaciones de investigadores, al compromiso de quienes no olvidan y, en este caso concreto, también al papel que pueden desempeñar ciudadanos comunes —como unos simples pescadores— en la recuperación de la historia.
Este caso, por improbable que parezca, es también un recordatorio de que los ríos no solo arrastran agua: también guardan secretos, verdades olvidadas, historias pendientes de ser contadas.
En 2012, un grupo de aficionados a los detectores de metales encontraron en un campo de Bedale, en North Yorkshire, uno de los conjuntos más importantes de objetos de la Edad vikinga de Inglaterra. Se trata del llamado tesoro de Bedale, un conjunto de piezas metálicas que se ha fechado entre finales del siglo IX e inicios del X. El rico conjunto de piezas de plata y oro no solo reflejan el poder económico de las comunidades escandinavas asentadas en el norte de Inglaterra, sino que, como ha demostrado un reciente estudio geoquímico publicado en la revista Archaeometry, ofrecen pruebas tangibles de la existencia de redes comerciales medievales que conectaban el Atlántico con el mundo islámico.
El hallazgo de Bedale y su contexto histórico
Un tesoro excepcional en el corazón de Yorkshire
El tesoro de Bedale está compuesto por 36 piezas de plata y un pomo de espada anglosajón decorado en oro, que, con probabilidad, se obtuvieron como botín de guerra. Entre los objetos de plata, figuraban 29 lingotes de forma cilíndrica, collares da factura escandinava y joyas hiberno-nórdicas asociadas a Dublín.
Según los arqueólogos, el depósito seguramente se enterró entre finales del siglo IX y principios del X, en un periodo crucial, tras la conquista escandinava de Northumbria en 866, pero antes de que el rey anglosajón Æthelstan tomara York en 927. Este fue un tiempo en el que York operó como un nodo comercial e importante centro de poder vikingo.
El valor económico y simbólico de la plata
Para las comunidades vikingas, la plata constituía la base del sistema económico, ya que se utilizaba como medio de pago bajo la forma de lingotes, fragmentos o joyas. El preciado metal, sin embargo, procedía de territorios extranjeros fuera de Escandinavia. Los vikingos obtenían plata de dos fuentes principales: el saqueo de plata de Europea occidental —monedas y vajillas carolingias o anglosajonas, por ejemplo— y el comercio a larga distancia que traía monedas de plata islámicas, los dirhams, desde el Califato abasí.

El análisis científico de la plata: de Bedale a Irán
El método geoquímico
A través de análisis de isótopos de plomo, elementos traza y otras pruebas de laboratorio, los investigadores han identificado la procedencia de la plata presente en este tesoro. Esta metodología ha permitido distinguir la plata refinada con plomo local de aquella que conserva la firma isotópica de su yacimiento original. En el proceso de estudio, los elementos traza como el oro y el bismuto resultaron esenciales para identificar patrones regionales y descartar posibles contaminaciones por procesos de reciclaje.
Así, el equipo investigador ha podido demostrar que una parte significativa provenía de fuentes de Europa occidental —probablemente fruto del saqueo de plata carolingia y anglosajona— y otra, no menos importante, de plata islámica procedente de monedas dirham. Estas monedas habían viajado miles de kilómetros desde el actual Irán y Asia Central. Tal hallazgo confirma que, incluso en el extremo occidental de la diáspora vikinga, el comercio a larga distancia desempeñó un papel central en la circulación de metales preciosos.
Tres grandes grupos de procedencia
Los resultados mostraron que la mayor parte de la plata del tesoro tenía origen en Europa occidental, compatible con monedas carolingias y anglosajonas del siglo IX, que presentan concentraciones moderadas a altas de oro. Es probable que esta plata llegara a manos vikingas a través de las incursiones militares y el cobro de tributos.
Un segundo grupo, más pequeño, correspondía a plata de origen islámico, con una composición característica que coincide con la de los dirhams acuñados en la región de Transoxiana y Persia. Estas monedas viajaban a través de las rutas comerciales euroasiáticas, en las que se intercambiaban por pieles, esclavos y otros bienes de alto valor.
Un tercer grupo se ha caracterizado por ser mixto. Puesto que muestra características intermedias, los científicos han sugerido que, en los talleres vikingos, se fundían y reciclaban conjuntamente metales procedentes de ambas rutas.

El significado de la plata islámica en un tesoro inglés
Redes que cruzaban continentes
Que un tesoro enterrado en el corazón de Yorkshire contenga plata procedente de Asia Central e Irán es una evidencia contundente de la interconexión económica del mundo medieval temprano. Los vikingos, además de ser hábiles saqueadores, también participaron como actores de un comercio a larga distancia que unía Escandinavia con el Califato abasí a travñes de las rutas fluviales de Rusia y el mar Báltico.
Según los estudiosos, se confirma así que las rutas de la Ruta de la Seda y sus ramificaciones septentrionales contaban con una prolongación marítima hacia el Atlántico norte, prolongación que habrían controlado los comerciantes escandinavos.
De los mercados de Samarcanda a los talleres de York
La circulación de dirhams hacia Escandinavia está bien documentada en los hallazgos del Báltico y Rusia, pero su presencia en el oeste y, en particular, en Inglaterra, resultaba menos evidente. El caso de Bedale demuestra que la plata oriental superó los límites de los territorios bálticos para penetrar en profundidad en el ámbito vikingo del Atlántico. Una vez en manos de los orfebres escandinavos, este metal asiático se fundía junto a la plata local o saqueada para fabricar joyas, collares y lingotes como los que se encontraron en el tesoro.

Tecnología, refinado y circulación
El papel de la cupelación
Una parte de los objetos de Bedale muestra signos de refinado por cupelación, un proceso que implica calentar la plata con plomo para eliminar las impurezas de cobre, zinc o estaño. Este procedimiento deja una huella isotópica del plomo empleado que, en este caso, es compatible con el que se encuentra en los yacimientos británicos. Todo ello indica que parte de la plata del tesoro de Bedale se fundió y refinó en Inglaterra.
Economía del peso y ausencia de monedas
Una de las peculiaridades de este conjunto metálico es que el tesoro carece de monedas. Este rasgo sugiere que se enterró antes de que York reanudara la acuñación de monedas hacia 895–900, o bien que su propietario prefirió almacenar plata bajo la forma de piezas pesadas. Tal elección encajaría, según el equipo investigador, con la economía del peso que predominaba en las comunidades vikingas, donde la plata circulaba cortada o fundida en lingotes.

Implicaciones históricas
El estudio del tesoro de Bedale proporciona un ejemplo extraordinario de cómo la arqueometría puede reconstruir las conexiones socioecnómicas globales de la Edad vikinga. La combinación de plata europea y oriental revela que el comercio y el intercambio cultural en el siglo IX tenían un alcance mucho mayor de lo que la arqueología tradicional podía documentar.
La presencia de plata islámica en un contexto inglés indica que los vikingos de York no solo saqueaban y comerciaban en las Islas Británicas, sino que participaban de manera activa en una red de alcance eurasiático. Esta red fue capaz de crear, en apenas unas décadas, un flujo de metales preciosos desde Irán hasta el norte de Inglaterra. La investigación demuestra, por tanto, la existencia de redes comerciales medievales que, atravesando miles de kilómetros y múltiples culturas, enlazaban el oeste europeo con los mercados islámicos orientales.
Referencias
- Kershaw, Jane, et al. 2025. "The Provenance of Silver in the Viking‐Age Hoard From Bedale, North Yorkshire". Archaeometry. DOI: https://doi.org/10.1111/arcm.70031
La historia de la llegada de los primeros humanos al continente americano está plagada de desafíos extremos, decisiones cruciales y adaptaciones casi milagrosas. Cruzaron el helado puente de Bering hace más de 20.000 años, adentrándose en un territorio completamente desconocido. Pero no llegaron solos: en su código genético llevaban un secreto milenario, heredado de una especie humana extinta que, según revela un nuevo estudio publicado en Science, pudo haber sido clave para su supervivencia en estas nuevas tierras.
La investigación, liderada por el antropólogo Fernando Villanea de la Universidad de Colorado Boulder y su colega David Peede de la Universidad de Brown, se centra en una región específica del ADN humano conocida como MUC19, un gen con funciones inmunológicas cruciales. Lo asombroso es que, al analizar esta sección en poblaciones actuales con ascendencia indígena americana, los investigadores encontraron una variante del gen que no proviene ni de Homo sapiens ni de neandertales, sino de los enigmáticos Denisovanos, una especie humana extinta cuyos rastros han desconcertado a la ciencia desde su descubrimiento hace apenas 15 años.
Una herencia genética inesperada
Los Denisovanos vivieron hace decenas de miles de años en regiones que se extienden desde Siberia hasta Oceanía. Se sabe poco de su aspecto físico —ni siquiera hay reconstrucciones fiables de su rostro— pero sí se conoce bastante bien su genoma, y ese conocimiento ha comenzado a revelar pistas sorprendentes sobre su impacto en la evolución humana.
El hallazgo clave del nuevo estudio reside en cómo ese gen MUC19 fue transmitido de los Denisovanos a los humanos actuales. Lo intrigante es que la vía de transmisión fue indirecta: primero, los Denisovanos se mezclaron genéticamente con los Neandertales, y estos, a su vez, lo pasaron a los Homo sapiens en una suerte de “cadena de ADN”. Esta secuencia de transferencia genética, rara y documentada por primera vez en este trabajo, fue descrita por los científicos como un "sándwich genético": un segmento de ADN denisovano encapsulado entre fragmentos de ADN neandertal.
Este tipo de flujo genético no es del todo inusual en la historia humana, pero sí lo es su efecto posterior: la variante de MUC19 parece haber otorgado una ventaja evolutiva a quienes la heredaron, y por ello se propagó con rapidez entre los primeros pobladores del continente americano.

Ventajas biológicas en un mundo nuevo
Al llegar a América, nuestros ancestros se enfrentaron a entornos radicalmente distintos a los que conocían: nuevos virus, bacterias, climas extremos y alimentos completamente desconocidos. La hipótesis que emerge del estudio es que esta variante del gen MUC19 ofrecía ventajas inmunológicas fundamentales, quizás relacionadas con la producción de mucinas —las proteínas que forman el moco y protegen los tejidos del cuerpo frente a patógenos—, ayudando así a estos grupos humanos a resistir infecciones y sobrevivir a su nuevo entorno.
Lo más interesante es que esta adaptación no se desarrolló de forma espontánea en América, sino que era parte de una herencia evolutiva milenaria, ya presente en su ADN gracias a encuentros entre especies humanas anteriores a su migración.
En la actualidad, según los datos del estudio, alrededor del 33% de las personas con ascendencia mexicana indígena portan esta variante del gen MUC19. En Perú, la cifra ronda el 20%, mientras que en Puerto Rico y Colombia apenas se observa en un 1%. Estos porcentajes se correlacionan directamente con el grado de ascendencia indígena en cada población. Curiosamente, en personas de origen europeo, la presencia del gen es casi inexistente.
Una migración épica y silenciosa
Hace más de 20.000 años, en pleno auge de la última glaciación, grupos humanos comenzaron a cruzar el entonces transitable estrecho de Bering. Lo que hoy es un mar helado fue en su momento un puente de tierra que conectaba Siberia con Alaska. Por ese corredor natural avanzaron lentamente, enfrentando temperaturas extremas, escasez de alimentos y una geografía tan salvaje como hostil.
Lo que ignoraban —y que ahora la genética moderna nos permite entrever— es que cargaban consigo no solo herramientas y conocimientos ancestrales, sino también adaptaciones biológicas que les serían vitales. Su ADN estaba armado con fragmentos de otras especies humanas que ya habían enfrentado condiciones similares miles de años antes.

Este “kit de supervivencia genético” no fue deliberado, sino fruto del azar evolutivo: un legado de encuentros antiguos entre homínidos que, sin saberlo, dejaron a su descendencia mejor preparada para lo desconocido.
Lo que el gen MUC19 aún puede enseñarnos
Aunque este descubrimiento es revolucionario desde una perspectiva evolutiva, apenas estamos comenzando a comprender la función real del gen MUC19. Lo que sí se sabe es que forma parte de un grupo de genes que codifican las mucinas, y por tanto tienen un papel en la protección de tejidos vulnerables, como los del aparato respiratorio y digestivo.
Los investigadores ahora quieren profundizar en cómo actúa este gen en poblaciones actuales con ascendencia indígena. ¿Podría haber efectos beneficiosos que aún no se han identificado? ¿Existen enfermedades que este gen ayude a combatir de forma más eficiente? ¿Podría esta variante ser útil en medicina personalizada en el futuro?

Estas preguntas marcan el inicio de una nueva etapa de investigación en la que la genética y la historia se entrelazan para desvelar cómo fuimos moldeados no solo por nuestros actos y decisiones, sino también por los secretos invisibles de nuestro ADN.
Reescribiendo el relato de la humanidad
Hasta hace poco, los Denisovanos eran casi un misterio. Identificados por primera vez en una cueva de Siberia a partir de un fragmento de hueso, sus restos siguen siendo escasos. Y, sin embargo, su legado vive dentro de nosotros.
Este estudio no solo ilumina la historia de la migración humana hacia América, sino que también demuestra cómo las huellas de especies extintas continúan influyendo en la biología humana actual. Gracias a la paleogenética, una disciplina que no existía hace dos décadas, estamos aprendiendo que la evolución no es lineal, ni limpia, ni simple. Es un entramado de encuentros, hibridaciones y adaptaciones silenciosas que escriben la historia desde lo más profundo de nuestras células.
En tiempos en los que las identidades genéticas cobran cada vez más protagonismo, descubrimientos como este nos recuerdan que todos somos, en última instancia, el resultado de un complejo y fascinante mosaico de ancestros.
El estudio ha sido publicado en la revista Science.
Los portátiles gaming para la vuelta al cole destacan por su potencia y versatilidad, ideales tanto para estudiar como para jugar. Ofrecen procesadores de última generación, pantallas de alta tasa de refresco y sistemas de refrigeración mejorados.
Y es que Gigabyte se suma a la fiebre de ofertas de la vuelta al cole con una rebaja destacada en su portátil gaming G6 KF-73ES894KD, una jugada estratégica para mantener el ritmo de ventas en un mercado cada vez más competitivo.

El precio de este portátil suele variar con las ofertas de verano, alcanzando en tiendas como PcComponentes o NeoByte cifras desde los 849€. Sin embargo, la marca taiwanesa ha elegido MediaMarkt para dar un golpe sobre la mesa y lo ha rebajado de forma espectacular hasta solo 619 euros, ya que al añadirlo a la cesta de compra se aplica un descuento de 109,35€.
Es un portátil gaming de última generación equipado con procesador Intel Core i7, gráfica NVIDIA GeForce RTX serie 40 y una pantalla de 165 Hz con 16 pulgadas. Su diseño de bisel delgado ofrece mayor espacio de visualización, mientras que el panel táctil de gran precisión.
Gracias a la tecnología de refrigeración WINDFORCE, este portátil mantiene un rendimiento estable incluso en sesiones intensas, asegurando silencio y eficiencia. Con la arquitectura NVIDIA Ada Lovelace y DLSS 3 impulsado por IA, ofrece mundos virtuales hiperrealistas y gráficos avanzados.
El portátil gaming MSI Cyborg 15 A13VE-472XES cae de precio y se suma a la ola de rebajas
El portátil gaming MSI Cyborg 15 A13VE-472XES se presenta como una opción ideal para quienes buscan potencia y resistencia en largas sesiones de juego. La marca lo ha rebajado hasta los 779 euros, una oportunidad difícil de ignorar teniendo en cuenta que en tiendas como Amazon su precio habitual supera los 1.214€.

Destaca por su diseño futurista inspirado en el estilo cyberpunk, con chasis translúcido, teclas iluminadas y un peso ligero de 1,98 kg. Su estética, creada junto al artista conceptual Paul Cheptea, refleja un carácter innovador.
En cuanto a especificaciones, incorpora procesador Intel® Core™ i7-13620H, gráfica NVIDIA® GeForce RTX 4050 de 6GB y 16GB de memoria DDR5, lo que garantiza un rendimiento óptimo en multitarea y juegos exigentes. Su almacenamiento SSD de 1TB Gen4x4, pantalla de 15.6’’ Full HD de 144Hz y sistema de refrigeración avanzada lo convierten en una opción ideal para gamers.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Desde que los estudiantes escuchan por primera vez la historia del Big Bang en la escuela, surge una pregunta inevitable: ¿qué había antes de eso? Es una de esas dudas que parecen prohibidas, como si la ciencia no tuviera permiso para tocar ese umbral. Muchos libros de texto lo han evitado durante años, sugiriendo que la propia noción de “antes” pierde sentido cuando el tiempo nace con el Big Bang. Sin embargo, un grupo de físicos no se resigna a esa barrera.
El equipo formado por Eugene A. Lim (King’s College London), Katy Clough (Queen Mary University of London) y Josu Aurrekoetxea (Universidad de Oxford) ha publicado una extensa revisión en la revista Living Reviews in Relativity donde proponen aplicar la relatividad numérica a los grandes misterios cosmológicos. Su propuesta es ambiciosa: usar supercomputadoras para explorar lo que ocurrió antes del Big Bang, si el universo es cíclico, o si vivimos en un multiverso.
¿Por qué no se puede saber qué pasó antes del Big Bang?
La cosmología moderna se basa en las ecuaciones de la relatividad general de Einstein. Estas permiten describir la evolución del universo, pero fallan cuando retrocedemos demasiado en el tiempo, hasta llegar al instante cero: una singularidad con densidad infinita y leyes físicas que dejan de tener sentido.
En condiciones normales, los cosmólogos asumen que el universo es homogéneo (igual en todas partes) e isótropo (igual en todas direcciones). Esto simplifica mucho las ecuaciones y permite hacer predicciones. Pero estas suposiciones no se sostienen en condiciones extremas, como las que habría en el Big Bang o dentro de un agujero negro. “No puedes ir más allá de la farola si no tienes una linterna, simplemente no puedes resolver esas ecuaciones”, señala Lim en el comunicado de FQxI.

La relatividad numérica, una nueva linterna para explorar el pasado
Lo que proponen los autores es emplear una técnica llamada relatividad numérica, un método computacional que permite simular el comportamiento del espacio-tiempo en situaciones extremas. Esta técnica ya se ha usado con éxito para modelar la colisión de agujeros negros y predecir las ondas gravitacionales observadas por LIGO.
En su revisión, los autores explican cómo adaptar estas herramientas al estudio de escenarios cosmológicos. Esto requiere superar numerosos obstáculos técnicos, como elegir condiciones iniciales que no contradigan las ecuaciones de Einstein, definir cómo se representa el tiempo y evitar errores numéricos que estropeen los resultados. La simulación de un universo entero requiere una precisión abrumadora y el uso de supercomputadoras especializadas .
Además, el artículo detalla que la elección del marco matemático o “gauge” (el sistema de coordenadas usado en las simulaciones) puede influir en la interpretación de los resultados. En cosmología, no existe una única forma “correcta” de describir el universo; por eso, los autores insisten en desarrollar criterios más robustos para comparar los datos obtenidos en diferentes modelos.

Universos rebotantes, colisiones cósmicas y cuerdas espaciales
Más allá del Big Bang, la relatividad numérica también podría iluminar otras teorías especulativas que hasta ahora parecían inalcanzables para la ciencia. Una de ellas es la hipótesis de los “universos rebotantes”: modelos cíclicos en los que el cosmos no comienza con un Big Bang, sino que emerge de un colapso anterior, en una secuencia infinita de expansiones y contracciones.
También se menciona la posibilidad de detectar “magulladuras” o huellas en el fondo cósmico de microondas que podrían haber sido causadas por colisiones con otros universos vecinos, si el multiverso existe. Incluso se baraja estudiar las huellas de cuerdas cósmicas, defectos topológicos que podrían haberse formado en los primeros momentos del universo y que dejarían señales específicas en forma de ondas gravitacionales.
Según los autores, “los universos que rebotan son un excelente ejemplo, porque alcanzan zonas de gravedad intensa donde no se puede confiar en las simetrías”. Justamente en esos escenarios la relatividad numérica podría resultar clave para determinar si estas ideas tienen base científica o son solo especulaciones sin fundamento.

¿Puede sobrevivir la inflación en un universo caótico?
Una parte significativa del artículo se dedica a la etapa inflacionaria del universo, ese instante tras el Big Bang en que el cosmos se expandió exponencialmente en una fracción de segundo. Aunque la inflación explica por qué el universo es tan homogéneo, también plantea un problema circular: para que ocurra, es necesario asumir que el universo ya era relativamente uniforme, algo que la propia inflación busca justificar.
La relatividad numérica permite simular condiciones iniciales mucho más complejas, en las que el universo podría empezar siendo altamente caótico, con regiones muy densas y otras casi vacías. Algunos estudios revisados muestran que, incluso en esos escenarios extremos, la inflación puede abrirse paso y acabar dominando el comportamiento del cosmos, aunque no en todos los casos. Esto aporta una forma rigurosa de poner a prueba modelos inflacionarios, especialmente aquellos propuestos desde teorías más fundamentales como la teoría de cuerdas.
Una invitación a unir mundos: cosmología y relatividad numérica
Uno de los objetivos clave del trabajo es tender puentes entre comunidades científicas que raramente colaboran. La relatividad numérica ha sido tradicionalmente usada en el estudio de agujeros negros y ondas gravitacionales, mientras que la cosmología suele usar modelos simplificados y ecuaciones tratables con lápiz y papel.
“Esperamos desarrollar ese solapamiento entre cosmología y relatividad numérica, de modo que los relativistas numéricos puedan aplicar sus técnicas a los problemas cosmológicos, y los cosmólogos que se enfrentan a preguntas irresolubles, puedan recurrir a la relatividad numérica”, comenta Lim.
En otras palabras, el trabajo no solo propone nuevas herramientas, sino que también invita a repensar los límites entre ramas de la física que tradicionalmente han trabajado por separado. Si esta convergencia progresa, podría abrir la puerta a descubrimientos que hoy parecen inalcanzables.
¿No se había hablado ya de universos cíclicos?
La idea de un universo que se expande, colapsa y vuelve a nacer no es nueva. De hecho, el modelo del “universo oscilante” fue propuesto ya en los años 30 por el físico Richard Tolman, y ha reaparecido con distintas variantes a lo largo del siglo XX. Estas versiones imaginaban un cosmos que pasaba por ciclos de expansión y contracción, sin necesidad de un comienzo absoluto.
Sin embargo, todos esos modelos clásicos compartían un problema: dependían de suposiciones muy simplificadas, como un universo perfectamente homogéneo y simétrico. Bajo esas condiciones, las ecuaciones eran manejables, pero no representaban fielmente el caos y la complejidad del universo real, especialmente en momentos extremos como un rebote cósmico.
La novedad del trabajo de Lim y su equipo no está en proponer que el universo pueda rebotar, sino en mostrar que ahora podemos estudiarlo con herramientas científicas avanzadas. Gracias a la relatividad numérica, es posible simular qué ocurre cuando el espacio-tiempo se curva al máximo, sin depender de aproximaciones idealizadas. Esto permite por primera vez evaluar con rigor si ciertos modelos de rebote o universos anteriores al Big Bang podrían ser físicamente viables.
Es decir, lo que antes era una especulación matemática ahora puede convertirse en una hipótesis comprobable mediante simulaciones, algo que cambia por completo el enfoque con el que la ciencia aborda este tipo de escenarios.
Referencias
- Josu C. Aurrekoetxea, Katy Clough, Eugene A. Lim. Cosmology using numerical relativity. Living Reviews in Relativity. 23 de junio de 2025. https://doi.org/10.1007/s41114-025-00058-z.
En el corazón de la actual Alsacia, un grupo de arqueólogos ha desenterrado uno de los episodios más inquietantes y reveladores del Neolítico europeo: una escena de violencia organizada y ritualizada, ejecutada con precisión macabra por comunidades locales contra sus enemigos capturados. Los restos, datados entre 4300 y 4150 a.C., muestran evidencias de tortura, mutilación y una forma primitiva pero clara de “celebración de la victoria” que parece más cercana a las prácticas de sociedades jerárquicas del mundo antiguo que a las comunidades neolíticas generalmente entendidas como igualitarias.
Un hallazgo que sacude la imagen del Neolítico
Durante décadas, la visión dominante del Neolítico europeo ha sido la de sociedades agrícolas relativamente pacíficas, con conflictos puntuales entre comunidades, pero lejos de las guerras organizadas y la brutalidad ritualizada que caracterizarían a civilizaciones posteriores. Sin embargo, las investigaciones recientes en dos yacimientos franceses —Achenheim y Bergheim, en el noreste del país— están desmontando esa narrativa.
En estos asentamientos, arqueólogos encontraron dos fosas circulares repletas de restos humanos. En algunos casos, los esqueletos estaban casi completos, pero mostraban signos inequívocos de violencia perimortem: fracturas graves, golpes contundentes en cráneos y huesos largos, y en ciertos casos, amputaciones precisas del brazo izquierdo. En otros, los investigadores hallaron únicamente segmentos anatómicos, especialmente brazos izquierdos completos, cortados con intención y depositados de forma separada. El patrón se repite: violencia sistemática, escenificada, y probablemente ejecutada en público.
Lo más perturbador es que estos restos no corresponden a individuos locales. A través de un estudio isotópico pionero publicado en la revista Science Advances el 20 de agosto de 2025, un equipo internacional de investigadores ha demostrado que las víctimas eran forasteros. Las firmas químicas en sus huesos y dientes indican que crecieron y vivieron en regiones distintas, posiblemente más al norte, en torno al área del actual París. Sus dietas, su movilidad y sus primeros años de vida revelan modos de vida distintos a los de los habitantes de Alsacia en esa época. Todo apunta a que fueron enemigos capturados tras una incursión fallida o una guerra, y que fueron llevados vivos al poblado para ser ejecutados como trofeos.
La escena del crimen: los pozos del horror
En el caso de Achenheim, la fosa 124 albergaba restos de al menos ocho personas. En Bergheim, la fosa 157 contenía al menos once cuerpos y siete brazos izquierdos amputados. No se trató de simples enterramientos ni de una fosa común tras un conflicto. Los cuerpos fueron depositados de forma caótica, muchos en contacto directo con los brazos cercenados, y algunos muestran signos que sugieren exposición previa a la intemperie. Este detalle es clave: podría indicar que los cuerpos o los brazos fueron preservados temporalmente como trofeos, quizá exhibidos públicamente antes de ser finalmente enterrados.
Un ejemplo singular es el de un individuo hallado en Bergheim, un varón adulto cuyo cuerpo presenta signos extremos de violencia: traumatismos múltiples en la cabeza, clavícula rota, costillas fracturadas y la ausencia del antebrazo izquierdo. Fue encontrado justo sobre los brazos cercenados, lo que sugiere una conexión simbólica entre él y los trofeos.
La hipótesis más probable, según los autores del estudio, es que estos rituales se enmarcaban dentro de celebraciones comunitarias de victoria: ceremonias de castigo público, escenificaciones de poder, de unión del grupo vencedor y de humillación del enemigo derrotado. Un teatro sangriento de la victoria, en el que la violencia no solo cumplía una función punitiva, sino también simbólica.

El papel de la infancia y la movilidad
Uno de los aportes más novedosos del estudio ha sido el análisis de los dientes de las víctimas, en particular los molares, que conservan registros químicos de la infancia. Gracias a ello, los científicos pudieron reconstruir sus biografías desde la lactancia hasta los primeros años de vida. Se descubrió, por ejemplo, que los individuos considerados “víctimas” mostraban patrones más variables en los isótopos de carbono, nitrógeno y azufre, lo que sugiere episodios de estrés nutricional, movilidad geográfica y cambios en la dieta. También, presentaban mayores diferencias entre los dientes formados en etapas distintas, lo que puede indicar que se trasladaban de un lugar a otro durante su niñez.
En contraste, los no víctimas —individuos enterrados de forma convencional en fosas individuales o colectivas, sin signos de violencia— presentaban perfiles isotópicos mucho más estables, coherentes con una vida sedentaria y con acceso regular a los mismos alimentos y fuentes de agua.
Este contraste refuerza la hipótesis de que los muertos en las fosas violentas no eran miembros de la comunidad local, sino individuos ajenos, posiblemente parte de grupos invasores o enemigos capturados durante enfrentamientos bélicos.
Una guerra antigua en tiempos de cambio
El contexto temporal del hallazgo —entre 4300 y 4150 a.C.— coincide con una fase de gran inestabilidad en Europa central. Arqueólogos e historiadores vienen identificando esta etapa como un periodo de crisis climática, presiones migratorias y conflictos recurrentes. En el valle del Rin Superior, donde se ubican Achenheim y Bergheim, hubo una sustitución cultural rápida: las tradiciones locales de Bruebach-Oberbergen fueron desplazadas por las de los grupos conocidos como Bischheim Occidental, provenientes del oeste, probablemente del área de París. Estos cambios podrían haber provocado fricciones violentas entre los grupos, llevando a guerras de conquista o resistencia armada.
Lo llamativo de este caso no es solo la violencia, sino su dimensión ritualizada. Aunque en otras regiones de Europa se han documentado masacres neolíticas, como las de Talheim o Halberstadt en Alemania, pocas muestran signos tan claros de tortura previa, mutilación simbólica y teatralización del castigo.
En el Neolítico europeo, donde las sociedades aún no estaban plenamente jerarquizadas ni organizadas en estados, este tipo de prácticas eran consideradas muy raras. El hallazgo en Alsacia sugiere que algunos grupos neolíticos pudieron haber desarrollado formas embrionarias de guerra organizada, ceremonias públicas de triunfo y una narrativa simbólica de la victoria similar a la de sociedades mucho más tardías.
¿Una historia de venganza?
Aunque el estudio no puede determinar las motivaciones precisas, los indicios de tortura, mutilación y exposición pública apuntan a una carga emocional importante en los eventos. No se trataría solo de neutralizar al enemigo, sino de castigarlo, humillarlo y mostrar a la comunidad —y quizás a los dioses— que la ofensa había sido vengada.
Los brazos cercenados, siempre el izquierdo, parecen haber tenido un valor especial. En muchas culturas, el brazo con el que se empuña el arma tiene un peso simbólico evidente. Cortarlo y conservarlo puede interpretarse como una forma de despojar al enemigo de su poder incluso más allá de la muerte.
Un ritual que desafía las cronologías
Lo que hace único este hallazgo no es solo su brutalidad, sino lo que revela sobre la mentalidad y la organización social del Neolítico. Las celebraciones rituales de la victoria, el uso simbólico de los cadáveres y la teatralización del castigo en el centro de los asentamientos sugieren una complejidad social mayor de la que se había asumido para estos grupos.
Este episodio, escondido durante más de seis milenios bajo la tierra alsaciana, reescribe parte de lo que sabíamos sobre la violencia prehistórica. No fue una violencia impulsiva ni ciega, sino cuidadosamente orquestada para comunicar poder, restaurar honor y cohesionar al grupo vencedor. Una ventana, cruda y fascinante, al lado oscuro de nuestras sociedades ancestrales.
Referencias
- Fernández-Crespo, T., Snoeck, C., Ordoño, J., Lefranc, P., Perrin, B., Chenal, F., Barrand-Emam, H., Schulting, R. J., & Goude, G. (2025). Multi-isotope biographies and identities of victims of martial victory celebrations in Neolithic Europe. Science Advances, 11, eadv3162. https://doi.org/10.1126/sciadv.adv3162.
José Ortega y Gasset es un hito fundamental del pensamiento español, el filósofo español más influyente del siglo XX. En su pensamiento sobresalen sus reflexiones, ideas y aportaciones en el ámbito político, ideas y propuestas que sobrepasan el ámbito temporal para ser plenamente vigentes para la España actual.
Ortega forma parte de la historia de España, protagonista activo, desde las vertientes teórica y práctica, en los acontecimientos que se suceden en la Restauración y en la Segunda República donde intervino como diputado, aunque pronto discrepará ante la marcha de la misma. La comprensión de nuestra historia sería incompleta sin una profundización en su vida y pensamiento.
En sus reflexiones aborda numerosos temas de total actualidad como la descentralización del Estado siendo el precursor de la actual España de las autonomías, sus reflexiones sobre los nacionalismos, sobre Cataluña y su encaje dentro del Estado español, el concepto de nación, la idea de Europa y su proyecto de europeización de la cultura y sociedad española o una profunda transformación de la vida política y social española desde el diálogo, la concordia y el consenso. Son análisis e ideas que traspasan el tiempo y que al desarrollar temas que conservan, casi cien años después, caracteres similares, especialmente en la cuestión catalana, hay que plantear si también lo son el diagnóstico y su resolución.
La España de las autonomías
En la Transición Ortega es el referente sobre el que edificar los conceptos que definirán la nueva democracia. Había que descentralizar la estructura precedente, fuertemente centralizada, y adaptarla a la realidad nacional, realidad configurada sobre su pluralidad. España es una realidad compleja en la que existen diferentes identidades que pueden convivir dentro una nación única e integradora y, a su vez, conservar sus propios hechos diferenciales. Piensa España como un proyecto atrayente de vida en común en el que no es excluyente la realización, simultáneamente, del proyecto individualizado de cada comunidad si está integrado dentro del conjunto.

Como solución en esta dirección, Ortega postuló el camino del autonomismo, la sustitución de la estructura unitaria y centralista del Estado por una nueva estructura de descentralización política territorial basada en la extensión de la autonomía regional a todo el territorio nacional, una España organizada en autonomías conforme a los principios de generalidad, homogeneidad e igualdad de todas las regiones y nacionalidades. Su esquema está basado en un Estado central fuerte con la cesión de determinados poderes a las regiones constituidas en autonomías dentro de una soberanía única, un Estado descentralizado en el que todas las regiones sean partícipes con una cesión amplia de competencias dentro del marco constitucional y sin poner en peligro ni debilitar la unidad de la nación española, lejos de cualquier intento de acercamiento al federalismo con independencia de la amplitud de las competencias asumidas por las comunidades autónomas.
Sus propuestas fueron la base de la política autonómica de generalidad y homogeneidad que se desarrolló durante la Transición. En la Constitución de 1978 la solución adoptada es, en términos similares a los expresados por Ortega, una España organizada en comunidades autónomas, con la extensión del principio de autonomía a todo el territorio nacional, con cada Comunidad con su Asamblea y Gobierno autonómico. El actual modelo autonómico es heredero de la exposición teórica de autonomismo de Ortega y Gasset.
Cataluña
El pensamiento de Ortega sobre Cataluña, desde su enfoque filosófico político, es plenamente vigente. Sus análisis podrían, con leves matices, trasladarse a la actualidad. La integración de Cataluña sigue siendo un problema de difícil solución que continúa sin resolverse al no haberse logrado una solución satisfactoria.
En su reflexión sobre el nacionalismo catalán, destaca que el destino último del nacionalismo es llevar a término un Estado propio para desarrollar plenamente su sentimiento de identidad nacional. Frente al nacionalismo secesionista, que no se siente parte del todo y quiere formar un todo aparte, se plantea que es el todo, que es una nación. Ortega entiende a la nación como plebiscito diario, como empresa enfocada en el futuro y no en el pasado, desde un proceso de integración colectiva por encima de particularismos. Las naciones, más allá de la homogeneidad, de la comunidad de sangre o lingüística, se forman a partir de un programa conjunto de actuación, de un proyecto sugestivo de vida en común, de un proyecto de futuro.
Propuso la integración de Cataluña dentro de un Estado de autonomías simétricas, generalizadas y competitivas, pero esta solución no parece suficiente ante el sentimiento nacionalista catalán. Ante la incapacidad de amplios sectores de separar entre nación como entidad política y nación como hecho cultural o «espiritual», considerando las dificultades de reconducir el problema, diagnostica y expone su tesis principal afirmando que el problema catalán es un problema que no se puede resolver, sin una solución definitiva, dado el sentimiento nacionalista catalán y sus aspiraciones y características particularistas cuyo objetivo último es asumir la soberanía, pero que es posible conllevar. En las Cortes Constituyentes republicanas indicó: «El problema catalán es un problema que no se puede resolver, que solo se puede conllevar».

Implica buscar la solución en los términos de la conllevancia, término que en el planteamiento de Ortega significa una fórmula de convivencia que consiste en buscar en cada momento la mejor solución relativa dentro de las posibilidades existentes, reduciendo la cuestión a términos de posibilidad. No se puede encontrar una solución definitiva, pero sí se puede establecer en cada instante, en cada problema concreto, la mejor solución posible, aunque sea una solución parcial y relativa, enfocando los problemas y las aspiraciones catalanas dentro de los márgenes de la Constitución y del marco autonómico. Requiere una renovación de la cultura política en ambas direcciones, superando los dogmatismos e intransigencias, la conllevancia desde el respeto, la tolerancia y la concordia. Este comportamiento, para que funcione, debe ser recíproco.
Dentro de este esquema, Cataluña es parte esencial de España, pudiendo desarrollar sus propias peculiaridades y hechos diferenciales dentro del proyecto conjunto y en armonización con el resto de las partes que integran la nación española. Sin embargo, el encaje de Cataluña dentro de España, pasados más de noventa años, sigue sin resolverse.
Europa
En los años de la transición democrática se retomó la idea de Ortega de que España era el problema y Europa la solución. Se trataba de hacer una España democrática incorporada a una Europa democrática, una Europa donde se buscaba la solución a nuestros problemas, una España democrática en una Europa democrática. Su idea de europeización se ve expresada con la entrada en la Comunidad Europea, hoy Unión Europea. El sueño de Ortega se había realizado. La vieja España ahora era una nueva España democrática, descentralizada, moderna, europea.

Aportaciones de Ortega al pensamiento político
Sus aportaciones abarcan una multitud de temas adicionales como la democracia, el liberalismo, la nacionalización de la política, la pedagogía social y política, la necesidad de unas élites que realicen esta labor de pedagogía, la emergencia de las masas, el laicismo, el papel que deben desempeñar los intelectuales en la vida política y social.
Entre sus reflexiones y críticas a la España de su momento que podemos trasladar a la España actual, cambiando solo las concretas circunstancias históricas, destacar sus argumentos sobre el particularismo, las políticas anti o el partidismo.
Destacó que el particularismo constituía históricamente la característica, la enfermedad generalizada, endémica de España, del conjunto de la nación, una constante que define la vida histórica de la nación española, donde cada grupo, cada parte mira principalmente por sus intereses sin englobarlos en el conjunto. Un problema que continuaba y continúa, con multitud de intereses particularistas por encima del bien del conjunto nacional.

Argumentó que gran parte de los programas de la Segunda República, donde fue protagonista activo, se basaban en la crítica, en la negación de las políticas realizadas por las otras opciones y en las manifestaciones anti en lugar de priorizar la aportación de soluciones efectivas.
Criticó la identificación partidista, poner el partido por encima de la nación, donde lo sustancial en política es la lucha entre partidos. No se definió en el eje derechas izquierdas al considerar que lo importante era el conjunto de la nación.
Ortega y la Segunda República
Recorrer su pensamiento y trayectoria es introducirse en la convulsa España de la primera mitad del siglo XX con la Restauración, la Dictadura de Primo de Rivera, la Segunda República y su trágico desenlace tras la Guerra Civil.
Protagonista activo, desde las vertientes teórica y práctica, en los acontecimientos que se suceden en la Restauración y en la Segunda República. Denunció durante décadas la falta de democratización del régimen de la Restauración. Ante la falta de iniciativas en este sentido promovió el cambio de régimen, siendo protagonista activo en favor del advenimiento de la República. Consideró que era la ocasión para democratizar y modernizar una decadente y atrasada España. Intervino como diputado al considerarlo un deber ante el momento histórico que atravesaba la nación, interviniendo como intelectual y no como político para aportar largos años de reflexiones, destacando sus aportaciones en los debates sobre la Constitución y el Estatuto de Cataluña.

Desde un ámbito de actuación socio-político, enfocado en el cambio de la sociedad española como base del cambio político, realzó la necesidad de que siendo necesaria una reforma radical de todas las instituciones y una profunda transformación de la vida política y social española, la transición debía ser ordenada, desde el diálogo, la concordia, el consenso, considerando ciertos parámetros de cautela ante los peligros que se cernían sobre el régimen.
Pronto surgieron las críticas y discrepancias con la conducción y rumbo de la República. Ante lo que consideró signos de radicalización, expresará: «“¡No es esto, no es esto!”, la República es una cosa. El “radicalismo” es otra. Si no, al tiempo». Pedirá una rectificación del rumbo, las actitudes, el tono, la política realizada, la configuración dada a la República. Pero siempre defendiendo la instauración y consolidación de un régimen democrático que debía continuar su experiencia sin dogmatismos, midiendo los tiempos, desde la integración de todos los sectores de la sociedad. Bajo una fuerte politización y polarización de la sociedad, con posiciones cada vez más radicalizadas, no será escuchado.
Tras proponer una modernización y democratización liberal durante años comprobó que había fracasado. Su triunfo será póstumo. Con la llegada de la transición democrática, su figura y su pensamiento han emergido, siendo un referente para la misma.
Ortega y el presente
Estudiar a Ortega permite no solo comprender este período de tiempo, sino bastantes de los hechos ocurridos después. Muchos de los temas y aspectos políticos y sociológicos que diseccionó tratan sobre la época que vivió, pero también lo son de la actualidad al traspasar el ámbito temporal para el que fueron formulados por la visión y profundidad con la que penetró en la raíz de los mismos.
Ortega es protagonista del presente, con la influencia de parte de su pensamiento político, destacando el actual diseño autonómico o sus análisis y reflexiones sobre Cataluña. Pero hay que seguir profundizando en su pensamiento, en sus análisis y en las soluciones que aportó, vigentes y de plena actualidad, para los problemas que quedan sin resolver.

El pensamiento político de Ortega, forjado en uno de los períodos más convulsos de la historia contemporánea de España, sigue siendo una herramienta clave para interpretar muchos de los desafíos actuales. Ortega y Gasset y la Segunda República. El pensamiento político del gran filósofo español, publicado por Erasmus, ofrece una mirada rigurosa y accesible a las ideas centrales del filósofo, contextualizándolas con precisión en el marco histórico y extrayendo su vigencia para el presente. Lejos de ser una figura anclada en el pasado, Ortega emerge como un pensador indispensable para comprender el papel de los intelectuales, la articulación territorial del Estado, el concepto de nación y la difícil tarea de construir una democracia integradora.
Referencias
- Baldomero García, Julio, Ortega y Gasset y la Segunda República, Erasmus Ediciones, 2025.
- Ortega y Gasset, José, Obras Completas, tomos I a XII, Revista de Occidente, 1946-1983.Ortega y Gasset, José, Obras Completas, tomos I a X, Taurus, 2004-2010.
En un mercado donde las consolas portátiles vuelven a vivir una segunda juventud, la competencia entre gigantes como Nintendo, Sony y ahora también Lenovo está más encendida que nunca.
Y es que tras el recién lanzamiento de la Nintendo Switch 2 que ha impulsado sus ventas, Lenovo quiere cortar dicho avance rebajando drásticamente hasta su nuevo precio mínimo histórico su consola portátil Legion Go S.

Normalmente, su precio supera los 555€, como se puede ver en tiendas como Amazon, PcComponentes y Fnac. No obstante, Lenovo se une, al igual que Nintendo, con AliExpress junto al código descuento BSES60, liquidándolo hasta los 448,99 euros.
Esta consola está equipada con el procesador exclusivo AMD Ryzen™ Z2 Go, basado en arquitectura “Zen 3” con hasta 4 núcleos y 8 hilos. Además de estar acompañado de gráficos AMD RDNA 2, 16 GB de memoria y almacenamiento SSD de 512 GB. Cuenta también con una pantalla PureSight táctil de 8 pulgadas WUXGA en formato 16:10, ofreciendo una tasa de refresco de 120 Hz y un brillo de 500 nits.
Integra controles Legion TrueStrike con joysticks Hall Effect RGB. Sin olvidar su batería de 55,5 Whr que admite carga rápida Rapid Charge Pro mediante adaptador USB-C de 65 W. Así como conectividad Wi-Fi 6E, Bluetooth 5, altavoces estéreo de 2 W y micrófonos duales de campo cercano.
ASUS quiere también unirse a la batalla rebajando su consola ROG Ally X
La firma taiwanesa no quiere quedarse atrás en esta guerra de precios veraniega y ha decidido aplicar un recorte notable en su consola portátil ROG Ally X, alcanzando los 732,93 euros gracias al cupón IFP7097R. Una fuerte rebaja sabiendo que en webs como Amazon se acerca a los 900€.

Este modelo equipa el procesador AMD Ryzen™ Z1 Extreme de 8 núcleos y 16 hilos con arquitectura “Zen 4” de 4 nm. Acompañado por una GPU AMD Radeon™ RDNA 3 con 12 CUs a 2,7 GHz. Además integra 24 GB de memoria RAM y almacenamiento SSD NVMe PCIe 4.0 de 1 TB.
Así mismo, dispone de una pantalla táctil multitáctil de 7 pulgadas FHD en formato 16:9, con tasa de refresco de 120 Hz, 7 ms de respuesta, brillo de 500 nits y soporte FreeSync Premium. Además, cuenta con conectividad Wi-Fi 6E, Bluetooth 5.2, altavoces estéreo Smart Amp con Dolby Atmos, y una batería de 80 Wh.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Las piedras, los huesos y las piezas metálicas suelen soportar bien el paso del tiempo y, por ello, se han convertido en preciados aliados de la arqueología y la historia. Los materiales orgánicos, por el contrario, se deterioran con rapidez, por lo que no siempre pueden ser estudiados. Por eso, este rarísimo sombrero romano de 2.000 años de antigüedad, que se ha restaurado y expuesto recientemente al público por primera vez en el Bolton Museum (Inglaterra) resulta tan excepcional. Fabricado en lana y con un diseño adaptado para soportar las duras condiciones del desierto egipcio, este ejemplares el que muestra un mejor estado de conservación de los tres que se conocen en todo el mundo.
El sombrero y su contexto histórico
El sombrero se ha fechado hacia el año 30 a. C., poco después de la muerte de Cleopatra VII y de la transformación de Egipto en provincia del Imperio romano. Tras la derrota de Marco Antonio y Cleopatra en la batalla de Accio, el país pasó a estar gobernado directamente por Roma, razón por la que se enviaron destacamentos militares para asegurar el control político y económico de la región. Entre esos soldados romanos, algunos tuvieron que enfrentarse a un clima muy diferente al del territorio itálico y de otras provincias imperiales: el calor extremo del desierto, el sol abrasador y las tormentas de arena.
El ejemplar hallado parece haber sido una adaptación de un tipo de tocado militar estándar de la época, modificado para ofrecer protección frente a la intensa radiación solar y las partículas en suspensión. De los tres sombreros de este tipo que han sobrevivido, uno se conserva en la Whitworth Art Gallery de Mánchester, otro en un museo de Florencia, y el tercero —el de Bolton— es, según los especialistas, el mejor preservado de todos.

De Egipto a Inglaterra: un viaje arqueológico
El arribo de esta pieza a Inglaterra se debe al trabajo de William Matthew Flinders Petrie, uno de los arqueólogos más influyentes del siglo XIX y principios del XX. Apodado “el hombre que descubrió Egipto”, Petrie revolucionó las prácticas arqueológicas en una época en la que muchas excavaciones eran poco más que expediciones de saqueo. Frente al interés de conseguir objetos valiosos y espectaculares con los que llenar los expositores de los museos, Petrie introdujo métodos de excavación sistemáticos, registros meticulosos y la valoración de piezas en apariencia insignificantes, como cerámicas rotas o textiles deteriorados, que aportaban información esencial sobre la vida diaria de las sociedades antiguas.
En 1911, Petrie donó el sombrero al Chadwick Museum, el primer museo de la ciudad de Bolton. Desde entonces y durante décadas, el artefacto permaneció guardado en una caja, lejos del público.

Un desafío para la restauración textil
Cuando la conservadora textil Jacqui Hyman vio por primera vez el sombrero romano, la pieza no era más que un fragmento plano y quebradizo, con daños serios provocados por las polillas. Recuperar su volumen y estabilizar los restos requería un trabajo minucioso y un profundo conocimiento de las técnicas de conservación de fibras antiguas.
Con casi cinco décadas de experiencia trabajando para museos y colecciones de todo el mundo, Hyman planificó un tratamiento a medida que respetara la fragilidad de la pieza. Para estabilizar las zonas donde el fieltro original había desaparecido, utilizó un tejido similar, teñido a mano para igualar el color y la textura. Con este soporte interno, el sombrero recuperó su forma original. Así, pasó de ser un objeto aplastado y frágil a convertirse en una prenda tridimensional que permite apreciar su forma y función.

Un testimonio de la vida militar romana en Egipto
Más allá de su rareza, el sombrero constituye un testimonio tangible del día a día de los soldados romanos destinados a las provincias lejanas. Las legiones movilizadas en Egipto, además de mantener la seguridad y el control político, tuvieron que adaptarse a condiciones ambientales que ponían a prueba su resistencia física. En este contexto, vestir la indumentaria adecuada resultaba tan importante como las armas. Protegerse del sol y del calor podía marcar la diferencia entre seguir en servicio o sucumbir a las duras condiciones.
Este inusual tocado revela cómo el ejército romano era capaz de adaptar los materiales y diseños de su equipamiento a las necesidades específicas de cada territorio. En Egipto, la lana trabajada como fieltro, ligera y transpirable, cumplía la doble función de bloquear la radiación solar y ofrecer cierta protección frente la arena.

Del almacén a la vitrina
En la actualidad, el sombrero rescatado por Petrie se exhibe en las galerías egipcias del Bolton Museum. La institución considera que su valor no radica únicamente en la conexión con la historia global, sino también en la capacidad de inspirar a las nuevas generaciones. El montaje expositivo, addemás, permite a los visitantes observar de cerca los detalles de la pieza, su textura y las secciones que se han restaurado. Ofrece, así, una oportunidad única para reflexionar sobre la vida cotidiana en la antigüedad y sobre las técnicas de conservación que permiten que objetos tan frágiles lleguen hasta nosotros.
Una historia de adaptación encerrada en un sombrero
La restauración del sombrero romano de Bolton supone la recuperación de una historia que conecta el Egipto de Cleopatra con la Inglaterra contemporánea, pasando por las manos de un arqueólogo visionario y de una restauradora experimentada. Ilustra la adaptación de un soldado a un medio hostil, la pervivencia de un objeto humilde frente al paso del tiempo y el valor de la colaboración entre museos, especialistas y comunidad. Desde los desiertos bañados por el Nilo hasta las neblinosas tierras británicas, dos milenios después, este singular objeto vuelve a ver la luz.
Referencias
- Bolton Library and Museum. URL: https://www.boltonlams.co.uk/bolton-museum
- Chaudhari, Saiqa. 2025. "Bolton Museum display Ancient Eygptian relic for the first time". The Bolton News. URL: https://www.theboltonnews.co.uk/news/25369974.bolton-museum-display-ancient-eygptian-relic-first-time/
- Puiu, Tibi. 2025. "A Rare 2,000-Year-Old Roman Hat From Cleopatra’s Egypt Has Been Restored to Its Former Glory". ZME Science. URL: https://www.zmescience.com/science/archaeology/a-rare-2000-year-old-roman-hat-from-cleopatras-egypt-has-been-restored-to-its-former-glory/
En 2019, el detector LIGO captó una señal que parecía provenir de la fusión de dos agujeros negros. Nada fuera de lo común, si no fuera porque esta fusión tenía una particularidad que desconcertó a los científicos: las masas de los objetos involucrados eran muy diferentes, algo extremadamente raro en este tipo de eventos. Lo que parecía una simple anomalía se convirtió, años más tarde, en una pista crucial para entender un fenómeno más complejo: la posible existencia del primer sistema triple de agujeros negros jamás detectado.
Un nuevo estudio, publicado en The Astrophysical Journal Letters, ha reanalizado aquella señal de 2019, conocida como GW190814. Gracias a técnicas de modelado avanzadas, los investigadores han descubierto indicios sólidos de que una tercera presencia invisible —posiblemente un agujero negro supermasivo— estaba influenciando el movimiento del par de agujeros negros que se fusionaron. Es como si dos bailarines hubieran chocado en plena danza, empujados por una fuerza silenciosa desde la penumbra del escenario.
Un evento que no encajaba en los modelos clásicos
El evento GW190814 se caracterizó por la colisión entre dos objetos de 23 y 2,6 veces la masa del Sol, respectivamente. Esta diferencia extrema desconcertó a los astrofísicos. Normalmente, cuando dos agujeros negros se fusionan, sus masas son más similares, lo cual facilita la pérdida de energía gravitacional necesaria para que se acerquen y colapsen juntos. Sin embargo, en este caso, la asimetría era tan inusual que resultaba difícil de explicar con los modelos tradicionales.
El nuevo análisis, liderado por investigadores del Observatorio Astronómico de Shanghái y otras instituciones, propone una explicación basada en la presencia de un tercer objeto cercano. Este objeto habría generado una aceleración adicional en la línea de visión del sistema, algo que deja una huella detectable en la señal de ondas gravitacionales. Según los autores del estudio, "concluimos que esta es la primera indicación que muestra que agujeros negros binarios en proceso de fusión están situados cerca de un tercer objeto compacto" .
Los resultados se obtuvieron aplicando un modelo que considera la llamada aceleración en la línea de visión (LSA, por sus siglas en inglés). Esta técnica permite detectar pequeñas variaciones en la frecuencia de la señal debido al efecto Doppler causado por la aceleración del sistema en su entorno gravitacional. El análisis estadístico arrojó un valor de 58/1 a favor del modelo con LSA frente al modelo sin aceleración, lo cual representa una evidencia contundente según los criterios científicos actuales.

¿Cómo se puede "ver" un objeto que no emite luz?
Los agujeros negros, por definición, no emiten luz. Detectarlos requiere observar sus efectos sobre el entorno. En este caso, el tercer objeto no fue observado directamente, sino a través de las sutiles alteraciones que provocó en la señal de las ondas gravitacionales.
Estas ondas son ondulaciones en el espacio-tiempo que se producen cuando ocurren eventos extremadamente energéticos, como la fusión de agujeros negros. El detector LIGO (y su homólogo europeo Virgo) ha registrado decenas de estos eventos desde 2015. Pero GW190814 destacaba por sus características únicas. El equipo de investigación desarrolló simulaciones detalladas para predecir cómo sería la señal si hubiera un tercer cuerpo ejerciendo influencia. La coincidencia entre la señal real y la predicción del modelo fue sorprendente.
En palabras del artículo científico, "una fuente que se acelera produce una masa que varía con el tiempo en el marco del detector, lo que deja una huella en la forma de onda gravitacional". Esto significa que no solo se detectó la fusión, sino también los efectos dinámicos de un cuerpo adicional cuya existencia fue inferida gracias a su firma gravitacional.

¿Un agujero negro supermasivo escondido?
Aunque no se ha podido determinar con precisión qué tipo de objeto era el tercero en discordia, los autores consideran que la opción más plausible es un agujero negro supermasivo. Este tipo de cuerpos celestes puede superar los 100.000 soles en masa y suele encontrarse en el centro de las galaxias. Su inmensa gravedad puede capturar objetos cercanos y alterar significativamente sus trayectorias.
Los datos obtenidos sugieren que el sistema binario de agujeros negros estaba orbitando alrededor de este coloso, de forma similar a como la Tierra y la Luna giran mientras se mueven juntas en torno al Sol. Según los investigadores, la aceleración estimada del sistema (de aproximadamente 0,0015 c/s, donde c es la velocidad de la luz) solo puede explicarse si hay un objeto muy masivo ejerciendo influencia desde las cercanías .
No se descarta, sin embargo, que el tercer objeto pueda ser un agujero negro de masa estelar especialmente denso, aunque esto requeriría condiciones muy específicas. En cualquier caso, la detección abre nuevas posibilidades para estudiar los entornos donde nacen y evolucionan los sistemas de agujeros negros.
Implicaciones para el estudio del universo
Este hallazgo tiene un enorme valor para la astrofísica moderna. Hasta ahora, se pensaba que la mayoría de las fusiones de agujeros negros ocurrían en sistemas aislados. La posibilidad de que estén interactuando con otros cuerpos más grandes, como agujeros negros supermasivos o estrellas densas, cambia el enfoque de muchas teorías sobre su formación.
Además, este tipo de estudios ayuda a afinar los modelos de detección de ondas gravitacionales. La presencia de un tercer objeto introduce variaciones sutiles en las señales que pueden ser confundidas con otros fenómenos si no se tienen en cuenta. Al perfeccionar los modelos y las técnicas de análisis, será posible identificar con mayor precisión futuros sistemas complejos.
También se abre la puerta a una nueva clase de sistemas: los triples gravitacionales. Hasta ahora, los sistemas de tres agujeros negros eran solo una posibilidad teórica. Este trabajo representa el primer indicio firme de su existencia. La frase del estudio, "este es el primer indicio que muestra que agujeros negros binarios en proceso de fusión están situados cerca de un tercer objeto compacto", resume la trascendencia del hallazgo.
El futuro de la observación gravitacional
Con la próxima generación de detectores, como el Telescopio Einstein o la misión espacial LISA, será posible observar señales aún más débiles y lejanas. Esto permitirá detectar sistemas múltiples con mayor facilidad y, probablemente, confirmar de forma directa la existencia de tríos gravitacionales como el descrito en este estudio.
Por otro lado, las observaciones combinadas —las llamadas “multimensajero”— que integran ondas gravitacionales con emisiones electromagnéticas (como rayos X o estallidos gamma), permitirán estudiar estos eventos de forma más completa. Esto podría confirmar, por ejemplo, si el entorno del sistema era un disco de acreción activo alrededor de un agujero negro supermasivo, como se sospecha.
Este caso demuestra cómo una anomalía en los datos puede convertirse, años después, en una pista clave para avanzar en nuestra comprensión del cosmos. Un evento que parecía desconcertante ha terminado revelando una compleja coreografía de tres gigantes invisibles bailando en la oscuridad del universo.
Referencias
- Shu-Cheng Yang, Wen-Biao Han, Hiromichi Tagawa, Song Li, Chen Zhang. Indication for a Compact Object Next to a LIGO–Virgo Binary Black Hole Merger. The Astrophysical Journal Letters. DOI: 10.3847/2041-8213/adeaad.
En un contexto tan burocratizado como el mesopotámico, en el que la escritura servía para registrar la producción de bienes, la tasación de actividades y las transacciones económicas y comerciales, los escribas detentaban un rol fundamental. Es a través de la labor escritural de los copistas, los estudiosos y los funcionarios letrados que tenemos acceso a las preocupaciones cotidianas que ocupaban los días de los antiguos mesopotámicos.
Reclutados de entre las familias de la elite, los aspirantes a escriba adquirían los rudimentos del cuneiforme en la edubba, la casa de las tablillas de barro, donde un maestro los instruía siguiendo un currículum preestablecido. En la edubba se aprendía a elaborar tablillas, a reconocer los signos cuneiformes y sus valores a través de silabarios y listas, se memorizaba vocabulario, se aprendía a redactar textos legales y administrativos, se estudiaban composiciones literarias y se adquirían nociones de matemática.
Tanto en la didáctica como en la práctica cotidiana de la escritura, se utilizaban materiales comunes y fácilmente disponibles en Mesopotamia: barro para las tablillas y caña para la elaboración del cálamo con el que se incidía la superficie todavía blanda de la arcilla. También podían utilizarse tableros cubiertos de cera. Otros materiales comunes que se utilizaban como soportes de la escritura eran el metal, el marfil y, para las inscripciones monumentales, la piedra, que los lapicidas incidían siguiendo las indicaciones de los escribas.
Los escribas se empleaban en las administraciones del palacio o del templo, se dedicaban a la gestión de actividades económicas, legales y burocráticas de todo tipo o proseguían su especialización en algunos de los campos de pericia dominados por adivinos, literatos o sacerdotes responsables del culto. Aunque la mayoría de los escribas que conocemos por su nombre eran hombres, también sabemos de la existencia de mujeres escribanas, responsables de la gestión de instituciones religiosas y empresas comerciales, cuando no secretarias al servicio de mujeres de la aristocracia.

La medicina mesopotámica
Mesopotamia cuenta con una larga tradición escrita en los campos de la medicina, la profilaxis y la diagnosis de males. Las tablillas cuneiformes de contenido médico más antiguas datan del 2500 a. C. y recogen encantamientos y rituales terapéuticos destinados a tratar afecciones tan diversas como los males del vientre, los problemas oculares y las dificultades durante el parto. El interés de las elites cultas por recoger en forma escrita y sistematizar el vasto acerbo de remedios, procedimientos diagnósticos y prontuarios de materia médica se mantuvo inalterado hasta las últimas fases de vida del cuneiforme, en un dilatado periodo que se extendió a lo largo de tres milenios. Prueba de esa tradición recibida se encuentra en las colecciones de tablillas procedentes de Nimrud, Asur y Uruk, y en bibliotecas como la que Asurbanipal creó en Nínive.
Las tablillas cuneiformes revelan la existencia de dos especialistas médicos que operaban en los contextos de poder: el āšipu y el asû. El āšipu se caracterizaba por ser un operador ritual especialista en la expulsión y remoción de los agentes malignos, como los demonios y los espectros, que causaban enfermedades e infortunios. Su relación con la esfera de los dioses, de los que el āšipu había recibido su conocimiento, le permitía actuar en aquellas circunstancias que anunciaban penurias y desgracias para el rey, el país y su población.
Contribuía con su sabiduría, pues, a mantener el orden de las cosas tanto humanas como divinas. Sabemos que también tenía conocimientos de fitoterapia y podía recurrir a remedios farmacológicos para el tratamiento de pacientes. El asû, por su parte, se ocupaba de tratar heridas, contusiones, huesos rotos y, en general, afecciones que se manifestaban principalmente en el exterior del cuerpo, para lo que aplicaba ungüentos, emplastos y vendajes. Disponía de conocimientos relativos a las plantas medicinales, que utilizaba en su práctica cotidiana. Otras figuras especialistas en el cuidado de enfermos, infantes y parturientas, como las comadronas, las enfermeras y las nodrizas, así como los veterinarios y los curanderos locales, aparecen menos documentadas en el registro escrito.
Las enfermedades
El elenco de enfermedades que los mesopotámicos intentaban tratar con sus remedios abarca desde picaduras y ataques de serpientes y escorpiones hasta dolencias oculares, pasando por las afecciones dérmicas, los problemas intestinales, el miedo y los trastornos de comportamiento, las consecuencias de los excesos alcohólicos, la impotencia sexual, la ayuda al parto o el dolor de dientes. Los peligros que acechaban a los vivos a lo largo de sus vidas, desde la más tierna infancia hasta la edad vetusta, se condensan en estas tablillas que revelan una lucha constante por recuperar la salud, congraciarse con la divinidad y reescribir el propio destino.
Los tipos de remedios a los que se recurría incluían medicamentos como pomadas, ungüentos, pociones y sahumerios, y en su elaboración se utilizaban ingredientes cotidianos como la harina, la cerveza o los dátiles, así como plantas medicinales, resinas y minerales. Las referencias en los textos a intervenciones quirúrgicas superficiales, suturas, entablillamientos y otros tratamientos similares son raros, cuando no inexistentes. Aunque sin duda se practicaron, apenas han dejado huella en el registro escrito.
Conocemos los pormenores de un buen número de rituales de diversa complejidad en los que se buscaba expulsar, revertir o eliminar la causa que había propiciado la enfermedad del paciente. Así, se recurría a la recitación de encantamientos, la invocación de divinidades como Ištar, Gula y Šamaš, la manipulación de objetos como mechones de lana colorida, frutos y enseres domésticos, y el empleo de figurillas que representaban al paciente y al agente causante del mal.
También se utilizaban amuletos de diverso tipo: conchas marinas y piedras como la cornalina, el lapislázuli y la diorita se enhebraban y se aplicaban alrededor de la garganta, los brazos o las piernas; minerales y plantas se combinaban dentro de bolsitas de cuero que luego se portaban colgadas del cuello, y lo mismo se hacía con las cabezas de piedra o arcilla que representaban a Pazuzu o con las pequeñas placas inscritas con fórmulas para prevenir los ataques de la mortífera Lamaštu y que, a menudo, también se acompañaban con representaciones de esta peligrosa divinidad.
No era infrecuente que se realizasen ofrendas votivas a los dioses para que estos proporcionasen protección, salud y larga vida a los miembros de las familias pudientes. Los objetos ofrendados incluían estatuas, copas o figurillas de perros, el animal sacro de la divinidad médica Gula.
Los agentes causantes
En cuanto a los agentes que se reconocían como causantes de enfermedad, las artes médicas mesopotámicas hacían hincapié en las acciones nocivas de figuras suprahumanas. De demonios como los utukkū lemnūtu, el rābiŞu merodeador y la Lamaštu, codiciosa de bebés y gestantes, se decía que golpeaban, apresaban e incluso se vestían con el cuerpo del enfermo. Los fantasmas furiosos de aquellos que no recibían el obligado culto fúnebre o de los que habían sufrido una muerte violenta o acerba atosigaban a los vivos con apariciones espectrales, tinitos y dolores de cabeza. Los dioses podían enviar variados males a la humanidad y, cuando decidían despojar a los fieles de su divina protección, los abocaban a sufrir pérdidas económicas, familiares y de salud. La brujería era igualmente causa de disturbios que se caracterizaban con frecuencia por afectar el vientre, los intestinos y la potencia sexual.
De hechiceros y brujas se decía que ungían con sustancias ponzoñosas a la víctima, a la que también daban de beber y comer inmundicias. También se atribuía el origen de ciertos males y disfunciones a factores climáticos, atmosféricos y circunstanciales (insolación, intoxicación, vejez, etc.) y se manejaban conceptos de transmisión de enfermedades por contacto y contagio. Esto escribía Zimri-Lim, rey de Mari, a su esposa Šībtu hace más de tres milenios y medio: «He oído que Nanname está enferma de simmu [una enfermedad de la piel] y, aun así, sigue frecuentando mucho el palacio. Acabará contagiando a muchas mujeres con lo suyo. Ahora, da órdenes severas para que nadie beba de su copa ni se siente en la silla que ella usa ni se tumbe en su cama para evitar que contagie a muchas mujeres con lo suyo. La enfermedad simmu es muy contagiosa».

La astrología y otras mancias
Desde la perspectiva mesopotámica, las divinidades utilizaban el mundo y todo lo que él contenía para comunicarse con los humanos. Así, las potencias divinas utilizaban los cielos, el comportamiento animal o el mismo cuerpo humano para escribir sus mensajes y advertencias. Esto explica la existencia de las técnicas adivinatorias: son mecanismos que permiten desentrañar los mensajes ocultos de los dioses y, en caso de que fuese necesario, aplicar las medidas apotropaicas indispensables para que el mal anunciado no golpee. Por ello, los astrólogos y los expertos en distintas artes adivinatorias se dedicaban a escrutar la vastedad del cielo y de la tierra en busca de estos signos divinos.
La observación celeste en Mesopotamia tenía una doble finalidad. Por un lado, servía para marcar el tiempo, determinar los meses lunares y las estaciones, algo necesario en la organización del calendario agrícola. Por otro, el escrutinio del firmamento facultaba el reconocimiento de los signos fastos y nefastos que anunciaban peligros políticos, sociales y militares. Es de esa observación que nacieron las colecciones de profecías solares y lunares, el registro de eclipses y las conjeturas sobre el significado que determinadas conjunciones, fenómenos atmosféricos y presencias celestes albergaban para el individuo y la comunidad.
La extispicia constituía otra mancia muy recurrida en la Mesopotamia antigua. Se basaba en la observación del hígado (y, a veces, también de los pulmones y las entrañas) de una oveja sacrificada. Se utilizaba esta disciplina para determinar si empresas como la construcción de un templo, una campaña militar o la evolución de la enfermedad que atenazaba a un miembro de la familia real serían propicias. El bārûtu era el especialista encargado de interpretar los signos presentes en cada una de las secciones del órgano con base en un complejo conocimiento técnico recogido en colecciones de presagios y modelos de hígados de arcilla.
El cuerpo humano encerraba mensajes reveladores. La adivinación fisionómica exploraba rasgos de la persona como el color de los cabellos, la forma de los pechos o los modos de comportamiento para determinar sus cualidades morales, su valía como esposo o esposa y la prosperidad o la desdicha que le aguardaba en la vida.
Música, danza y espectáculo
La música formaba parte del paisaje sonoro de las ciudades. Se interpretaban canciones en ambientes cotidianos, durante la realización de tareas agrícolas o en las plazas, pero las actuaciones musicales también ocupaban un lugar relevante en contextos militares (durante los desfiles que festejaban victorias, por ejemplo) y como parte de las funciones religiosas, en rituales de construcción de edificios y templos, en tratamientos terapéuticos, durante los funerales y en muchas otras circunstancias tanto públicas como privadas.
Los escribas que entraban al servicio de la institución templaria recibían formación musical que les permitía interpretar cantos religiosos durante festividades y ceremonias. Altos cargos como los que detentaba el kalû, el responsable de la ejecución de determinadas liturgias que requerían la ejecución de cantos y piezas musicales, aprendían así las claves de la versificación, la interpretación con instrumentos y la notación musical.
Hombres y mujeres podían ejercer la profesión de músico. Estudiaban canto e interpretación con instrumento con un maestro y los instrumentos musicales podían ser de cuerda, viento o percusión. Tenemos constancia de la existencia de aerófonos en caña, madera o metales preciosos como la plata; de tamboriles, tímpanos, grandes tambores y panderos, así como de sistros y címbalos; y de laúdes, salterios, liras y arpas, que el músico podía tañer de pie o sentado. Se han conservado, además, algunas tablillas con notación musical para cordófonos.
La música acompañaba también espectáculos de lucha y danza que, en ocasiones, se integraban en ceremonias de corte religioso. Los saltos ocupaban un lugar predominante en las coreografías y eran habituales los bailes con espadas. Los músicos ambulantes se exhibían solos o en compañía de cómicos, bufones, acróbatas y animales, en especial monos.

El refinamiento culinario
Comer pan y beber cerveza constituyen los dos pilares de la alimentación y la base cultural de la civilización mesopotámica. Los alimentos básicos de la dieta en Mesopotamia incluían los cereales y muy especialmente la cebada, las legumbres, los vegetales y las frutas como granadas, uvas, ciruelas, dátiles e higos cultivados en los huertos, y las especias y plantas aromáticas, que se utilizaban comúnmente en la preparación de platos y bebidas.
Además de la leche y sus derivados, otras fuentes de proteína procedían de los peces, las tortugas y los crustáceos que se capturaban en los ríos y canales, de las aves apresadas en los pantanos y zonas fluviales, así como de la carne de animales domésticos (ovejas, cabras, cerdos, bueyes) y de las viandas de caza que se servían en la mesa del rey. Todos estos ingredientes se utilizaban en la preparación de panes, dulces como el mersu (a base de dátiles y pistachos), sopas, potajes y asados de variado tipo.
El descubrimiento de varias tablillas del siglo xvii a. C., en las que se recogían unas cuarenta recetas para preparar caldos y carnes cocidas, han proporcionado un testimonio inapreciable sobre el refinamiento culinario de las clases pudientes mesopotámicas. A base de carne de ciervo, gacela, cabrito, cordero, francolín y otros animales, estas recetas demuestran un marcado gusto por el uso de plantas aliáceas como el puerro, el ajo y la cebolla, así como la tendencia a usar la grasa, los menudillos y, a veces, la sangre del animal en la elaboración.
Algunas recetas incluso proporcionan información minuciosa de las distintas fases en la preparación del guiso, desde la limpieza y descarne del animal hasta la fase final de la cocción, así como del modo de presentar y servir el plato en la mesa. Estos testimonios dan cuenta, por tanto, de la suntuosidad de la que gozaba la mesa del rey, pero también de la abundancia y variedad de platos que se sucedían durante la celebración de las festividades político-religiosas.
Durante años, la cafeína se ha estudiado casi siempre en laboratorios. Allí se comprobó que mejora el rendimiento mental, la atención y la sensación de energía. Sin embargo, faltaba una pieza clave: entender cómo actúa en la vida real, en el día a día, cuando la gente bebe café en la oficina, té en casa o refrescos en la calle. ¿Realmente cambia nuestro ánimo o todo se reduce a una ilusión de estar más despiertos?
Para responder, investigadores de Alemania y Estonia realizaron dos estudios con jóvenes adultos en su vida cotidiana. En lugar de pruebas de laboratorio, usaron un método llamado experience sampling (muestreo de experiencias). Este consiste en pedir a los participantes que contesten encuestas cortas varias veces al día, durante varias semanas, sobre cómo se sienten y si habían tomado cafeína recientemente.
La idea era sencilla pero potente: observar qué ocurre con las emociones en los 90 minutos posteriores a consumir cafeína. Así se podía evaluar si la bebida realmente influía en el estado afectivo y en qué momentos del día ese efecto era más fuerte. Lo innovador del trabajo es que, en lugar de situaciones artificiales, recogió datos en entornos naturales: en el trabajo, en la universidad, con amigos o en casa.

Miles de encuestas para seguir el pulso al café
El primer estudio se realizó con 115 participantes, de entre 18 y 25 años, durante dos semanas. Cada día, recibían siete avisos en el móvil para rellenar un cuestionario: si habían consumido cafeína, cómo de cansados se sentían y cuál era su estado emocional en ese momento. En total, se recogieron más de 8.300 encuestas.
El segundo estudio fue aún más ambicioso. Participaron 121 jóvenes, de 18 a 29 años, a lo largo de 28 días. Con el mismo sistema de recordatorios, se acumularon casi 20.000 encuestas. Con este volumen de datos, los investigadores pudieron analizar de manera muy precisa la relación entre el consumo de cafeína y los cambios en el estado de ánimo.
Los resultados fueron claros: tras tomar cafeína, las personas declararon sentirse más positivas. No se trataba solo de estar menos cansados, sino de experimentar emociones concretas como entusiasmo, felicidad y satisfacción.
Aunque el efecto no era enorme, sí era consistente, y se repetía en distintos días y contextos. En definitiva, la evidencia mostraba que la cafeína estaba vinculada a una mejora real del estado de ánimo en la vida cotidiana.
El mejor momento: las primeras horas del día
Uno de los hallazgos más interesantes fue que el efecto positivo de la cafeína era más fuerte en las primeras dos horas y media después de despertar. Ese café de la mañana no solo ayuda a abrir los ojos: también parece potenciar las emociones agradables de manera especial en ese intervalo.
Después de ese pico inicial, la asociación entre cafeína y emociones positivas disminuía a lo largo del día. Aunque podía volver a aparecer de forma leve por la tarde o la noche, ya no tenía la misma intensidad que en la mañana. Los investigadores interpretan que esto podría deberse a varios factores, entre ellos la reversión de síntomas de abstinencia tras la noche sin cafeína.
En otras palabras: para quienes beben café todos los días, la primera taza actúa como un “reinicio” que no solo combate la somnolencia, sino que también restaura un ánimo más positivo. No se trata únicamente de química, sino también del ritual matutino y de la expectativa de que el café ayudará a empezar el día con mejor pie.
"La cafeína funciona bloqueando los receptores de adenosina, lo que puede aumentar la actividad de la dopamina en regiones clave del cerebro, un efecto que los estudios han relacionado con un mejor estado de ánimo y una mayor alerta", dijo Anu Realo, autor del estudio y profesor de la Universidad de Warwick.

¿Reduce la tristeza o solo aumenta la alegría?
El estudio no solo analizó emociones positivas, sino también negativas, como sentirse triste, molesto o preocupado. Aquí los resultados fueron más matizados. En el segundo estudio, con más participantes y encuestas, se observó que la cafeína se asociaba a una ligera disminución de la tristeza y el enfado. Sin embargo, esa relación no apareció en el primer estudio.
Esto sugiere que los efectos de la cafeína sobre el afecto negativo son menos consistentes y probablemente más débiles. Mientras que el impulso positivo es claro y repetido, la reducción de emociones desagradables no parece ser tan directa ni tan fuerte. Dicho de otro modo: la cafeína te ayuda a sentirte más animado, pero no necesariamente a librarte de las preocupaciones.
Los autores destacan que esto podría deberse a que las emociones negativas suelen estar más ligadas a factores duraderos —como el estrés, los problemas personales o las circunstancias externas—, que no se resuelven con un café. En cambio, las emociones positivas pueden ser más sensibles a pequeños estímulos cotidianos, como el acto de consumir cafeína.
Cansancio, compañía y contexto: factores que cambian el efecto
La investigación también exploró qué otros factores podían moderar la relación entre cafeína y estado de ánimo. Un hallazgo notable fue que el efecto positivo era mayor cuando los participantes estaban más cansados de lo habitual. En esos momentos, la cafeína parecía aportar un extra de energía emocional, no solo física.
Otro aspecto llamativo fue la influencia del contexto social. Cuando los participantes estaban acompañados, la relación entre cafeína y afecto positivo era más débil. Esto podría deberse a que las interacciones sociales ya influyen en el estado de ánimo, reduciendo la percepción del “subidón” de la cafeína. Por el contrario, cuando las personas estaban solas, el efecto del café sobre el ánimo era más evidente.
Además, los investigadores analizaron si el consumo habitual, la dependencia de la cafeína, la calidad del sueño o síntomas de ansiedad y depresión modificaban la relación. Sorprendentemente, no encontraron diferencias importantes: el efecto positivo aparecía de forma bastante uniforme en todos los grupos. Esto refuerza la idea de que la cafeína actúa como un modulador general del ánimo en situaciones cotidianas.
"Nos sorprendió un poco no encontrar diferencias entre personas con diferentes niveles de consumo de cafeína o diferentes grados de síntomas depresivos, ansiedad o problemas de sueño. Los vínculos entre la ingesta de cafeína y las emociones positivas o negativas fueron bastante consistentes en todos los grupos", dijo el autor del estudio Justin Hachenberger, de la Universidad de Bielefeld en Alemania.

Lo que nos dice el estudio sobre el café y la vida diaria
El trabajo aporta varias conclusiones útiles. La principal es que la cafeína está asociada con un aumento del afecto positivo en la vida real, especialmente en la mañana.
Este hallazgo va más allá de lo que ya se sabía en laboratorio, porque confirma que la bebida más popular del mundo influye en cómo nos sentimos en nuestros entornos naturales.
Al mismo tiempo, los investigadores subrayan que los efectos no son milagrosos. La cafeína no elimina de golpe el cansancio acumulado ni las emociones negativas fuertes. Tampoco sustituye un buen descanso, ni resuelve problemas de ansiedad o depresión. Más bien, su papel parece ser el de un pequeño “empujón emocional” que, en momentos adecuados, ayuda a sentir más entusiasmo y alegría.
En definitiva, este estudio pone en cifras lo que muchos ya intuían en su rutina: que esa primera taza de café por la mañana no solo despeja, sino que también mejora el humor. Y lo hace de forma tan consistente que se convierte en uno de los rituales cotidianos más influyentes en nuestro bienestar emocional.
Referencias
- Hachenberger, J., Li, YM., Realo, A. et al. The association of caffeine consumption with positive affect but not with negative affect changes across the day. Sci Rep. (2025). doi: 10.1038/s41598-025-14317-0
La muerte para los etruscos, al igual que para muchas otras poblaciones de la antigüedad, era un tránsito que requería de una serie de rituales preparatorios que facilitasen el tránsito del difunto. Aunque no poseemos textos escritos por los propios etruscos que detallen sus creencias sobre el más allá, la abundancia de tumbas decoradas, ajuares funerarios y restos arqueológicos permite reconstruir, al menos en parte, su particular imaginario fúnebre. El estudio de la iconografía funeraria de las necrópolis, por tanto, ofrece un panorama fascinante y enigmático sobre el destino del alma.
La dificultad de conocer el más allá etrusco
La ausencia de fuentes escritas directas ha obligado a los etruscólogos a interpretar la religión funeraria etrusca a través de sus monumentos. A menudo, los investigadores han proyectado sobre estas imágenes ideas tomadas de la mitología griega, como la travesía en barca hacia las Islas de los Bienaventurados o la estancia en el Hades. Sin embargo, la evidencia iconográfica muestra que estas nociones no siempre se aplican de manera sistemática en el caso etrusco.
En la época arcaica (siglos VII-V a. C.), los etruscos parecen haber concebido un destino post mortem donde la parte inmaterial del difunto —su “sombra” o espíritu— continuaba existiendo, en un lugar distinto al de la sepultura física. No obstante, las representaciones de ese más allá no siempre proporcionan la imagen de un inframundo poblado de dioses o criaturas demoníacas, sino, más bien, se expresan a través de símbolos y escenas rituales.
La visión que emerge, por tanto, es compleja. Por un lado, comparte elementos con las concepciones griegas arcaicas, como la idea de un viaje post mortem. Por otro, revela interpretaciones propias que no se reducen ni a los Campos Elíseos ni al sombrío Hades. El análisis de las puertas falsas pintadas en las tumbas, de los rituales representados y de los objetos simbólicos sugiere que los etruscos creían en un más allá, pero que este no siempre implicaba un trayecto peligroso hacia tierras lejanas.

Las puertas falsas: umbrales simbólicos
Uno de los motivos más reveladores en las tumbas pintadas de Tarquinia es la representación de la puerta falsa. Estas puertas, que comenzaron a incluirse en la arquitectura funeraria en la primera mitad del siglo VI a. C., no podían abrirse, ya que carecían de bisagras, cerraduras o llamadores. Situadas casi siempre en la pared opuesta a la entrada, parecían invitar al paso hacia un espacio invisible.
La hipótesis más aceptada apunta que estas puertas no eran para los vivos, sino para el alma del difunto. Constituían un umbral hacia un espacio simbólico, el lugar al que se dirigía el espíritu tras abandonar el cuerpo. La decoración que acompañaba a las puertas podía variar. Así, en la Tumba de los Augures, en la necrópolis de Monterozzi, por ejemplo, dos hombres en actitud de duelo flanquean el vano, mientras que, en la Tumba de las Olimpíadas, figuras mitológicas como Hermes, Hera, Atenea y Afrodita parecen desligarse de las connotaciones funerarias.
En algunos casos, la puerta era el especio elegido para llevar a cabo rituales específicos, como el threnos o canto fúnebre, o la deposición de objetos (por lo general, un ánfora y una crátera para el vino) junto al umbral. Estos recipientes enmarcaban el paso al otro lado del alma a través de ceremonias de libación o banquetes que acompañaban el tránsito espiritual.

El papel de los rituales y el banquete funerario
Algunas pinturas funerarias de Tarquinia muestran que, para los etruscos, la despedida del alma se acompañaba de música, danzas y consumo de vino. Las escenas de komos (procesiones festivas con bebedores y músicos) pueden rodear las puertas falsas o las entradas a las cámaras mortuorias. En algunos casos, los participantes están identificados por nombre, lo que sugiere que, durante las celebraciones, se conmemoraba personajes reales y no simples figuras simbólicas.
La combinación de luto y celebración festiva formaba parte de un mismo rito de paso. Los banquetes podían evocar la idea de una vida que continúa en el más allá, pero, al mismo tiempo, cumplían una función de cohesión social y de homenaje a la memoria del difunto.
Dioniso y otros dioses en el imaginario funerario
Las escenas dionisíacas son frecuentes en la iconografía funeraria etrusca. Sátiros, hiedra, grandes cráteras y gestos de embriaguez decoran frontones y paredes, y sugieren la influencia del dios del vino y la fertilidad en la concepción etrusca de la muerte. Sin embargo, no todos los elementos de estas tumbas remite a Dioniso. En los bosquecillos sagrados que aparecen pintados, cuelgan joyas, telas y guirnaldas que evocan a Turan (Afrodita) o Aplu (Apolo). Este lucus o arboleda sagrada funcionaba como espacio liminal, lugar de ofrenda y comunión con lo divino. El hecho de que los bosques aparezcan combinados con banquetes o procesiones subraya la interconexión entre lo sagrado y lo social en el contexto funerario.

El cambio en el siglo V a. C. y la desaparición de las puertas falsas
A partir del segundo cuarto del siglo V a. C., las puertas falsas comienzan a desaparecer del programa decorativo de las tumbas. En su lugar, algunos sepulcros muestran el marco dórico pintado en la puerta real de acceso a la cámara, quizá como una alusión simbólica al umbral del más allá. Con todo, este cambio no implica, necesariamente, una sustitución directa de las creencias. De hecho, las escenas pintadas siguen mostrando banquetes, músicos y ritos, pero la disposición espacial y la iconografía se adaptan a nuevas tendencias artísticas.
La aparición, hacia finales del siglo V a. C., de demonios de la muerte en la pintura etrusca sugiere una transformación en la concepción del destino post mortem. Estas figuras, ausentes en la etapa arcaica, introducen una imaginería más cercana al control divino o sobrenatural del tránsito del alma.

¿Un viaje largo y peligroso?
Contrariamente a otras tradiciones religiosas que presentan el tránsito del alma como un viaje marítimo, la iconografía etrusca arcaica no confirma ese trayecto épico. Las tumbas no muestran al difunto cruzando mares ni enfrentándose a pruebas, sino escenas que subrayan el umbral simbólico (la puerta falsa) y los ritos que acompañaban el paso del alma a un lugar invisible.
El silencio que guarda la pintura etrusca sobre el paisaje del más allá parece reforzar la idea de que lo importante era el acto de la separación, el momento en que la parte espiritual dejaba el espacio físico del cadáver para dirigirse a un destino que, desde el punto de vista etrusco, bien podía tratarse de un auténtico lugar físico. La religión etrusca, por tanto, concebía la muerte como un tránsito ritualizado hacia un espacio invisible, marcado por umbrales simbólicos y acompañado de ceremonias complejas. Las puertas falsas, los banquetes, la música y las procesiones no describen tanto los espacios del más allá como la importancia del rito de paso que aseguraba el viaje del alma.
Referencias
- Weber-Lehmann, "Where Does the Soul Go? Some Thoughts on Etruscan Afterlife", en Karolina Sekita, y Katherine E. Southwood(eds.), Death Imagined: Ancient Perceptions of Death and Dying, pp. 201-236. Liverpool University Press, 2025.
Durante más de seis décadas, una pregunta ha flotado sin respuesta en la paleoantropología europea: ¿quién fue el homínido que habitó la cueva de Petralona, en Grecia, y por qué su cráneo no encaja del todo ni con los neandertales ni con los humanos modernos? Descubierto en 1960 por un habitante local mientras exploraba una cueva kárstica al sur de Tesalónica, el fósil ha sido motivo de controversia científica, hipótesis enfrentadas y dataciones contradictorias que oscilaban entre los 170.000 y los 700.000 años. Hasta ahora.
Un equipo internacional de investigadores liderado por el Institut de Paléontologie Humaine de París ha logrado aplicar con éxito una técnica de datación basada en series de uranio a los depósitos calcíticos que cubren directamente el cráneo. El resultado, publicado recientemente en el Journal of Human Evolution, no solo reduce radicalmente el rango de edad estimado, sino que apunta a una cronología que cambia, una vez más, nuestra comprensión sobre la evolución humana en Europa.
Una cueva, un cráneo y un misterio persistente
La cueva de Petralona, situada en la región de Calcídica, no parecía muy distinta de otras formaciones kársticas del Mediterráneo. Pero en su interior, en una pequeña cámara conocida como el “Mausoleo”, apareció incrustado en una pared un cráneo humano casi completo, aunque sin mandíbula. Lo que siguió fue una larga historia de investigaciones, debates y desacuerdos. El problema no era solo su extraña morfología, distinta tanto de Homo sapiens como de los neandertales clásicos, sino también la imposibilidad de determinar con precisión su edad.
El fósil no estaba asociado a un estrato arqueológico claro. Tampoco se encontraron herramientas ni restos del esqueleto que permitieran contextualizarlo cultural o temporalmente. Y para complicar aún más las cosas, el cráneo estaba cubierto por una gruesa capa de calcita, resultado de procesos de sedimentación propios del ambiente subterráneo. Aquello que parecía un obstáculo, sin embargo, se ha convertido en la clave para resolver el enigma.

Cómo el uranio resolvió el dilema
La técnica que ha permitido este avance se conoce como datación por series de uranio (U-series). A grandes rasgos, consiste en medir la proporción entre isótopos de uranio y torio presentes en depósitos minerales como estalactitas o costras calcíticas. En un entorno cerrado como una cueva, donde el agua filtra lentamente minerales disueltos que luego se cristalizan en forma de calcita, es posible calcular el momento en que comenzó ese proceso. Y si esa calcita recubre un fósil, como ocurre con el cráneo de Petralona, se puede establecer con exactitud una edad mínima para el mismo.
El equipo de investigadores analizó no solo la calcita del cráneo, sino también otras formaciones en diferentes zonas de la cueva: el Mausoleo, el pasadizo que conduce a él —conocido como el “Paso de los Dardanelos”— y varias secciones más. Los resultados son reveladores: el depósito calcítico más interno que cubre el cráneo empezó a formarse hace al menos 286.000 años, con un margen de error de ±9.000 años. Esto implica que el fósil ya estaba allí en ese momento, probablemente desde mucho antes.
¿Una especie olvidada o un ancestro compartido?
Este hallazgo no es solo una cuestión de datación. Lo que vuelve fascinante al cráneo de Petralona es que no encaja fácilmente en ninguna categoría. A lo largo de los años ha sido clasificado —y reclasificado— como Homo erectus, Homo heidelbergensis, Homo neanderthalensis e incluso Homo sapiens arcaico. Su morfología recuerda más al cráneo de Broken Hill (Zambia), también conocido como Kabwe, que a otros fósiles europeos de su misma época. Esto ha llevado a algunos expertos a plantear que Petralona podría pertenecer a una población distinta, más primitiva, que coexistió con los primeros neandertales en Europa durante el Pleistoceno medio.
Los nuevos datos parecen apoyar esa idea. Según los investigadores, el cráneo se habría depositado en la cueva entre 410.000 y 277.000 años atrás si fue arrastrado allí, o incluso entre 539.000 y 277.000 años si realmente estaba unido a la pared del Mausoleo, como se creyó originalmente. Sea cual sea el caso, estamos ante un fósil anterior al surgimiento definitivo de los neandertales como los conocemos, pero posterior a los primeros Homo erectus del continente.
Esto sugiere un escenario más complejo para la evolución humana en Europa, con diferentes linajes conviviendo durante miles de años, compartiendo territorios, recursos y quizás incluso genética. Un panorama menos lineal y más ramificado, en el que especies arcaicas persistieron más tiempo del que creíamos.

El contexto europeo: una época de transición
Entre hace 500.000 y 300.000 años, Europa vivió una etapa crucial en la evolución humana. Los fósiles de esta época —como los de la Sima de los Huesos en Atapuerca, Mauer en Alemania o Ceprano en Italia— muestran una gran diversidad morfológica y nos hablan de una transición progresiva desde formas más primitivas hacia los neandertales clásicos. Algunos individuos presentan rasgos derivados, otros conservan características ancestrales, y muchos no encajan del todo en las categorías convencionales.
El cráneo de Petralona encaja en este mosaico evolutivo como una pieza singular. No parece haber sido un ancestro directo de los neandertales, pero tampoco de los Homo sapiens. Su edad, combinada con su morfología, apunta a una población europea que evolucionó de forma paralela y probablemente independiente. Una rama que pudo coexistir con otras formas humanas, adaptándose a su entorno, pero que finalmente desapareció sin dejar descendencia directa.
Reescribiendo la historia desde una cueva griega
El caso de Petralona ilustra a la perfección lo difícil que es construir la historia de nuestros orígenes. Los fósiles son escasos, el tiempo los entierra y los transforma, y los contextos se pierden con facilidad. Pero también demuestra cómo la ciencia, incluso décadas después de un descubrimiento, puede ofrecer nuevas respuestas gracias al desarrollo de nuevas tecnologías.
Más allá del debate taxonómico, el estudio del Institut de Paléontologie Humaine aporta una certeza fundamental: el cráneo de Petralona tiene al menos 286.000 años. Y con eso, se convierte en uno de los fósiles humanos más antiguos del continente europeo con una datación directa confiable.
Una historia que comenzó en una cueva olvidada de Grecia se transforma, hoy, en una pieza clave para entender cómo fue realmente la evolución de nuestra especie en el Viejo Mundo. Quizás, como ocurre a menudo en la ciencia, las respuestas definitivas nunca lleguen. Pero cada nueva fecha, cada capa de calcita, cada miligramo de uranio nos acerca un poco más a comprender quiénes fuimos… y quiénes no llegamos a ser.
Cuando pensamos en Leonardo da Vinci, solemos imaginar al pintor de la Mona Lisa o al inventor visionario, pero Leonardo también se adentró en el maravailloso mundo de las matemáticas. Uno de sus aportes menos conocidos es una elegante demostración del teorema de Pitágoras, la célebre relación a2+b2=c2 entre los lados de un triángulo rectángulo. En este artículo exploraremos cómo concibió Leonardo su propia prueba de este teorema y qué nos revela sobre su manera de pensar en la confluencia de arte, ciencia y geometría.
La relación pitagórica (que dice que el área del cuadrado sobre la hipotenusa equivale a la suma de las áreas de los cuadrados sobre los catetos) se conocía desde la antigüedad, pero recibió el nombre de teorema de Pitágoras porque se cree que fue el filósofo griego Pitágoras quien aportó la primera demostración formal en el siglo VI a.C.. A lo largo de la historia han surgido decenas de demostraciones distintas —desde las recopiladas por Euclides hasta ingeniosas construcciones modernas—, pero pocas son tan originales y accesibles como la que ideó Leonardo da Vinci en pleno Renacimiento.
Un artista fascinado por las matemáticas
La imagen típica de Leonardo es la del maestro pintor e ingeniero, pero tras esa faceta artística había también una mente profundamente atraída por la matemática. Aunque nunca recibió educación formal en matemáticas y jamás llegó a dominar el álgebra, Leonardo poseía una notable intuición geométrica y habilidad espacial, cualidades presentes en muchos de sus proyectos e inventos. Para él, conceptos como la proporción, la simetría y la perspectiva eran clave para comprender la belleza de la naturaleza y las leyes del universo. De hecho, Leonardo llegó a describir la aritmética y la geometría como la “belleza de las obras de la naturaleza y ornato del mundo”, dejando claro el valor que otorgaba a las matemáticas para descifrar la realidad.
La obsesión de Leonardo por el rigor numérico quedó plasmada en sus propios escritos. En sus cuadernos afirmó que “no existe ninguna certeza cuando no se pueda aplicar alguna de las ciencias matemáticas”, subrayando que las ciencias solo eran verdaderas si se fundamentaban en demostraciones matemáticas. Fiel a esta filosofía, estudió con ahínco las obras clásicas de geometría. Hacia 1496, durante su estancia en Milán, entabló amistad con el fraile matemático Luca Pacioli, quien lo guio en el estudio de Euclides y con quien colaboró en tratados como De divina proportione (1509), un célebre compendio sobre la sección áurea que Leonardo ilustró con meticulosos dibujos de poliedros. Gracias a Pacioli, Leonardo profundizó más formalmente en la geometría (llegando incluso a ayudar en una edición de Los Elementos de Euclides), pero siempre la abordó desde una óptica visual y práctica, acorde con su formación autodidacta.

Una prueba visual e ingeniosa
La demostración pitagórica de Leonardo da Vinci aprovecha al máximo el razonamiento geométrico. Su planteamiento es sumamente gráfico: Leonardo dibujó un triángulo rectángulo con los tradicionales cuadrados adosados a cada lado y luego añadió elementos a la figura para reorganizar las áreas de manera reveladora. El resultado fue una argumentación visual tan clara que se ha dicho que “casi no necesita explicación” al contemplarla.
En su construcción, Leonardo agregó dos copias del triángulo inicial a la figura (el ECF y el HIJ en la imagen de abajo), colocándolas junto a los cuadrados ya dibujados. De este modo formó dos polígonos compuestos de igual superficie: uno incluye el cuadrado de la hipotenusa junto con dos triángulos, y el otro reúne los dos cuadrados de los catetos más dos triángulos. Si ambas figuras comparten el mismo área total, al retirar de cada una los dos triángulos añadidos (idénticos en ambas), las porciones restantes deben ser equivalentes. Esas porciones no son otras que el gran cuadrado construido sobre la hipotenusa en un caso, y la suma de los dos cuadrados menores construidos sobre los catetos en el otro. Así quedaba demostrado de forma puramente gráfica que c2=a2+b2, confirmando el teorema de Pitágoras sin necesidad de fórmulas.

La genialidad de esta demostración reside en su simplicidad: más que cálculos, emplea comparaciones de forma y área. Leonardo había creado una suerte de rompecabezas geométrico que prueba el teorema de forma visual e intuitiva. Cabe destacar que esta preferencia por lo gráfico no es casual: al no estar versado en las técnicas algebraicas de su época, Leonardo confió en su poderosa percepción espacial para resolver el problema. Su prueba de Pitágoras es, en efecto, un ejemplo de “matemáticas sin palabras”, alineado con su talento de artista para comunicar ideas mediante imágenes.
Paso a paso
- Se parte del triángulo rectángulo ABC, con los cuadrados construidos sobre sus lados.
- Leonardo añade dos triángulos idénticos al original, llamados ECF y HIJ, que encajan en la figura sin alterar sus proporciones.
- Con estas piezas forma dos polígonos compuestos:
- El polígono ADEFGB, que incluye los dos cuadrados de los catetos.
- El polígono ACBHIJ, que incluye el cuadrado de la hipotenusa.
- Cada polígono puede dividirse en dos mitades simétricas, y Leonardo demuestra que esas mitades son equivalentes comparando lados y ángulos.
- Para reforzar la equivalencia, muestra que un simple giro de la figura convierte una mitad en la otra, garantizando que son congruentes.
- De esa manera concluye que los dos polígonos completos tienen la misma área total.
- Finalmente, si a cada polígono se le quitan los triángulos añadidos (que son iguales), lo que queda es:
- En un caso, los dos cuadrados de los catetos.
- En el otro, el cuadrado de la hipotenusa.
- El resultado es la igualdad buscada: la suma de las áreas de los catetos equivale al área de la hipotenusa.

No entiendo que al ser dos polígonos iguales se demuestre el teorema... ¡te lo explicamos!
- El polígono ADEFGB está formado por:
- Los dos cuadrados de los catetos (el de AB y el de AC).
- Más dos copias del triángulo inicial (los que Leonardo añadió).
- El polígono ACBHIJ está formado por:
- El cuadrado de la hipotenusa (el de BC).
- Más esas mismas dos copias del triángulo inicial.
- Leonardo demuestra que los dos polígonos enteros tienen la misma área total.
- Como ambos incluyen las mismas dos copias del triángulo, si quitamos esos triángulos de cada polígono lo que queda debe seguir siendo igual.
- ¿Y qué queda?
- En el polígono ADEFGB, al quitar los triángulos, solo quedan los dos cuadrados de los catetos.
- En el polígono ACBHIJ, al quitar los triángulos, solo queda el cuadrado de la hipotenusa.
- Por lo tanto, queda demostrado que la suma de las áreas de los cuadrados de los catetos equivale al área del cuadrado de la hipotenusa, que es exactamente el teorema de Pitágoras.
Arte, ciencia y legado renacentista
La demostración pitagórica de Leonardo ilustra a la perfección la unión entre arte y ciencia propia del Renacimiento. Un mismo hombre podía pintar una obra maestra y, a la vez, razonar sobre principios geométricos. Leonardo concebía la pintura como una ciencia, que debía apoyarse en principios matemáticos al igual que la óptica o la mecánica. Su interés por el teorema de Pitágoras no fue un capricho aislado, sino parte de un empeño mayor por encontrar armonía y orden numérico en el mundo. En su famoso dibujo del Hombre de Vitruvio, por ejemplo, explora las proporciones ideales del cuerpo humano mediante figuras y medidas geométricas, reflejando la convicción renacentista de que el universo está regido por patrones matemáticos.
Aunque la demostración de Leonardo no se publicó en su época en ningún tratado matemático, hoy la recordamos como una curiosidad histórica que reúne pedagogía y arte. Su valor reside, más que en aportar un avance técnico, en ejemplificar la brillantez multidisciplinar de Leonardo. Nos muestra cómo un artista e inventor podía también incursionar en la geometría teórica, guiado por la misma pasión de descubrir las verdades de la naturaleza. En última instancia, esta ingeniosa prueba visual refuerza la imagen de Leonardo da Vinci como el arquetipo del genio renacentista: un espíritu universal capaz de ver la profunda interconexión entre los números, las formas y la realidad.
Los smartphones de gama media están alcanzando prestaciones de gama alta sin disparar el precio. Cada vez más usuarios buscan potencia, buena pantalla, cámaras de calidad y gran autonomía por debajo de los 1.000 euros.
En un mercado cada vez más competitivo, Google refuerza su estrategia con una agresiva rebaja del Pixel 8 Pro, un smartphone de gama media con prestaciones premium que compite directamente con rivales como Samsung, Huawei y Realme.

Aunque su precio habitual supera los 519€ en tiendas como Miravia o PcComponentes, la alianza entre la marca americana y AliExpress lo deja ahora en solo 427,99 euros, marcando una de las rebajas más atractivas del momento.
Incorpora un sistema de cámaras profesionales con sensor principal de 50 MP, ultra gran angular de 48 MP y teleobjetivo de 48 MP con zoom óptico 5x y digital hasta 30x. Su cámara frontal de 10,5 MP ofrece selfies más nítidos y gran angular mejorado con Visión Nocturna, Astrofotografía y Controles Pro.
En vídeo, destaca por el Optimizador de Vídeo, el Borrador Mágico para Audio y Tono Real. Con 128 GB de almacenamiento, traducción instantánea en 49 idiomas y seguridad avanzada gracias a Tensor G3 y Titan M2, este smartphone ofrece además 7 años de actualizaciones, VPN integrada y alertas inteligentes.
Realme contraataca con una fuerte rebaja en su Realme 14T para ganar terreno en el mercado
Después de la jugada de Google, Realme reacciona sin demora y lanza una agresiva rebaja en su Realme 14T, que ahora se puede conseguir por solo 142,99 euros. Una oportunidad difícil de dejar pasar, teniendo en cuenta que en tiendas como Miravia, PcComponentes o Amazon su precio supera habitualmente los 185€.

Destaca por su procesador Dimensity 6300 de última generación, que ofrece potencia, fluidez y descargas ultrarrápidas en multitarea, gaming y navegación. Su pantalla AMOLED de 120 Hz brinda colores vivos, gran nitidez y protección ocular. Todo ello acompañado por 8 GB de RAM y 256 GB de almacenamiento.
En autonomía, equipa una batería Titan de 6000 mAh con carga rápida de 45 W, asegurando energía para todo el día y recargas veloces. Su sistema de cámaras con IA incluye un sensor principal de 50 MP con mejoras nocturnas y retratos optimizados, además de una cámara frontal de 16 MP para selfies y videollamadas claras. Completan la experiencia Android 15, conectividad 5G, Wi-Fi rápido y doble SIM.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Cada vez más jóvenes y adolescentes mueren por suicidio en España. Aunque sigue siendo un fenómeno difícil de comprender y de aceptar, los datos no mienten: entre 2012 y 2022, más de 3.300 menores de 30 años perdieron la vida por esta causa. Y lo más preocupante es que el número no deja de crecer, especialmente entre chicos de 15 a 29 años. ¿Qué está ocurriendo? ¿Por qué se disparan los casos en ciertas comunidades? ¿Qué papel juega la edad, el género o incluso el mes del año?
La salud mental de la infancia y la adolescencia se ha convertido en una prioridad en las agendas públicas de numerosos países. En España, la evolución reciente de las cifras de suicidio en población menor de 30 años ha suscitado preocupación entre profesionales de la salud, la educación, la psicología y el trabajo social. Aunque el suicidio sigue siendo un fenómeno relativamente infrecuente en esta etapa vital, su tendencia ascendente, junto con su fuerte impacto individual, familiar y comunitario, lo convierten en un fenómeno de alto interés desde el punto de vista preventivo y social.
¿Quiénes son las víctimas?
En España, entre 2012 y 2022, se registraron 3.368 suicidios entre personas menores de 30 años. De ellos, 118 correspondieron a niños y niñas menores de 15 años, y 3.250 al grupo de 15 a 29 años. Aunque los casos infantiles son menos frecuentes, su impacto social es profundo: cada muerte representa una pérdida devastadora para familias, centros escolares y comunidades enteras y ponen en evidencia situaciones de sufrimiento profundo en edades tempranas que exigen una respuesta estructural por parte de los sistemas de salud y protección.
El análisis por sexo muestra una clara desigualdad: los varones presentan tasas de suicidio notablemente superiores a las de las mujeres. En el grupo de 15 a 29 años, aproximadamente el 74 % de los casos fueron hombres. Esta diferencia, coherente con patrones internacionales, ha sido constante en el tiempo. En menores de 15, el patrón se repite, aunque en algunos años, como 2017 o 2020, las cifras entre chicas igualaron o incluso superaron a las de los chicos.

Tendencias que preocupan
La evolución de los datos a lo largo de la década muestra un aumento progresivo de casos en población joven, con picos destacados en 2021 y 2022. El grupo de 15 a 19 años, en particular, ha experimentado un crecimiento llamativo: en 2022 se registraron 75 suicidios en este grupo, frente a los 53 del año anterior. El incremento fue especialmente notable entre los chicos.
También se observan patrones estacionales significativos. Entre los menores de 15 años, los meses con mayor número de suicidios son mayo, marzo y octubre. En jóvenes de 15 a 29 años, destacan los meses de septiembre, julio y junio. Estos momentos del año podrían estar asociados a transiciones académicas que podrían generar estrés escolar, periodos de soledad en época estival o cambios vitales que aumentan la vulnerabilidad emocional.
Identificar estos periodos de mayor riesgo puede ser útil para concentrar esfuerzos preventivos y mejorar la planificación de recursos en momentos clave del calendario escolar y familiar.
Dónde se concentra el problema
El suicidio juvenil no afecta por igual a todas las regiones. Cataluña, Andalucía y Madrid concentran los mayores números absolutos, lo que es esperable por su volumen de población. Pero si analizamos las tasas por cada 100.000 habitantes, la situación cambia. Comunidades como Aragón, Murcia, Navarra y Asturias presentan tasas especialmente altas en el grupo de 15 a 29 años.
Otro hallazgo llamativo es que los municipios más pequeños, con menos de 10.000 habitantes, presentan tasas elevadas de suicidio juvenil en proporción a su población. Aunque las grandes ciudades concentran el mayor número absoluto de casos, las tasas más altas en proporción a la población se registran en municipios pequeños, con menos de 10.000 habitantes. Esto pone de manifiesto la importancia de no concentrar todos los esfuerzos preventivos en entornos urbanos y de garantizar la accesibilidad de recursos de salud mental en el ámbito rural o semirrural.

¿Cómo se quitan la vida los jóvenes?
El estudio de los métodos empleados en los suicidios aporta información clave para el diseño de políticas de prevención.
Los métodos más frecuentes varían según la edad y el sexo. En menores de 15 años, el ahorcamiento y el salto desde lugares elevados son los más comunes. En el grupo de 15 a 29 años, predominan el envenenamiento y el ahorcamiento. La diferencia por género también es relevante: los chicos tienden a emplear métodos más letales.
Este dato es crucial para diseñar estrategias de prevención. Limitar el acceso a medios letales (por ejemplo, instalar barreras en puentes o regular ciertas sustancias) ha demostrado ser eficaz en otros países.
¿Qué factores están detrás?
No hay una única causa que explique el suicidio juvenil, sino que estamos ante un fenómeno complejo, multicausal y profundamente relacionado con el contexto social y emocional.
Entre los factores más relevantes destacan:
- Trastornos de salud mental (especialmente depresión, trastornos de ansiedad y consumo de sustancias)
- Adversidades familiares y violencia intrafamiliar
- Acoso escolar y ciberacoso
- Problemas de identidad y discriminación
- Falta de acceso a atención psicológica especializada
- Estigmatización del sufrimiento emocional y de la búsqueda de ayuda
La pandemia de COVID-19 ha amplificado muchas de estas vulnerabilidades, alterando rutinas escolares, reduciendo las redes de apoyo y afectando a la estabilidad emocional de niños, adolescentes y jóvenes.
También se ha documentado el llamado efecto de imitación o “efecto Werther”: la exposición a casos de suicidio (especialmente si se trata de personas conocidas, celebridades o compañeros) puede actuar como desencadenante en jóvenes con una situación emocional frágil. De ahí la importancia de que los medios de comunicación y redes sociales sigan pautas responsables al tratar estas noticias.

¿Qué se puede hacer?
Prevenir el suicidio en población joven requiere una respuesta integral, sostenida y multisectorial, con medidas como:
- La creación de un Plan Nacional de Prevención del Suicidio, que garantice la coordinación entre territorios y promueva estándares comunes.
- El refuerzo de los servicios de salud mental infantojuvenil, especialmente en atención primaria y ámbito escolar.
- La incorporación de protocolos específicos en centros educativos, con formación para docentes, orientadores y personal de apoyo.
- Campañas institucionales que visibilicen el sufrimiento emocional sin estigmas y promuevan el acceso a la ayuda profesional.
Un reto compartido
Hablar de suicidio no es sencillo. Pero callarlo es aún más peligroso. Este análisis basado en diez años de datos nos muestra un escenario complejo, donde la juventud sufre y, en ocasiones, no encuentra salidas. Comprender las cifras no significa normalizarlas, sino reconocer la responsabilidad colectiva de actuar con anticipación, sensibilidad y compromiso La prevención del suicidio juvenil requiere empatía, compromiso institucional y una acción sostenida que involucre a familias, escuelas, profesionales y medios de comunicación.
Referencias
- Instituto Nacional de Estadística (INE). (2022). Defunciones según la causa de muerte. https://www.ine.es
- Organización Mundial de la Salud (2024). Suicidio. https://www.who.int/es/news-room/fact-sheets/detail/suicide
- Zalsman, G., et al. (2016). Suicide prevention strategies revisited: 10-year systematic review. The Lancet Psychiatry. doi: 10.1016/s2215-0366(16)30030-x
- Falcó, R., Piqueras, J. A., et al. (2023). Let’s Talk About Suicide Spectrum in Spanish Adolescents. Psicothema. doi: 10.7334/psicothema2022.287
- Meade, J. (2021). Mental health effects of the COVID-19 pandemic on children and adolescents. Pediatric Clinics of North America. doi: 10.1016/j.pcl.2021.05.003

Noelia Navarro Gómez
Doctora en Psicología y Doctora en Educación

Ford Pro amplía hoy la capacidad de su furgoneta eléctrica E-Transit Custom con el anuncio de una variante con tracción total (AWD), diseñada para elevar su rendimiento en condiciones difíciles. Este nuevo modelo llega acompañado por la versión AWD de la E-Tourneo Custom, ambas previstas para su lanzamiento en primavera de 2026. Son soluciones pensadas tanto para profesionales que trabajan en zonas con nieve, barro o pendientes pronunciadas—como regiones nórdicas, alpinas o tierras altas—como para usuarios de vehículos de ocio que buscan movilidad fiable en cualquier terreno (media.ford.com).
Este anuncio se enmarca dentro de la ofensiva eléctrica de Ford, que no deja de sumar hitos en distintos segmentos. Primero fue la llegada de propuestas urbanas como el Ford Puma Gen-E, que muchos ya definen como ¿el mejor Ford urbano hasta la fecha?. Después, la reinterpretación de iconos históricos como el Capri, que vuelve convertido en un SUV eléctrico bajo la premisa Un clásico rebelde de Ford renace como SUV eléctrico. Ahora, con la E-Transit Custom AWD, Ford demuestra que también el mundo de los vehículos comerciales y profesionales puede beneficiarse de soluciones innovadoras y capaces.
La novedad técnica consiste en dotar al chasis existente, de propulsión trasera, con un motor eléctrico adicional en el eje delantero. El sistema de doble motor permite repartir el par de manera óptima en las cuatro ruedas, mejorando significativamente la tracción, la dinámica del vehículo y su capacidad para moverse en condiciones extremas. Además, Ford anuncia que la variante Trail —con estética más robusta— estará disponible en la gama AWD, reforzando la imagen aventurera del modelo.

Tracción total para condiciones extremas
La incorporación de un motor adicional para las ruedas delanteras convierte al E-Transit Custom en un vehículo capaz de enfrentarse sin miedo al hielo, al barro, a las cuestas pronunciadas o a superficies resbaladizas.
Esta mejora de tracción le permite mantener una dinámica más estable y segura, sin comprometer sus capacidades de carga ni su funcionalidad diaria.

Ingeniería optimizada y modular
Ford ha desarrollado una arquitectura que complementa el sistema RWD sin necesidad de rediseñar por completo el vehículo. El motor trasero se mantiene y se añade uno delantero, lo que facilita la producción y mantenimiento.
Además, el sistema permite entregar par a cada eje de forma independiente, mejorando la eficiencia energética y el rendimiento dinámico bajo condiciones de carga y pendiente.

Concepto Trail: estética y robustez
Entre los acabados disponibles, el E-Transit Custom AWD incluirá la versión Trail, con un enfoque más aventurero y robusto. Esta versión añade detalles estéticos y prácticos que refuerzan la presencia del vehículo y su capacidad para entornos exigentes.

Lanzamiento simultáneo con E-Tourneo Custom AWD
Ford lanza de forma coordinada el E-Tourneo Custom AWD, un vehículo destinado al ocio y transporte de pasajeros. Esto permite compartir plataforma, tecnologías y mantener coherencia en la oferta comercial eléctrica de Ford Pro.

Productividad todo terreno
La variante AWD está pensada para ampliar la productividad en entornos adversos. Ya sea para reparto logístico, obras o caravanas, esta motorización garantiza movilidad allí donde las ruedas traseras no bastarían.
Además, fortalece el compromiso de Ford con el cliente profesional, ofreciendo una herramienta fiable en cualquier condición.

Sin datos técnicos definitivos aún
Todavía se desconocen datos tan importantes como potencia total, autonomía reducida debido al peso adicional, o capacidad de carga específica en versiones AWD. Ford promete revelar estas cifras más cerca de la comercialización en 2026.

Ampliación estratégica de la gama eléctrica
La integración de la tracción total es un paso más en la estrategia de Ford Pro por diversificar su gama eléctrica. Se suma al catálogo junto a versiones diésel, híbridas e híbridas enchufables de la Transit Custom.
Este movimiento responde a las crecientes exigencias de flexibilidad, electrificación y rendimiento integral.

Plataformas compartidas con VW
La E-Transit Custom se fabrica en Turquía junto a su primo, el VW e-Transporter. Es probable que la versión AWD también se reproduzca en sus homólogos, aunque aún no se ha confirmado oficialmente.
Esto sugiere una evolución conjunta del segmento en el que ambas marcas se benefician de economías de escala.

Versatilidad industrial y de ocio
El AWD hace atractivo al E-Transit Custom tanto para flotas corporativas como para conversiones en ocio o camperización. La mejora permite diseñar vehículos de uso mixto, capaces de combinar carga con rendimiento todo terreno sin miedo a quedar atrapados.

Sustentabilidad sin renunciar a capacidades
La motorización eléctrica ya reduce huella. Con la AWD, Ford refuerza su visión hacia una movilidad limpia que no sacrifica la resiliencia ni el rendimiento en mando 4x4. Esto conecta con los objetivos Ford+ y su enfoque diferencial para el mercado profesional.

Lista para el 2026
Ford ha previsto la llegada al mercado del E-Transit Custom AWD en primavera de 2026, en línea con el modelo base. Será crucial observar cómo evoluciona la red de carga, el precio y las variantes disponibles cuando comience su venta.

Posicionamiento y futuro eléctrico
Con esta ampliación, Ford Pro posiciona al E-Transit Custom como un modelo líder en versatilidad eléctrica para Europa.

La integración del AWD lo consolida como alternativa potente y fiable en el segmento, abriendo nuevas posibilidades para clientes que exigen movilidad plena en todo tipo de terrenos.
Una figura pixelada de un gato se dibuja lentamente en la pantalla, pero no con tinta ni luz, sino con átomos individuales manipulados con láseres. No se trata de una animación común, sino de una construcción física a escala atómica que representa al célebre gato de Schrödinger. En un laboratorio, un equipo de físicos ha logrado mover con precisión 2.024 átomos de rubidio para crear lo que ya se conoce como el vídeo más pequeño del mundo, y con él, han dado un paso importante hacia la computación cuántica funcional.
Este avance está descrito en un estudio publicado en Physical Review Letters, donde se demuestra una nueva técnica para manipular átomos con una rapidez y precisión sin precedentes. El vídeo del gato, además de ser un guiño al icónico experimento mental de Erwin Schrödinger, sirve como prueba visible de una tecnología que permite reordenar miles de átomos en apenas 60 milisegundos. Este sistema, controlado por inteligencia artificial, promete revolucionar el campo de la información cuántica al permitir la creación de arquitecturas escalables para computadoras cuánticas.
El experimento del gato que está vivo y muerto… y hecho de átomos
El gato de Schrödinger no es un experimento real, sino una idea planteada para ilustrar las paradojas de la mecánica cuántica. Plantea un escenario en el que un gato encerrado en una caja puede estar simultáneamente vivo y muerto, dependiendo de un evento cuántico que ocurre o no ocurre… hasta que alguien abre la caja y observa. Aunque el concepto fue formulado en 1935, sigue siendo una herramienta poderosa para explicar la superposición cuántica, un estado en el que una partícula puede tener múltiples valores al mismo tiempo.
Para representar este concepto, los investigadores construyeron una serie de imágenes utilizando átomos de rubidio atrapados en matrices ópticas, una tecnología que utiliza haces láser para inmovilizar partículas diminutas en el espacio. Cada punto del dibujo es un átomo que ha sido colocado con precisión para formar la silueta del gato y elementos asociados al experimento, como el símbolo de radiación. Como explica el estudio, "el proceso de reorganización atómica se ilustra en un vídeo suplementario utilizando una caricatura del gato de Schrödinger como ejemplo ilustrativo", donde "cada punto es la imagen de un solo átomo".
Este resultado no es solo visualmente impresionante: demuestra que es posible mover más de dos mil átomos con extrema precisión, sin defectos y en tiempos récord. El reto era no perder ni dañar átomos en el proceso, algo que hasta ahora limitaba las escalas de trabajo en los sistemas de computación cuántica basados en átomos.

Tecnología que mueve átomos como si fueran píxeles
Para lograr esta proeza, el equipo combinó dos tecnologías de vanguardia: las llamadas “pinzas ópticas” y un algoritmo basado en inteligencia artificial. Las pinzas ópticas son haces láser fuertemente focalizados que pueden atrapar partículas muy pequeñas sin necesidad de contacto físico. En este caso, los científicos las usaron para sostener y mover átomos de rubidio uno a uno.
La clave del éxito estuvo en la rapidez y la coordinación de los movimientos. Según explica el artículo, "el protocolo de reorganización logra un alto nivel de paralelismo y, por lo tanto, un rendimiento en tiempo constante", sin importar el número de átomos involucrados. Esto significa que mover 500 o 2.000 átomos lleva el mismo tiempo: unos 60 milisegundos.
La inteligencia artificial se encargó de calcular los caminos más eficientes para cada átomo, evitando colisiones y minimizando pérdidas. La IA genera hologramas que el modulador espacial de luz (SLM, por sus siglas en inglés) traduce en órdenes precisas para los láseres. Según detallan los autores, "nuestro modelo de IA calcula el holograma como una red neuronal convolucional completamente convolucional", una estructura que permite generar comandos en tiempo real con un control milimétrico sobre cada átomo.
En términos prácticos, esto significa que ahora se puede reorganizar una matriz de átomos como si fuera una imagen digital, píxel a píxel, pero a escala cuántica. Una hazaña de ingeniería que permite construir configuraciones tridimensionales, representar patrones o, como en este caso, formar una animación del gato más famoso de la física.

Un paso hacia la computación cuántica confiable
Este tipo de control abre la puerta a uno de los desafíos más importantes de la computación cuántica: la corrección de errores. A diferencia de los ordenadores clásicos, los sistemas cuánticos son extremadamente sensibles al entorno, lo que hace que los errores se acumulen y comprometan los cálculos. Para que una computadora cuántica funcione a gran escala, necesita formas de detectar y corregir esos errores constantemente.
Según los autores, "este protocolo puede utilizarse para generar arreglos sin defectos de decenas de miles de átomos con las tecnologías actuales y convertirse en una herramienta útil para la corrección de errores cuánticos". No se trata solo de mover átomos por capricho, sino de crear estructuras regulares y estables donde cada átomo actúe como un cúbit, la unidad básica de información cuántica.
Además, el sistema demostró ser estable en configuraciones tridimensionales complejas, como cuboides multicapa y estructuras similares al grafeno trenzado, con tasas de éxito cercanas al 99,6 % tras dos rondas de reorganización. Esto indica que la técnica podría aplicarse no solo en computación, sino también en simulaciones cuánticas que ayuden a entender materiales exóticos o nuevas fases de la materia.
La constancia del tiempo de procesamiento es otro aspecto fundamental. En el estudio se detalla que el emparejamiento de rutas lleva 5 ms, el cálculo del holograma 52 ms y la actualización del SLM otros 20 ms, pero como los procesos son paralelos, el total no supera los 60 milisegundos, incluso si se trabaja con 10.000 átomos.
Más allá del experimento: aplicaciones y próximos pasos
Aunque el vídeo del gato cuántico es el rostro más llamativo del estudio, su verdadero valor está en demostrar una capacidad tecnológica que hasta ahora no existía a esta escala. La posibilidad de manipular átomos individuales con rapidez y precisión podría ser la base para nuevas arquitecturas cuánticas.
En el futuro cercano, los autores del trabajo ven factible ensamblar arreglos sin defectos con decenas de miles de átomos, utilizando sistemas ópticos de mayor potencia, cámaras más sensibles y entornos más estables. Con estos avances, se podría crear un procesador cuántico de gran escala que supere por fin los límites de los actuales prototipos.
Además, estas técnicas podrían aprovecharse en la investigación de nuevos materiales o en la simulación de sistemas cuánticos difíciles de estudiar por otros medios. Por ejemplo, el montaje de estructuras como líquidos de espín cuántico o materiales topológicos requiere exactamente este tipo de control a nivel atómico. La precisión alcanzada en este trabajo es un indicador de que esos objetivos están cada vez más cerca.
Mientras tanto, el gato cuántico se convierte en una estrella inesperada de la divulgación científica: una animación microscópica que pone cara a uno de los conceptos más desconcertantes de la física y, al mismo tiempo, a las promesas de la tecnología cuántica.
Referencias
- Rui Lin, Han-Sen Zhong, You Li, Zhang-Rui Zhao, Le-Tian Zheng, Tai-Ran Hu, Hong-Ming Wu, Zhan Wu, Wei-Jie Ma, Yan Gao, Yi-Kang Zhu, Zhao-Feng Su, Wan-Li Ouyang, Yu-Chen Zhang, Jun Rui, Ming-Cheng Chen, Chao-Yang Lu, Jian-Wei Pan. AI-enabled rapid assembly of thousands of defect-free neutral atom arrays with constant-time-overhead, Physical Review Letters 135, 060602 (2025). DOI: 10.1103/PhysRevLett.135.060602.
La medicina Kampo es uno de los grandes tesoros terapéuticos de Japón, una práctica que, combinando tradición y observación clínica, ha conseguido adaptarse al presente. Basada, en sus orígenes, en la medicina tradicional china, el Kampo logró transforamarse en un sistema propio que reflejaba las particularidades ambientales y culturales japonesas. Su desarrollo histórico, que ha desembocado en su incorporación en la medicina contemporánea del país nipón, ha hecho de esta disciplina un ejemplo de cómo lo ancestral puede coexistir con la ciencia moderna.
En la actualidad, se estima que más del 70% de los médicos japoneses prescribe fórmulas Kampo, no como alternativa a la biomedicina occidental, sino como un complemento que refuerza otras intervenciones terapéuticas. Comprender sus orígenes, fundamentos y aplicaciones clínicas, por tanto, permite valorar tanto su papel actual en la salud pública japonesa como su creciente proyección internacional.

Orígenes e historia del Kampo
El Kampo cuenta con unos 1500 años de historia. Tiene su origen en un momento en el que el conocimiento médico procedente de China llegó a Japón, a través de la península de Corea, durante los siglos V y VI d. C. En un principio, los médicos japoneses siguieron fielmente los principios de la medicina china tradicional desarrollada en la dinastía Han. Sin embargo, las diferencias en la flora, el clima y las condiciones sociales propiciaron una progresiva adaptación a la realidad japonesa que daría lugar a un sistema propio.
Durante el periodo Edo (1602-1868), el Kampo alcanzó un alto grado de desarrollo. Con la Restauración Meiji (finales del siglo XIX), sin embargo, se produjo un giro decisivo hacia la medicina occidental. Esta orientación provocó que el Kampo quedara relegado y casi desapareciera. No obstante, tras la Segunda Guerra Mundial, un grupo de especialistas recuperó y modernizó la tradición, hasta conseguir incorporarla en el sistema sanitario del país.
Desde 1971, los productos Kampo —sobre todo los extractos de hierbas— se inclyen en la lista de medicamentos cubiertos por el Seguro Nacional de Salud de Japón. Actualmente, forman parte del arsenal terapéutico oficial 148 fórmulas estandarizadas. Además, también existe la posibilidad de preparar medicamentos personalizados a partir de 243 tipos de hierbas reconocidas.

Fundamentos diagnósticos: la noción de Sho
A diferencia de la medicina occidental, que se centra en la enfermedad concreta, el Kampo se centra en el estado global del paciente. Su diagnóstico se basa en el concepto de Sho, equivalente simplificado del Zheng chino, que describe el patrón de desequilibrio del organismo en un momento determinado.
El Sho se determina a partir de varios factores, como el qi, el sangre y el agua, que representan la energía vital, la circulación y los fluidos corporales; y los ocho principios opuestos del yin-yang, interior-exterior, frío-calor y deficiencia-exceso. Además, tiene en cuenta el equilibrio dinámico de los cinco órganos viscerales (hígado, corazón, bazo, pulmón y riñón) y las seis etapas de la enfermedad, desde la fase superficial (taiyang) hasta las más profundas (jueyin).
La fase de exploración clínica incluye la conversación con el paciente, la inspección de la lengua y la piel, la palpación abdominal y de los antebrazos, y el examen olfativo. Este enfoque permite diseñar tratamientos a medida que buscan restablecer el equilibrio global y no solo suprimir los síntomas.

Las aplicaciones clínicas del Kampo
El Kampo se emplea en un amplio abanico de patologías, muchas de ellas de difícil manejo con terapias convencionales. Entre sus campos de aplicación, destacan los trastornos gastrointestinales, las enfermedades de la piel y las patologías oculares. Formulaciones como saireito (que contiene 12 plantas, entre ellas, la raíz de Bupleurum chinense y el ginseng) o hangeshashinto, por ejemplo, se prescriben para inflamaciones intestinales y colitis, mientras que a preparaciones como tokishakuyakusan se le atribuye la capacidad de mejorar la circulación ocular en casos de glaucoma o en la recuperación posquirúrgica.
Según los practicantes de este tipo de medicina, el Kampo tambien ha mostrado eficacia en casos de dermatitis atópica y alergias cutáneas, asma y hepatitis crónica. Fórmulas como hainosankyuto han demostrado aumentar la resistencia frente a bacterias como el Streptococcus pyogenes, y en oncología, el Kampo se emplea para aliviar efectos adversos de la quimioterapia y la radioterapia. Los investigadores reportan una mejora en la energía, el apetito y el sueño de los pacientes.

Integración en el sistema médico japonés
Una de las particularidades de la implementación del Kampo en el Japón contemporáneo es que solo médicos con licencia para practicar medicina occidental pueden prescribirlo. Esto asegura que el tratamiento pueda combinarse de forma segura con la medicina moderna. Más del 70% de los médicos japoneses integra fórmulas Kampo en su práctica diaria, lo que convierte a Japón en un caso singular de coexistencia terapéutica. La disponibilidad de extractos granulados, listos para disolver, ha sustituido en gran parte a las decocciones y preparados elaborados con métodos tradicionales.
Además, el mercado japonés de medicamentos Kampo está estrictamente regulado. Son más de 15 las empresas que producen extractos Kampo siguiendo l as normativas de buenas prácticas de fabricación. Este control garantiza estándares de calidad y seguridad muy elevados.
Proyección internacional
En Occidente, el Kampo ha ganado visibilidad, sobre todo en Alemania y Estados Unidos. En este último, se están desarrollando ensayos clínicos a partir de algunos preparados y extractos japoneses que cumplen con las normasde buenas prácticas. Aunque su difusión es menor respecto a la medicina tradicional china, su enfoque centrado en el individuo y su sólida base regulatoria podrían favorecer su expansión global.

Retos y perspectivas futuras
La integración creciente del Kampo en la medicina moderna abre retos científicos y educativos. Es necesaria ampliar la investigación básica y clínica para explicar sus mecanismos desde la biomedicina y establecer protocolos estandarizados. Además, los expertos e investigadores han insistido en que la formación universitaria en Kampo en Japón debe fortalecerse con docentes expertos, capaces de enseñar tanto la teoría tradicional como la aplicación clínica contemporánea.
La OMS reconoce el valor de la medicina tradicional en la atención primaria. El Kampo, con su doble naturaleza de tradición adaptada y práctica moderna, se perfila como un modelo exportable para otros sistemas sanitarios que buscan integrar terapias complementarias con todas las garantías de seguridad.
Referencias
- Arumugam, Somasundaram y Kenichi Watanabe (eds.). 2017. Japanese Kampo Medicines for the Treatment of Common Diseases: Focus on Inflammation. Academic Press.
La memoria espacial —esa que nos permite recordar dónde dejamos las llaves o cómo volver a casa— siempre ha intrigado a los científicos. Se sabe que el hipocampo, una región profunda del cerebro, es fundamental en este proceso. Pero lo que aún estaba en debate era cómo las neuronas se coordinan para lograrlo.
El estudio —publicado en Nature Communications— analizó directamente la actividad de neuronas individuales en personas sometidas a registros intracraneales. Se observó que, durante las tareas de memoria espacial, muchas neuronas se alineaban con oscilaciones theta (entre 4 y 8 hercios), un tipo de ritmo cerebral muy presente en el hipocampo.
Esta alineación, conocida como theta-phase locking, no significa simplemente que las neuronas disparen impulsos eléctricos, sino que lo hagan en momentos específicos del ciclo theta. Es como si las neuronas tocaran notas en el instante justo de una melodía interna, reforzando así la memoria.

La importancia de las oscilaciones theta
Las oscilaciones cerebrales se pueden imaginar como ondas que organizan la comunicación neuronal. Entre ellas, las de frecuencia theta se han relacionado desde hace tiempo con el aprendizaje y la memoria. Sin embargo, hasta ahora se desconocía si neuronas individuales en el cerebro humano se ajustaban realmente a este ritmo durante la recuperación de recuerdos espaciales.
El estudio encontró pruebas claras: las neuronas se sincronizan con la fase de la onda theta de forma más marcada cuando la persona intenta recordar la posición de un objeto o un lugar previamente aprendido. Este patrón no aparece con la misma fuerza en momentos en que no se necesita recordar.
Esto sugiere que el cerebro utiliza las oscilaciones theta como una especie de marco temporal que organiza cuándo cada neurona debe activarse. De este modo, la información se procesa y almacena de manera más eficiente, como músicos que siguen el mismo metrónomo.
"Las células prefieren disparar en momentos específicos dentro de estas ondas cerebrales, un fenómeno conocido como bloqueo de fase theta", dijo el Dr. Tim Guth, autor del estudio, investigador postdoctoral de la Universidad de Bonn y parte del grupo de Neurociencia Cognitiva de la Universidad de Friburgo.
Cómo se midió la memoria en acción
Para descubrirlo, los investigadores trabajaron con pacientes que, por motivos clínicos, tenían electrodos implantados en el cerebro. Durante el experimento, los participantes realizaron tareas de memoria espacial, como recordar la posición de estímulos en una pantalla.
Mientras lo hacían, se registró la actividad de cientos de neuronas individuales. Los datos mostraron que, en las fases de mayor demanda de memoria, las neuronas se “enganchaban” al ritmo theta. En otras palabras, no disparaban de manera aleatoria, sino en momentos concretos de la onda cerebral.
Este hallazgo no solo confirma teorías previas sobre el papel de las oscilaciones, sino que lo hace con una precisión inédita: en cuanto a neuronas únicas. Es la primera vez que se observa en humanos de forma tan directa que la memoria depende de esta especie de “baile neuronal sincronizado”.

Un puente entre humanos y animales
Hasta ahora, gran parte de lo que se sabía sobre la relación entre oscilaciones theta y memoria provenía de experimentos en roedores. En ellos, el hipocampo mostraba un claro acoplamiento entre las neuronas y el ritmo theta durante la navegación espacial. Pero quedaba la duda de si el cerebro humano funcionaba igual.
Este estudio responde a esa incógnita: los humanos también muestran theta-phase locking en el hipocampo y en áreas relacionadas con la memoria espacial. Es decir, nuestro cerebro parece compartir con otros mamíferos un mismo mecanismo fundamental para organizar recuerdos.
La confirmación en humanos es clave, porque aporta evidencia de que los modelos animales no solo eran una aproximación, sino un reflejo real de cómo funciona nuestra propia memoria. Esto abre la puerta a aplicar lo aprendido en laboratorio al diseño de nuevas terapias y herramientas clínicas.
"Esto sugiere que el bloqueo de la fase theta es un fenómeno general del sistema de memoria humana, pero no solo determina el recuerdo exitoso", dijo el Dr. Lukas Kunz, autor del estudio, jefe del grupo de trabajo de Neurociencia Cognitiva y Traslacional en la Clínica de Epileptología del UKB y miembro del Área de Investigación Transdisciplinaria (TRA) "Vida y Salud" de la Universidad de Bonn.
Qué nos dice sobre la memoria y el olvido
El hallazgo también ayuda a entender por qué a veces recordamos y otras no. Si las neuronas se sincronizan correctamente con el ritmo theta, la memoria se activa y la información se recupera con éxito. Pero si esta sincronización falla, el recuerdo puede perderse o ser más difícil de acceder.
"Esto apoya la teoría de que nuestro cerebro puede separar los procesos de aprendizaje y recuperación dentro de una onda cerebral, similar a los miembros de una orquesta que comienzan a tocar en diferentes momentos en una pieza musical", dijo Guth.
Esto podría tener implicaciones en el estudio de trastornos como la enfermedad de Alzheimer o la epilepsia, en los que se sabe que las oscilaciones cerebrales se ven alteradas. Comprender la base rítmica de la memoria puede orientar nuevas estrategias para mejorar la función cognitiva en estos pacientes.
Además, el concepto de que la memoria depende de un “ritmo neuronal” sugiere que, en el futuro, podría ser posible estimular el cerebro con técnicas no invasivas —como la estimulación magnética o eléctrica— para reforzar esta sincronización y, con ello, la memoria.

Un futuro guiado por el ritmo cerebral
Aunque el estudio no propone aún aplicaciones inmediatas, ofrece una pista poderosa: la memoria no es solo una cuestión de qué neuronas se activan, sino también de cuándo lo hacen en relación con un compás cerebral. Esta dimensión temporal resulta esencial para entender cómo almacenamos y evocamos recuerdos.
El siguiente paso será comprobar si esta sincronización también se observa en otros tipos de memoria, más allá de la espacial, y si puede manipularse de manera segura para mejorar el rendimiento cognitivo. También será relevante explorar cómo cambia este mecanismo a lo largo de la vida, desde la infancia hasta la vejez.
En definitiva, este estudio nos recuerda que el cerebro funciona como una orquesta: cada neurona es un instrumento que puede tocar sola, pero solo cuando todas se coordinan siguiendo el ritmo theta surge la sinfonía de la memoria. Una melodía silenciosa que, sin saberlo, marca cada recuerdo que guardamos.
Referencias
- Guth, T.A., Brandt, A., Reinacher, P.C. et al. Theta-phase locking of single neurons during human spatial memory. Nat Commun. (2025). doi: 10.1038/s41467-025-62553-9
Durante millones de años, un rincón tropical del actual norte de Australia fue hogar de unas criaturas tan peculiares que, incluso hoy, resultan difíciles de clasificar. Tenían dientes con forma de martillo, eran del tamaño de un petauro del azúcar y, sorprendentemente, adoraban comer caracoles. Ahora, gracias a un nuevo estudio publicado en Historical Biology y liderado por investigadores de la Universidad de Nueva Gales del Sur (UNSW), se han identificado tres nuevas especies de estos enigmáticos marsupiales extintos que vivieron entre el Oligoceno tardío y el Mioceno temprano, hace entre 25 y 17 millones de años.
Estas criaturas forman parte de una familia poco conocida y fascinante: los malleodéctidos. Su nombre, derivado del latín, significa literalmente "dientes martillo", y no es una exageración. Sus premolares estaban altamente especializados para romper conchas duras, lo que indica que desarrollaron una dieta centrada en moluscos, algo prácticamente único entre los marsupiales conocidos.
Un pasado más diverso de lo que imaginábamos
El hallazgo no solo añade tres nuevas especies —Exosmachus robinbecki, Chitinodectes wessechresti y Protamalleus stevewroei— al escaso pero creciente árbol genealógico de Malleodectidae. También desplaza hacia atrás en el tiempo su origen y su diversidad. Hasta ahora, se pensaba que estos animales habían surgido más tarde, en un momento concreto de expansión de bosques tropicales. Pero este estudio demuestra que existieron al menos 10 millones de años antes de lo que se creía y que evolucionaron en una amplia gama de formas y estilos de vida.
Uno de los aspectos más interesantes del estudio es cómo estos marsupiales se fueron adaptando progresivamente al consumo de presas con caparazón. A través del análisis detallado de sus mandíbulas y dentaduras fósiles —recogidas en los depósitos de Riversleigh, una de las regiones paleontológicas más ricas del mundo—, los investigadores pudieron reconstruir la historia funcional de su evolución. Algunas de las nuevas especies parecen haber sido hipócarnívoras, es decir, no se alimentaban exclusivamente de carne, sino que complementaban su dieta con moluscos. Otras eran más generalistas, comparables en comportamiento a los actuales quoles o gatos marsupiales.

El estudio, que combinó técnicas de análisis morfológico, filogenético y funcional, ha permitido establecer relaciones más precisas entre los malleodéctidos y otros marsupiales carnívoros extintos, como Barinya o los antiguos tilacínidos.
Una fauna que recuerda a otro planeta
Hace 25 millones de años, el norte de Queensland no era el paisaje árido que hoy conocemos. En su lugar, predominaban los bosques húmedos, con una rica biodiversidad. Junto a estos marsupiales con dientes de martillo, convivían otros depredadores marsupiales: desde criaturas del tamaño de un gato —conocidas como “leones marsupiales”— hasta animales semejantes a los extintos tigres de Tasmania. La variedad de tamaños y estilos de vida de estos carnívoros indica un ecosistema extraordinariamente complejo y dinámico.
Los nuevos fósiles hallados son pequeños, con un peso estimado entre 110 y 250 gramos. A pesar de su tamaño reducido, jugaban un papel importante en la cadena alimentaria de su tiempo. Además, parecen haber ocupado nichos ecológicos hoy inexistentes en la fauna australiana. Por ejemplo, su especialización en caracoles no tiene equivalente moderno. Esta ausencia de especies actuales con dietas similares sugiere que parte de la diversidad funcional de los ecosistemas australianos se perdió con la extinción de estas especies.
Un rompecabezas paleontológico que apenas empieza
Los fósiles, hallados en yacimientos del Patrimonio Mundial de Riversleigh, muestran no solo dientes y mandíbulas, sino también evidencias de cómo se distribuían las fuerzas de mordida, la forma en que crecían los dientes y cómo se relacionaban con otras especies de su entorno. Los investigadores usaron métodos de modelado funcional y análisis estadístico para comparar estas criaturas con otros marsupiales tanto extintos como actuales.
Uno de los descubrimientos más intrigantes del estudio es que Protamalleus stevewroei representa la forma más primitiva conocida del grupo. Esto sugiere que los malleodéctidos no fueron una rama efímera y especializada de la evolución marsupial, sino una línea duradera y diversa que evolucionó durante al menos 15 millones de años.

El equipo científico destaca que la historia de la evolución de los marsupiales en Australia está aún lejos de ser comprendida completamente. Cada nueva especie descrita no solo amplía nuestro conocimiento del pasado, sino que obliga a replantearse ideas preconcebidas sobre cómo se formaron y diversificaron estos grupos animales.
Un tesoro oculto en los cajones
Según los autores del estudio, cada vez que revisan una colección fósil en los museos o laboratorios, nuevas especies salen a la luz. Este descubrimiento ha sido posible gracias a décadas de trabajo meticuloso, y es probable que aún haya muchas más sorpresas esperando en los depósitos de Riversleigh.
La investigación es un recordatorio del potencial que todavía tienen los fósiles australianos para revelar secretos ocultos de la evolución. Más allá de los dinosaurios y los mamíferos placentarios que suelen protagonizar los titulares, los marsupiales australianos representan una historia evolutiva paralela y no menos fascinante.
Con estos nuevos hallazgos, el rompecabezas de la evolución marsupial comienza a tomar forma… aunque es evidente que muchas piezas aún faltan por encontrar.
El estudio ha sido publicado en Historical Biology.
En el mundo romano, la muerte era un hecho omnipresente y, al mismo tiempo, una experiencia cuyo dramatismo de veía matizado por la edad, el género, la condición social y las expectativas de vida. Entre las múltiples formas de nombrar y representar el final de la existencia, entre los romanos destacó la noción de mors acerba, la muerte que ocurría antes de tiempo, en una edad temprana de la vida. A través de la literatura, las inscripciones funerarias y otros testimonios históricos, es posible reconstruir cómo se conceptualizaba la muerte infantil y juvenil, y cómo se vivían el luto y el duelo en un contexto en el que la mortalidad temprana era frecuente. Este recorrido muestra que la amargura de la muerte temprana derivaba, sobre todo, por las expectativas truncadas de quienes perdían la vida antes de llegar a la edad adulta.
La metáfora del fruto verde: la vida truncada antes de madurar
Desde la antigüedad, los autores latinos emplearon la comparación entre el ser humano y el fruto del árbol para reflexionar sobre la vida. Así, mientras que los frutos maduros caen de forma natural, los verdes requieren un acto de fuerza para ser arrancados. Cicerón y otros escritores usaron esta imagen para expresar que la muerte de los jóvenes era equiparable a un desgarro violento y antinatural, frente a la aceptación de la muerte que llegaba con la vejez.
El adjetivo acerbus, que, en origen, describía el sabor agrio del fruto inmaduro, pasó a designar lo cruel, lo doloroso e intempestivo. Aplicado a la muerte, evocaba no solo la prematuridad del final, sino también la pérdida de oportunidades, la frustración de los planes futuros y la intensidad del sufrimiento de aquellos que sobrevivían al infante fallecido.
En la literatura romana, desde Plauto hasta Virgilio, pasando por Ovidio, Séneca y Quintiliano, acerbus aparece vinculado tanto a la experiencia de quien muere como a la de quienes lo lloran. La muerte podía ser amarga porque arrebataba una vida prometedora, porque había sido dolorosa en lo físico o porque dejaba a los vivos sumidos en un pesar desgarrador. La amargura, desde este punto de vista, aludía tanto al difunto como al vínculo emocional roto.

Mors acerba en los epitafios: la voz de quienes sobreviven
Aunque, en proporción, no sean numerosos, los epitafios latinos que incluyen el término acerbus ofrecen un acceso directo a las expresiones de dolor por la muerte prematura. La mayor parte de ellos procede de la península itálica de los siglos I y II d.C. Las inscripciones, además, aparecen en una amplia gama de soportes, desde urnas cinerarias hasta sarcófagos.
En la epigrafía latina, acerbus se asocia sobre todo a mors (muerte) y funus (funeral), pero también a expresiones como dies acerba o fatum acerbum, fórmulas que refuerzan la idea de un destino que truncó la vida demasiado pronto. Los epitafios transmiten que la amargura no solo recaía sobre el difunto, sino también sobre los padres, los cónyuges o los amigos que conmemoraban la pérdida. Así, las inscripciones mencionan las "lágrimas amargas" (lacrimae acerbae), las "quejas amargas" (acerbae querimoniae) y los "lutos muy acerbos" (acerbissimus luctus).
En algunos casos, el epitafio deja constancia de que el fallecido “no causó amargura en vida, salvo con su muerte”, una forma poética de subrayar la bondad del difunto y la injusticia de su pérdida. En otros, la metáfora del fruto se menciona de forma explícita, como en la inscripción dedicada por Domitias Tatias a su hija, que compara su muerte con la caída súbita de una manzana aún verde.

Quiénes eran los muertos acerbos
La aplicación de acerbus a una determinada muerte implicaba, más que un criterio de edad rígido, una cuestión de percepción. En la literatura, se usaba con más frecuencia para referirse a los varones adultos jóvenes, situados en el umbral de sus carreras, matrimonios o vidas públicas, que a los niños pequeños.
Sin embargo, en las inscripciones fúnebres, el término se aplica con frecuencia a los adolescentes, los niños e incluso los lactantes. Esto refleja una sensibilidad diferente en los contextos familiares y domésticos respecto a aquellos de elite. De entre los epitafios que especifican la edad, la mayoría corresponden a personas de entre 5 y 24 años, aunque no faltan ejemplos de bebés fallecidos antes de cumplir un año.

El posible funus acerbum: funerales distintos para muertes tempranas
La expresión funus acerbum (funeral acerbo) plantea la cuestión de si existió un tipo de funeral específico para enterrar a los fallecidos de forma prematura. El comentarista tardoantiguo Servio decía de estos funerales que eran nocturnos y que se realizaba a la luz de las antorchas. Según esta fuente, se realizaba especialmente en el caso de hijos bajo la potestas paterna o de vástagos de los magistrados, con el fin de evitar la contaminación ritual de la casa. Otros autores antiguos, como Séneca o Tácito, también vinculan la muerte temprana con la celebración de funerales rápidos o discretos.
No obstante, tal interpretación no está libre de polémica. Algunos especialistas consideran que los funerales de los niños pudieron carecer de determinados elementos presentes en las ceremonias fúnebres de los adultas, como la oratio fúnebre en el foro o largos periodos de duelo femenino. Una inscripción del siglo I a.C. procedente de Puteoli, por ejemplo, confirma que los funera acerba tenían prioridad para acceder a los servicios funerarios públicos. Esto podría indicar, quizás, un reconocimiento especial más que un desprecio.

El luto y el duelo: entre el dolor privado y la ceremonia pública
El estudio de la muerte prematura en Roma muestra la importancia de diferenciar entre el duelo emocional, por un lado, y el luto ritual y público, por otro. El dolor de los padres podía ser intenso incluso cuando las normas reducían o limitaban las manifestaciones públicas de duelo, sobre todo en el caso de niños de corta edad, para los que las leyes romanas establecían tiempos de luto más breves o casi inexistentes. Las fuentes jurídicas y literarias pueden transmitir la impresión de que las muertes infantiles se trataban con cierta frialdad. Los epitafios y otros testimonios arqueológicos, sin embargo, desmienten esa idea: revelan expresiones de un duelo íntimo y sincero que no siempre resultaba visible en la esfera pública.
Memoria, consuelo y persistencia de la “muerte amarga”
La mors acerba funcionaba como una categoría cultural que legitimaba la expresión de dolor y, a la vez, ofrecía un marco para aceptar la muerte de los más jóvenes. Algunos epitafios intentaban consolar a los supervivientes recordando que incluso los hijos de los reyes y poderosos morían jóvenes, o que la muerte era universal. Sin embargo, la mayoría de las inscripciones fúnebres subraya la singularidad y la intensidad de la pérdida. En este sentido, la “muerte amarga” se convirtió en un patrón de medida del dolor, frente al cual otras pérdidas podían parecer menores.
La categoría misma de la muerte acerba reforzaba la percepción de que estos fallecimientos eran emocionalmente devastadores. En última instancia, llorar a quienes morían jóvenes era, para los romanos, un acto de amor y de memoria, que podía manifestarse tanto en lágrimas silenciosas como en epitafios poéticos o funerales singulares.
Referencias
- Hope, Valerie M. 2025. "The bitter taste of death: mourning for the young in ancient Rome", en Karolina Sekita, y Katherine E. Southwood(eds.), Death Imagined: Ancient Perceptions of Death and Dying, pp. 119-142. Liverpool University Press, 2025.
En las tranquilas montañas Świętokrzyskie, en el corazón de Polonia, un grupo de científicos acaba de destapar un capítulo fascinante de la historia de la vida en la Tierra. Lo que a simple vista parecía una colección de marcas extrañas en la roca resultó ser un conjunto de huellas fósiles con una historia que desafía lo que creíamos saber sobre la conquista de la tierra firme por parte de los vertebrados.
Publicado recientemente en la revista Scientific Reports, el estudio liderado por investigadores del Instituto Geológico Nacional de Polonia documenta las huellas más antiguas conocidas de peces que comenzaron a arrastrarse fuera del agua. Estas marcas, dejadas hace aproximadamente 400 millones de años por peces pulmonados en los sedimentos costeros del Devónico inferior, podrían representar el primer intento documentado de un vertebrado por moverse en tierra firme. Y lo más sorprendente: estas huellas anteceden en unos 10 millones de años a los primeros rastros conocidos de los tetrápodos, los vertebrados de cuatro patas que acabarían colonizando el planeta.
Las huellas que lo cambiaron todo
El descubrimiento tuvo lugar en dos antiguos yacimientos de arenisca, ya abandonados, en Ujazd y Kopiec, al sur de Varsovia. En estas rocas, formadas en ambientes marinos marginales, los investigadores identificaron una superficie de más de 45 metros cuadrados plagada de impresiones fosilizadas: surcos alargados, marcas en forma de coma y extrañas depresiones bilobuladas. Todo indicaba que algo había estado arrastrándose sobre ese terreno húmedo hace cientos de millones de años.
La clave estuvo en la comparación con las huellas que hoy dejan los peces pulmonados modernos, como Protopterus annectens, un curioso pez africano que puede respirar aire y moverse por tierra firme en busca de agua durante las sequías. Mediante escaneos 3D y experimentos en laboratorio, los científicos descubrieron que las huellas fósiles coincidían notablemente con las que deja este pez cuando se arrastra por superficies húmedas.

El conjunto principal de huellas recibió el nombre científico de Reptanichnus acutori, y refleja una locomoción terrestre sorprendentemente compleja. El pez arrastraba el cuerpo mientras se impulsaba con la boca, que utilizaba como punto de anclaje en el sedimento. Las aletas dejaban marcas paralelas a ambos lados del cuerpo, lo que sugiere un movimiento coordinado más cercano al “gateo” que a un mero deslizamiento azaroso.
Junto a estas huellas de locomoción, se identificó otro tipo de marca, bautizada como Broomichnium ujazdensis, que representa a peces en reposo, apoyados sobre una o dos parejas de aletas. Estas impresiones muestran que no solo se desplazaban por tierra, sino que también descansaban fuera del agua, un comportamiento que no se había documentado en fósiles de esta antigüedad.
Una vida entre dos mundos
Este hallazgo sitúa a los peces pulmonados como pioneros en el difícil tránsito del mar a la tierra, adelantándose al linaje de los tetrápodos. Si bien estos peces no forman parte directa de la línea evolutiva que llevó a los humanos y otros animales terrestres, sí muestran que la adaptación a ambientes semiterrestres ocurrió en más de un grupo de vertebrados. No fueron intentos aislados, sino parte de un proceso evolutivo mucho más amplio y complejo de lo que se pensaba.
Los investigadores destacan que los peces no se lanzaron a tierra firme por azar. Era una estrategia adaptativa: salir del agua durante la marea baja les permitía explorar nuevos territorios, evitar depredadores o alimentarse de invertebrados que quedaban atrapados en el lodo. Era una ventaja evolutiva, una forma de ampliar el hábitat sin abandonar por completo el medio acuático.
Uno de los datos más curiosos del estudio es la posible existencia de lateralidad —o "preferencia manual"— en estos antiguos peces. De los más de 240 rastros analizados, 36 mostraban marcas torcidas hacia un lado, y 35 de ellas giraban hacia la izquierda. Este patrón, estadísticamente significativo, podría ser la evidencia más antigua de lateralidad en vertebrados. En otras palabras, estos peces eran “zurdos”.
La lateralidad es común hoy en día, no solo en los humanos, sino también en otras especies de vertebrados. Sin embargo, encontrarla en un pez del Devónico añade una capa inesperada de complejidad al comportamiento de nuestros antiguos ancestros acuáticos.

Un fósil que reabre el debate
Este descubrimiento también reaviva la discusión sobre otros rastros fósiles encontrados en el yacimiento de Zachełmie, también en Polonia, que durante años se consideraron los más antiguos testimonios de locomoción terrestre de tetrápodos. Con el nuevo estudio, los científicos argumentan que algunos de estos rastros podrían haber sido creados por peces como los dipnoos, y no por verdaderos animales de cuatro patas.
Además, el excelente estado de conservación de las huellas —protegidas durante millones de años bajo una fina capa de ceniza volcánica solidificada— ha permitido documentar con un detalle sin precedentes las primeras tentativas de locomoción terrestre. Este tipo de yacimientos, denominados “substratos verdaderos”, son extremadamente raros y valiosos, ya que muestran la interacción directa entre un organismo y su entorno en un momento específico.
Un nuevo capítulo de la evolución
Este hallazgo en las montañas polacas no solo retrasa la línea de tiempo de la colonización terrestre por parte de los vertebrados, sino que también sugiere que dicha transición fue más diversa y experimental de lo que creíamos. Diferentes linajes de peces habrían probado suerte en tierra firme antes de que los tetrápodos se impusieran.
Aunque aquellos antiguos dipnoos no dejaron descendientes terrestres, sí nos muestran que el impulso de explorar, adaptarse y conquistar nuevos hábitats ha estado presente en la historia de la vida desde mucho antes de que los primeros anfibios comenzaran a andar.
En palabras de los investigadores, este tipo de estudios nos obliga a replantear el relato clásico de la evolución. No se trató de un único momento de conquista, sino de un proceso largo, tortuoso, con múltiples protagonistas y muchos fracasos olvidados por el tiempo. Y quizás eso sea lo más fascinante de todo: que la historia de la vida en la Tierra sigue llena de sorpresas, aún por descubrir, justo bajo nuestros pies.
El estudio ha sido publicado en la revista Scientific Reports.
A los matemáticos nos gusta decir que las matemáticas son las que nos ayudan a descifrar el universo que nos rodea. Y esta idea no es nueva, sino que ha sido una constante a lo largo de la historia de la humanidad. El primer apologista de las matemáticas es sin duda Platón (el de los hombros anchos, que eso significa su nombre). Platón considera al demiurgo como el artesano que construye el universo. El demiurgo parte del caos y lo ordena para construir el mundo, así como un artesano crea una vasija a partir de un montón de barro. El demiurgo, pues, construye una copia del mundo ideal, copia esta basada en los elementos esenciales: el fuego, la tierra, el agua y el aire. Y estos elementos se relacionan con los llamados sólidos platónicos.
Platón y los sólidos que explican el mundo
Los sólidos regulares (platónicos o pitagóricos, que así son también denominados) son poliedros convexos cuyas caras son polígonos regulares iguales entre sí y cuyos ángulos sólidos son iguales. Solo existen cinco sólidos regulares: el tetraedro, el cubo (o hexaedro regular), el octaedro, el dodecaedro y el icosaedro. Y esto es así como una consecuencia de una de las maravillosas fórmulas que Leonard Euler legó a la humanidad, la de:
Caras+Vértices = Aristas + 2
En el diálogo Timeo (350 a.C.), Platón afirma: «El fuego está formado por tetraedros; el aire, de octaedros; el agua, de icosaedros; la tierra de cubos; y como aún es posible una quinta forma, Dios ha utilizado esta, el dodecaedro pentagonal, para que sirva de límite al mundo». Es decir, asocia a cada elemento primordial un sólido regular, reservando el dodecaedro para aquello que no es perteneciente a nuestro planeta, la quintaesencia, el quinto elemento.
Platón concluye que, en consecuencia, el elemento esencial del mundo son los triángulos. Y no cualesquiera triángulos, sino los rectángulos isósceles y los rectángulos escalenos donde la hipotenusa es el doble del cateto más pequeño. Y esto es así porque las caras de un tetraedro, un octaedro y un icosaedro son triángulos equiláteros que se pueden dividir en dos triángulos rectángulos, y las del cubo son cuadrados que se pueden también dividir en dos triángulos rectángulos. Es decir, el mundo está hecho a base de una escuadra y un cartabón, lo que enlaza con la tradición masónica. El lector no debe olvidar que Platón defendía fundamentalmente la geometría, y en la entrada de su Academia figuraba la leyenda: «No entre aquí quien no sepa geometría».

Galileo: el universo escrito en matemáticas
Un paso más en esta visión geométrica del mundo lo da Galileo Galilei. En su obra Il Saggiatori, publicada en 1623, decía: «La filosofía está escrita en este vasto libro que continuamente se ofrece a nuestros ojos (me refiero al universo), el cual, sin embargo, no se puede entender si no se ha aprendido a comprender su lengua y a conocer el alfabeto en que está escrito. Y está escrito en el lenguaje de las matemáticas, siendo sus caracteres triángulos, círculos y otras figuras geométricas, sin las cuales es imposible entender una sola palabra; sin ellos solo se conseguiría vagar por oscuros laberintos».
Galileo Galilei ya habla de una geometría más compleja donde no solo están presentes los triángulos. Y debemos remontarnos a 1959 para encontrar otro elemento importante de nuestro relato. En ese año, el físico Eugene Wigner, Premio Nobel en 1964, impartió una conferencia en la Universidad de Nueva York, que apareció publicada al año siguiente en un artículo con el mismo título: The unreasonable effectiveness of mathematics in the natural sciences (La irrazonable eficacia de la matemática en las ciencias naturales) en la revista Communications on Pure and Applied Mathematics.
Wigner y la eficacia “milagrosa” de las matemáticas
En su artículo, Wigner recuerda cómo los conceptos matemáticos tienen una aplicabilidad que va mucho más allá del contexto en el que se desarrollaron originalmente, que podría haber sido un puro interés matemático. El ejemplo que usa es la ley fundamental de la gravitación, que más allá de los experimentos de Galileo Galilei, sirvió, con poca experimentación, para describir los movimientos planetarios (no se pueden hacer experimentos con los planetas), gracias a los trabajos de Johannes Kepler y Sir Isaac Newton. Wigner concluye en su artículo que «la enorme utilidad de las matemáticas en las ciencias naturales es algo que roza el misterio y que no tiene una explicación racional».
Aún más, afirma: «El milagro de la idoneidad del lenguaje matemático para la formulación de las leyes de la física es un regalo maravilloso que no entendemos ni merecemos. Debemos estar agradecidos por ello y esperar que siga siendo válido en las investigaciones futuras y que se extienda, para bien o para mal, para nuestro placer, aunque quizás también para nuestro desconcierto, a amplias ramas del saber».
Este artículo abrió un amplio debate que dura hasta nuestros días sobre las relaciones entre la Física y las matemáticas. Incluso, el gran matemático Israel Gelfand, fue más lejos cuando afirmó con ironía: «Solo hay una cosa más irracional que la irracional eficacia de las matemáticas en la física, y es la irracional ineficacia de las matemáticas en la biología».
Lo cierto es que, no tenía mucha razón Gelfand, ya que hoy en día no se puede comprender la biología sin las matemáticas, modelos SIR, teoría de nudos y proteínas, ecología y grafos, etc.
Pero a pesar de todas estas aplicaciones, las matemáticas tienen límites, y son los propios matemáticos los que los han identificado y, en algunos casos, roto; en otros, han conducido a una convivencia pacífica y obligada con los mismos.
El infinito y más allá
Uno de los conceptos más elusivos en matemáticas es el del infinito. Podemos pensar en números grandes, y algunos se han inventado hasta nombres muy interesantes. Los niños juegan a esto y dicen «pues yo, infinito más uno», pero no saben que eso sigue siendo infinito.
El hombre que nos abrió este mundo a los matemáticos y por ende a todos los humanos fue Georg Ferdinand Ludwig Philipp Cantor. Matemático de ascendencia danesa-alemana, aunque nació en San Petersburgo, el 3 de marzo de 1845. Sin duda, Cantor fue uno de los matemáticos más geniales del siglo xix y comienzos del xx, al que le debemos la creación de los fundamentos modernos de las matemáticas.
Cantor estudió matemáticas en Zürich, y se trasladó después a la Universidad de Berlín, donde tuvo profesores de la talla de Ernst Kummer, Karl Weierstrass y Leopold Kronecker. Con 27 años se convirtió en catedrático de la Universidad de Halle. Entre 1874 y 1884, Cantor trabajó sobre la teoría de conjuntos. Hasta entonces, no había una teoría formal, y el concepto de infinito era una noción más filosófica que matemática.

Cantor y el infinito
Cantor probó que había diferentes tipos de conjuntos infinitos: por ejemplo, el de los números naturales (el aleph 0) era diferente al de los números reales (el continuo). La manera de distinguirlos fue con el concepto de cardinal. Los conjuntos pueden ser finitos o infinitos, y estos últimos numerables (su cardinal o número de elementos es el de los naturales) o no numerables (en caso contrario). Por ejemplo, el conjunto de los números pares es numerable (se puede establecer una correspondencia uno a uno con los naturales, simplemente considerando el doble de cada número natural). Y lo mismo ocurre, aunque nos sorprenda, con los números racionales (las fracciones). Pero ya no pasa así con los irracionales (los no racionales) y con todos los números reales (racionales e irracionales).
Entre los irracionales, podemos distinguir entre los algebraicos (aquellos que se obtienen como una solución de una ecuación algebraica, como ocurre con el número áureo), y trascendentes, cuando no, como el número π o el número e. Cantor fue mucho más allá. Construyó toda una aritmética de números infinitos, que llamó transfinitos.
Estos números seguían unas reglas similares a las de los números naturales. Uno de sus logros fue probar que había el mismo número de puntos en un segmento que en un cuadrado o en cubo construidos con ese segmento. Cantor le escribió a Dedekind: «Lo veo, pero no me lo creo». Este logro llevó a David Hilbert a comentar en una conferencia en Münster a la Sociedad Matemática Alemana el 4 de junio de 1925 lo siguiente: «Nadie será capaz de expulsarnos del paraíso que Cantor creó para nosotros».
Las reacciones
Las reacciones a los resultados de Cantor fueron violentas. El propio Leopold Kronecker (su director de tesis) llegó a decir de Cantor que era «un charlatán, un renegado y un corruptor de la juventud», como si se tratara de un nuevo Sócrates. El mismo Wittgenstein lamentó que las matemáticas se vieran dirigidas por «el pernicioso idioma de la teoría de conjuntos». Pero a la vez, muchos de sus colegas le demostraron una admiración sin límites, especialmente tras su conferencia en el primer Congreso Internacional de Matemáticos, celebrado en Zürich en 1897.
Las ideas de Cantor fueron vistas por algunos intelectuales de la época como un desafío a la infinitud de Dios, y fue acusado de panteísmo, él, que era un devoto luterano. Su visión teológica se confundía con la matemática, y creía que esos resultados eran inspirados en su mente por el propio Dios.
No es de extrañar que Cantor sufriera depresiones muy fuertes a lo largo de su vida, con varios internamientos en hospitales psiquiátricos. Finalmente, falleció el 6 de enero de 1918, en el sanatorio donde había pasado su último año de un ataque al corazón. Durante la Primera Gran Guerra sus condiciones de vida habían sido muy precarias.
Pero sí hay límites …
Sin embargo, las matemáticas sí tienen límites. Uno de los logros de Cantor fue probar que el cardinal del conjunto de partes de un conjunto era estrictamente mayor que el del conjunto dado, algo evidente en conjuntos finitos, pero no tanto en los infinitos. Esto le llevó a formular lo que se llama la …«hipótesis del continuo»: no hay ningún número entre aleph 0 (representado por el símbolo ℵ₀ ) y el continuo (que es la cantidad de números reales), o dicho con más rigor, el aleph siguiente al aleph 0, el aleph 1 ( ℵ₁) es igual al continuo. David Hilbert propuso esto como uno de los 23 problemas que expuso en su célebre conferencia en el Congreso Internacional de Matemáticos de París en 1900.
La hipótesis del continuo llevó a Kurt Gödel en 1940 a probar que había proposiciones que no se podían probar o negar en términos de la aritmética (el famoso teorema de incompletitud).
Kurt Friedrich Gödel fue un matemático alemán que trabajó sobre los fundamentos de las matemáticas, cerrando un debate terrible sobre este tema que motivó a matemáticos y filósofos como Bertrand Russell, Alfred North Whitehead, David Hilbert, Richard Dedekind, Georg Cantor y Gottlob Frege.

Gödel y los teoremas de incompletitud
El gran descubrimiento de Gödel fueron los llamados teoremas de incompletitud en 1929, que eran parte de su disertación para obtener un doctorado en la Universidad de Viena. El primer teorema de incompletitud afirma que para cualquier sistema axiomático consistente lo suficientemente potente como para describir la aritmética de los números naturales (por ejemplo, la aritmética de Peano), existen proposiciones verdaderas sobre los números naturales que no pueden probarse ni refutarse a partir de los axiomas. Para demostrarlo, Gödel desarrolló una técnica ahora conocida como numeración de Gödel, que codifica expresiones formales como números naturales. El segundo teorema de incompletitud, que se deriva del primero, establece que el sistema no puede probar su propia consistencia.
Estos resultados echaron por tierra las pretensiones de David Hilbert, que había propuesto en su famosa conferencia de 1900 en el Congreso Internacional de Matemáticos de París probar la consistencia de las matemáticas. Como ironía del destino, Gödel anunció sus resultados cuando Hilbert había manifestado públicamente su credo de «Debemos saber y sabremos».
Gödel también demostró que ni el axioma de elección ni la hipótesis del continuo pueden refutar la teoría de conjuntos aceptada de Zermelo-Fraenkel, suponiendo que sus axiomas sean consistentes. El primer resultado abrió la puerta para que los matemáticos asumieran el axioma de elección en sus demostraciones.
¿Existen límites externos?
Un matemático de la talla de John von Neumann dijo sobre estos logros de Gödel: «El logro de Kurt Gödel en la lógica moderna es singular y monumental; de hecho, es más que un monumento, es un hito que seguirá siendo visible en el espacio y el tiempo (...) El tema de la lógica ciertamente cambió completamente su naturaleza y sus posibilidades con el logro de Gödel».
En 1963, Paul Cohen volvió sobre el tema del continuo y encontró que la aritmética era consistente tanto si admitimos la hipótesis del continuo como si no (y recibió una medalla Fields por ello).
Teniendo en cuenta todo lo expuesto, ¿Existen límites externos? Si creemos como decía Wigner que las matemáticas se adelantan muchas veces a los fenómenos que ayudan a describir, ¿qué podríamos decir de la construcción de los números transfinitos de Georg Cantor? De ese paraíso que él creó, nadie podrá expulsarnos (Hilbert dixit), pero la pregunta es, ¿dónde está el correlato físico?
La historia de la informática tiene episodios que despiertan cierta nostalgia. A mediados de los años noventa, las tiendas de informática ofrecían la posibilidad de armar ordenadores clónicos por piezas, eligiendo la placa base, el procesador, la memoria RAM o la tarjeta gráfica según las necesidades de cada usuario. Aquella práctica se convirtió en un fenómeno: permitía actualizar el sistema cambiando un componente defectuoso o añadir más potencia sin necesidad de empezar de cero. Hoy, esa misma filosofía de construcción modular podría estar abriendo las puertas a la siguiente gran revolución tecnológica: la computación cuántica.
Un equipo de la Universidad de Illinois Urbana-Champaign ha presentado un trabajo pionero que propone diseñar ordenadores cuánticos modulares, capaces de conectarse como piezas intercambiables. En lugar de construir enormes procesadores de un solo bloque, la investigación muestra cómo módulos de cúbits superconductores pueden unirse mediante cables desmontables, logrando transmitir información cuántica con una precisión inédita. El estudio, publicado en Nature Electronics, marca un paso decisivo hacia la creación de ordenadores cuánticos escalables y reconfigurables.
El reto de la escalabilidad cuántica
Uno de los grandes obstáculos en este campo es cómo pasar de pequeños prototipos a sistemas con millones de cúbits, suficientes para realizar cálculos útiles en criptografía, simulación de materiales o inteligencia artificial. Los diseños monolíticos, fabricados en un solo chip, resultan difíciles de ampliar y tienden a degradar la fidelidad de las operaciones a medida que aumenta el número de cúbits.
Los autores del trabajo explican que “la arquitectura modular permite superar este desafío mediante un ensamblaje tipo Lego, reconfiguración y expansión, en un espíritu similar al de los ordenadores clásicos modernos”. La comparación no es gratuita: igual que los clónicos de los años noventa podían adaptarse a cada necesidad, un ordenador cuántico modular podría crecer añadiendo unidades previamente probadas, optimizando el rendimiento sin sacrificar calidad.
La propuesta se basa en un principio sencillo pero poderoso: intercambiabilidad. Cada módulo contiene sus propios cúbits superconductores y puede conectarse a otro mediante un cable coaxial desmontable. Ese cable actúa como un “bus cuántico” que permite transferir excitaciones y generar entrelazamiento entre los cúbits de diferentes módulos. La clave está en lograr que esta conexión mantenga la fidelidad al nivel exigido por la corrección de errores cuánticos.

Un enlace desmontable con menos del 1 % de pérdida
El equipo liderado por Michael Mollenhauer y Wolfgang Pfaff diseñó un interconector que combina un cable coaxial superconductor con un esquema de bombeo rápido. Gracias a esta técnica, pudieron realizar puertas SWAP entre cúbits en menos de 100 nanosegundos con apenas un 1 % de error. En palabras del artículo: “hemos demostrado puertas SWAP entre módulos con un 1 % de pérdida en menos de 100 ns”.
Este resultado es especialmente relevante porque se sitúa justo en el umbral necesario para considerar una arquitectura como tolerante a fallos. En computación cuántica, alcanzar un error de aproximadamente el 1 % por operación es el requisito mínimo para que los códigos de corrección de errores funcionen de manera eficaz. Hasta ahora, la mayoría de intentos de conectar módulos había sufrido pérdidas muy superiores, en torno al 15 %.
Los investigadores también comprobaron que podían entrelazar cúbits de diferentes módulos con una fidelidad del 97,4 %, lo que representa un nivel comparable al de las operaciones dentro de un mismo chip. Esto significa que, en términos prácticos, la distancia física entre módulos deja de ser una limitación insalvable. El sistema, además, es reconfigurable: el cable puede desmontarse y volver a conectarse sin que el rendimiento se degrade de forma irreversible.
La lógica de los clónicos aplicada a la era cuántica
En la informática doméstica de los años noventa, la modularidad supuso una auténtica revolución. Un PC clónico podía adaptarse a distintos bolsillos y necesidades, permitiendo que los usuarios más avanzados personalizaran su máquina pieza a pieza. En cierto modo, la propuesta del equipo de Illinois busca lo mismo para la computación cuántica: máquinas flexibles, actualizables y escalables que no dependan de un único bloque cerrado.
Pfaff lo explica con claridad en la propia investigación: la idea es poder construir un sistema que se pueda montar, desmontar y volver a montar, manteniendo al mismo tiempo operaciones de muy alta calidad. Esto permite probar componentes de manera independiente, detectar fallos antes de integrarlos y realizar sustituciones sin perder todo el trabajo previo. Es, esencialmente, la filosofía de los ordenadores clónicos trasladada al terreno cuántico.
El paralelismo va aún más lejos. Igual que en los años noventa las tarjetas gráficas o los discos duros variaban en calidad y era posible elegir las piezas más fiables, los módulos cuánticos podrán fabricarse, testarse individualmente y conectarse solo si cumplen estándares de fidelidad. De este modo, el rendimiento global de la máquina no dependerá de que todos los componentes sean perfectos, sino de la capacidad de integrarlos de forma eficiente.

Cúbits, fidelidad y puertas cuánticas
Para comprender la importancia de este logro conviene detenerse en algunos conceptos clave. Los cúbits son las unidades básicas de información cuántica. A diferencia de los bits clásicos, que solo pueden valer 0 o 1, un cúbit puede estar en una superposición de ambos estados. Esto abre la puerta a cálculos mucho más potentes, pero también introduce gran fragilidad: cualquier mínima perturbación puede provocar errores.
Por eso, los investigadores miden continuamente la fidelidad de las operaciones. Una fidelidad del 100 % implicaría cero errores, un ideal todavía inalcanzable. En la práctica, se busca superar el 99 % para que la corrección de errores haga viable el sistema. El equipo de Illinois alcanzó una fidelidad del 99 % en las puertas SWAP entre módulos, un valor que coloca a su propuesta en la frontera de lo posible.
Además de las puertas SWAP, los científicos mostraron que podían generar entrelazamiento cuántico entre cúbits situados en módulos distintos, un requisito esencial para construir redes cuánticas distribuidas. Tal como señala el paper, “este esquema permite la generación de entrelazamiento de alta fidelidad y la operación de un cúbit lógico distribuido”. Esto significa que, en el futuro, varias unidades modulares podrían trabajar juntas como un único procesador lógico.
Perspectivas de futuro
Aunque los resultados son prometedores, todavía quedan retos importantes. Los propios autores reconocen que el diseño mecánico del conector debe mejorar para reducir el impacto sobre la coherencia de los cúbits. En las pruebas realizadas, los tiempos de coherencia —la duración durante la cual un cúbit mantiene su estado cuántico— fueron algo inferiores a los habituales en dispositivos sin cables desmontables. Aun así, la repetibilidad de los experimentos demostró que el sistema es robusto y que las conexiones pueden montarse y desmontarse múltiples veces manteniendo buen rendimiento.
El potencial de esta arquitectura va más allá de los transmones, el tipo de cúbit utilizado en este estudio. Según el artículo, “nuestro interconector no requiere elementos de circuito adicionales más allá de la no linealidad intrínseca de los cúbits, lo que lo hace aplicable también a otros tipos”. Esto significa que la propuesta podría extenderse a tecnologías emergentes como los cúbits fluxonium o incluso a sistemas híbridos que combinen distintos tipos de dispositivos cuánticos.
En el futuro inmediato, los investigadores planean conectar más de dos módulos manteniendo la capacidad de verificar errores y de reconfigurar la red. El objetivo es construir procesadores distribuidos que, como aquellos ordenadores clónicos, puedan ampliarse pieza a pieza hasta alcanzar una potencia inalcanzable para los diseños monolíticos.
Referencias
- Mollenhauer, M., Irfan, A., Cao, X. et al. A high-efficiency elementary network of interchangeable superconducting qubit devices. Nature Electronics 8, 610–619 (2025). https://doi.org/10.1038/s41928-025-01404-3.
Es impresionante pensar que cada vez que en un quirófano un bisturí corta la piel de un paciente, estamos al final de un proceso histórico que se remonta a la prehistoria. Y es que hace miles de años, los seres humanos se atrevieron a intervenir sobre el cuerpo humano en busca de curación. Era la medicina antes de la medicina, en la que el conocimiento sanador se mezclaba con ritos, tabúes y creencias que constituían una forma de ver el mundo que ya no recordamos. La arqueología ha desenterrado por todo el mundo cráneos con orificios que muestran signos de supervivencia, amputaciones exitosas y evidencias de tratamientos con plantas medicinales incluso en neandertales, hace más de 40 000 años, que demuestra un conocimiento de las prácticas quirúrgicas y las propiedades medicinales de ciertas sustancias que nos hace reflexionar sobre las sociedades del pasado.
¿Cómo sabían nuestros ancestros cómo actuar sin entender del todo el funcionamiento del cuerpo humano? ¿Qué motivó los primeros intentos quirúrgicos: la sanación, los ritos o una mezcla de ambas que hoy se nos antoja difícil de comprender? Y, sobre todo, ¿qué nos dice sobre nosotros mismos estas prácticas?
La Paleopatología, ciencia que busca entender la interacción entre la vida y la enfermedad en el pasado, explora a través de los restos arqueológicos cómo nos hemos enfrentado en la historia a dolencias o traumatismos. En este artículo, os invitamos a recorrer un viaje de miles de años de la mano de evidencias paleopatológicas que nos ayudan a comprender cómo hemos intervenido en nuestros cuerpos con el objetivo de sanar desde la Prehistoria. Un viaje arqueológico en el que la incorporación de otras ciencias del ámbito médico nos brinda la oportunidad de escribir la biografía más antigua de las prácticas médicas.
¿Existe la primera cirugía?
Es lícito preguntarnos sobre las primeras veces de cualquier cosa en la historia de la humanidad, ya que situar cronológicamente el inicio de un comportamiento aporta perspectiva, biológica o social, de cómo hemos evolucionado. Sin embargo, en muchos casos esto es muy complejo. En su libro, Nuestras primeras veces (2024), el prehistoriador francés Nicolas Teyssandier nos advierte de que en arqueología la evidencia primera de algo no implica que esta sea la prueba más antigua de un comportamiento, sino que nos habla de hasta dónde la ciencia ha llegado con sus descubrimientos.
En el caso de la primera cirugía, esto es todavía más complejo. Imaginemos un parto de un Homo habilis en el momento justo de cortar el cordón umbilical hace unos 2 millones de años. ¿Podría constituir esto la primera cirugía no solo a la que nos enfrentamos como pacientes, sino también como género Homo? Podría ser, pero muchos otros mamíferos placentarios, casi siempre la madre, cortan el cordón umbilical de forma instintiva. Además, este procedimiento no suele considerarse como una cirugía estrictamente. ¿Habría sido entonces sacar un diente picado, extraer una espina o drenar un absceso? Son preguntas que por ahora desde la arqueología no tienen respuesta, pero que ilustran la complejidad del tema.

Si nos centramos en las evidencias osteoarqueológicas, la cirugía más antigua es una amputación prehistórica identificada en un esqueleto de la isla de Borneo, en el sudeste asiático. Los restos, provenientes de la cueva de Liang Tebo, hablan de que hace la friolera de 31 000 años un grupo cazador-recolector realizó un corte limpio y certero, sin duda quirúrgico, que amputó la pierna izquierda de un niño que luego sobrevivió hasta la edad adulta. El fragmento de tibia y peroné cicatrizados, en lo que en vida habría sido un muñón, demuestra un conocimiento médico capaz de controlar infecciones y asegurar la supervivencia.
Lo mismo ocurre con las trepanaciones, los orificios artificiales practicados desde la Prehistoria que constituyen la mejor y más abundante cirugía que identificamos. Sin duda una práctica que dejó estupefacta a la comunidad arqueológica, que no aceptó hasta mediados del siglo XIX que en el pasado más remoto las sociedades consideras entonces primitivas en su acepción más negativa, pudieran realizar una intervención de tal calibre en el cráneo de sujetos vivos ¡y sobrevivir! Tenemos que pensar que en el siglo XIX las muertes por infección postoperatoria, por las condiciones de higiene limitada, eran una causa común de fallecimiento. Fue el famoso anatomista francés Paul Brocca (1824-1880) quien a través de un cráneo precolombino abrió el melón. Desde aquella, se han descubierto cientos de trepanaciones.

Algunas de estas intervenciones son tan antiguas que se remontan a hace unos 11 000-7 000 años, durante el periodo Mesolítico, y encontramos ejemplos en Marruecos (Cueva de Taforalt), Ucrania (yacimeintos de Vasiliyevka II y Vovnigo II), o Portugal (conchero de Moita do Sebastião), entre otros casos a debate. La técnica de trepanación casi siempre es la misma, por perforación, abrasión o incisión con un instrumento de piedra tallada. Estas técnicas perdurarán en el tiempo, y a partir del Neolítico encontramos, especialmente en Europa, un aumento de la práctica trepanatoria.
A partir de la Prehistoria reciente, en la Edad de los Metales y a las puertas de la Historia, las trepanaciones se vuelven muy comunes y hay lugares como en las Islas Baleares, especialmente en Mallorca y Menorca, en las que esta práctica se convierte en algo especialmente llamativo. Entre las muchas que se han encontrado, las hay hechas en vida, con signos evidentes de supervivencia, y otras realizadas postmortem. Nuestro equipo de investigación, interesado en la evolución de las prácticas quirúrgicas, ha tenido la oportunidad de estudiar alguna de ellas, como la procedente del Barranc d’ Algendar, en el Museo Diocesà de Menorca (Ciutadella), que consiste en un cráneo con cinco perforaciones ¡cinco! Algunas de ellas presentan regeneración ósea, lo que indica cierto tiempo de supervivencia.

También las hemos estudiado en la Península, como la que se puede observar en un cráneo de Los Blanquizales de Lébor (Totana, Murcia) en el Museo de Almería. En ese caso, la trepanación se practicó en el hueso frontal, posiblemente por abrasión, y muestra claras evidencias de supervivencia. A este cráneo, además, le hemos extraído un cálculo dental, eso que también llamamos sarro, para explorar posibles usos de plantas medicinales. No es una locura, ya se han encontrado en casos que van desde el Paleolítico Medio a la Edad Media, desde neandertales a sapiens. Uno de los ejemplos más extraordinarios del posible tratamiento de dolencias que se asocian a intervenciones quirúrgicas que se ha observado en restos humanos, es el caso de un esqueleto hallado en las Minas prehistóricas de Gavà, en el que a partir de estudios paleotoxicológicos se demostró el consumo de adormidera (Papaver somniferum) durante el Neolítico.

Por cierto, si alguien se pregunta si el uso de este opiáceo sería como anestésico durante la trepanación, la respuesta posiblemente sea negativa. Uno de nosotros tuvo la oportunidad de cenar en una ocasión con una dama inglesa que se había realizado una auto-trepanación en los 70, influenciada por el excéntrico Bart Huges defensor de la trepanación para alcanzar estados de conciencia superiores. Una patraña, vamos. A la pregunta de si le dolió la experiencia, la noble señora respondió que “no, ni lo más mínimo”. Tiene sentido, en ciertas zonas de la cabeza no hay más que piel, el cuero cabelludo, y periostio cubriendo el cráneo.
Locuras aparte, poco sabemos sobre las trepanaciones, aunque no lo parezca. Las podemos catalogar, diferenciar y localizar en el mapa de la anatomía humana. Sin embargo, siguen siendo una práctica de la que poco conocemos. No ya la cuestión de si se han realizado con fines rituales o médicos, algo que trataremos en un momento, sino cómo se realizaban. Para avanzar al respecto, nosotros hemos optado por la experimentación con cadáveres humanos.
¿Cómo estudiamos hoy las trepanaciones?
La donación de cadáveres a la ciencia ha hecho avanzar a pasos agigantados campos como la medicina. Y aunque poco habitual, la generosidad de ciertas personas para con el destino de sus restos, también contribuye a la comprensión del pasado, algo que agradecemos infinitamente. Actualmente, en la Universidad de Santiago de Compostela, estamos realizando trepanaciones experimentales con réplicas de utensilios de distintas épocas.
La recreación de las intervenciones quirúrgicas usando técnicas prehistóricas, pero también de la Antigüedad Clásica o la Edad Media, están aportando información valiosísima para una mejor comprensión de las cirugías. Aspectos como la preparación previa a la perforación, los movimientos quirúrgicos empleados, o las posiciones de los intervinientes en una trepanación, son algunas de las cuestiones que estamos comprendiendo, gracias también a posteriores análisis microscópicos.
Es pronto todavía para avanzar resultados, los preliminares los anunciaremos en el XVIII Congreso Nacional de Paleopatología que se celebrará en octubre en San Sebastián, pero sin duda este enfoque experimental está cambiando nuestra forma de entender las trepanaciones en el pasado.
¿Trepanaciones rituales o terapéuticas?
¿Y qué podemos decir sobre el porqué de las trepanaciones? Uno de los decanos de la Paleopatología en España, el Prof. Domènech Campillo, autor de una de las mejores publicaciones que existen sobre el tema (os dejamos la referencia en la bibliografía), pensaba que las intervenciones craneales en la Prehistoria no tienen una razón médica. Es decir, su práctica no tiene una motivación terapéutica, sino más bien ritual. Actualmente, sabemos que esto es mucho más complejo, ya que hemos podido vincular lesiones patológicas, ya sea por enfermedad o traumatismo, a algunas trepanaciones.
Para la Antigüedad y épocas posteriores, se conservan fuentes documentales que vinculan la práctica de la trepanación con fines curativos como, por ejemplo, el tratado hipocrático Sobre las heridas en la cabeza. En este sentido, hay evidencia para pensar que la cirugía craneal está ligada a la sanación, especialmente cuando se vincula con traumatismos, ya que la presión intracraneal se reduciría con la práctica de un orificio, tal y como recomienda actualmente la neurocirugía.

No obstante, hay muchas trepanaciones que no tienen explicación médica, y no nos referiremos únicamente a aquellas que se realizaron postmortem. Sin duda, las creencias y ritos prehistóricos están en la base de la trepanación. E incluso cuando la razón trepanatoria era médica, la práctica se vincularía con explicaciones no científicas. Y es que la medicina en el pasado, al igual que la medicina tradicional, es otra forma de explicación de la enfermedad, más social que biológica. Y no debería extrañarnos, hay muchas cirugías que no tienen una base médica, como la extracción de la piedra de la locura en la Edad Media, la circuncisión, las amputaciones punitivas, o las actuales rinoplastias o mamoplastias de aumento.
Lo que nos cuentan realmente estas intervenciones quirúrgicas
Sin embargo, pese a la complejidad del tema, sí que hay algo que nos cuentan las cirugías craneales sobre las sociedades prehistóricas que las practicaron: tenían un conocimiento de la anatomía excepcional así como de las propiedades medicinales de ciertas sustancias como para evitar infecciones, y dolores. Pero lo más importante es que ponían ese conocimiento al servicio de algo que es muy humano, los cuidados. Toda cirugía va pareja a unos cuidados que nos hablan de una sociedad compleja y cooperativa que destina energía y tiempo al cuidado de ciertos individuos.
La medicina actual se define por el uso de técnicas y conocimientos en pro de promover, mantener y restaurar la salud. La verdad es que esta definición subyace en muchas de las trepanaciones prehistóricas que hemos estudiado, pudiendo afirmar que las cirugías craneales en el pasado son de alguna forma medicina, pero antes de la medicina. Así que lo que están haciendo ahora mismo en un quirófano sujetando un bisturí en vez de un pedernal, es algo que se pierde en la oscuridad del tiempo.
Referencias
- Campillo, D. (2007). La trepanación prehistórica. Edicions Bellaterra. ISBN 9788472903531
- Crubézy, E., Bruzek, J., Guilaine, J. et al. (2001). The antiquity of cranial surgery in Europe and in the Mediterranean basin. Comptes Rendus de l'Académie des Sciences-Series IIA-Earth and planetary science, 332 (6): 417-423. Doi:10.1016/S1251-8050(01)01546-4
- Isidro, A., Burdeus, J.M., Loscos, S. et al. (2017). Surgical treatment for an uncommon headache: A gap of 4800 years. Cephalalgia, 37(11):1098-1101. Doi: 10.1177/0333102416665227
- Maloney, T.R., Dilkes-Hall, I.E., Vlok, M. et al. (2022). Surgical amputation of a limb 31,000 years ago in Borneo. Nature, 609: 547–551. Doi: 10.1038/s41586-022-05160-8

Edgard Camarós
Investigador Ramón y Cajal y Profesor de Prehistoria de la Universidad de Santiago de Compostela

Renault da un nuevo paso en la electrificación práctica y accesible con la llegada del cargador bidireccional de 22 kW en corriente alterna al Scenic E-Tech eléctrico. Este avance no solo reduce a la mitad el tiempo de carga frente al cargador de 11 kW, sino que refuerza la apuesta de la marca por ofrecer soluciones que combinen eficiencia, innovación y comodidad en el día a día.
Con esta incorporación, los conductores pueden recuperar hasta 80 kilómetros de autonomía en apenas 30 minutos en puntos de carga convencionales de corriente alterna, un tiempo que hasta hace poco solo era alcanzable en cargadores rápidos de corriente continua. Además, este nuevo sistema es compatible con la carga en corriente continua de hasta 150 kW, lo que otorga al Scenic E-Tech eléctrico una enorme flexibilidad para adaptarse a distintas infraestructuras.
Pero Renault no se limita a mejorar la carga: gracias a la tecnología V2L (vehicle-to-load), el Scenic puede transformarse en una fuente de energía móvil, capaz de alimentar dispositivos externos con hasta 3,7 kW de potencia. Desde enchufar una cafetera o una bicicleta eléctrica hasta montar una barbacoa en plena naturaleza, el vehículo demuestra que puede ser mucho más que un medio de transporte.
Este cargador bidireccional puede configurarse en cualquiera de los acabados del Scenic (evolution, techno, esprit Alpine e iconic) por un coste adicional de 1.000 euros. Una inversión que mejora la experiencia de uso diario y amplía las posibilidades del vehículo eléctrico en entornos urbanos, periurbanos y en actividades al aire libre.
A todo ello se suman otras innovaciones recientes: la función One Pedal con cinco niveles de frenada regenerativa, el reconocimiento facial del conductor para ajustar automáticamente la configuración y detectar signos de fatiga, así como el sistema multimedia openR link con Google integrado, que ofrece rutas optimizadas para eléctricos y acceso a más de 50 aplicaciones.
Con una autonomía de hasta 625 km WLTP, el Scenic E-Tech eléctrico se consolida como uno de los SUV familiares más avanzados del mercado. Y con la llegada de este nuevo cargador, Renault reafirma su liderazgo en electrificación práctica y en soluciones energéticas que miran más allá del propio coche, dentro de una estrategia global en la que también se pregunta: ¿Pueden dos híbridos plantar cara al diésel y al eléctrico?
Carga más rápida y eficiente
El cargador bidireccional de 22 kW reduce a la mitad el tiempo de recarga frente a la opción de 11 kW. Esto significa menos esperas y mayor libertad de movimiento en el día a día. Gracias a esta mejora, los usuarios pueden recuperar autonomía suficiente para trayectos urbanos o interurbanos en apenas media hora de carga en alterna.

Flexibilidad con corriente continua
Aunque la gran novedad está en la carga AC de 22 kW, el Scenic E-Tech eléctrico sigue siendo compatible con cargadores rápidos en corriente continua de hasta 150 kW.
Esto otorga al conductor la posibilidad de elegir la infraestructura más conveniente en cada momento, optimizando tiempos de recarga en viajes largos o escapadas.

Energía bidireccional al servicio del usuario
La funcionalidad V2L convierte al Scenic en una auténtica batería sobre ruedas. Con un adaptador, el coche puede suministrar energía a dispositivos externos con hasta 3,7 kW.Este sistema resulta ideal para actividades al aire libre, emergencias o simplemente para dar un plus de comodidad en el día a día.

Compatibilidad en toda la gama Scenic
El cargador de 22 kW puede equiparse en cualquiera de los acabados disponibles: evolution, techno, esprit Alpine e iconic. De este modo, la mejora no está limitada a versiones premium, sino que se extiende a toda la gama, democratizando el acceso a la tecnología.

Un coste equilibrado
Por 1.000 euros adicionales, los clientes pueden sumar esta innovación a su Scenic E-Tech eléctrico. El sobrecoste se compensa rápidamente con la reducción de tiempos de espera y la mayor comodidad que ofrece en el uso cotidiano.

Autonomía líder en el segmento
El Scenic E-Tech eléctrico ofrece hasta 625 km WLTP, lo que lo sitúa entre los SUV eléctricos con mayor alcance real del mercado. Combinado con la carga rápida en alterna y continua, esta autonomía convierte al modelo en un vehículo polivalente y apto para todo tipo de desplazamientos.

Innovaciones al servicio de la seguridad
Entre las últimas incorporaciones destacan el reconocimiento facial del conductor, que adapta automáticamente la configuración personal y detecta signos de fatiga. Estas soluciones refuerzan el enfoque de Renault hacia una conducción más segura y personalizada.

Confort en cada trayecto
El Scenic incorpora la función One Pedal, que permite gestionar aceleración y frenada con un solo pedal en cinco niveles de regeneración. Esto aumenta la comodidad en entornos urbanos y maximiza la eficiencia energética del vehículo.

Tecnología conectada con openR link
El sistema multimedia openR link, con Google integrado, ofrece acceso a más de 50 aplicaciones y planifica rutas optimizadas para eléctricos. Esto convierte al Scenic en un coche hiperconectado, preparado para responder a las demandas de un conductor moderno y digital.

Un modelo sostenible
Más allá de la tecnología, el Scenic E-Tech eléctrico se construye bajo un enfoque de sostenibilidad, con materiales reciclados y procesos responsables. La incorporación del cargador bidireccional refuerza esa visión de movilidad útil, flexible y respetuosa con el entorno.

Llegada a España
Las primeras unidades del Scenic equipadas con el cargador de 22 kW llegarán a España en los últimos meses del año. Esto permitirá a los conductores disfrutar de la nueva funcionalidad antes de que acabe 2025, consolidando a Renault en la vanguardia de la electrificación.

Beneficios adicionales con Iberdrola
Gracias al acuerdo entre Renault Group e Iberdrola, los compradores de un vehículo eléctrico de la marca pueden beneficiarse de hasta 800 euros de descuento si entregan un coche de combustión.
Esta ayuda es acumulable con las subvenciones estatales, autonómicas o locales, lo que facilita aún más el acceso a la movilidad eléctrica.

Renault: un líder en transformación
Con el plan estratégico “Renaulution”, la marca avanza hacia una gama competitiva, equilibrada y 100 % electrificada. El Scenic E-Tech eléctrico con cargador bidireccional es una muestra tangible de esa ambición: un coche que une innovación tecnológica, sostenibilidad y practicidad para la movilidad del presente y del futuro. Un movimiento que enlaza con El SUV que inaugura la nueva era de Renault, confirmando que la firma francesa está decidida a marcar tendencia en todas las direcciones posibles de la movilidad.

Los quipus incas siempre han fascinado por su carácter enigmático, tanto que los astrónomos usaron la palabra para nombrar una superestructura cósmica. Aquellos cordones con nudos, más que simples registros, eran sistemas de comunicación que guardaban la memoria de un imperio. Se han descrito como “bibliotecas anudadas” capaces de almacenar información numérica, censos y tributos. Lo que pocas veces se cuestionaba era quiénes podían crear estos objetos. La tradición académica los atribuía a una casta reducida de especialistas estatales, los khipukamayuq, considerados burócratas de alto rango en el engranaje imperial.
Un reciente estudio publicado en Science Advances derriba esta visión exclusiva. Analizando un quipu de unos 500 años de antigüedad, los investigadores demostraron que su cordón principal estaba tejido con cabello humano. Gracias a técnicas de isótopos estables, pudieron reconstruir la dieta y el modo de vida de la persona a la que pertenecía ese cabello. El resultado fue claro: no era un noble ni un funcionario estatal, sino alguien del pueblo. Esta revelación abre la posibilidad de que los quipus no fueran patrimonio exclusivo de las élites, sino herramientas también empleadas y producidas por campesinos andinos.
El valor simbólico del cabello en los Andes
Los investigadores centraron su atención en el quipu identificado como KH0631, fechado en torno a 1498 d. C. y conservado en la Universidad de St Andrews. Su particularidad radica en que el cordón principal estaba compuesto de una trenza de más de un metro de cabello humano. En la tradición andina, el cabello era una sustancia cargada de poder, capaz de representar la esencia de una persona incluso cuando estaba separado de su cuerpo. Según el estudio, “cuando el cabello humano se incorporaba en el cordón principal de un quipu, servía como una ‘firma’ para indicar la persona que lo había creado”.
Este uso tiene paralelos etnográficos más recientes. En aldeas de Perú, hasta el siglo XX los pastores incluían mechones de su propio cabello en los quipus, como señal de responsabilidad personal sobre la información que contenían. De esta manera, el cabello no era un simple material: era un marcador de autoría. En el caso de KH0631, ese autor resultó ser alguien con una dieta muy distinta a la de los festines imperiales.

Una dieta campesina en los nudos imperiales
El equipo científico recurrió a un análisis de isótopos de carbono, nitrógeno y azufre presentes en el cabello. Estos elementos permiten reconstruir la dieta de un individuo, diferenciando entre alimentos de alto prestigio —como la carne o el maíz— y los productos más comunes de subsistencia, como tubérculos y verduras. Los resultados fueron inequívocos. La persona asociada al quipu consumía escasa carne y muy poco maíz, alimentos básicos en la dieta de las élites. En cambio, predominaban los recursos vegetales de zonas altas, propios de campesinos.
Los propios autores destacan en su trabajo que “es difícil imaginar un escenario en el que un khipukamayuq oficial hubiera podido abstenerse de consumir grandes cantidades de maíz en forma de cerveza”. Esta observación refuerza la idea de que el creador de KH0631 no formaba parte de los burócratas privilegiados que servían en la administración estatal, sino de los sectores populares del imperio.

La geografía también habla
El estudio no solo examinó la dieta. Al analizar isótopos de oxígeno e hidrógeno presentes en el cabello, los investigadores lograron inferir la procedencia geográfica del individuo. Los valores indicaron que había vivido en la cordillera andina, entre los 2.600 y 2.800 metros de altitud, en regiones que hoy corresponderían al sur de Perú o al norte de Chile. La escasa presencia de recursos marinos en su dieta coincide con esta localización alejada del litoral.
Este detalle es relevante porque conecta el objeto con un contexto campesino y rural, alejado de los centros políticos donde tradicionalmente se situaba la producción de quipus oficiales. El hallazgo refuerza la hipótesis de que existían diferentes niveles de uso y producción de quipus, no todos ligados al aparato administrativo central del Cuzco.

Mujeres, campesinos y diversidad de autores
La visión tradicional, sostenida por crónicas coloniales, describía a los khipukamayuqs como hombres de alta posición que recibían privilegios estatales. Sin embargo, había voces disidentes. El cronista indígena Felipe Guaman Poma de Ayala afirmaba que las mujeres también podían confeccionar quipus, en especial aquellas que vivían en instituciones conocidas como aqllawasi, las casas de las “mujeres escogidas”. El hallazgo de KH0631 ofrece por primera vez una prueba física que respalda la idea de una autoría más amplia y variada de la que se pensaba.
Este descubrimiento se suma a otros hallazgos arqueológicos que muestran mujeres enterradas con quipus en contextos de prestigio. Pero KH0631 va más allá: no se trata de una élite local ni de un especialista del Estado, sino de un común campesino. Esto cambia la forma en que entendemos la circulación de estos objetos en la vida cotidiana del Tawantinsuyu.
La técnica científica detrás del hallazgo
El análisis del quipu requirió aplicar espectrometría de masas de relación isotópica, una técnica que mide las proporciones de elementos químicos en muestras biológicas antiguas. El cabello humano, gracias a su proteína resistente llamada queratina, conserva durante siglos información precisa sobre la dieta y el ambiente de vida de una persona. En este caso, los investigadores contaban con un mechón de 104 centímetros, lo que permitió estudiar más de ocho años de la vida del individuo.
La calidad del material fue clave: los valores de carbono, nitrógeno y azufre se encontraban dentro de los rangos esperados para cabello bien conservado. Esto garantizó la fiabilidad de los resultados. Además, la datación por radiocarbono del cordón de fibra de camélido asociado al quipu situó su fabricación en el periodo Inca tardío, hacia finales del siglo XV.
Lo que significa para la historia andina
El hallazgo tiene un impacto mayor que el simple detalle anecdótico. Si un campesino pudo ser autor de un quipu con estructura “inca imperial”, significa que la alfabetización en este sistema de nudos no estaba restringida a unos pocos burócratas. La “escritura anudada” podría haber estado más difundida socialmente de lo que se creía. Esto obliga a reconsiderar la forma en que se transmitía el conocimiento y cómo diferentes sectores de la sociedad participaban en la construcción de la memoria colectiva.
Los autores del estudio lo señalan con cautela: aunque KH0631 es solo un caso, sus datos apuntan a una participación más inclusiva y diversa en la producción de quipus de la que aceptaba la historiografía clásica. Este tipo de evidencias abre nuevas preguntas sobre el papel de campesinos y mujeres en el mantenimiento de la información en el imperio.
Entre la memoria y el ritual
El propio trabajo de Hyland y su equipo reconoce que todavía no está claro qué información específica guardaba KH0631. Podría tratarse de un registro administrativo, como censos o cuentas de tributo, o bien de un objeto con función ritual. La posibilidad de que el quipu combinara ambas dimensiones —práctica y simbólica— está sobre la mesa. En palabras de los investigadores, “el análisis isotópico de cabello humano en KH0631 indica que los comunes participaron en la producción de quipus del Horizonte Tardío”.
De confirmarse con otros ejemplos, la historia de los quipus tendría que reescribirse: de instrumentos de élite a herramientas compartidas por comunidades enteras para registrar, transmitir y recordar.
Un nuevo horizonte para la investigación
El estudio de KH0631 no cierra la discusión, la abre. Los propios autores reconocen que un solo quipu no basta para cambiar toda la narrativa histórica. Pero sí constituye una evidencia inédita que invita a ampliar la investigación con más análisis isotópicos en otros ejemplares conservados en museos y colecciones. Cada nuevo dato puede ayudar a reconstruir un mapa más preciso de quiénes tejían, usaban y comprendían este sistema de comunicación.
La arqueología de los Andes se enfrenta así a un reto apasionante: integrar la ciencia más avanzada con las tradiciones indígenas y los testimonios coloniales para dar una imagen más fiel de cómo los pueblos andinos gestionaban su memoria. Los quipus, lejos de ser un enigma cerrado, se muestran ahora como un campo de estudio en plena transformación.
Referencias
- Hyland, S., Lee, K., Koon, H., Laukkanen, S., & Spindler, L. (2025). Stable isotope evidence for the participation of commoners in Inka khipu production. Science Advances, 11(33), eadv1950. https://doi.org/10.1126/sciadv.adv1950.
Las profundidades marinas siguen proporcionando evidencias arqueológicas clave para reconstruir la historia humana, desde barcos corsarios de la Edad moderna hasta cargamentos de cerámica fina de hace siglos. Uno de los hallazgos más significativos para la arqueología subacuática de las últimas décadas tiene nombre propio: el pecio de Kumluca. Descubierto en 2018 por un equipo de la Universidad de Akdeniz y excavado entre 2019 y 2024, este barco mercante de la Edad del bronce ha dejado al descubierto un cargamento excepcional de lingotes de cobre, objetos metálicos, pesos de plomo y cerámicas que apuntan a un estrecho vínculo con la cultura cretense. La investigación, aún en curso, está consiguiendo reconstruir las redes comerciales, tecnológicas y culturales del Mediterráneo oriental hace unos 3600 años.
El descubrimiento y las campañas de excavación
El hallazgo del pecio se produjo en 2018, cuando un equipo de la Universidad de Akdeniz localizó los restos de un barco a una profundidad de entre 39 y 53 metros. Situado en la vertiente oriental del cabo Gelidonya, en el distrito turco de Kumluca (provincia de Antalya), los arqueólogos identificaron el pecio como un mercante de la Edad del bronce que transportaba, sobre todo, lingotes de cobre.
La primera campaña de excavación se realizó en 2019. Tras un largo parón producido por la pandemia de COVID-19, un equipo interdiciplinar de arqueólogos subacuáticos, especialistas en medicina hiperbárica y conservadores retomaron las campañas en 2022. Durante las inmersiones, se emplearon buques de investigación equipados con cámaras hiperbáricas, robots submarinos y sistemas de monitorización 24 horas para intervenir de forma segura y meticulosa en un entorno de gran complejidad técnica.

El cargamento: lingotes de cobre
A finales de 2024, el equipo ya había recuperado 52 lingotes de cobre en forma de almohada, 19 lingotes discoidales y 8 fragmentos menores. Según la clasificación de Bucholz-Bass, los lingotes almohada corresponden a los tipos 1a y 1b, lo que sugiere que se produjeron en el mismo periodo en talleres vecinos.
Su peso medio ronda los 25 kilos, una cifra coherente con lo que se conoce de los estándares de transporte de cobre en el Mediterráneo oriental durante el Bronce medio. Aunque no se han realizado aún análisis de isótopos de plomo (un impedimento derivado de las restricciones legales y la carga de trabajo en los laboratorios turcos), la comparación con otros yacimientos sugiere que los lingotes proceden de minas chipriotas. Es más: se hipotetiza que su lugar de origen está en la región de los montes Troodos. Según los estudiosos, la presencia de este tipo de material en los contextos minoicos de Creta refuerza la hipótesis de que los palacios de la isla eran el destino final de tan preciada carga.

La evidencia minoica de los pesos de plomo
En la campaña de 2022 se recuperaron dos pesos de plomo, uno de 22 g y otro de 45 g. Determinadas características, como su forma discoidal, la ausencia de inscripciones y la semejanza con ejemplares hallados en el asentamiento de Akrotiri (1700–1625 a.C.) apuntan a un origen minoico o egeo. Estos pesos probablemente se utilizaron para pesar con precisión el metal y asegurar, de este modo, transacciones justas en los intercambios comerciales del Bronce medio. Los estudios sobre metrología antigua sugieren que estos valores (22 g y 45 g) podrían corresponder a múltiplos de unidades de peso cretenses, lo que añade un dato más a la conexión cultural y económica entre el pecio de Kumluca y Creta.
Las cerámicas: testigos del comercio regional
El material cerámico recuperado hasta el momento asciende a 38 fragmentos en total. Entre ellos, se incluyen un asa de ánfora de tipología muy común en el Mediterráneo oriental entre el Bronce temprano y el Bronce tardío. Ejemplares similares se han hallado en áreas como Israel, el Egeo y, en particular, Creta. Este patrón de distribución confirma la intensa circulación de bienes y personas en la región, y respalda la idea de que el barco foperaba dentro de las rutas marítimas que conectaban Chipre, Anatolia y el mundo minoico.

La daga cretense y los objetos de uso cotidiano
Uno de los descubrimientos más significativos se produjo en 2024: una daga de bronce de tipo cretense XIV, fechada entre 1700 y 1600 a.C. Según la tipología metálica establecida por Keith Branigan, este tipo de arma, estrechamente vinculado a la élite minoica, representaría una evolución de modelos anteriores. Su hallazgo en Kumluca sugiere la presencia de un mercader o tripulante cretense, o bien la participación del barco en un intercambio que incluía armas de prestigio. Junto a la daga, se documentaron un anzuelo, una aguja de bronce y un cuenco hemisférico de paredes finas, todos ellos objetos vinculados a la vida cotidiana a bordo.
Evidencias del comercio y las conexiones culturales bajo las aguas
El Mediterráneo oriental del siglo XVI a.C. era un espacio de intensas interacciones comerciales. Chipre se había consolidado como productor y exportador clave de cobre, mientras que Creta se encontraba en plena fase neopalacial, en la que palacios como Cnosos, Malia y Zakros actuaban como centros redistributivos. Anatolia, por su parte, ofrecía recursos minerales y era un punto de paso estratégico.
En este contexto, el pecio de Kumluca ha revelado una nave mercante de unos 11 o 12 metros de eslora que se dedicaba a transportar cobre desde Chipre hacia Creta, con escalas en los puertos anatolios. El naufragio pudo deberse a una tormenta. Esto explicaría que se hubiese hundido cerca de un cabo conocido por su peligrosidad para la navegación.

Importancia arqueológica y perspectivas futuras
El estado de conservación del pecio y la calidad de los hallazgos lo convierten en un referente para el estudio del comercio marítimo en la Edad del bronce. A diferencia de otros yacimientos subacuáticos, los objetos de Kumluca se encuentra adheridos al lecho rocoso, lo que, por un lado, dificulta su extracción, pero, por otro, garantiza su integridad.
Hasta ahora, solo se ha excavado una parte del yacimiento. Es probable que las futuras campañas de excavación ofrezcan más datos sobre el origen exacto de la carga, la identidad de la tripulación y las rutas comerciales.
Referencias
- Öniz, H. 2025. "Traces of Mynos in Kumluca Bronze Age Shipwreck: 2022, 2023, 2024 Excavation Seasons". Journal of Maritime Archaeology. DOI: https://doi.org/10.1007/s11457-025-09453-7
Un usuario avanzado de internet puede aprender cómo funciona casi cualquier aparato. Además, es probable que en la red haya un vídeo tutorial que le enseñe a construírselo él mismo. Hoy, el conocimiento se ha diversificado tanto que prácticamente todo el mundo tiene acceso a todo. Pero cuando se levantaron las pirámides egipcias hace unos 4500 años, el saber era exclusivo de unos pocos y se transmitía de forma oral de maestro a aprendiz. No había rollos de papiro donde se explicara cómo levantar un bloque de quinientas toneladas o cómo perforar con paciencia el granito para vaciar un sarcófago. Ese conocimiento era práctico y se basaba en la experiencia adquirida durante generaciones.
Es habitual leer o escuchar que toda esa sabiduría se encontraba en la Biblioteca de Alejandría y que se perdió tras el incendio que sufrió esta en tiempos de Julio César. Pero puede que no fuera así. Los métodos de trabajo en el transporte de piedra, el desarrollo de planos para la construcción de edificios o los trabajos en las canteras para extraer material eran conocimientos que, para los egipcios, no tenía sentido poner por escrito y conservar. De lo contrario, habría llegado alguna copia hasta nosotros, al igual que se han preservado papiros médicos, matemáticos, mágicos y de otras muchas cuestiones.
El icono de los iconos
Algo así debió de suceder con el paradigma de las antiguas construcciones egipcias, la Gran Pirámide que el faraón Keops ordenó erigir en la meseta de Guiza. Gracias a los textos, sabemos que fue este rey su impulsor hacia el año 2550 a. C. Según las últimas dataciones, su gobierno se prolongó durante unas tres décadas. Conocemos los lugares de donde proceden los bloques de caliza de la colosal construcción –la cantera de Tura– y los de granito –la cantera de Asuán–. Pero todo lo que rodea a cómo se construyó es aún mera suposición. La pregunta sigue esperando quien la responda: ¿cómo lo hicieron?
Para resolver el enigma, lo mejor que podemos hacer es empezar por la elección de los emplazamientos. En el Egipto de los faraones, el espacio que iba a albergar una construcción era lo más importante. Antes que pensar en el tipo de edificio y su tamaño había que escoger cuidadosamente la ubicación, que no se elegía ni por las vistas ni por la facilidad que pudiera suponer para la ejecución de las obras. Cada sitio recreaba un escenario sagrado y divino; el lugar donde la divinidad se manifestaba a los mortales.

El significado de esos lugares se ha perdido, pero la sacralidad de los espacios que acogían templos o necrópolis es innegable. En el caso de la Gran Pirámide, conocemos por textos posteriores a Keops que la meseta de Guiza fue un centro de peregrinaje a lo largo de milenios, vinculado primero al culto del sol y luego a Osiris, el dios de la muerte. Allí debió de haber una suerte de horizonte mágico en el que los ritos de adoración al sol y al faraón como encarnación de la divinidad jugaban un papel importante.
No conservamos planos de la Gran Pirámide, pero podemos imaginarnos cómo eran por los que sí nos han llegado de otros monumentos. Algunas tumbas de la necrópolis tebana, en el actual Luxor, ofrecen pistas al respecto. Poseemos papiros y ostraca –lascas de piedra caliza usadas como soporte para el dibujo– con los planos de varias tumbas del Valle de los Reyes. Contamos, entre otros, con uno casi completo de la tumba de Ramsés IX, y varios papiros del Museo Egipcio de Turín nos describen el interior de la que fue la última morada de Ramsés IV.
Pero estos planos de la dinastía XX (hacia 1000 a. C.) son meros bocetos que solo muestran el dibujo de las galerías o el trazado de las cámaras y los contenidos que pudieran albergar tras el funeral. Por desgracia, no hay referencias sobre las medidas de sus pasillos, la altura de las paredes o la orientación del monumento. Muy posiblemente, los planos con toda esta información existieron, pero el tiempo nos los ha arrebatado.
No menos enigmático es saber quién los diseñaba. Si hablamos de arquitectos, la ambigüedad en los títulos empleados en Egipto nos plantea muchas dudas. No existía el término arquitecto, tal y como lo entendemos hoy. Tenemos que deducir que el cargo de jefe de las obras del faraón debía de ser ostentado por la persona que realizaba este tipo de tareas, pero no resulta seguro. Tres nombres protagonizan la historia egipcia en este campo.
Tres reyes de la arquitectura
El primero de ellos es Imhotep, mano derecha del faraón Zoser (2650 a. C.), a quien se le atribuye la construcción de la pirámide escalonada en Saqqara, el primer gran edificio de piedra de la historia. Poco después nos encontramos con el jefe de las obras del faraón Keops, Hemiunu, a quien se responsabiliza de la Gran Pirámide, en cuyo sector oeste se encuentra su propia tumba. Mucho más clara es la función como arquitecto de Ineni.
En el texto autobiográfico que podemos leer en su tumba de Luxor, Ineni asegura que él realizó algunas de las ampliaciones del templo de Karnak para Tutmosis I (1525 a. C.) y, lo más importante, que fue elegido por ese mismo faraón para excavar en la roca de la montaña de Tebas la primera tumba del Valle de los Reyes: «Nadie oyó nada y nadie vio nada», nos relata Ineni para resaltar el total secretismo con el que se llevaron a cabo los trabajos. Por todo ello deducimos que este individuo era arquitecto, pero no deja de extrañar que también se nos presente como administrador de los graneros de Amón.
Ineni se vanagloria de haber construido el sepulcro del faraón y ampliado sus templos, pero ese pavoneo es una excepción. Un ejemplo: el mencionado Hemiunu no saca pecho en su tumba señalando que él es el constructor de la Gran Pirámide de Keops. No nos dice absolutamente nada.
Uno de los problemas que han traído de cabeza a los ingenieros desde que el arqueólogo inglés Flinders Petrie se acercara a él, a finales del siglo xix, es el trabajo de la piedra. El resultado salta a la vista. Del mismo modo que nos preguntamos cómo levantaron las pirámides, habría que preguntarse cómo pudieron trabajar piedras tan duras.

Sin roca que se resista
La respuesta resulta más sencilla de lo que parece a simple vista. No reconocerla, en muchos casos, es una prueba más de nuestra arrogancia a la hora de afrontar estos enigmas históricos. Nuestra tendencia a comparar cómo lo hicieron ellos con cómo lo haríamos nosotros nos desvía por completo de la realidad. Los antiguos egipcios emplearon herramientas de cobre, sierras, cinceles, mazos de madera o bolas de dolerita o granito negro, una roca durísima. Con ellas podían rebajar y perforar el granito.
Se trata de un proceso muy lento y costoso, pero el resultado es prodigioso, como podemos admirar todavía. Estas herramientas han llegado hasta nosotros y, lo más importante de todo, también contamos con minuciosas y realistas representaciones de los talleres y de las canteras en donde se nos describe el trabajo con la piedra y su posterior transporte.
Se piensa que el cobre es un metal blando y que no puede utilizarse para cortar materiales como el granito. Sin embargo, el cobre endurecido puede ser un arma extraordinariamente dura, tanto como el hierro. Prueba de ello es que en muchos de los bloques han quedado las marcas dejadas por la herramienta; huellas que coinciden con las logradas en investigaciones de arqueología experimental modernas con las que se ha reproducido al detalle el trabajo de los antiguos talleres. No, no usaban rayos láser ni licuaban la piedra, como algunos proclaman.
Denys Allen Stocks, un ingeniero y egiptólogo de Mánchester, es tal vez la persona que mejor ha trabajado este asunto. A partir de réplicas exactas de las herramientas descritas en las tumbas, ha podido reproducir paso a paso el vaciado, por ejemplo, de un bloque de granito para crear un sarcófago, o el cortado de un enorme sillar de piedra caliza destinado a una gran pirámide.
Batir el cobre
En opinión de Stocks, los antiguos egipcios empleaban principalmente dos tipos de herramientas de cobre. Por un lado se encuentran las sierras, algunas de las cuales se han preservado en muy buen estado; y por otro, los tubos dentados para vaciar, herramientas que solo conocemos por sus antiguas representaciones.
Grosso modo, para fabricar un sarcófago de granito primero se extraía la piedra de la cantera, seguramente usando cuñas de madera humedecidas que iban resquebrajando la veta poco a poco. Después, el bloque se perfilaba con sierras de cobre. Una vez obtenido un sillar del tamaño deseado, se vaciaba su interior por medio de tubos de cobre que iban penetrando en la piedra con la ayuda de un arco.
Al sacar el tubo, dentro quedaba un tarugo que se rompía fácilmente con un mazo y dejaba un espacio vacío. Repitiendo esta operación a lo largo de todo el interior se conseguía vaciar por completo el sarcófago. El resultado final se obtenía con el pulido de la piedra mediante arena y otros abrasivos, que eliminaban todas las impurezas y dejaban un aspecto reluciente.
Este proceso que se explica en unas pocas líneas llevaba muchos meses de exigente y tedioso trabajo. En la actualidad, una sierra con punta de diamante puede cortar un bloque de granito en pocas horas, pero hace 4500 años el trabajo era increíblemente más lento. Al basarse en herramientas de cobre, el afilado y la puesta a punto debían ser continuos.
Finalmente, «solo» quedaba mover los bloques desde las canteras o los talleres de los artesanos hasta la ubicación que se había determinado. Aunque parezca mentira, de este dato contamos con más información que de cualquier otra fase de la construcción. Y debemos tener clara una cosa: hay que olvidar la idea legendaria de cientos de esclavos arrastrando los sillares sobre rodillos de madera, forzados a latigazos. La información de las aldeas de constructores de las pirámides que ha llegado hasta nosotros nos habla de obreros muy cualificados y bien remunerados. De lo contrario, no podríamos explicarnos la extraordinaria precisión en el acabado del monumento.

Transportistas de alto nivel
Contamos con varias representaciones en donde se aprecia con claridad cómo era el transporte de los bloques. En Deir El-Bersha, la tumba de Djehutihotep, un importante personaje que vivió hace casi 4000 años, nos muestra a cerca de 180 obreros, repartidos en cuatro hileras, arrastrando un enorme coloso de piedra.
Lo hacen sobre un trineo. En el regazo del coloso, un hombre marca el ritmo del arrastre y a los pies de la figura podemos contemplar a otro obrero que se encarga de derramar líquido sobre la arena de la calzada para evitar que el trineo se queme por la fricción. No es el único ejemplo del empleo de trineos incluso para pequeños bloques de piedra. En Guiza, la conocida tumba de Idu, un funcionario real, también cuenta con una imagen similar.
Pero existían otros bloques mucho más grandes, como el obelisco inacabado de Asuán, que tiene 42 metros de longitud y pesa casi 1300 toneladas. Ni los egiptólogos ni los ingenieros tienen la menor idea de cómo pretendían moverlo hasta su emplazamiento.
Una vez fabricados los bloques y transportados hasta el lugar en donde se iban a usar, quedaba otra complicada tarea: colocarlos en su sitio.
Sabemos que las pirámides se orientaban según los puntos cardinales o hacia los equinoccios, en función de la posición de ciertas estrellas. Lo que desconocemos aún es cómo se construían.
Existen decenas de teorías, muchas descabelladas, pero lo cierto es que solo podemos intuir la fórmula. Lo más aceptado y probable es que se apoyaran en el uso de rampas, pero infinidad de preguntas permanecen sin respuesta. Algunas son tan aparentemente sencillas como saber cómo hacían girar las piedras en las rampas al llegar a una esquina. Parece sencillo, pero cuando la arqueología experimental intentó hacerlo en los años 90 en una maqueta de casi 20 m de alto de la Gran Pirámide, los bloques se venían abajo.
Cuesta arriba
Algunos textos antiguos citan las rampas como el método empleado para subir los bloques a medida que la pirámide crecía en altura. Incluso la tumba en Luxor de Rejmira, noble cortesano de la XVIII dinastía, parece representar la erección de una rampa en la construcción de un edificio. Restos de una de ellas se han encontrado junto a la Gran Pirámide en Giza.
El ingeniero francés Jean-Pierre Houdin, famoso por sus novedosas teorías sobre la forma de erigir estos descomunales monumentos, ha propuesto recientemente la existencia de una rampa interior; no deja de ser una hipótesis más, muy plausible pero igual de indemostrable que el resto.
Como dice el egiptólogo estadounidense Mark Lehner, cuando hablamos de la construcción de pirámides y otros grandes edificios faraónicos, quizá olvidamos el factor más importante: el tiempo. Y lleva razón: ¿qué prisa tienes cuando estás trabajando para la eternidad?
El síndrome de fatiga crónica, también conocido como encefalomielitis miálgica (ME/CFS), sigue siendo un enigma médico. Quienes lo padecen describen la sensación de vivir con las baterías descargadas: cansancio extremo, dolor persistente, problemas de memoria y concentración, y un empeoramiento de los síntomas incluso después de un esfuerzo mínimo. Aun así, muchos pacientes pasan años sin diagnóstico o son acusados de exagerar o inventar sus síntomas.
La ausencia de una prueba de laboratorio que confirme la enfermedad ha alimentado el escepticismo. Hoy en día, el diagnóstico se basa en la exclusión de otras patologías y en la narración de síntomas, un proceso largo y frustrante que deja a miles de personas en la incertidumbre.
Pero la ciencia empieza a ofrecer un cambio de rumbo: investigadores de la Universidad de Cornell han identificado un patrón molecular en la sangre que distingue a los pacientes con ME/CFS de las personas sanas. No se trata todavía de una prueba clínica lista para usarse, pero sí de un hallazgo que marca un antes y un después.

El descubrimiento en la sangre
El equipo analizó muestras de plasma de 93 pacientes con ME/CFS y 75 individuos sanos. La clave estuvo en estudiar el RNA libre circulante (cfRNA): fragmentos de material genético que las células liberan al torrente sanguíneo durante su funcionamiento normal o cuando están bajo estrés.
Este cfRNA funciona como una huella digital de lo que ocurre en los tejidos. Si el organismo está inflamado, agotado o respondiendo a una infección, esa información se refleja en estos pequeños fragmentos. Los científicos secuenciaron el RNA y aplicaron modelos de aprendizaje automático para buscar patrones característicos.
El resultado fue un modelo basado en 21 genes capaces de distinguir a pacientes y controles con una precisión del 77 %. Es decir, por primera vez se ha logrado una señal biológica clara que podría servir de base para un futuro test diagnóstico.
Un sistema inmunitario alterado
Más allá de la precisión del modelo, el hallazgo ofrece pistas sobre la propia enfermedad. Los investigadores encontraron diferencias importantes en el origen del cfRNA: los pacientes mostraban más fragmentos derivados de células del sistema inmunitario, como monocitos, células T y células dendríticas plasmocitoides.
Estas últimas son conocidas por producir interferones, moléculas clave en la defensa frente a virus. Su exceso en sangre sugiere que el sistema inmunitario de los pacientes podría estar en una especie de estado de activación crónica, como si luchara contra una infección invisible.
Por el contrario, los pacientes presentaban menos cfRNA derivado de plaquetas, lo que podría estar relacionado con alteraciones en la coagulación y la circulación sanguínea, algo que ya se ha descrito en otros estudios sobre ME/CFS.

Lo que no encontraron: virus ausentes
Durante años se ha sospechado que infecciones virales podrían ser el desencadenante del síndrome. Por eso, el equipo buscó en las muestras fragmentos de RNA de virus comunes, como los herpesvirus. Aunque sí detectaron señales de estos virus, no había diferencias entre pacientes y personas sanas. Es decir, la presencia de restos virales no parece explicar por sí sola la enfermedad.
Esto no significa que los virus queden descartados como disparadores iniciales —muchos pacientes relatan que sus síntomas comenzaron tras una infección—, pero sí que el cuadro crónico no se sostiene en una infección activa, sino en un sistema inmune que parece no volver a la normalidad.
Esperanza y cautela
El hallazgo de un marcador en sangre ofrece esperanza a millones de pacientes que llevan décadas reclamando una prueba objetiva. Un diagnóstico más rápido y certero podría mejorar el acceso a tratamientos, prestaciones y apoyo médico, además de reducir el estigma social.
Sin embargo, los propios autores del estudio subrayan que el test aún no está listo para la práctica clínica. El 77 % de precisión implica que alrededor de uno de cada cuatro pacientes sería mal clasificado. Se necesita más investigación con cohortes más amplias y diversas, incluidas personas con ME/CFS asociado a la COVID prolongada.
También falta estudiar cómo cambian estos patrones tras el esfuerzo, cuando los síntomas suelen empeorar drásticamente. Analizar el cfRNA durante esos episodios podría ofrecer todavía más pistas.

Un paso hacia el reconocimiento científico
Aunque no es el final del camino, este trabajo representa un avance decisivo: demuestra que el síndrome de fatiga crónica tiene bases biológicas medibles. Esto supone un golpe a la idea de que es un trastorno “psicológico” o “imaginario”, y valida lo que los pacientes han defendido durante años.
La posibilidad de contar con una prueba de sangre abre no solo la puerta al diagnóstico, sino también al diseño de tratamientos dirigidos. Si el problema está en un sistema inmunitario sobrecargado o agotado, tal vez se puedan desarrollar terapias específicas.
Para una enfermedad que afecta a millones de personas en todo el mundo y que hasta ahora ha sido invisibilizada, este estudio es un rayo de esperanza. La ciencia empieza, por fin, a escuchar lo que los pacientes han dicho siempre: no es todo psicológico, está en la sangre.
Referencias
- Gardella, A. E., Eweis-LaBolle, D., Loy, C. J., Belcher, E. D., Lenz, J. S., Franconi, C. J., ... & De Vlaminck, I. (2025). Circulating cell-free RNA signatures for the characterization and diagnosis of myalgic encephalomyelitis/chronic fatigue syndrome. Proceedings of the National Academy of Sciences. doi: 10.1073/pnas.2507345122
En el competitivo mercado de los smartphones de gama media y alta, las marcas se ven forzadas a acelerar la innovación tecnológica. Para ellos aplican estrategias de precios agresivas para seguir siendo relevantes y captar la atención de los usuarios.
Con el fin del verano, Xiaomi sorprende con una fuerte rebaja en su nuevo POCO X7 Pro, una estrategia para plantar cara a la competencia y atraer a los usuarios que buscan un smartphone potente a precio reducido en la vuelta al cole.

En tiendas como Amazon o Miravia su precio habitual se sitúa en torno a los 247,89€. Sin embargo, la empresa china ha decidido rebajarlo en AliExpress hasta solo 203,60 euros. Esto supone uno de los descuentos más agresivos de este verano.
Cuenta con un potente procesador Dimensity 8400-Ultra de 4 nm y la tecnología WildBoost Optimization 3.0, acompañado de 8 GB de RAM y 256 GB de almacenamiento interno. Su pantalla AMOLED CrystalRes de 6,67 pulgadas brilla con resolución 1.5K, un brillo máximo de 3200 nits y refresco de hasta 120 Hz.
En fotografía, equipa una cámara principal de 50 MP Sony IMX882 con OIS y apertura f/1,5, garantizando capturas nítidas incluso en baja luz. Todo ello respaldado por una batería de 6000 mAh con carga ultrarrápida de 90W, junto a conectividad de última generación con Wi-Fi 6 y Bluetooth 5.4.
Realme aprieta a la competencia con una rebaja histórica en el 14 Pro Plus
Después de la ofensiva de Xiaomi, Realme no se queda atrás y contraataca con una rebaja contundente en su 14 Pro Plus, que ahora puede conseguirse por solo 231,99 euros. Una oportunidad difícil de dejar pasar, ya que en tiendas como Miravia o PcComponentes su precio habitual supera los 299€.

Integra una pantalla curva 1.5K de 6,83 pulgadas con refresco de 120 Hz, brillo máximo de 1500 nits y protección ocular AI con atenuación PWM de 3840 Hz. En su interior equipa el procesador Qualcomm Snapdragon 7s Gen 3 junto a la GPU Adreno 810. Acompañado de 8 GB de RAM y 256 GB de almacenamiento.
En el apartado fotográfico, destaca su cámara principal Sony IMX896 OIS de 50 MP, junto a un sensor periscópico Sony IMX882 de 50 MP con zoom óptico 3X y estabilización OIS. Además suma una lente ultra gran angular de 8 MP. Su batería de 6000 mAh con carga rápida SUPERVOOC de 80W. En el apartado relacionado con la conectividad, se completa con Wi-Fi 6, Bluetooth 5.2, NFC y 5G dual.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.