
La noche del 8 de agosto de 2025, un incendio declarado en una de las capillas orientales de la Mezquita-Catedral de Córdoba volvió a situar al monumento en el centro de la atención internacional. Aunque el fuego fue controlado en poco más de una hora y los daños se han limitado a tres capillas, el suceso recuerda hasta qué punto este edificio, Patrimonio de la Humanidad, es un testigo frágil pero resistente de más de doce siglos de historia.
Más allá de la crónica inmediata del incendio, la Mezquita-Catedral es una síntesis viva de la historia de la península ibérica: un lugar donde se entrelazan las huellas del islam omeya, el cristianismo medieval y las transformaciones arquitectónicas del Renacimiento y el Barroco. Conocer su trayectoria es comprender por qué este templo es mucho más que un icono arquitectónico: es un símbolo cultural único, capaz de sobrevivir a terremotos, guerras y, como hemos visto, a las llamas.
De un emirato independiente al mayor oratorio de Occidente
La historia comienza en el siglo VIII, cuando la dinastía omeya, derrotada por los abasíes en Oriente, halló refugio en la península ibérica. En el año 785, Abderramán I ordenó la construcción de una mezquita en Córdoba que, con el tiempo, se convertiría en la más importante del Occidente musulmán. Para levantarla se reutilizaron columnas y capiteles romanos y visigodos, incorporando una de sus señas de identidad: la doble arcada con dovelas rojas y blancas.
El edificio inicial era ya un prodigio de técnica y simbolismo, pero su verdadero salto de escala llegó en el siglo X, cuando Córdoba, bajo el califato de Abderramán III y su hijo al-Hakam II, se convirtió en una de las ciudades más ricas y cultas del mundo islámico. Al-Hakam amplió el oratorio, erigió un majestuoso mihrab decorado con mosaicos dorados bizantinos y creó una macsura destinada al califa, un espacio ceremonial donde política y religión se daban la mano.
La última gran ampliación llegó a finales del siglo X con Almanzor, que extendió la mezquita hacia el este, añadiendo ocho nuevas naves y multiplicando su capacidad. Con más de 23.000 metros cuadrados, se convirtió en la segunda mezquita más grande del mundo, solo superada por la de La Meca.

Entre la cruz y la media luna
En 1236, Fernando III conquistó Córdoba y consagró el templo como iglesia cristiana. Durante décadas, las transformaciones fueron mínimas: se añadieron capillas y altares, pero se respetó la estructura islámica. La Capilla Mayor se instaló en la antigua macsura, y el mihrab se conservó como un vestigio admirado incluso por los nuevos propietarios.
A finales del siglo XIII y durante la Baja Edad Media, el edificio comenzó a acoger capillas privadas y espacios funerarios de nobles y obispos. Este diálogo arquitectónico entre el islam y el cristianismo se mantuvo relativamente armónico hasta el siglo XVI, cuando una decisión cambiaría para siempre el perfil del monumento.
El quiebre renacentista
En 1523, el obispo Alonso Manrique impulsó la construcción de una gran nave cruciforme en el corazón de la mezquita para albergar la nueva Capilla Mayor. El proyecto, que se prolongó durante más de 80 años y contó con la intervención de tres generaciones de arquitectos, supuso una ruptura radical con la disposición original del templo. La bóveda renacentista se elevó por encima de las cubiertas islámicas, alterando la percepción espacial de las arquerías.
Pese a la oposición inicial del concejo municipal y a las posteriores quejas del emperador Carlos V —quien llegó a lamentar la pérdida de la singularidad original—, la obra se completó y se convirtió en el núcleo litúrgico de la catedral. A esta transformación se sumaron la remodelación del campanario, que incorporó en su interior el antiguo alminar de Abderramán III, y la creación de un coro barroco en el siglo XVIII.
Redescubrimientos y restauraciones
El siglo XIX marcó el inicio de una nueva etapa de reconocimiento patrimonial. En 1882, la Mezquita-Catedral fue declarada Monumento Nacional, y en las décadas siguientes comenzaron campañas de restauración orientadas a recuperar sus elementos islámicos. El arquitecto Ricardo Velázquez Bosco retiró añadidos barrocos y puso en valor espacios como la Capilla de Villaviciosa.
En el siglo XX, las excavaciones dirigidas por Félix Hernández sacaron a la luz restos tardoantiguos y visigodos bajo el edificio, avivando el debate sobre el origen del solar. Más recientemente, las investigaciones arqueológicas han identificado un complejo episcopal anterior a la mezquita, con fases constructivas que se remontan a la Córdoba romana.
En 1984, la Unesco declaró la Mezquita-Catedral Patrimonio de la Humanidad, distinción ampliada a todo el centro histórico en 1994. En 2024, el monumento alcanzó su récord de visitantes con más de 2,18 millones de personas, confirmando su relevancia como uno de los principales destinos turísticos y culturales de España.

Un símbolo en constante riesgo
El incendio del 8 de agosto de 2025 no es el primero en la historia del edificio: en 1910 un cortocircuito dañó su crucero, y en 2001 otro fuego en el archivo destruyó varios documentos. Esta vez, el origen probable ha sido una barredora eléctrica en una zona de almacenamiento, y aunque la rápida intervención de los bomberos evitó daños mayores, el derrumbe del techo de la capilla de la Expectación y las pérdidas artísticas en su retablo son un recordatorio de la vulnerabilidad de este patrimonio.
La gestión del Cabildo y las medidas de seguridad, reforzadas tras el incendio de Notre Dame en 2019, han sido determinantes para evitar una tragedia mayor. La reapertura parcial al día siguiente del siniestro es prueba de la resistencia de un edificio que ha sobrevivido a guerras, cambios de culto, catástrofes naturales y al paso implacable del tiempo.
Un legado irrepetible
Hoy, la Mezquita-Catedral de Córdoba es un compendio arquitectónico único en el mundo. En sus muros conviven el arte emiral y califal, el gótico, el renacimiento y el barroco. Su bosque de columnas sigue evocando el esplendor de Al-Andalus, mientras la nave renacentista recuerda la ambición monumental de la España cristiana.
El incendio reciente no solo ha puesto de relieve la importancia de la conservación, sino también la necesidad de comprender la historia compleja de este lugar. La Mezquita-Catedral no es un vestigio estático, sino un organismo vivo que, desde hace más de mil doscientos años, se adapta, resiste y continúa inspirando a quienes cruzan sus puertas.
Según Homero y las reelaboraciones míticas posteriores, Eneas fue un héroe de la Guerra de Troya que, en su periplo de regreso al hogar, alcanzó las costa de Lacio. Y es, justamente, este personaje el que se ha elegido para dar nombre a una inteligencia artificial que marca un antes y un después en la investigación epigráfica. Se trata de Aeneas, una IA que no solo ayuda a restaurar textos dañados, sino que, basándose en paralelismos con otras inscripciones, también ofrece hipótesis sobre su datación y procedencia.
El valor histórico de las inscripciones romanas
El mundo romano se caracterizó, entre otras cosas, por la importancia del elemento escrito. Las inscripciones, talladas en piedra, metal o cerámica, formaron parte integral de la vida cotidiana del Imperio. Desde los decretos imperiales hasta los epitafios, estos textos constituyen una fuente esencial para conocer la historia política, social y cultural de Roma. Sin embargo, la interpretación de estas inscripciones plantea serios desafíos para los filólogos. La frecuente fragmentación de los textos, la ausencia de fechas y la vasta dispersión geográfica de la documentación epigráfica a menudo dificultan su contextualización.

La epigrafía romana nos conecta con las voces de un imperio que llegó a dominar cinco millones de kilómetros cuadrados hace más de dos mil años. Cada año se descubren unas 1.500 inscripciones latinas nuevas, lo que refleja tanto la magnitud como la riqueza de este legado. Con todo, a pesar de su abundancia, muchas inscripciones presentan lagunas. Los especialistas intentan resconstruirlas recurriendo tanto a textos paralelos como a su conocimiento del contexto histórico, lingüístico y material. Este proceso, sin embargo, es lento, exige un alto grado de especialización y depende del acceso a amplios recursos bibliográficos.
Así, la inteligencia artificial Aeneas surge como respuesta a esta necesidad histórica y metodológica. Propone un sistema que, además de automatizar parte del trabajo, también amplía la mirada del historiador mediante la detección de conexiones epigráficas menos evidentes.

¿Qué es Aeneas y qué aporta a la epigrafía?
Desarrollado por un equipo internacional liderado por investigadores de DeepMind, Oxford, Nottingham y Warwick, entre otras instituciones, Aeneas es una red neuronal generativa multimodal capaz de contextualizar las inscripciones latinas antiguas. Inspirado en el héroe troyano que, guiado por los dioses, viajó haccia occidente hasta fundar el linaje que daría pie al surgimiento de Roma, el modelo Aeneas también “viaja” a través de las fuentes epigráficas para encontrar paralelos que permitan anclar un texto en su marco histórico.
Su capacidad de restaurar textos con lagunas de longitud desconocida lo convierte en un hito técnico. La aportación más revolucionaria se encuentra en su mecanismo de contextualización. Aeneas no solo busca coincidencias textuales, sino también analogías culturales, lingüísticas y cronológicas.

Una infraestructura sin precedentes: el Latin Epigraphic Dataset
Para entrenar a Aeneas, el grupo de investigación creó el Latin Epigraphic Dataset (LED), el mayor corpus digital de inscripciones latinas hasta la fecha. Este corpus reúne más de 176.000 inscripciones, datadas entre el siglo VII a.C. y el siglo VIII d.C., y procedentes de todo el mundo romano. La información se extrajo y armonizó a partir de tres bases de datos epigráficas fundamentales: la Epigraphic Database Roma, la Epigraphic Database Heidelberg y la Epigraphic Database Clauss-Slaby. Además de los textos, se integraron imágenes (disponibles para el 5% de las inscripciones), una funcionalidad que ha permitido a Aeneas combinar información visual y textual.
Aprender de los paralelos: una herramienta para el historiador
El punto fuerte de Aeneas reside en su capacidad para detectar paralelos. A diferencia de las búsquedas tradicionales, que se basan en coincidencias literales, Aeneas genera representaciones matemáticas enriquecidas con contexto histórico. Así, puede sugerir textos similares por estructura, contenido, función o estilo, aunque no compartan el vocabulario exacto.
En pruebas realizadas en colaboración con los historiadores, se demostró que los paralelos identificados por Aeneas resultaban útiles y pertinentes en el 90% de los casos. Estas conexiones no solo aumentaron la confianza de los expertos en sus hipótesis, sino que también redujeron el tiempo necesario para elaborar interpretaciones. Los estudiosos señalaron, además, que lo que antes podía requerir días de trabajo ahora puede hacerse en minutos.

La IA puesta a prueba: algunos casos de estudio
El Res Gestae Divi Augusti
Para demostrar la utilidad real de Aeneas, los investigadores aplicaron el modelo a la célebre inscripción del Res Gestae Divi Augusti (RGDA), el testamento político del emperador Augusto. Aeneas logró fechar el texto en una horquilla coherente con la cronología aceptada por los expertos, entre el 10 a.C. y el 20 d.C., sin dejarse confundir por las numerosas fechas consulares mencionadas en la inscripción. Mediante mapas de saliencia, además, el modelo identificó elementos clave como la ortografía arcaizante o las referencias institucionales precisas, como el título princeps iuventutis otorgado en el 5 a.C. o la mención del Ara Pacis, consagrada en el 13 a.C. Además, Aeneas identificó como paralelos textos jurídicos romanos de principios del siglo I d.C. Esto confirma la alineación del lenguaje y contenido de la inscripción con la ideología imperial de su tiempo.
Un altar militar en Mogontiacum
Otro ejemplo ilustrativo lo proporciona el altar votivo dedicado en 211 d.C. por Lucius Maiorius Cogitatus en la provincia de Germania Superior. Aeneas no solo propuso una datación correcta (214 d.C.) y una localización precisa, sino que también detectó como paralelo un altar similar dedicado por otro oficial en la misma ciudad en 197 d.C. Tal conexión evidencia una tradición local de inscripciones militares que comparaten fórmulas similares. Este ejemplo destaca la capacidad del modelo para detectar patrones epigráficos regionales y cronológicos, incluso cuando no se dispone del contexto arqueológico.

Una colaboración transformadora entre historiadores e inteligencia artificial
En el mayor estudio colaborativo entre historiadores y sistemas de IA llevado a cabo hasta la fecha, 23 especialistas en epigrafía evaluaron la funcionalidad de Aeneas en tareas reales de investigación. Los resultados muestran que la colaboración entre humanos e inteligencia artificial supera el rendimiento de ambos por separado.
Los expertos lograron mejores resultados en la restauración, la datación y la localización cuando contaban con los paralelos y predicciones dados por Aeneas. Muchos señalaron que el modelo les permitía centrarse en tareas de interpretación en lugar de dedicar tiempo a las búsquedas documentales.

Hacia una nueva forma de reconstruir la historia
Aeneas no pretende reemplazar al historiador, sino ampliar sus capacidades. Su potencia radica en su diseño orientado a la contextualización histórica, en su habilidad para trabajar con lagunas de longitud indeterminada y en su flexibilidad para adaptarse a distintos idiomas y soportes de escritura. Como herramienta de investigación, Aeneas representa un puente entre el análisis filológico tradicional y las nuevas tecnologías.
Referencias
- Assael, Y., Sommerschield, T., Cooley, A. et al. 2025. "Contextualizing ancient texts with generative neural networks". Nature. DOI: https://doi.org/10.1038/s41586-025-09292-5
No son famosas por ello, pero las mutaciones han dado origen a toda la diversidad y riqueza biológica que nos rodea. Estas alteraciones en las moléculas de ácido desoxirribonucleico (ADN) y ácido ribonucleico (ARN) han acompañado a los seres vivos desde sus orígenes. Sin el concurso de estos inesperados errores, no existiría la abundancia ni la variedad de formas que pueblan el planeta. Todas las características que muestran los seres que basan su existencia en el ADN o el ARN han ido apareciendo por los cambios progresivos que sufrían estas moléculas: desde las hojas de las plantas hasta el pelaje de los mamíferos, pasando por sus complejas rutas metabólicas. Cualquier rasgo biológico en el que pensemos no existía hasta que una mutación al azar lo originó.
A pesar de su relevancia, solamente en ocasiones puntuales les prestamos atención. Por ejemplo, cuando alteran la dinámica de un virus creando nuevas variantes que dificultan la superación de una pandemia. Sin embargo, estos cambios suceden constantemente. Tenían lugar hace miles de millones de años cuando se originó la vida, y es posible que mientras lees este texto también algo esté alterándose en el ADN de alguna de tus células. Bajo un mismo término describimos el mecanismo culpable de eventos trascendentes, como el origen de nuestros tumores y el de nuevas especies en la historia de la vida, y el responsable de otros sucesos anodinos, como la pérdida de una molécula de adenina en una región insulsa del genoma de una célula de un folículo piloso o en el ADN de la hoja de un árbol.
Esta disparidad de consecuencias nos obliga a tomar conciencia de que hay que aceptar que el término engloba situaciones con un mismo origen pero repercusiones muy distintas. Son cambios en el material genético, ADN o ARN (hablaremos principalmente del primero), susceptibles de transmitirse. Es decir, en su definición más básica, es un cambio en un texto, en el manual de instrucciones de los seres vivos dependientes de material genético. Lo que no podemos anticipar es si esa alteración se va a consolidar o propagar ni si tendrá importancia para su portador y su descendencia.
El motor biológico más incomprendido
Cualquier cambio en las piezas que conforman el ADN podemos convalidarlo por mutación: pérdidas, ganancias, reordenamientos, translocaciones, etcétera. Las formas de mutar son numerosas, pero no hace falta entrar en detalles: es mucho más esclarecedor centrarse en analizar lo variopinto de sus efectos. En el ADN (o ARN) de un virión o partícula viral (un soldado del ejército de virus), una mutación puede implicar que sintetice una de las moléculas de proteína que lo rodean con una forma tridimensional sutilmente distinta a la de otros miembros de su especie. Esto podría ocurrir si, al ser mutante, el material genético del virión tuviese alteradas algunas letras en el texto que dicta cómo construir la proteína. Imaginemos que produce una proteína novedosa que luce aspecto de interrogación (¿) en lugar de la forma original de exclamación (¡). Esto podría evitar que los anticuerpos del sistema inmunitario del hospedador reconociesen a la nueva proteína, si utilizaban la original como referencia para localizar al agente invasor.
Este tipo de situación se repite frecuentemente en la evolución de nuestros agentes patógenos, a los que la mutación ayuda azarosamente a escapar de nuestras defensas. No obstante, también ocurre con similar probabilidad que la modificación en el material genético del virus dote a la proteína de una nueva forma tridimensional que no es lo suficientemente distinta (por ejemplo, I) como para impedir que las defensas del hospedador la reconozcan. Una mutación no es otra cosa más que un cambio, trascendente o no; todo dependerá de dónde, cuándo y cómo ocurra y cuánto material genético se altere.
De hecho, para ilustrar la amplitud de situaciones que abarca un mismo término, podemos empezar con una división muy sencilla. En las clases de medicina, la mutación se explica como el origen de numerosos procesos oncológicos que descontrolan a las células y como la causante de horribles síndromes. Por el contrario, al hablar de evolución en biología, se define como la fuente única de toda la variabilidad de la vida; la responsable, por ejemplo, de que las aletas de los peces diesen lugar a extremidades que permitieron a los vertebrados poblar la tierra firme hace unos 400 millones de años, o la causa de que nuestra especie sea un primate capaz de hablar. La mutación también es la fuente de la variedad de formas y colores que adquieren plantas, animales, hongos, etcétera. Sin esas alteraciones no habría bioquímica, o mejor planteado: no habría flores de colores ni mariposas, ni cerebros para observarlas y disfrutarlas.

Mutaciones cotidianas e invisibles
Un panorama tan diverso como el que rodea el estudio de este fenómeno exige abrir una serie de interrogantes: ¿es normal que mute el ADN? ¿Por qué se producen las mutaciones? ¿Ocurren al azar? ¿Por qué distintas alteraciones tienen distinta importancia? ¿Pueden conseguir que en las generaciones venideras aparezcan seres humanos con garras de metal, como en los superhéroes de ficción?
Empecemos por la primera pregunta: ¿es esperable que el ADN mute? Sin duda, la respuesta es sí. El material genético es susceptible de estropearse, como todo lo material. El ADN y el ARN son ácidos grandes y complejos que encadenan largas sucesiones de pequeñas moléculas que se pueden ver degradadas, alteradas, desordenadas o modificadas de distintas maneras, al igual que cualquier compuesto químico.
Todo ello ocurre a pesar de que el material genético siempre se encuentra protegido, porque reside en el interior más profundo de nuestras células (el compartimento llamado núcleo que tenemos hongos, plantas y animales) o habita resguardado por una armadura de membranas y proteínas en virus y bacterias. Además, el ADN posee una estructura química robusta que permite preservar de forma extraordinaria el ordenamiento de sus piezas. Precisamente esa colocación de moléculas de forma ordenada codifica los mensajes; la modificación de esta disposición de elementos es la que puede traer consecuencias.
Una misma causa, mil consecuencias
El ADN es una macromolécula especialmente sólida, pero muy exigida y explotada en sus labores. Entre sus tareas cotidianas, debe ser leído por ciertas moléculas de la célula que capitanea. Así tiene que ocurrir para que se puedan aplicar las órdenes que el ácido desoxirribonucleico recoge en sus genes, pero, además, ha de ser copiado profusamente. El texto que alberga debe transmitirse idéntico a las nuevas células que se forman. En nuestro cuerpo, algunas células se renuevan a diario, lo cual implica, entre otros detalles, copiar la extensa molécula de ADN completa como quien replica un enorme texto letra a letra. Por ejemplo, nuestro intestino posiblemente sea del todo distinto de cómo era la semana pasada. La diferencia es indetectable porque se ha reconstituido siguiendo las mismas instrucciones, leyendo nuestro ADN personal y particular, pero, sin duda, es otro órgano. En resumen, la función rutinaria del material genético implica que debe pasar por procesos de copiado permanente que lo exponen a introducir erratas.
Además, hay que recordar que el material genético, sea el nuestro, el de un árbol o el de un virus, está expuesto a las inclemencias del ambiente: agentes químicos, radiaciones, interacciones moleculares, oxidación, etcétera. Todo ello también promueve que ocurran mutaciones. No olvidemos que el ADN es un conjunto de moléculas enlazadas, y, como tal, está sometido a las alteraciones que provocan las fuerzas físicas y químicas. Prueba de ello es que cuanto más tiempo llevamos viviendo, más mutaciones acumulamos, arriesgándonos a que alguna de ellas desencadene un proceso oncológico y ponga en jaque la exquisita coordinación que requiere un cuerpo.
Y no solo es un problema de envejecimiento, sino que de serie ya venimos algo mutados. Se estima –burdamente– que todos nacemos con al menos un centenar de mutaciones en nuestro material genético que no existían en el de nuestros padres del que procede. ¡Y todo esto antes de empezar a utilizar, copiar y exponer nuestro ADN!
¿Y por qué distintas mutaciones tienen distinta importancia?
Pensemos en el ejemplar de la revista que tienes en tus manos. Imagina que todas las hojas que ocupa este artículo apareciesen completamente en blanco. Si has perdido el contenido de media docena de páginas, seguramente pensarías que tu ejemplar está seriamente dañado. Y al contrario, si solamente apareciese una errata en una palabra del texto –por ejemplo, una e en medio de la palabra mutación–, el defecto podría ser pasado por alto, porque el mensaje se transmite igualmente. Ambas serían mutaciones, pero de distinto calado. No tiene la misma importancia si se logra trasmitir el mensaje que si este queda abortado.
Es difícil anticipar la importancia de una mutación. Las generalizaciones sirven de poco cuando se estudia este mecanismo. Podemos suponer que uno de los factores que afecta a la relevancia del cambio es la cantidad de ADN implicado, pero no es el único. Si mantenemos la metáfora de esta revista, hay mutaciones de una sola letra del texto del ADN, otras que afectan a palabras o frases y otras a artículos o revistas completas. Habitualmente, se cumple la lógica, y es más probable que produzcan un resultado impactante las mutaciones que afectan a áreas más grandes de material genético, pero puede no tener efecto si esa región se encuentra inactiva o juega un papel secundario. Inversamente, un simple cambio de letra en una frase clave desencadena enfermedades como la anemia falciforme.

Todos nacemos ya mutados
Otro factor determinante para evaluar la trascendencia de una mutación es el lugar y el momento del desarrollo del portador en que ocurre. Pensemos de nuevo en nuestra propia existencia, remontándonos hasta la concepción. Hubo un día en que fuimos un óvulo que acababa de recibir un espermatozoide. Ambos juntaron sus aportaciones de ADN para producir la que sería nuestra molécula personal y única. Ese óvulo fecundado, nuestra primera célula, empezó enseguida a copiarse, a dividirse, al compás de lo dictado por el nuevo ADN. Primero dio lugar a dos células, luego a cuatro, a ocho… En las divisiones sucesivas, cada una de las células iba leyendo distintas partes de las copias de nuestro particular ADN, que dotaban a los linajes celulares de un destino: un grupo acabaría constituyendo el sistema nervioso; otro, las extremidades; otro, el hígado, etcétera.
En esa dinámica, un cambio en la molécula de ADN de una célula que fuera a ser la madre de todas las que formaran –por ejemplo, nuestro sistema nervioso– se propagaría a millones de ellas. Pero si esa mutación afectara a una parte del texto del ADN cuyas instrucciones no participan en la construcción del, no importaría. Es decir, las modificaciones que ocurren en etapas tempranas del desarrollo pueden copiarse en millones de células derivadas y es más probable que tengan consecuencias visibles. Por el contrario, una alteración en la etapa adulta –imaginemos una célula de la piel– tiene, en principio, menos potencial: podría simplemente producir un lunar (aunque también podría dar lugar a un tumor).
Todavía más interesantes son las implicaciones en nuestras células reproductoras. Como se ha dicho, una mutación en una célula de nuestra piel, pulmón o hígado puede causarnos una enfermedad o un cáncer que nos elimine. O puede carecer de efecto. Ocurra lo que ocurra, solamente adquiere importancia en nuestro cuerpo y no más allá, porque morirá con él. Quizá sea muy trascendente para el individuo, pero no para la historia de la vida. Por el contrario, si ocurre en uno de nuestros óvulos o espermatozoides, y ese ejemplar resulta el elegido para dar lugar a un descendiente, el hijo adquirirá la mutación en su primera célula y, por consiguiente, en los 40 billones que se generarán a partir de ella. No solo eso, sino que las células reproductoras de nuestro vástago también la portarán, y, como consecuencia, todos sus futuros descendientes. Es decir, no es lo mismo que tu revista tenga una página en blanco porque se ha introducido accidentalmente una hoja vacía, a que ocurra en los miles de ejemplares de la tirada porque se ha estropeado la máquina impresora. Lo primero te afectaría a ti, lo segundo al total de los ejemplares y a las futuras tiradas.
La mutación como lotería genética
Al margen de las enfermedades, las mutaciones también ostentan el mérito de ser el mecanismo que ha generado toda la variabilidad de la vida. La existencia de seres dispares como los animales, las plantas, los hongos, las bacterias y todo lo que puebla el planeta con ADN en su interior se explica porque el material genético que se originó hace unos 4000 millones de años ha ido acumulando mutaciones. No obstante, no debemos olvidar que son errores aleatorios; lo esperable es que el resultado sea adverso. Imaginemos una orquesta que se dispone a tocar una obra sinfónica. Si desafinamos un instrumento al azar, lo más probable es que el concierto resulte desastroso, al menos peor que si hubiera una completa armonía.
Sin embargo, a lo largo de la historia de la vida ha habido suficientes intentos y tiempo, mucho tiempo, para que hayan surgido errores que han dado lugar a novedades funcionales. Nuestro cerebro no tiene recursos para procesar lo que significa que miles de millones de seres vivos hayan replicado su ADN miles de millones de veces durante miles de millones de años. De hecho, si tecleásemos letras al azar en una hoja en blanco una cantidad de veces equivalente, muchas veces obtendríamos textos coherentes. De forma análoga han aparecido nuevos mensajes en las secuencias genéticas que crean novedades en los seres, algunas de las cuales han resultado operativas, ya sean mejores, iguales o peores que la versión original. Funcionan y sus portadores sobreviven y, por tanto, las trasmiten. De ahí venimos todos, de esa acumulación de errores. Eso sí, no cabe duda de que la mayoría de los cambios han provocado modificaciones nocivas y deletéreas, frases sin sentido, pero los resultados desastrosos no los observamos. Solo está entre lo vivo aquello que surgió por azar, funcionó y pudo transmitirse.
Por ello, de la mutación se dice que tiene carácter preadaptativo, que quiere decir que las alteraciones ocurren independientemente de su trascendencia, y solamente las que son adaptativas, las que permiten la supervivencia de sus portadores y no les dificultan la existencia, tienen papeletas para perdurar. Si son nocivas y destruyen al portador, no se trasmiten, así que carecen de importancia evolutiva. Ni siquiera vemos su rastro, igual que no detectamos la mayoría de los abortos espontáneos que ocurren en las primeras etapas de la gestación por mutaciones tempranas (se estima que suceden en la mitad de las fecundaciones). Resulta complicado asumir la importancia que tiene en nuestra existencia un fenómeno que acontece al azar.

El azar tiene sus preferencias
Eso sí, no debemos caer en otro de los trampantojos habituales que no regala el estudio de la mutación. Que el azar sea su motor desencadenante no quiere decir que todas las alteraciones sean posibles, ni tampoco equiprobables. De hecho, hay numerosas mutaciones que reaparecen frecuentemente más de lo que correspondería en un reparto al azar de papeletas. Bien conocidos son algunos casos de cáncer que se disparan por daños o errores frecuentes en nuestro genoma (por ejemplo, producidos por la conocida mutación del gen KRAS). Ciertas zonas de nuestro ADN son más susceptibles de modificarse que otras, porque cada especie tiene sus puntos débiles, igual que ciertos coches tienden a sufrir averías en el embrague y otras marcas queman antes los frenos. La razón fundamental es que la molécula de ADN adquiere conformaciones tridimensionales que dejan regiones más expuestas que otras.
Sin embargo, la existencia de ciertas alteraciones recurrentes no nos permite anticipar, ni mucho menos, a dónde se encamina nuestra especie, por mucho que la ficción se haya empeñado en presentar propuestas originales. La mutación es un cambio sobre el material preexistente, sobre una molécula orgánica que dirige a otros compuestos químicos, así que no parece probable que vaya a permitirnos desarrollar esqueletos metálicos o visión láser. Aunque los cambios futuros tampoco tienen por qué ser simples o aburridos, más allá de los meros cambios en la coloración de la piel, los ojos o el pelo. Quizá incluso demos lugar a nuevas especies, si resistimos suficiente tiempo entre los supervivientes del planeta.
La vida escribe con lo que tiene
Durante mucho tiempo se creyó que a lo largo del proceso evolutivo solo ocurrían pequeños cambios graduales y progresivos, y hoy sabemos que eso no es cierto. Hasta la aparición de la genética del desarrollo, se postulaba que todas las novedades de la vida se habían producido paulatinamente, y que carecíamos de restos de algunas especies en el registro fósil que nos impedían ver ese proceso de transición paulatina. El hallazgo de ciertos genes, fundamentales en los seres pluricelulares (los bautizados como genes homeóticos), permitió concluir que no era necesario buscar los eslabones perdidos entre los animales con aletas y aquellos con extremidades, o entre los distintos tipos de flores en las plantas.
Las mutaciones que implican grandes cambios, particularmente en la evolución, son posibles. La alteración de algunos genes produce pequeños efectos, pero las de otros, como los citados homeóticos –esencialmente en etapas tempranas del desarrollo–, causan enormes reorganizaciones corporales. Todo ello a pesar de que no hay nada que diferencie marcadamente un gen homeótico de otro cualquiera; unos y otros no son más que distintas porciones de la molécula del ADN.
De nuevo, la mutación nos regala su característica manía de resultar difícilmente predecible en sus consecuencias. Eso sí, en cualquier caso, no podemos olvidar que la vida siempre trabaja sobre material preexistente. Es decir, aquellas novedades que surjan tendrán que aparecer modificando un texto escrito en el idioma que emplea el código del ADN, que solamente utiliza unos ladrillos concretos para construir los organismos vivos, los aminoácidos, que son el andamiaje de las proteínas. Por tanto, no es esperable que desarrollemos la capacidad de disparar rayos por los ojos, pero no es grave porque es mucho más interesante tener cerebros desarrollados que nos permiten entender la vida. Y, estos sí, surgieron por mutación.
Perder a alguien cercano es una experiencia que muchos describen como "un vacío en el pecho" o "un nudo permanente en el estómago". Pero más allá de la tristeza, la ciencia empieza a demostrar que el duelo intenso puede convertirse en una amenaza real para la salud. En Dinamarca, un equipo de investigadores siguió a 1.735 personas durante diez años tras la muerte de un familiar. Lo que descubrieron fue impactante: quienes experimentaron un duelo persistente y elevado tenían un riesgo de muerte casi el doble de alto.
Las emociones intensas del duelo pueden debilitar el cuerpo y afectar el corazón. Esto se conoce popularmente como "el síndrome del corazón roto", y aunque suene a metáfora, tiene bases fisiológicas reales. El estudio danés confirma que no se trata solo de tristeza: el dolor emocional crónico puede aumentar el uso de servicios de salud, de medicamentos psicotrópicos, y en última instancia, acortar la vida.
Los científicos clasificaron a los participantes en cinco trayectorias de duelo según la intensidad y duración de los síntomas. El grupo más vulnerable, que representaba un 6 % de los participantes, mostró niveles altos y constantes de dolor emocional incluso tres años después de la pérdida. Y fue ese grupo el que tuvo más riesgo de muerte en los años siguientes.

El duelo persistente afecta al cuerpo durante años
No se trata de sentir tristeza por unos meses. El estudio siguió a los participantes desde antes de la pérdida, luego a los seis meses y nuevamente tres años después. Se identificaron cinco tipos de trayectorias emocionales: desde quienes apenas mostraban síntomas hasta quienes mantenían un duelo elevado de forma persistente. Y la salud a largo plazo fue muy distinta entre ellos.
Los que sufrieron un duelo intenso y duradero acudieron más al médico y usaron más medicamentos psiquiátricos. Durante los primeros siete años tras la pérdida, este grupo tuvo un mayor número de consultas médicas, incluidas las atenciones de urgencias.
Además, presentaron más prescripciones de antidepresivos, ansiolíticos y sedantes, lo que indica un sufrimiento que se volvía también físico y clínico.
También se registró un uso mayor de servicios de salud mental. Las personas con duelo persistente tenían casi tres veces más probabilidades de buscar ayuda psicológica. Sin embargo, los investigadores alertan que, pese a recibir atención, muchos seguían sintiéndose igual de mal incluso una década después. Lo que sugiere que la atención actual podría no estar siendo suficiente para los casos más graves.
Cuando el corazón emocional afecta al corazón real
Una de las conclusiones más inquietantes del estudio es que el duelo intenso puede traducirse en una mayor probabilidad de morir. El grupo con síntomas persistentes tuvo una tasa de mortalidad un 88 % mayor que el grupo con menor nivel de síntomas. ¿Puede el sufrimiento emocional afectar directamente al cuerpo hasta ese punto?
La respuesta de la ciencia es cada vez más clara: el estrés del duelo puede desencadenar problemas físicos graves. El corazón roto no es solo una expresión poética: se ha documentado un tipo de miocardiopatía inducida por estrés que imita un infarto y que puede aparecer tras una pérdida emocional intensa. A esto se suma el debilitamiento del sistema inmunitario, la aparición de insomnio crónico, hipertensión y enfermedades inflamatorias.
Este fenómeno es especialmente preocupante en personas que ya tienen alguna enfermedad o factores de riesgo, como bajo nivel educativo o escaso apoyo social. La suma de estas condiciones puede convertir al duelo en un catalizador de deterioro progresivo. Y aunque la mayor parte de las personas no experimentan esta persistencia en el tiempo, un pequeño grupo queda atrapado en un dolor constante que afecta cada aspecto de su existencia.

Cómo reconocer las trayectorias del duelo
No todos los duelos se viven igual. El estudio identificó cinco trayectorias distintas basadas en cómo evolucionaban los síntomas a lo largo del tiempo. El grupo de "duelo bajo" era el más común, seguido por trayectorias con síntomas moderados que disminuían, y otros con picos tardíos de dolor emocional. El grupo más vulnerable fue el de "duelo alto persistente".
Detectar esas trayectorias podría ser clave para prevenir complicaciones a largo plazo. Los investigadores sugieren que los profesionales de salud podrían identificar a las personas en riesgo incluso antes de la pérdida, especialmente en entornos de cuidados paliativos.
Estas personas podrían beneficiarse de un seguimiento más cercano y de intervenciones adaptadas desde el inicio del proceso.
El dolor emocional puede manifestarse como agotamiento, problemas para dormir, ansiedad constante o retraimiento social. Cuando estos síntomas persisten más allá del primer año, podría tratarse de un duelo complicado o prolongado, reconocido clínicamente. En estos casos, el tiempo por sí solo no cura, y la intervención profesional se vuelve esencial.
El papel de la atención primaria
Uno de los hallazgos más importantes del estudio es que los familiares con síntomas persistentes de duelo tenían mayor contacto con la atención primaria, como visitas al médico de cabecera. Esto representa una oportunidad: los profesionales de salud están en una posición ideal para detectar y ayudar.
La medicina de familia puede ser la primera línea de apoyo en los casos de duelo complicado. Los médicos pueden identificar patrones de sufrimiento emocional a través de las consultas. Incluso podrían empezar el apoyo antes de la pérdida, preparando al familiar para el duelo y ofreciéndole recursos.
Los autores destacan que, a pesar de tener más acceso a servicios, muchos familiares continúan con altos niveles de sufrimiento. Esto apunta a una necesidad urgente de mejorar las estrategias de intervención, incluyendo terapias más personalizadas, mayor acceso a psicólogos y seguimientos prolongados.
El duelo no es una enfermedad, pero puede volverse un factor de riesgo grave si no se acompaña correctamente.

Una oportunidad para actuar a tiempo
El mensaje del estudio es claro: el duelo puede matar, pero también puede prevenirse el daño si se actúa a tiempo. Identificar a las personas en riesgo, entender sus trayectorias emocionales y ofrecerles apoyo real es una responsabilidad de los sistemas de salud, de las familias y de la sociedad.
El dolor por una pérdida no debe vivirse en soledad ni minimizarse. Sentirse triste es natural, pero cuando ese dolor no cede, cuando se convierte en una sombra permanente, entonces se necesita ayuda. No es debilidad: es una reacción humana ante un impacto profundo. Y la ciencia hoy nos dice que ignorarlo puede tener consecuencias físicas, emocionales y hasta mortales.
Con estudios como este, los investigadores no solo están demostrando la conexión entre emoción y cuerpo, sino también abriendo la puerta a una medicina más humana, que entienda que sanar el corazón también es cuidar la salud.
Referencias
- Nielsen, M. K., Pedersen, H. S., Sparle Christensen, K., Neergaard, M. A., Bidstrup, P. E., & Guldin, M. B. (2025). Grief trajectories and long-term health effects in bereaved relatives: a prospective, population-based cohort study with tenyear follow-up. Frontiers in Public Health. doi: 10.3389/fpubh.2025.1619730
Aunque el reciclaje es una práctica que se ha intensificado en las últimas décadas como consecuencia de las prácticas de consumo contemporáneas, los humanos llevamos milenios haciéndolo. Lo curioso es que, a lo largo de los siglos, no solo hemos reaprovechado materiales como los metales o las piedras. Sin ir más lejos, los romanos también practicaban formas complejas de reciclaje documental: reutilizaban el papiro, uno de los soportes de escritura más valiosos del mundo antiguo. De este modo, los soportes de escritura podían tener múltiples vidas.
A partir del análisis de múltiples documentos papirológicos, los expertos han podido reconstruir las diversas formas en que los papiros se reciclaron en el contexto romano. Así, las evidencias revelan que la escritura en el mundo romano fue una práctica integrada en un ciclo de uso y reutilización continuo.

Reutilizar antes que desechar: una lógica económica y cultural
El papiro era un bien de gran valor tanto en la República como en el Imperio romano. En su mayoría provenía de Egipto, por lo que su distribución en todo el Mediterráneo estaba sujeto a costes de transporte y a una disponibilidad variable según la coyuntura. Por ello, no sorprende que los romanos desarrollaran múltiples estrategias para prolongar la vida útil del papiro, ya fuese escribiendo en él varias veces o empleándolo para funciones distintas a la inicial.
Una de las formas más comunes de reutilización consistía en usar el reverso de los papiros ya escritos. Este tipo de documentos escritos por ambas caras se denominan opisthographai y revelan que, incluso los textos jurídicos, literarios o administrativos podían convertirse en soporte para garabatear borradores, cuentas o listas de la compra cuando se escribía en su reverso. Está práctica se documenta en contextos muy diversos, desde archivos personales hasta centros administrativos: estaba, por tanto, muy extendida.

Borrado, raspado y reescritura: técnicas del reciclaje de papiro
En ocasiones, la reutilización no se limitaba a usar la cara en blanco del papiro. Así, se recurría a métodos físicos para borrar la tinta de los textos anteriores y escribir de nuevo sobre la misma superficie. Esto podía lograrse raspando ligeramente la superficie con una esponja o con otros instrumentos. Aunque no era una técnica infalible —podían quedar huellas del texto anterior—, al menos permitía darle un nuevo uso a un recurso de por sí escaso.
Estos papiros parcialmente borrados y reescritos se conocen como palimpsestos, si bien este término se utiliza con mayor frecuencia en relación con los pergaminos. En el caso del papiro, algunos ejemplares conservados han permitido identificar varios ejemplos en los que las capas superpuestas de escritura cuentan historias dispares, reflejo de los cambios en la función del documento.
Estas capas sucesivas de escritura convierten el soporte en archivo, no solo de un mensaje, sino de su propia historia. Para los investigadores actuales, esta característica ofrece oportunidades extraordinarias para reconstruir tanto los propios textos como las prácticas culturales y hábitos documentales.

Del archivo al mercado: la reventa de papiros usados
Otro dato curioso sobre la reutilización en la antigüedad romana apunta a que los papiros no siempre eran reciclados por sus propietarios originales. En el pasado, también existía un pequeño mercado de materiales usados. En algunos casos, los documentos se vendían o cedían para que los estudiantes o los escribas en formación los reutilizaran como borradores . La reutilización, por tanto, formaba parte de un sistema de circulación más amplio, donde incluso los desechos podían adquirir un nuevo valor.
En este contexto, el papel de las escuelas resulta de especial interés. En varios yacimientos arqueológicos, como los de Oxirrinco en Egipto, se han hallado numerosos ejercicios escolares escritos sobre papiros reutilizados. Todo ello indica que la práctica educativa se alimentaba de materiales ya usados, que permitían ahorrar costes al tiempo que se entrenaba la destreza de los aprendices.

Usos secundarios: embalaje, envoltorios y sellos
Cuando ya no era posible reutilizar el papiro como soporte de escritura, el material todavía seguía siendo útil. Algunos documentos que se conservan muestran signos de haber sido plegados y utilizados como envoltorios o etiquetas. Otros fragmentos, que presentan orificios, podrían haber servido para colgar productos o para acompañar envíos, como una suerte de etiqueta informativa.
Esta transformación del papiro en objeto utilitario refleja una lógica pragmática típicamente romana: ningún recurso debía desperdiciarse mientras pudiera cumplir una función, por modesta que esta fuera. Incluso los documentos oficiales, cuando se volvían inservibles, podían acabar convertidos en tiras para atar objetos o en material de embalaje para proteger mercancías delicadas.

La reutilización institucional en el caso de los archivos
No solo los individuos reutilizaban papiros: también lo hacían las instituciones públicas y privadas. En ciertos archivos se ha comprobado que los documentos administrativos obsoletos se reaprovechaban sistemáticamente, ya fuera para tareas contables, registros internos o correspondencia. De este modo, la vida administrativa del Imperio romano generaba un flujo constante de documentación, pero también una gestión material eficiente.
Una práctica común en el mundo romano
La rica complejidad del mundo romano no solo se manifiesta a través de la lengua, la arquitectura o la religiosidad: también lo hace a través de la reutilización de los soportes de escritura. Este enfoque permite repensar la historia cultural de Roma desde una perspectiva material. En definitiva, el reciclaje de papiros en el Imperio romano refleja una sofisticada cultura documental, en la que nada se desperdiciaba, sino que todo podía disfrutar de una segunda vida. Un legado que, en nuestro presente, resulta más relevante que nunca.
Referencias
- Duckworth, Chloë N. y Andrew Wilson (eds.). 2020. Recycling and Reuse in the Roman Economy. Oxford Unievrsity Press.
En lo profundo de una central nuclear suiza, un grupo de físicos ha conseguido lo que parecía inalcanzable: detectar una señal extremadamente débil de partículas que, pese a atravesar todo a su paso, casi nunca dejan rastro. Los protagonistas son los neutrinos, partículas elementales tan escurridizas que cada segundo atraviesan nuestro cuerpo en cantidades astronómicas sin que lo notemos. Lo asombroso de este logro no es que se haya detectado un neutrino —eso ya se consiguió hace décadas—, sino que se ha observado en un reactor nuclear un tipo muy concreto y raro de interacción que llevaba medio siglo resistiéndose a la observación en estas condiciones.
El experimento, llamado CONUS+, se realizó en el reactor de Leibstadt, en Suiza, con un detector de apenas tres kilogramos de masa activa. En palabras de sus autores, se trata de la “primera observación de una señal de neutrinos con una significancia estadística de 3,7σ” en este contexto, un dato que certifica la solidez del hallazgo. El estudio, publicado en Nature, no solo confirma una predicción formulada en 1974, sino que abre el camino a nuevas formas de explorar la física fundamental e incluso a posibles aplicaciones tecnológicas en vigilancia y control de reactores.
Un tipo de interacción casi imposible de atrapar
En física de partículas, no todos los choques son iguales. Lo que se ha conseguido medir en CONUS+ se llama dispersión coherente elástica de neutrinos con núcleos atómicos (CEvNS). A diferencia de interacciones más comunes, aquí el neutrino no golpea una partícula aislada dentro del núcleo, sino que interactúa con el conjunto de protones y neutrones como si fuera una única entidad. Este proceso aumenta la probabilidad de que se produzca el choque, pero la energía transferida es tan mínima que resulta extremadamente difícil de registrar.
La idea fue propuesta teóricamente por Daniel Z. Freedman en 1974. Sin embargo, no fue hasta 2017 cuando se observó por primera vez, y ocurrió en un acelerador de partículas, no en un reactor. Detectarlo en este último entorno es un reto diferente: los neutrinos del reactor tienen energías más bajas, lo que en principio favorece la coherencia completa del choque, pero obliga a contar con detectores extremadamente sensibles.
El detector de CONUS+ está hecho de cristales de germanio ultrapuro, capaces de registrar energías de apenas 160 electronvoltios. Según el artículo, “este umbral es solo dos órdenes de magnitud mayor que la energía mínima necesaria para crear un par electrón-hueco”, un logro técnico que ha requerido años de desarrollo.

El camino hasta Suiza
El proyecto comenzó en Alemania, en la central nuclear de Brokdorf, donde operó bajo el nombre de CONUS. Entre 2018 y 2022, los investigadores realizaron mediciones que establecieron límites muy precisos a la interacción buscada, pero sin llegar a detectarla. El cierre de esa central llevó a trasladar el experimento en 2023 al reactor de Leibstadt, de 3,6 gigavatios térmicos.
El nuevo emplazamiento implicó retos adicionales: el nivel de protección frente a la radiación cósmica es menor que en laboratorios subterráneos, y el entorno dentro del edificio del reactor impone restricciones de espacio, materiales y acceso. Aun así, las mejoras en el umbral de energía de los detectores y en su eficiencia de disparo permitieron multiplicar por casi diez la tasa prevista de interacciones.
Durante 119 días de operación con el reactor encendido, combinados con periodos de apagado para calibrar el fondo, los investigadores registraron un exceso de 395 ± 106 eventos atribuibles a neutrinos, en línea con las predicciones teóricas del Modelo Estándar.
Cómo se mide lo invisible
Observar CEvNS en un reactor implica diferenciar la señal de neutrinos de un fondo de eventos que la supera ampliamente. La mayor parte de estos eventos de fondo procede de rayos cósmicos y de la radiactividad ambiental, que pueden producir señales indistinguibles si no se filtran adecuadamente.
El equipo de CONUS+ empleó un blindaje de diez toneladas que combina plomo, polietileno y capas dopadas con boro, además de un sistema activo de veto con centelleadores plásticos para detectar el paso de muones cósmicos. El análisis de datos se hizo mediante un ajuste de máxima verosimilitud, comparando los espectros medidos con el reactor encendido y apagado.
Según el artículo, “el resultado implica la concordancia de los datos de CONUS+ con la sección eficaz de CEvNS del Modelo Estándar y con el flujo de antineutrinos estimado a partir de la potencia térmica del reactor”. Esto significa que, además de observar la interacción, han validado que el número de eventos coincide con lo previsto por la física conocida.

Por qué importa este hallazgo
Más allá de confirmar una predicción de hace 50 años, la medición abre nuevas vías para estudiar física dentro y fuera del Modelo Estándar. La dispersión coherente es sensible a todos los tipos de neutrinos, no solo a los electrones antineutrinos que se detectan con la técnica estándar de desintegración beta inversa. Esto permite investigar propiedades como posibles interacciones no estándar o la existencia de partículas mediadoras nuevas.
En un plano más práctico, detectores compactos como el de CONUS+ podrían usarse para monitorizar en tiempo real el funcionamiento de reactores nucleares, midiendo su potencia o la composición de sus isótopos combustibles sin necesidad de acceso intrusivo. También podrían desempeñar un papel en experimentos de astrofísica o en la detección de neutrinos procedentes de supernovas.
Mejoras y futuro del proyecto
El equipo no se ha detenido con este primer resultado. A finales de 2024 instalaron una nueva generación de detectores de germanio, cada uno de 2,4 kilogramos, con umbrales de energía aún más bajos. Mantendrán en funcionamiento uno de los detectores originales para comparar las distintas fases del experimento y garantizar la consistencia de las mediciones.
En el horizonte, el objetivo es reducir las incertidumbres sistemáticas, como la calibración de energía, y aumentar la estadística de eventos, especialmente durante los periodos con el reactor apagado, cuando el fondo se mide con mayor claridad. Esto permitirá poner a prueba teorías más allá del Modelo Estándar y afinar parámetros de interés en física nuclear y de partículas.
Si estas mejoras se cumplen, la colaboración espera que CONUS+ se convierta en un referente mundial en la medición de CEvNS en reactores y que sus datos sean combinados con los de otros experimentos, como COHERENT, para extraer información sobre la estructura de los núcleos y las propiedades fundamentales de los neutrinos.
Referencias
- Ackermann, N., Bonet, H., Bonhomme, A., Buck, C., Fülber, K., Hakenmüller, J., Hempfling, J., Heusser, G., Lindner, M., Maneschg, W., Ni, K., Rank, M., Rink, T., Sánchez García, E., Stalder, I., Strecker, H., Wink, R. & Woenckhaus, J. (2025). Direct observation of coherent elastic antineutrino–nucleus scattering. Nature, 643, 1229–1233. https://doi.org/10.1038/s41586-025-09322-2.
OpenAI ha vuelto a sacudir el tablero de la inteligencia artificial con el lanzamiento oficial de GPT-5, la nueva iteración de su modelo estrella que da vida a ChatGPT. La compañía asegura que no es solo una mejora incremental, sino un salto cualitativo que acerca a sus usuarios a lo que describen como “tener un equipo de expertos con doctorado en cualquier tema” al alcance de un clic.
El anuncio, respaldado por el extenso comunicado técnico publicado por OpenAI, llega en un momento de competencia feroz en el sector, con gigantes como Google, Meta, Microsoft, Amazon, Anthropic y xAI invirtiendo cantidades astronómicas en desarrollar modelos más potentes, rápidos y versátiles. GPT-5 pretende situarse a la cabeza de esa carrera con mejoras sustanciales en razonamiento, precisión, versatilidad y seguridad.
Una evolución hacia el razonamiento profundo
Uno de los avances más destacados que recoge el paper técnico es la integración de un sistema de “pensamiento” interno capaz de decidir cuándo ofrecer una respuesta rápida y cuándo dedicar más tiempo a un análisis profundo. Este mecanismo, denominado GPT-5 Thinking, actúa como un “enrutador” que evalúa la complejidad de la consulta, el contexto y las herramientas necesarias antes de responder.
La consecuencia práctica es que el modelo no solo reacciona más rápido en preguntas sencillas, sino que, cuando el reto lo requiere, despliega un razonamiento más elaborado, explicando pasos intermedios y fundamentando sus conclusiones. Según las pruebas internas, esta capacidad ha permitido marcar récords en benchmarks de alto nivel, desde matemáticas de competición hasta razonamiento científico de doctorado.
Un asistente más preciso y menos propenso a errores
El informe técnico de OpenAI señala una reducción significativa en las llamadas “alucinaciones” —esas respuestas falsas o inventadas que minan la confianza del usuario—. En entornos controlados, GPT-5 mostró un 45 % menos de errores factuales que GPT-4o y hasta un 80 % menos que el modelo o3 de la propia compañía cuando se activaba el modo de razonamiento profundo.

Esta mejora no se limita a la exactitud. El equipo ha introducido un nuevo enfoque de respuestas seguras que sustituye la tradicional disyuntiva entre cumplir o rechazar una petición. En lugar de negarse de forma tajante ante una solicitud potencialmente peligrosa, GPT-5 intenta ofrecer una respuesta útil pero segura, evitando detallar pasos que puedan ser malinterpretados o mal utilizados.
Capacidades que tocan todos los frentes
OpenAI presenta GPT-5 como un modelo capaz de desenvolverse con soltura en múltiples disciplinas. En programación, no solo resuelve problemas técnicos, sino que puede generar aplicaciones completas a partir de descripciones informales. Esta función, conocida como vibe coding, convierte ideas vagas en software funcional, incluyendo diseño visual y optimización de la interfaz.
En el ámbito de la escritura, el modelo demuestra mayor dominio de estilos, formatos y matices culturales, lo que le permite pasar de la creación poética con recursos literarios complejos a informes corporativos de estructura impecable sin perder coherencia ni precisión.
En el terreno de la salud, las pruebas con el benchmark HealthBench evidencian su capacidad para formular preguntas relevantes, interpretar resultados y contextualizar información médica. Siempre bajo la advertencia de que no sustituye a un profesional, GPT-5 ofrece un acompañamiento más informado y adaptado al contexto del usuario.
En su faceta multimodal, mejora de forma notable el análisis de imágenes, diagramas y vídeos, razonando sobre ellos con mayor acierto y profundidad, lo que abre posibilidades en educación, investigación y comunicación visual.
Junto a las mejoras de fondo, el lanzamiento incorpora novedades que afectan directamente a la experiencia de uso. Ahora es posible elegir entre varias personalidades preconfiguradas, desde un estilo conciso y profesional hasta uno más irónico o reflexivo. También se integra con herramientas como Gmail, Google Calendar o Google Contacts para automatizar tareas y gestionar información personal.
La interfaz puede personalizarse con distintos colores y el tono de interacción se adapta sin necesidad de instrucciones detalladas. Sumado a la mayor obediencia a órdenes complejas, el modelo ofrece una experiencia más cercana y alineada con las preferencias de cada usuario desde el primer contacto.

Un despliegue masivo con estrategia escalonada
GPT-5 ya está disponible para todos los usuarios de ChatGPT, aunque con límites distintos según el tipo de suscripción. La modalidad gratuita permite acceder al modelo, pero con un uso diario restringido que después se deriva a una versión mini optimizada para consultas ligeras. Los usuarios de pago cuentan con mayor capacidad de uso y, en el caso de la suscripción Pro, acceso a GPT-5 Pro, la variante de razonamiento extendido que alcanza las cotas más altas en pruebas especializadas.
OpenAI ha aprovechado el momento para liberar también dos modelos de código abierto de menor tamaño, un movimiento que responde a la presión creciente por abrir el acceso a las arquitecturas y pesos de la inteligencia artificial.
Por otro lado, la compañía subraya que el aumento de capacidades ha ido acompañado de un refuerzo en los protocolos de seguridad. GPT-5 ha pasado por 5.000 horas de red teaming, en las que expertos han buscado vulnerabilidades y posibles abusos. También se ha reducido de forma drástica la tendencia a respuestas serviles que en el pasado provocaban un exceso de acuerdo o complacencia ante propuestas dañinas.
Sin embargo, especialistas en ética recuerdan que, aunque estos avances son notables, la distancia entre las capacidades de la tecnología y la capacidad de la sociedad para regularla sigue aumentando. La facilidad con la que modelos como GPT-5 pueden producir contenido indistinguible del humano plantea desafíos urgentes en autenticidad, derechos de autor y responsabilidad.
¿Un paso hacia la inteligencia artificial general?
Sam Altman reconoce que GPT-5 no alcanza aún el nivel de inteligencia artificial general, pero defiende que las capacidades actuales habrían sido inimaginables hace apenas cinco años y representan una parte significativa del camino hacia esa meta. El modelo sigue sin poder aprender de forma continua en tiempo real, una condición que el propio Altman considera esencial para lograr una AGI auténtica.
Mientras tanto, OpenAI mantiene su apuesta por incrementar la capacidad de cómputo y explorar nuevas arquitecturas que reduzcan los tiempos de razonamiento sin sacrificar calidad. En un entorno en el que cada trimestre puede redefinir las reglas del juego, GPT-5 se presenta como una plataforma robusta para explorar los límites de lo que la inteligencia artificial puede ofrecer hoy.
En los albores del universo, mucho antes de que existieran galaxias como la Vía Láctea, se estaban gestando las primeras estructuras capaces de dar lugar a estrellas. Estas semillas cósmicas, conocidas como minihalos de materia oscura, no solo atrajeron gas primordial, sino que lo comprimieron y agitaron con tal intensidad que moldearon el entorno donde nacerían las primeras estrellas.
Gracias a simulaciones de altísima resolución, un equipo internacional ha podido observar este proceso con un nivel de detalle sin precedentes. El estudio, publicado en The Astrophysical Journal Letters y liderado por Ke-Jung Chen y sus colegas, revela que en el interior de estos halos se desarrolló turbulencia supersónica con velocidades cinco veces superiores a la del sonido. Este fenómeno no era un simple acompañante del colapso gravitatorio: fragmentaba las nubes de gas en múltiples grumos, reduciendo así el tamaño de las primeras estrellas. Como señala el artículo, “encontramos que una fuerte turbulencia supersónica con un número de Mach característico de ∼5,2 se desarrolla de forma natural dentro del halo en colapso”, un hallazgo que redefine lo que creíamos saber sobre los orígenes estelares.
El laboratorio cósmico del pasado
En el modelo cosmológico estándar, las fluctuaciones cuánticas surgidas tras el Big Bang crecieron con el tiempo gracias a la gravedad, formando una red de filamentos y nudos. En esos nudos, la materia oscura se concentraba en estructuras compactas que actuaban como “cunas” de las estrellas de Población III. Según el propio trabajo, “los llamados minihalos de materia oscura, con masas de ∼10⁵–10⁶ M⊙, se cree que son las cunas de las estrellas de Población III”.
El equipo partió de datos de la simulación cosmológica IllustrisTNG, que reproduce la evolución del universo a gran escala. De ahí extrajeron un minihalo en formación hace más de 13.000 millones de años y aumentaron la resolución original en un factor de 100.000 mediante una técnica de división de partículas. Este refinamiento les permitió seguir la dinámica del gas desde escalas de cientos de parsecs hasta el interior de la nube donde surgía la turbulencia.
Más allá de la mejora técnica, este enfoque permitió capturar cómo el entorno a gran escala influía en el núcleo formador de estrellas. Las interacciones gravitatorias, los flujos de gas y la propia estructura del halo condicionaban el tipo de turbulencia que se desarrollaba en su interior, algo que estudios con áreas más pequeñas no podían mostrar.

El papel de la turbulencia supersónica
La turbulencia supersónica implica que el gas se mueve y choca a velocidades varias veces superiores a la del sonido en ese medio, generando ondas de choque que comprimen y calientan la materia. En el minihalo estudiado, el número de Mach —que mide esta relación— alcanzaba picos de hasta 28, aunque la mayor parte del gas se situaba alrededor de 5.
Este tipo de flujo no es pasivo. Como detalla el equipo, “esta turbulencia remueve eficazmente el gas, favoreciendo la fragmentación de la nube formadora de estrellas en múltiples grumos densos”. En lugar de un único colapso que formara una estrella gigantesca, se producían varios núcleos más pequeños. En la simulación, uno de ellos alcanzó las 8,07 masas solares, lejos de las más de 100 que se atribuían a las primeras estrellas en modelos anteriores.
El hallazgo no solo redefine la masa típica de las primeras estrellas, sino que también plantea un cambio en su ciclo vital. Menos masa significa diferente luminosidad, distinta duración de vida y una composición química final alterada respecto a lo que produciría una estrella supermasiva.

Un proceso jerárquico y caótico
El gas no caía de forma uniforme sobre el halo, sino siguiendo patrones complejos. Flujos anisótropos, torsiones y acumulaciones locales creaban estructuras filamentosas que se extendían desde escalas de 100 parsecs hasta menos de 1.
Dentro de esos filamentos, las diferencias de densidad y temperatura eran marcadas: las zonas más densas se enfriaban gracias a la formación de moléculas de hidrógeno, lo que favorecía aún más el colapso. Este enfriamiento, combinado con el movimiento supersónico, daba lugar a un proceso de fragmentación múltiple.
Las imágenes de la simulación muestran cómo las irregularidades a gran escala se transmiten a escalas menores, dividiendo la nube en múltiples regiones potencialmente estelares. Este efecto de “cascada” es característico de la turbulencia y explica por qué la masa de las primeras estrellas podría haber sido mucho menor de lo previsto.
En este escenario, cada núcleo no es un sistema aislado, sino parte de una red de interacciones dentro del halo. Su evolución dependía tanto de sus propias condiciones como de la dinámica global del gas y la materia oscura circundante.

Consecuencias para la formación estelar temprana
Una de las grandes incógnitas de la cosmología observacional es por qué no encontramos firmas químicas claras de estrellas de Población III muy masivas. Si estas hubieran existido en gran número, sus explosiones de supernova deberían haber dejado huellas detectables en las generaciones posteriores de estrellas.
El nuevo estudio ofrece una respuesta plausible: la fragmentación inducida por la turbulencia habría limitado la masa de muchas de las primeras estrellas a valores inferiores a 40 masas solares. Este cambio en el rango de masas altera el tipo de supernovas resultantes y, por tanto, los elementos que liberan al medio interestelar.
De hecho, si el límite habitual fuera de menos de 80 masas solares, no se producirían las supernovas de inestabilidad de pares, cuya huella química es muy característica y, hasta ahora, ausente en los registros astronómicos. Así, el trabajo no solo describe un mecanismo físico, sino que aporta un argumento observacional sólido.
Simulación y técnica innovadora
Para llegar a este resultado, los autores no se limitaron a observar un pequeño volumen en alta resolución, como en estudios previos. Capturaron todo el entorno del halo desde su formación, lo que les permitió ver cómo la energía turbulenta se inyectaba a escalas de hasta tres veces el radio virial del halo.
Este detalle conecta directamente con los procesos de acreción de gas y materia oscura. La turbulencia se origina en interacciones a gran escala y luego se transmite a escalas menores, algo imposible de reproducir si solo se modela el núcleo central.
Gracias al refinamiento de partículas y a un modelo detallado de enfriamiento y química del gas primordial, el equipo siguió la evolución durante 17,5 millones de años de tiempo físico. Este seguimiento cubre la transición desde un halo en formación hasta una nube densa lista para formar estrellas.
Un futuro con más variables
Aunque este trabajo no incluye todos los ingredientes posibles —por ejemplo, no se han modelado los campos magnéticos—, los autores destacan que añadirlos podría enriquecer la imagen. En galaxias actuales, la turbulencia supersónica amplifica los campos magnéticos, y estos, a su vez, afectan a la formación de estrellas. Si algo similar ocurrió en el universo primitivo, el papel de la turbulencia sería aún más determinante.
Fenómenos como la velocidad de flujo entre materia bariónica y oscura, resultado de las oscilaciones acústicas de bariones en el universo temprano, también podrían modificar las condiciones iniciales del colapso. Aunque no se incluyó en este caso, su interacción con la turbulencia es un campo abierto para la investigación futura.
Mirando hacia la "aurora cósmica"
El periodo en que nacieron las primeras estrellas se conoce como el amanecer cósmico. Comprenderlo no es solo un reto teórico: tiene implicaciones directas para interpretar las observaciones del Telescopio Espacial James Webb y otros futuros instrumentos.
Al conocer mejor las condiciones físicas de los minihalos y el papel de la turbulencia, los astrónomos pueden afinar sus modelos para identificar las señales más sutiles de aquellas primeras estrellas. Como concluye el equipo, “nuestros resultados sugieren que la formación temprana de estructuras puede generar de forma natural turbulencia supersónica, que desempeña un papel crucial en el modelado de las nubes de gas primordiales y en la regulación de la escala de masas de las estrellas de Población III”.
Referencias
- Chen, K.-J., Ho, M.-Y., & Tung, P.-C. (2025). Formation of Supersonic Turbulence in the Primordial Star-forming Cloud. The Astrophysical Journal Letters, 988, L67. https://doi.org/10.3847/2041-8213/adf18d.
¿Cómo vivían realmente los habitantes del pasado? ¿Cómo se vestían? ¿Tenían un concepto de moda? Nos solemos hacer estas y otras preguntas cuando imaginamos la vida humana en otros tiempos y latitudes y, a veces, la historia y la arqueología logran responderlas. A principios del siglo XX, un grupo de arqueólogos descubrieron, en el helado asentamiento noruego de Herjolfsnes, un conjunto de prendas medievales notablemente conservadas gracias a las condiciones anaeróbicas de una turbera. Entre ellas, se encontraba el denominado "vestido 38". Ahora, un equipo interdisciplinar del Carleton College (Northfield, Minnesota) ha emprendido un ambicioso proyecto de arqueología experimental con el objetivo de reproducir fielmente esta prenda de lana.
La importancia de las prendas de Herjolfsnes
Los restos de vestuario hallados en Herjolfsnes se han datado entre los siglos XIV y XV. Constituyen un conjunto excepcional dentro del panorama arqueológico textil del norte de Europa. Los climas húmedos y fríos no suelen ayudar a que sobrevivan los tejidos naturales, por lo que estos hallazgos excepcionales han permitido reconstruir, en gran medida, la vestimenta cotidiana de las poblaciones nórdicas medievales.
El vestido 38 se recuperó, junto al cuerpo, en una tumba de turbera. Poul Nørlund ya documentó el hallazgo minuciosamente en 1924 y casi un siglo después, en 2011, Fransen, Nørgaard y Østergård presentaron nuevos datos en un artículo publicado en Medieval Garments Reconstructed. Ambos trabajos fueron fundamentales para poder realizar el actual experimento.

Diseñar un patrón desde el original
El equipo liderado por Jake Morton, Ruby Becker y Helen Banta decidió construir el patrón desde cero basándose en los dibujos originales del vestido presentes en el volumen Medieval Garments Reconstructed. Esta decisión les permitió comprender a fondo lel modo en el que se había diseñado la prenda y adaptarla con precisión a las medidas de su modelo, a la sazón Becker. Si bien el vestido original se creó para adaptarse al cuerpo de una persona de unos 140–147 cm de estatura, el nuevo patrón se ajustó para que pudiese servirle a una persona de 170 cm. Las responsables d ela reconstrucción respetaron las proporciones originales para que no alterar la caída original del vestido.
Materiales elegidos con criterios arqueológicos
Uno de las decisiones fundamentales de este experimento tuvo como objetivo la selección rigurosa de los materiales. Para la confección, se utilizó una tela de lana 100% con un tejido relativamente suelto, similar al del original, procedente de de Kerry Woollen Mills (Irlanda). La elección del hilo, las agujas y las técnicas de acabado también respondieron a criterios arqueológico. Así, emplearon hilo de lana sin teñir, agujas antiguas similares a las usadas para coser lona (por su semejanza con las medievales) y cera de abeja para endurecer y proteger el hilo, un método documentado en el registro arqueológico.

Dos técnicas de costura en un solo vestido
El experimento tiene un punto de originalidad a mayores. El equipo de Morton dividió el vestido en dos mitades: cosieron una de ellas aplicando las técnicas modernas de costura a mano, mientras que confeccionaron la segunda siguiendo los métodos documentados en el siglo XIV. Esta aproximación comparativa permitió evaluar las diferencias en las resistencia, la estética, la facilidad de ejecución y la adaptabilidad de las costuras.
En la mitad medieval del vestido, las costuras se realizaron mediante una técnica de solapado de telas, donde la costura principal permanece invisible en la parte exterior del vestido. Todo ello genera un acabado discreto y funcional. A diferencia de la costura moderna a mano, que resulta más visible, la técnica medieval demostró ser la más adecuada para trabajar tejidos gruesos y tramas sueltas. Así, el equipo constantó que las técnicas tardomedievales facilitan la inserción de piezas triangulares (los denominados gussets o cuñas) al tiempo que permite ajustes precisos sin necesidad de planchado.

La inserción de cuñas: una prueba clave
Uno de los momentos claves del proyecto que puso de relieve las fuertes diferencias entre las técnicas modernas y las medievales de confección fue la incorporación de las cuñas o gussets —piezas de refuerzo y ampliación típicas de la indumentaria medieval— en el frontal y la parte trasera del vestido. Mientras que la cuña moderna, cosida con pespunte, produjo tensiones visibles en la tela y requirió de un planchado para quedar plana, la cuña cosida con técnica medieval se adaptó al tejido sin formar arrugas y conservando mejor la caída de la prenda. Esto pruebaque las técnicas de costura medievales estaban pensadas para adaptarse a las necesidades del diseño modular de la época.
El desafío del acabado: dobladillos y tejido con un telar de tarjetas
Otro elemento característico que se logró reproducir fue el tejido con telar de tarjetas, presente en los dobladillos y las aberturas del vestido original. A pesar de la dificultad inicial, esta técnica permitió crear un borde decorativo y muy resistente sin añadir volumen a la prenda, a diferencia del moderno dobladillo doblado que, aunque más rápido de hacer, resulta menos estable. Aunque tejer los acabados con un telar de tarjetas fue el paso más laborioso del proceso, el equipo concluyó que su efecto tanto visual como funcional justificaba su uso.

Las mangas: adaptación y reconstrucción
Las mangas supusieron un un reto técnico considerable, tanto por su patrón poco convencional como por la falta de detalles al respecto en las fuentes. El equipo consultó a distintos especialistas en moda y confección histórica para obtener datos que les permitiesen comprender dónde colocarlas en el vestido, así como determinar la función de los refuerzos triangulares en la parte trasera de la manga.
La reconstrucción experimental demostró que el diseño medieval favorecía la libertad de movimiento y se adaptaba mejor a las tensiones producidas en la zona de los hombros que los patrones actuales. En este caso, sin embargo, la técnica moderna resultó más sencilla de ejecutar. Esto podría explicarse por la falta de experiencia del equipo con las técnicas de cosidos medievales en zonas curvas.
Los bolsillos: funcionalidad en clave medieval
Una diferencia sorprendente se halló en la construcción de los bolsillos. En vez de un bolsillo con fondo cosido a la prenda, como en la ropa moderna, el vestido 38 presentaba unas simples aberturas reforzadas a través de las cuales se podía acceder a las bolsas portadas bajo la ropa. El experimento reveló, además, que los acabados medievales hechos con telar de tarjetas no solo eran más duraderos, sino también más estéticos y prácticos, en comparación con los bordes sobrehilados de la versión moderna, que tendían a deshilacharse.

Un vestido de 600 años
El experimento de reconstrucción del vestido de Herjolfsnes, además de aportar luz sobre las técnicas textiles del pasado, también demostró la eficacia y la funcionalidad de los métodos de costura medievales en condiciones reales de trabajo. Como han podido probar las estudiosas resposanbles del artículo, estos métodos ofrecían ventajas concretas frente a los procedimientos modernos. Se consumía menos hilo, el tejido se adaptaba mejor a la forma del cuerpo y resultaba más fácil insertar refuerzos. Además, el acabado era más discreto y no requería de planchado.
La experiencia también demostró que la ropa medieval estaba diseñada no solo para ser usada, sino también para ser reparada. Por ello, este proyecto nos invita a repensar nuestra relación con la confección, el consumo y la durabilidad de las prendas a partir de un vestido que pasó siete siglos enterrado en una turbera.
Referencias
- Morton, Jake, Ruby Becker y Helen Banta. 2025. "Resurrecting a Bog Dress: A Comparative approach to Medieval Textile Construction." EXARC Journal 1. URL: https://exarc.net/ark:/88735/10783
Los smartphones actuales incorporan pantallas de alta frecuencia, cámaras con inteligencia artificial y baterías de carga ultrarrápida para una experiencia más fluida. También destacan por su conectividad 5G y mejoras en eficiencia energética.
Con el verano en su punto álgido, Samsung refuerza su presencia en la gama media con una rebaja destacada en su Galaxy A16 LTE de 256 GB.

Aunque su precio habitual supera los 186€ en tiendas como Amazon o MediaMarkt, la alianza entre la marca asiática y PcComponentes lo deja ahora en solo 160,65 euros.
Combina un sistema triple de cámaras traseras con un sensor principal de 50 MP para capturar fotos nítidas incluso en baja iluminación, acompañado de una lente gran angular de 5 MP y una macro de 2 MP para más versatilidad. Su cámara frontal de 13 MP asegura selfies y videollamadas de alta calidad. Además, incorpora una pantalla Super AMOLED FHD+ de 6.7 pulgadas, teniendo una tasa de refresco de 90 Hz.
Con una batería de 5000 mAh y carga rápida de 25W, el Galaxy A16 LTE ofrece 256 GB de almacenamiento permiten guardar miles de fotos, vídeos y apps sin problemas, junto a 8 GB de RAM y un procesador MediaTek G99 Octa-Core. La seguridad está garantizada con Samsung Knox, junto a desbloqueo facial y lector de huellas para un acceso rápido y seguro.
OPPO también se pone seria y reduce drásticamente el coste del RENO13 PRO 5G
Después del último movimiento de Samsung, OPPO no se queda atrás y reacciona con una fuerte rebaja en su Reno13 Pro 5G, que ahora baja hasta los 490 euros. Una ocasión atractiva, ya que su precio habitual en tiendas como Fnac, MediaMarkt, PcComponentes o Amazon supera los 565€.

Cuanta con resistencia extrema gracias a su exclusivo Butterfly Shadow Design, grosor de 7,55 mm, peso de 195 g y certificación IP69, lo que permite incluso fotografía submarina y uso con pantalla mojada gracias a Splash Touch. Su pantalla AMOLED FHD+ de 6,83 pulgadas con brillo máximo de 1.600 nits y 120Hz ofrece una experiencia visual fluida y vibrante, mientras que el modo Ultra Volumen 300% asegura un sonido claro sin auriculares.
En fotografía, destaca con un sensor principal Sony IMX890 de 50 MP con OIS, teleobjetivo 50MP con zoom óptico 3.5x y cámara frontal de 50 MP. Su batería de 5.800 mAh con carga rápida 80W SUPERVOOC™ garantiza hasta dos días de uso y una carga completa en 55 minutos. Con procesador MediaTek Dimensity 8350, 12GB de RAM ampliables a 24GB y 512GB de almacenamiento, ofrece un rendimiento de gama alta.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En pleno final del milenio, Armageddon irrumpió en los cines como una advertencia cargada en efectos especiales: un asteroide gigantesco avanza hacia la Tierra y amenaza con borrar la civilización de un plumazo. Pero más allá de la pirotecnia y las perforadoras espaciales, la película sintonizó con un estado emocional global marcado por el miedo.
Era 1998 y el mundo temía lo que venía. Se hablaba del efecto 2000, de virus informáticos, de recesiones inminentes y del calentamiento global como una amenaza emergente. En ese caldo de cultivo, un asteroide letal era la metáfora perfecta del desastre inesperado que podría venir de cualquier parte… incluso del cielo.
La fuerza de Armageddon no está solo en su cataclismo espacial, sino en cómo articula una ansiedad existencial colectiva. El filme plantea una amenaza externa que no se puede negociar ni controlar con diplomacia ni armas: un cuerpo celeste mudo, indiferente, pero letal.
El meteorito como metáfora
Este tipo de narrativas conecta con una tradición apocalíptica que se reaviva en momentos de incertidumbre histórica. En los años 90, aunque la economía global crecía y las democracias se expandían, también surgían preguntas inquietantes: ¿qué vendrá después? ¿Qué pasa si todo se detiene de golpe? El asteroide encarna ese temor: la posibilidad de que, por muy avanzados que seamos, la fragilidad humana ante lo desconocido siga intacta.
Además, el éxito de Armageddon coincidió con un auge de producciones catastrofistas como Deep Impact o El día de la independencia, todas ellas centradas en eventos de escala planetaria. Estos relatos no solo vendían entradas: reflejaban una necesidad de procesar el temor a un futuro incontrolable.
Y si bien el enemigo era el espacio exterior, el eco era interno: la película convierte en espectáculo lo que muchos temían en voz baja. En ese sentido, el meteorito funciona como una pantalla simbólica sobre la que se proyectan todos los temores de una sociedad que miraba al año 2000 con una mezcla de euforia tecnológica… y pánico existencial.

Bruce Willis y el arquetipo del héroe sacrificado
En Armageddon, Bruce Willis encarna a Harry Stamper, un perforador de petróleo con el rostro curtido y el corazón escondido bajo capas de brusquedad, que termina convirtiéndose en el último recurso de la humanidad frente a la aniquilación total. No es astronauta ni científico: es un hombre común, un trabajador de acción que, pese a sus defectos, representa los valores tradicionales del coraje, la responsabilidad y el sacrificio.
En una época donde los héroes comenzaban a complicarse psicológicamente en el cine, Stamper rescató el arquetipo clásico del padre protector y lo llevó hasta el espacio.
Lo que emociona no es solo el acto final —su sacrificio heroico al quedarse en el asteroide para detonarlo—, sino la forma en que se encarna una idea ancestral: morir para que los demás vivan. A través de su decisión, la película toca una fibra colectiva que va más allá del guion: el deseo de redención a través del amor, en este caso, por su hija, por su equipo, por el planeta entero.
Además, la escena culminante —esa llamada desgarradora en la que se despide de su hija Grace, interpretada por Liv Tyler— funciona como una explosión emocional cuidadosamente diseñada para que el espectador no solo admire al héroe, sino que lo llore. Bruce Willis logra que Stamper no sea solo un salvador, sino también un símbolo de humanidad cruda y vulnerable, tan alejado de la perfección como cercano a lo que cualquiera querría ser en un momento decisivo.
Por eso, su final no solo salva a la Tierra, sino que lo inmortaliza en la memoria colectiva.
Entre la lágrima y la explosión: la fórmula Bay
En Armageddon, Michael Bay desplegó su arsenal estilístico como un director que no cree en los frenos ni en los silencios. Cada plano vibra, cada explosión retumba y cada emoción se lleva al límite. Pero lo que distingue a esta cinta dentro de su filmografía no es solo la pirotecnia visual, sino la forma en que mezcla acción desbocada con melodrama sin pudor.
En medio del caos espacial y los fragmentos de asteroide, Bay se permite detenerse en los ojos llorosos de Liv Tyler o en los abrazos apretados de despedida. Es un cóctel de lágrima y metralla, y funciona. Lo que sorprende es cómo conviven en armonía —o en tensión, según a quién se le pregunte— la épica nacionalista, el humor de camaradería y una romántica promesa interplanetaria.
Por eso, Armageddon no es una anomalía, sino quizá el ejemplo más puro de la firma del director. Aquí no solo vuela la roca, también el corazón. En este relato desmesurado, el director llevó su fórmula a un punto donde la acción se confunde con el sentimiento, y donde la lágrima tiene tanta importancia como la detonación. Puede que la crítica la vapuleara en su día, pero el público entendió lo esencial: en el cine de Bay, el fin del mundo también puede ser una carta de amor.

Una banda sonora para la eternidad
Pocas canciones brillan con tanta intensidad como “I Don’t Want to Miss a Thing”. Escrita por Diane Warren e interpretada por Aerosmith, la balada se convirtió en mucho más que un acompañamiento musical: fue el latido emocional de Armageddon.
Mientras la cámara sobrevuela los rostros empapados de lágrimas y los últimos abrazos antes del sacrificio, la voz quebrada de Steven Tyler —padre en la vida real de Liv Tyler, protagonista de la cinta— aporta una capa de autenticidad y dolor que ninguna imagen por sí sola podría transmitir. Es una canción que no solo se oye, se siente en el pecho.
La decisión de incluir una balada romántica en un blockbuster apocalíptico pudo parecer arriesgada, pero fue clave para conectar con el gran público. En un verano repleto de efectos especiales y destrucción masiva, Armageddon ofrecía algo más: una historia de amor envuelta en explosiones, con una banda sonora que supo capturar el vértigo de perderlo todo.
“I Don’t Want to Miss a Thing” no solo lideró las listas de éxitos en todo el mundo, sino que convirtió a la película en una experiencia compartida que iba más allá de la pantalla: sonó en bodas, en radios nocturnas, en despedidas. La canción expandió la película hacia el territorio del mito sentimental.
Años después, el tema sigue siendo una especie de cápsula emocional. Basta con escuchar los primeros compases para que se activen los recuerdos de Bruce Willis en la superficie del asteroide, del beso entre Liv Tyler y Ben Affleck, del mundo al borde del abismo. En una película que prometía salvar a la humanidad, la canción terminó salvando la posteridad de la historia, convirtiéndola en algo más que ciencia ficción: en una balada eterna sobre el amor y el sacrificio.
NASA y Hollywood: ciencia a la carta
Cuando Armageddon aterrizó en las salas en 1998, llevó la licencia artística al límite de la estratósfera. Uno de los aspectos más criticados fue la decisión de entrenar a un grupo de perforadores petroleros como astronautas en tan solo 12 días. ¿La razón? Según la producción era más fácil enseñar a un obrero a manejar un transbordador que pedirle a un astronauta que use un taladro.
La crítica no se quedó ahí. Desde la imposibilidad de dividir un asteroide del tamaño de Texas con una bomba nuclear, hasta la idea de que los fragmentos resultantes evitarían milagrosamente el impacto con la Tierra, todo en Armageddon parece diseñado más para el espectáculo que para la verosimilitud científica.
De hecho, la propia NASA utiliza la película en su programa de formación para ingenieros, pidiendo a los alumnos que identifiquen errores científicos: han llegado a encontrar más de 160. Pocas veces una superproducción ha servido como advertencia tan ilustrativa sobre los peligros de sacrificar la ciencia por el drama.
Sin embargo, hay que reconocerle algo al filme: logró que millones de personas miraran hacia el cielo con una mezcla de temor y curiosidad. A su manera, Armageddon despertó el interés por los riesgos reales de impactos cósmicos, empujando a gobiernos e instituciones a tomarse en serio la defensa planetaria. En ese sentido, la ciencia y Hollywood sellaron un pacto de conveniencia: ellos ponían la lógica, Bay ponía el espectáculo.

¿Por qué seguimos viendo Armageddon?
Cada vez que Armageddon reaparece en la programación de un canal o plataforma de streaming, algo nos empuja a quedarnos hasta el final, aunque ya sepamos cómo termina. Quizá sea su mezcla explosiva de drama y espectáculo, o tal vez esa nostalgia de finales de los 90 que aún brilla en su estética desbordada.
Lo cierto es que, a pesar de sus errores científicos y su guion lleno de lugares comunes, la película tiene una honestidad emocional tan desarmante que logra esquivar el ridículo para instalarse en un lugar cálido de la memoria colectiva.
El secreto está en el ritmo narrativo vertiginoso que Bay domina como pocos: apenas hay un respiro entre la amenaza global, las peleas familiares, los chistes de barra de bar y los sacrificios heroicos. Todo sucede a gran velocidad y con un volumen emocional altísimo, como si el filme supiera que no tiene tiempo que perder en sutilezas.
Armageddon no pretende ser realista, ni profundo, ni siquiera coherente; su apuesta es otra: sacudir al espectador, hacerlo reír, llorar y contener el aliento en un mismo plano. Y luego está su capacidad para crear momentos icónicos que trascienden el género. Desde la balada de Aerosmith hasta el adiós de Bruce Willis a su hija, cada escena está calibrada para provocar una reacción.
Quizá eso explique por qué seguimos viéndola: no por lo que cuenta, sino por cómo nos hace sentir. En un tiempo de ironía y cinismo, Armageddon nos recuerda que a veces el exceso, la épica y el sentimentalismo sin filtros siguen funcionando… si se hacen con convicción. Y vaya si esta película lo hace.
Al cerrar los ojos y oler una naranja, no todos sentimos lo mismo. Algunos evocan una cocina cálida de infancia, otros apenas identifican el aroma. Este sencillo gesto oculta un proceso complejo: la percepción olfativa. Más allá del bulbo olfativo y las terminaciones nerviosas, la ciencia ha descubierto que nuestros genes influyen directamente en cómo reconocemos y recordamos ciertos olores. Y no solo eso: hombres y mujeres lo hacen de forma distinta, según un estudio publicado en Nature Communications en 2025.
En esta investigación, un equipo internacional de científicos analizó a más de 21.000 personas de ascendencia europea y estudió cómo reconocían 12 olores comunes, como limón, café, canela, piña o pescado. El análisis fue parte de un metaanálisis genético a gran escala, el mayor realizado hasta ahora en identificación olfativa. El resultado fue revelador: identificaron diez regiones del genoma asociadas con la capacidad de reconocer ciertos olores, muchas de ellas dentro o cerca de genes receptores olfativos.
Lo más sorprendente fue que algunas variantes genéticas solo afectaban a mujeres, otras solo a hombres, y otras influían de forma diferente según el sexo. Es decir, los genes no solo determinan nuestra sensibilidad olfativa, sino que interactúan con el sexo biológico de formas complejas. Esta interacción podría explicar por qué, en general, las mujeres tienen una mejor percepción olfativa.

Genes que huelen: del ADN a la canela
Los genes olfativos son una enorme familia: los seres humanos tenemos cerca de 960 genes relacionados con la detección de olores, aunque no todos están activos. La mayoría pertenecen a la clase de receptores olfativos, una subfamilia de los receptores acoplados a proteínas G, encargados de traducir señales químicas en impulsos eléctricos hacia el cerebro.
El nuevo estudio identificó diez regiones genéticas relacionadas con la percepción de cinco olores específicos: piña, canela, pescado, limón y naranja.
Uno de los hallazgos más sólidos fue una variante genética vinculada al reconocimiento de la canela, asociada al gen OR2J2, que responde al compuesto principal de esta especia: el cinamaldehído. También se detectaron variantes en zonas genéticas con funciones neurológicas más amplias, como ADCY2, involucrada en la transducción de señales olfativas. Estos hallazgos sugieren que la percepción olfativa depende tanto de los receptores específicos como de procesos neuronales más complejos.
El estudio demostró que algunas personas tienen hasta tres veces más probabilidades de reconocer ciertos olores si poseen determinadas variantes genéticas. Por ejemplo, una mutación en el gen TAAR5 multiplica por 3,7 la capacidad de identificar el olor a pescado. En otras palabras, el olfato no es igual para todos: depende de cómo esté codificado nuestro sistema sensorial.
Mujeres, hombres y olores: un dimorfismo genético
Una de las grandes preguntas del estudio era si el sexo biológico influía en la manera en que los genes afectan la percepción de los olores. La respuesta fue clara: sí, y de forma significativa. Dos de los diez loci identificados eran específicos de mujeres, y uno mostraba un efecto diferencial entre sexos, con mayor impacto en hombres. Esta es la primera vez que se documentan diferencias genéticas tan marcadas en el olfato entre sexos.
El ejemplo más llamativo fue el de la identificación del olor a naranja, que mostró una fuerte asociación genética en mujeres, pero no en hombres.
Los investigadores atribuyen esta diferencia a un gen llamado ADCY2, que contiene múltiples elementos de respuesta a andrógenos, lo que sugiere una interacción hormonal en el funcionamiento del receptor olfativo. Curiosamente, este gen forma parte de una cadena de señalización común en muchas funciones del cuerpo, incluyendo la percepción de olores.
Estas diferencias no solo confirman lo que ya sabíamos sobre la superioridad olfativa femenina, sino que ofrecen una base molecular para explicarla. Las hormonas sexuales podrían modular la expresión de genes olfativos, lo que influye en cómo se desarrollan las neuronas olfativas y en cómo interpretamos los estímulos químicos del ambiente.

Alzheimer, Parkinson y la pérdida del olfato
El estudio también exploró un vínculo preocupante: la relación entre el olfato y las enfermedades neurodegenerativas. La pérdida de la capacidad olfativa es uno de los primeros síntomas en enfermedades como el Alzheimer o el Parkinson. Por eso, los investigadores realizaron un análisis de aleatorización mendeliana para averiguar si hay una relación causal entre estas patologías y la pérdida del olfato.
Los resultados mostraron que tener una predisposición genética al Alzheimer tiene un efecto negativo sobre la capacidad de identificar olores, especialmente en mujeres. En cambio, no se halló evidencia de que una menor capacidad olfativa cause directamente estas enfermedades, lo que sugiere que la pérdida de olfato es un síntoma temprano, no una causa.
Este hallazgo refuerza la idea de que las pruebas olfativas podrían ser útiles como herramientas de detección precoz del Alzheimer, aunque no como indicadores de riesgo.
Además, uno de los genes implicados en esta relación fue TOMM40, involucrado en el transporte de proteínas hacia las mitocondrias, un proceso clave en la salud neuronal. Esto podría abrir nuevas vías para entender cómo la disfunción mitocondrial afecta tanto al cerebro como al sentido del olfato.
De la piña al café: lo que los olores dicen de ti
Entre los doce olores analizados en el estudio, algunos mostraron asociaciones genéticas mucho más fuertes que otros. En concreto, la piña y la canela fueron los más relacionados con variantes genéticas significativas. La capacidad para reconocer estos olores varía notablemente entre individuos, y sus tasas de identificación suelen ser bajas, lo que favorece la detección de diferencias genéticas.
Un caso especial fue el del olor a piña, que estuvo vinculado a varios genes olfativos distintos, algunos de ellos aún no bien caracterizados. Además, el estudio encontró que los genes relacionados con este olor también están asociados con otros comportamientos, como el consumo de café o el inicio del tabaquismo, aunque estos vínculos podrían deberse a la proximidad genética y no a un efecto causal directo.
Curiosamente, la única asociación genética con el “rendimiento global” en la identificación de olores fue impulsada casi en su totalidad por la habilidad para detectar el olor a piña. Esto sugiere que algunos olores tienen más peso que otros a la hora de evaluar nuestra capacidad olfativa general.
La elección de los olores en los test también tiene sesgos culturales, ya que muchos están relacionados con la alimentación y la experiencia sensorial en entornos europeos.

Lo que queda por oler (y por descubrir)
Aunque este estudio ha sido el más amplio realizado hasta ahora sobre genética del olfato, los investigadores reconocen sus limitaciones. Los doce olores usados representan una fracción mínima de los más de un billón de aromas que el ser humano puede distinguir. Además, todos los participantes eran de ascendencia europea, por lo que los resultados podrían no aplicarse a otras poblaciones con diferente bagaje cultural o genético.
También se apunta que muchas variantes genéticas con efectos generales sobre el olfato podrían haber pasado desapercibidas por no estar representadas entre los olores seleccionados. Por ejemplo, genes como ADCY3, esenciales en la transmisión olfativa, no se vincularon con ningún olor específico, pero sí con la puntuación global en hombres. Esto sugiere que se necesitan estudios más amplios, con mayor diversidad de estímulos y poblaciones.
Aun así, el trabajo sienta las bases para futuras investigaciones sobre la biología del olfato, la influencia de las hormonas y el impacto del entorno. La nariz, como puente entre el mundo exterior y nuestro cerebro emocional, sigue siendo un territorio fascinante para la ciencia. Y ahora sabemos que parte de lo que olemos —y de cómo lo interpretamos— está grabado en nuestro ADN.
Referencias
- Förster, F., Emmert, D., Horn, K. et al. Genome-wide association meta-analysis of human olfactory identification discovers sex-specific and sex-differential genetic variants. Nat Commun. (2025). doi: 10.1038/s41467-025-61330-y
En los laboratorios de Cambridge, un equipo de biólogos sintéticos ha logrado algo que, hasta hace pocos años, sonaba más a ciencia ficción que a biología experimental: reconstruir el genoma de Escherichia coli para reducir su código genético de 64 a solo 57 codones. El trabajo, publicado en la revista Science, no solo abre una puerta a organismos con funciones imposibles en la naturaleza, sino que desafía una de las ideas más antiguas y universales de la biología: que el código genético, tal y como lo conocemos, es intocable.
La E. coli es mucho más que una bacteria de manual de microbiología. Está en el intestino de millones de personas y animales, es una herramienta fundamental en biotecnología y una de las especies más estudiadas del planeta. Su genoma, de unos cuatro millones de bases, sigue la misma lógica que el de casi todos los seres vivos: un lenguaje basado en 64 combinaciones posibles de tres letras —los famosos codones— que sirven para construir proteínas. De esos 64, 61 codifican aminoácidos y 3 son señales de parada. Y aquí está el punto clave: para fabricar las 20 piezas básicas que componen cualquier proteína, no hacen falta tantos codones. El sistema está lleno de redundancias.
Durante décadas, la ciencia se preguntó si esa redundancia tenía un propósito oculto o si era, como sugirió Francis Crick en los años 60, un “accidente congelado” de la evolución: algo que surgió por azar y quedó fijado porque cambiarlo implicaba riesgos catastróficos. Hoy, con Syn57 —el nombre de la nueva cepa—, tenemos una pista poderosa para resolver esa duda.
Más de 100.000 cambios y cuatro años de ingeniería
La magnitud del proyecto es difícil de exagerar. No hablamos de editar genes aquí y allá, sino de rediseñar por completo el genoma. Los investigadores dividieron el ADN en decenas de fragmentos, sustituyendo cada codón redundante por otro que cumpliera la misma función, y ensamblaron todo de nuevo. El resultado: más de 101.000 cambios y una versión de E. coli que funciona con siete codones menos que la original.

El trabajo exigió un proceso de prueba y error casi artesanal. En cada etapa, pequeños fragmentos del nuevo genoma se introducían en bacterias vivas para comprobar que seguían creciendo. Si no lo hacían, tocaba revisar la secuencia, detectar dónde se había roto alguna función esencial y reparar el fallo. Hubo que rediseñar genes que se solapaban, ajustar instrucciones de lectura y aprender, en tiempo real, cómo evitar daños colaterales en este rompecabezas molecular.
El precedente existía. En 2019, el mismo laboratorio presentó Syn61, una E. coli con tres codones menos que la versión natural, que se convirtió en un hito importante porque demostró la viabilidad de un código genético reducido. Aquella hazaña requirió 18.000 cambios; Syn57 multiplica por seis ese número. El salto no es solo técnico: es conceptual.
Una bacteria lenta… pero llena de posibilidades
Por ahora, Syn57 no es un prodigio de velocidad. Mientras la E. coli normal duplica su población en una hora, la versión de 57 codones tarda unas cuatro. Ese lastre podría resolverse con ajustes posteriores, pero incluso así, la nueva cepa es una plataforma con potencial enorme.
Uno de los objetivos más tentadores es la resistencia total a virus. Muchos bacteriófagos —virus que infectan bacterias— dependen de que su huésped lea correctamente sus genes. Si el código de lectura cambia, el virus “traduce” sus instrucciones de forma errónea y la infección fracasa. Para la industria biotecnológica, esto significaría producir proteínas, fármacos o enzimas sin riesgo de que un virus arruine el cultivo.
El otro gran frente está en la química de la vida. Con codones “liberados” de su función original, los científicos podrían reasignarlos para que codifiquen aminoácidos que no existen en la naturaleza. Esto abriría la puerta a proteínas con propiedades inéditas, capaces de catalizar reacciones químicas imposibles para la biología natural o de formar materiales con funciones avanzadas.
Una pista para un viejo misterio evolutivo
Más allá de sus posibles aplicaciones, Syn57 es un experimento que responde —parcialmente— a una pregunta de fondo: ¿por qué la vida necesita 64 codones si le bastarían poco más de veinte?
El hecho de que una bacteria viva con 57 codones demuestra que esa redundancia no es estrictamente necesaria. Esto inclina la balanza hacia la hipótesis de Crick: la universalidad del código genético podría ser una simple herencia histórica, no una obra maestra optimizada por la selección natural.
Esto no significa que eliminar codones sea trivial. Cada cambio exige vigilar un ecosistema genético donde pequeñas modificaciones pueden desencadenar problemas en cadena. El proceso de reducción está lejos de ser automático, y no está claro si es posible seguir acortando el código sin que la vida colapse.

Por otro lado, Syn57 también aporta una herramienta para la seguridad biológica. En un escenario hipotético donde bacterias modificadas se liberen accidentalmente al medio, su código genético alterado impediría que genes artificiales se transfirieran a especies naturales. El “idioma” sería incomprensible para ellas.
Esto no elimina todos los riesgos, pero añade una barrera significativa en un mundo donde la ingeniería genética es cada vez más accesible y potente.
Más allá de E. coli
Aunque el trabajo se haya centrado en una especie modelo, la lógica detrás de Syn57 podría aplicarse a otros microorganismos e incluso, en teoría, a células más complejas. La capacidad de reescribir el lenguaje básico de la biología es una frontera tecnológica con implicaciones enormes: desde medicamentos más seguros hasta organismos capaces de degradar contaminantes persistentes o producir bioplásticos más eficientes.
El desafío, como siempre, será equilibrar la innovación con la precaución. La historia de la biotecnología está llena de ejemplos de avances que, sin la regulación y el debate adecuados, pueden generar problemas imprevistos. En ese sentido, Syn57 es tanto una proeza técnica como una invitación a repensar qué significa “vida” cuando podemos reconstruirla pieza a pieza.
El canibalismo es una de las prácticas humanas que, desde nuestra mirada contemporánea, nos puede parecer más perturbadoras. Sin embargo, también es una de las más fascinantes para la arqueología. A lo largo del tiempo, se ha retratado la antropofagia como un rasgo de barbarie, utilizado para estigmatizar a determinadas comunidades. Sin embargo, también ha formado parte de rituales identitarios complejos y estrategias económicas de supervivencia documentadas en los contextos históricos.
La arqueología del canibalismo busca desentrañar, a través del análisis material de los restos óseos y el estudio del contexto cultural, cuándo, cómo y por qué los humanos consumieron a otros humanos. Un reciente estudio, publicado por Silvia M. Bello, ofrece una revisión detallada de los métodos empleados por los científicos para distinguir entre distintas formas de antropofagia. Así, el trabajo aporta claridad metodológica a un campo donde las controversias están a la orden del día.

¿Qué es el canibalismo y cómo lo clasifica la arqueología?
Desde una perspectiva arqueológica, el canibalismo se define como el consumo intencionado de tejido humano por parte de otros humanos. Si bien las motivaciones de este comportamiento difieren de una comunidad a otra, la disciplina ha simplificado su clasificación en tres grandes categorías. Existe un canibalismo de supervivencia, un canibalismo ritual y un canibalismo gastronómico o dietético. Con todo, debido a la escasez de pruebas inequívocas y la superposición de motivaciones, los arqueólogos suelen concentrarse en los dos primeros tipo.
El canibalismo ritual, que puede ser de carácter funerario (endocanibalismo, practicado dentro del grupo) o agresivo (exocanibalismo, practicado fuera del grupo), responde a normas culturales específicas, como la conmemoración del difunto o el dominio sobre un enemigo. En contraste, el canibalismo de supervivencia fuciona como una estrategia extrema en situaciones de inanición, ajeno a cualquier simbolismo y, por lo general, acompañado de una disgregación social o ambiental aguda.

Métodos para identificar el canibalismo a partir de los restos óseos
Uno de los principales desafíos de la arqueología del canibalismo es distinguir los rasgos que apuntan a una intervención humana sobre los huesos de las causas naturales o de prácticas funerarias no relacionadas con el consumo. Para ello, los investigadores recurren a la tafonomía, es decir, el estudio de los procesos post-mortem que afectan a los huesos.
Marcas de acción humana en los huesos
El análisis de los restos humanos modificados se centra en detectar evidencias físicas que indiquen un procesamiento intencional del cuerpo: marcas de corte, fracturas o signos de exposición al fuego. En particular, los arqueólogos buscan evidencias de que los huesos humanos se hayan trabajado de forma similar a los restos de animales consumidos como alimento. La presencia de marcas de corte en los puntos de inserción muscular, las fracturas espirales en los huesos largos para la extracción de médula y los rastros de cocción son señales claves que sugieren el consumo de carne humana.

Del pulido de olla a la fabricación de herramientas
Además, algunas evidencias más específicas, como el pulido de olla (una forma de abrasión causada por la cocción de cortes de carne en recipientes) o la transformación de los huesos humanos en herramientas o adornos, permiten establecer con mayor certeza que las marcas de los huesos no proceden de un enfrentamiento violento o del desmembramiento funerario. Sin embargo, estas pruebas nunca surgen de forma aislada.
Bello destaca que, para reconocer de forma fiable el canibalismo, es necesario combinar los rasgos tafonómicos y con los datos del contexto histórico y cultural. En algunos casos, por ejemplo, se ha propuesto que las marcas en los huesos podrían deberse a prácticas de enterramiento secundario o a la manipulación funeraria de los cadáveres, sin ningún tipo de consumo antropófago de por medio.
La coincidencia de estos rasgos con prácticas documentadas en animales faunísticos permite establecer paralelismos entre las prácticas de consumo humano y de consumo animal. No obstante, como advierte Bello, la presencia de estos indicadores no basta por sí sola para confirmar el tipo de canibalismo: los contextos históricos y etnográficos son decisivo para la interpretación.

Canibalismo de supervivencia: el hambre como motor
El estudio de Bello analiza varios casos arqueológicos de canibalismo de supervivencia bien documentados históricamente. Uno de los más representativos es el del sitio Charity (1649–1650) en Christian Island (Canadá), donde la hambruna provocada por el asedio iroqués llevó a los hurones refugiados a recurrir al canibalismo. Los restos analizados muestran un intenso procesado de tejidos blandos, cortes precisos, fracturas para extraer médula y rastros de cocción.
Otro caso célebre lo protagonizó la expedición del almirante Franklin al Ártico (1845–1848). Aunque rodeado de polémica, los hallazgos óseos en múltiples sitios de la isla King William mostraron marcas de cuchillo y fracturas en huesos largos, compatibles con una antropofagia motivada por el colapso del suministro de alimentos.
Canibalismo ritual: entre la agresión y el homenaje
El canibalismo ritual puede adoptar múltiples formas. En el caso de Rossel (Papúa Nueva Guinea), las excavaciones de los sitios de Wule y Morpa permitieron recuperar huesos humanos con marcas de corte que se habían quemado y fragmentado de manera intencional. El análisis del contexto etnográfico del hallazgo permitió documentar la existencia de guerras entre clanes y el consumo de los enemigos como una forma de dominación.
Un caso singular lo aporta el sitio Cowboy Wash (Colorado, EE.UU.), donde los estudios arqueológicos y bioquímicos confirmaron la presencia de restos humanos tanto en excrementos como en ollas de cocina. Esto constituye, según los investigadores, una prueba directa de canibalismo. La distribución de los huesos y su disposición, además, sugiere que se consumieron en un acto ritual, perpetrado, quizás, en un contexto de violencia entre distintas comunidades o pueblos. En todos estos ejemplos, la repetición de los gestos, la selección de víctimas, el uso de fuego y la manipulación de los restos indican un comportamiento reglado y enmarcado dentro de un sistema de creencias culturales.

Diferenciar ritual de supervivencia: ¿es posible?
Aunque los métodos arqueológicos permiten identificar con alta fiabilidad el canibalismo como fenómeno, distinguir entre sus formas rituales y sus forma de supervivencia sigue siendo un desafío. Por ejemplo, una fractura en espiral puede darse tanto en el procesado apresurado de un cadáver como en un ritual funerario. Del mismo modo, la cocción de huesos humanos puede indicar que se prepararon para hacer frente al hambre o como parte de un ritual funerario.
Por todo ello, Bello advierte que la clave para una interpretación precisa reside en la combinación del análisis osteológico con la información ambiental, cultural y etnográfica. Así, los contextos de supervivencia suelen mostrar un procesado intensivo y caótico, que suele dejar tras de sí huesos dispersos, indistintos y fracturados. Por el contrario, los contextos rituales tienden a mostrar patrones más constantes. Por lo general, se seleccionan determinadas partes del cuerpo, que se manipulan siguiendo patrones simbólicos e incluso se reutilizan.

Los retos de una arqueología de la antropofagia
La arqueología del canibalismo se enfrenta a un reto metodológico y ético de primer orden: reconstruir prácticas humanas límite a partir de los huesos humanos con marcas de manipulación. El estudio de Silvia M. Bello demuestra que la clave para comprender estas conductas extremas no está solo en las marcas que los cuerpos conservan, sino también en el contexto que las rodea, desde la ecología y los conflictos bélicos hasta la religión y las grandes catástrofes.
Más que confirmar si ocurrieron o no episodios de antropofagia en el pasado, la principal pregunta arqueológica es saber por qué y cómo tuviereon lugar. ¿Qué puede revelar sobre las sociedades que lo practicaron? En este sentido, el canibalismo deja de ser una anomalía para convertirse en un factor revelador de las tensiones y valores que definieron a distintas culturas a lo largo del tiempo.
Referencias
- Bello, Silvia M. 2025. "The archaeology of cannibalism: A review of the taphonomic traits associated with survival and ritualistic cannibalism." Journal of Archaeological Method and Theory 32.11. DOI: https://doi.org/10.1007/s10816-024-09676-3
En el corazón de Sudáfrica, en un paisaje hoy salpicado de colinas y carreteras rurales, se extiende uno de los escenarios más extraordinarios de la prehistoria: la Cuna de la Humanidad. Este lugar, Patrimonio de la Humanidad por la UNESCO, conserva en sus cuevas y sedimentos la mayor concentración de fósiles de nuestros antepasados conocida hasta ahora. Y, hace dos millones de años, fue el hogar compartido de tres especies distintas de homínidos.
Los descubrimientos de los últimos años han revelado que, en aquel tiempo, Australopithecus, Paranthropus robustus y los primeros representantes del género Homo —nuestros propios antepasados directos— habitaron prácticamente las mismas zonas, a escasos metros unas de otras. Los fósiles hallados en yacimientos como Kromdraai, Drimolen y Swartkrans muestran que estas especies, aunque muy diferentes en aspecto y comportamiento, compartieron un mismo valle fértil durante miles de años.
La imagen que dibujan los investigadores es fascinante: grupos de Paranthropus, de complexión baja y robusta, con mandíbulas imponentes, desplazándose entre rocas y árboles; individuos de Australopithecus todavía hábiles para trepar, combinando la vida terrestre con incursiones arbóreas; y, entre ellos, los primeros humanos erguidos, algo más altos y con proporciones corporales más parecidas a las nuestras. En ese mosaico ecológico, las diferencias físicas y de dieta les habrían permitido explotar recursos distintos, evitando una competencia directa que, en teoría, habría sido inevitable.
Un paisaje de oportunidades
El valle en el que convivieron ofrecía un entorno privilegiado. Un río constante, rodeado de vegetación frondosa, garantizaba agua y alimento durante todo el año. En sus orillas crecían árboles frutales, y en los pastizales abundaban animales que podían cazar o aprovechar como carroña. Las cuevas servían de refugio frente a depredadores y proporcionaban un microclima estable para la vida diaria.

Los estudios geológicos indican que el relieve estaba formado por roca caliza y dolomita, que a lo largo de milenios se fue erosionando para formar un entramado de cavernas y dolinas. Este mismo proceso ayudó a preservar los restos de homínidos, ya que el agua rica en minerales impregnaba los huesos y los mineralizaba con rapidez. Así, los fósiles que hoy se extraen conservan un detalle anatómico excepcional, desde cráneos completos hasta diminutos dientes infantiles.
Las excavaciones de las dos últimas décadas han transformado por completo la visión que teníamos del sur de África en esta etapa de la evolución humana. Durante mucho tiempo, se pensó que las transiciones más importantes —como el salto de Australopithecus al género Homo— habían ocurrido casi exclusivamente en África oriental. Pero la cantidad y variedad de fósiles hallados en el sur sugiere que allí también hubo escenarios clave en nuestra historia evolutiva.
La evidencia de una convivencia
En Kromdraai, por ejemplo, se han encontrado restos de Paranthropus y de primeros Homo en estratos prácticamente contiguos. En Drimolen, una mandíbula infantil de Paranthropus robustus apareció a escasos centímetros de fragmentos craneales de Homo erectus, ambos fechados en torno a los dos millones de años. La proximidad física de estos restos sugiere que no solo compartieron el mismo territorio, sino que pudieron llegar a cruzarse cara a cara.
El caso de Australopithecus añade un matiz interesante. Restos de A. sediba —descubiertos en Malapa, a pocos kilómetros— muestran una combinación de rasgos primitivos y modernos, con brazos aptos para trepar y caderas más adaptadas a la marcha erguida. Esto indica que, al menos en esta región, todavía coexistían formas muy antiguas con especies ya claramente humanas.
Sin embargo, la datación de estos hallazgos sigue siendo un reto. Las capas de las cuevas pueden haberse alterado por derrumbes o actividad de animales, y las diferencias de apenas decenas de miles de años pueden complicar la interpretación de si realmente vivieron a la vez. Aun así, la repetición del mismo patrón en varios yacimientos cercanos refuerza la hipótesis de una convivencia prolongada.

Diferencias que aseguraron la supervivencia
¿Cómo era posible que tres especies tan parecidas ocuparan un mismo entorno sin aniquilarse mutuamente por competencia? La respuesta parece estar en la adaptación a nichos ecológicos distintos.
Paranthropus robustus, por ejemplo, poseía un cráneo con una cresta sagital prominente, donde se insertaban músculos maseteros enormes. Esto le permitía triturar alimentos muy duros, como raíces y semillas, que quizá eran despreciados por otras especies. Homo erectus, en cambio, mostraba dientes más pequeños y una cara más plana, adaptada a una dieta variada que incluía carne. Las herramientas de piedra y hueso halladas junto a restos humanos tempranos sugieren que podían procesar alimentos de forma más eficiente.
Australopithecus mantenía una dieta más generalista, basada en frutos, hojas y pequeños animales, pero con menos evidencia de uso de herramientas complejas. Esta división en los hábitos alimenticios habría reducido la competencia directa y permitido que las tres especies prosperaran simultáneamente durante miles de años.
Una cuestión de estrategia vital
Más allá de la dieta, otro factor clave pudo ser la diferencia en las estrategias de crianza. Los estudios de dientes fósiles indican que estas especies destetaban a sus crías antes que los chimpancés actuales, lo que les permitía tener más hijos en menos tiempo. Sin embargo, parece que en los primeros Homo la mortalidad infantil era menor, lo que sugiere una red social de cuidado más eficaz.
Esta capacidad para proteger y alimentar a las crías durante más tiempo podría haber dado a nuestra línea evolutiva una ventaja decisiva. Al sobrevivir más niños, los grupos humanos podían mantener y transmitir conocimientos, fortaleciendo la cooperación interna y aumentando sus posibilidades de adaptación a entornos cambiantes.

El desenlace de una convivencia única
Con el tiempo, Paranthropus y Australopithecus desaparecieron. El registro fósil indica que, hace alrededor de 1,5 millones de años, el valle quedó habitado únicamente por especies del género Homo. Las causas exactas de la desaparición de las otras dos especies siguen siendo motivo de debate: cambios climáticos, reducción de recursos o una menor capacidad para competir con humanos más versátiles podrían estar entre las razones.
Sea como fuere, la coexistencia de estas tres especies en un mismo espacio sigue siendo uno de los episodios más asombrosos de la prehistoria. Los fósiles sudafricanos no solo revelan la diversidad de formas humanas que existieron, sino también que la historia de nuestra evolución no fue una línea recta, sino una tupida red de caminos que se cruzaron, coexistieron y, a veces, desaparecieron para siempre.
A veces, una imagen nos permite entender lo que las fórmulas no logran transmitir. Eso mismo pensó el físico Hiromitsu Takeuchi cuando vio los resultados de un experimento reciente y no pudo evitar comunicar a la prensa que tuvo que recordar el cielo en espiral de La noche estrellada, el famoso cuadro de Vincent van Gogh. No es que el pintor neerlandés hubiera intuido la física cuántica, pero las formas en forma de remolino que aparecen en su obra se asemejan de forma asombrosa a las estructuras creadas por un tipo de inestabilidad nunca antes observada directamente en sistemas cuánticos.
La investigación, publicada en Nature Physics por un equipo internacional liderado por la Universidad Metropolitana de Osaka y el Instituto Avanzado de Ciencia y Tecnología de Corea, logró observar por primera vez la llamada inestabilidad de Kelvin–Helmholtz en fluidos cuánticos. A partir de este fenómeno surgieron unas estructuras nunca vistas, conocidas como skyrmiones fraccionarios excéntricos, que se organizan en forma de media luna. La analogía visual con la pintura de Van Gogh no es más que una anécdota, pero ayuda a explicar una investigación técnicamente compleja que podría tener implicaciones en áreas como la espintrónica y las tecnologías cuánticas.
Un viejo fenómeno, por primera vez en el mundo cuántico
En el mundo clásico, la inestabilidad de Kelvin–Helmholtz (KHI, por sus siglas en inglés) es un fenómeno bien conocido: aparece cuando dos fluidos se deslizan uno sobre otro a distintas velocidades, generando patrones ondulados y vórtices. Es lo que ocurre cuando el viento agita la superficie del mar o cuando se forman nubes con formas onduladas. Pero hasta ahora, nadie había conseguido observar esta misma inestabilidad en un sistema cuántico real.
Para lograrlo, el equipo enfrió átomos de litio hasta temperaturas cercanas al cero absoluto. De esta forma crearon un condensado de Bose-Einstein multicomponente, una forma de materia en la que las partículas se comportan como una sola entidad cuántica. Hicieron fluir dos corrientes a velocidades distintas dentro de ese superfluido, lo que provocó inestabilidades en su interfaz. Lo interesante es que lo que emergió no fue una copia exacta del comportamiento clásico: los patrones ondulados evolucionaron en estructuras regidas por las reglas de la mecánica cuántica y la topología.
En palabras del artículo, los investigadores describen que “la inestabilidad cuántica de Kelvin–Helmholtz genera una textura de espín con vorticidad localizada” que da lugar a configuraciones topológicas estables. Esto quiere decir que las perturbaciones no se disipan fácilmente, sino que adoptan formas robustas y persistentes en el tiempo.

Qué es un skyrmion y por qué importa
Los skyrmiones no son partículas fundamentales como los electrones o los protones. En realidad, son cuasipartículas, es decir, estructuras emergentes que se comportan como si fueran partículas dentro de ciertos materiales o sistemas. Tienen una configuración estable y se definen topológicamente, lo que significa que sus propiedades se mantienen aunque el entorno cambie de forma continua.
Originalmente, los skyrmiones fueron propuestos en la física de partículas por Tony Skyrme en los años 60, como modelos para entender ciertas propiedades de los bariones. Pero su uso se ha extendido a otras áreas como la física del estado sólido, donde se han observado en materiales magnéticos, cristales líquidos e incluso en superconductores. En estos contextos, han despertado gran interés por su potencial en memorias magnéticas de alta densidad y dispositivos de espintrónica.
Lo novedoso del estudio es que los skyrmiones observados en este experimento no siguen las formas habituales. El artículo los define como skyrmiones fraccionarios excéntricos, debido a que tienen una forma asimétrica, similar a una media luna. Además, presentan singularidades embebidas: puntos donde la estructura del espín colapsa y da lugar a distorsiones muy marcadas. Según explican los autores, este tipo de skyrmiones “poseen una estructura de espín singular y fraccionaria que no encaja en las clasificaciones topológicas tradicionales” .
Este hallazgo no solo enriquece el catálogo de configuraciones topológicas conocidas, sino que podría abrir la puerta a nuevas aplicaciones tecnológicas, al permitir el diseño de sistemas cuánticos con propiedades específicas y controladas.

Cómo se descubrieron y por qué se parecen al cielo de Van Gogh
Una de las claves del experimento fue la capacidad de los investigadores para controlar con precisión el sistema. Usaron una trampa óptica para contener el condensado de litio, y aplicaron gradientes de velocidad muy controlados para provocar la inestabilidad. Mediante imágenes tomadas con técnicas avanzadas de absorción, pudieron visualizar la formación de los vórtices y seguir su evolución.
En los resultados, apareció una secuencia clara: primero, un patrón de ondulaciones en la frontera entre los dos componentes del superfluido; luego, la formación de estructuras curvas que crecían en tamaño; y finalmente, la consolidación de los skyrmiones excéntricos. Estos se organizaron en patrones complejos, con forma de gajos o medias lunas.
Esta forma fue lo que llevó a Takeuchi a pensar en Van Gogh. En declaraciones a la prensa, dijo que “la gran luna creciente en la esquina superior derecha de La noche estrellada se parece exactamente a un skyrmion excéntrico”. Aunque no se trata de una comparación científica, sí permite al público no especializado hacerse una idea intuitiva de la forma de estas estructuras. La comparación también ayuda a mostrar cómo ciertas configuraciones pueden surgir tanto en el arte como en la naturaleza, aunque su origen y explicación sean completamente distintos.

Implicaciones futuras y desafíos pendientes
El trabajo no solo representa un logro experimental importante, sino que plantea preguntas teóricas fundamentales. La existencia de skyrmiones con estas características obliga a revisar las clasificaciones topológicas actuales, que hasta ahora no contemplaban singularidades embebidas de este tipo. Como señalan los autores, “estos objetos topológicos amplían el espacio de soluciones posibles en sistemas multicomponentes” .
Además, el hecho de que puedan generarse y controlarse en laboratorio abre nuevas posibilidades. Por ejemplo, podrían utilizarse como unidades de información cuántica, o como elementos funcionales en dispositivos de próxima generación que operen bajo principios distintos a los de la electrónica tradicional.
Por otro lado, quedan muchos interrogantes por resolver. La dinámica exacta de estos skyrmiones, su estabilidad en distintos entornos y su posible interacción con otras estructuras topológicas son aspectos que el equipo espera explorar en investigaciones futuras. También se menciona la posibilidad de ver fenómenos similares en sistemas de mayor dimensionalidad, lo que ampliaría aún más su campo de estudio.
Como señalan los autores en su conclusión, “el descubrimiento de estos skyrmiones excéntricos abre una nueva ventana hacia la comprensión de la topología en sistemas cuánticos complejos” . Esa ventana, por ahora, deja ver un paisaje que combina arte, física y nuevas formas de orden en el mundo cuántico.
Referencias
- Hiromitsu Takeuchi, Hyeongyun Han, Tomoya Ono, Yuki Kawaguchi, and Makoto Tsubota. Stable singular fractional skyrmion spin texture from the quantum Kelvin–Helmholtz instability. Nature Physics (2025). https://doi.org/10.1038/s41567-025-02982-x.
Con el avance de la tecnología y el creciente uso de dispositivos móviles para el entretenimiento, el estudio y el trabajo, las tablets han recuperado protagonismo en el mercado.
En plena temporada estival y tras los últimos movimientos de OnePlus, Xiaomi ha querido dar un golpe sobre la mesa rebajando de forma sorpresiva y agresiva su Redmi Pad Pro alcanzando ahora su mínimo histórico.

Normalmente, su precio se sitúa en torno a los 200€ en la mayoría de tiendas especializadas, como por ejemplo, Miravia, Amazon, PcComponentes y MediaMarkt. Sin embargo, Xiaomi, junto al código IFPMWUKW aplicado en AliExpress, la ha hundido a su nuevo mínimo situado en 139,26 euros.
Esta tablet top ventas, integra un panel LCD de 12,1 pulgadas con resolución 2.5K, frecuencia de actualización AdaptiveSync de hasta 120 Hz, brillo máximo de 600 nits y soporte para Dolby Vision. Además, está alimentada por el Snapdragon 7s Gen 2 de 4 nm y con 6 GB de RAM y 128 GB de almacenamiento.
Así mismo, ofrece un sistema de sonido envolvente con cuatro altavoces estéreo compatibles con Dolby Atmos. Sin olvidar la batería de 10.000 mAh con carga rápida de 33 W, y la conectividad Wi-Fi 6, Bluetooth 5.2 y USB-C 2.0. Además, cuenta con cámaras delantera y trasera de 8 MP, ejecutando Xiaomi HyperOS sobre Android U.
Xiaomi va con todo y rebaja notablemente también su tablet POCO Pad
Xiaomi no se conforma con haber rebajado la Redmi Pad Pro. En un nuevo movimiento que deja claro su objetivo de dominar el mercado de tablets Android este verano, ajustando el precio al mínimo de su POCO Pad hasta los 176,38 euros gracias al cupón IFP8LSEF. Otra alternativa a tener en cuenta, pues en tiendas como Amazon, Miravia y PcComponentes, su precio asciende por encima de los 230€.

Este modelo equipa una pantalla LCD de 12,1 pulgadas con resolución 2.5K, tasa de refresco AdaptiveSync de 120 Hz, 249 ppp, compatibilidad con Dolby Vision y protección Gorilla Glass 3. En su interior, se encuentra el procesador Snapdragon 7s Gen 2 de 4 nm y 8 núcleos, junto con 8 GB de RAM y 256 GB de memoria.
Al igual que la anterior, cuenta con una batería de 10.000 mAh que admite carga rápida de 33 W. Además de cuatro altavoces estéreo compatibles con Dolby Atmos, WiFi 6 y Bluetooth 5.2. odo esto corre bajo Xiaomi HyperOS basado en Android 14.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En lo más profundo de la selva chiapaneca, un equipo internacional de arqueólogos ha localizado lo que podría ser la última capital de los lacandones rebeldes: Sak-Bahlán, la mítica “tierra del jaguar blanco”. Oculta durante más de tres siglos bajo la espesura de la Reserva de la Biosfera Montes Azules, esta ciudad se convirtió en el último refugio de un pueblo maya que resistió a la conquista española durante más de un siglo.
El hallazgo, respaldado por el Instituto Nacional de Antropología e Historia (INAH) y documentado en un estudio que se publicará en la revista Chicomoztoc, es el resultado de un trabajo de precisión histórica y tecnológica. Mediante un modelo predictivo desarrollado por el arqueólogo Josuhé Lozada Toledo, basado en Sistemas de Información Geográfica (SIG) y el software ArcGIS Pro, fue posible reconstruir las rutas coloniales y prehispánicas, cruzando datos de topografía, vegetación, hidrografía y distancias de viaje descritas en crónicas del siglo XVII.
Un enigma histórico con coordenadas precisas
La existencia de Sak-Bahlán estaba documentada desde 1695, cuando expediciones españolas, guiadas por aliados mayas, lograron encontrar y ocupar la ciudad sin librar batalla. La urbe fue rebautizada como Nuestra Señora de los Dolores y, menos de tres décadas después, quedó abandonada. A partir de entonces, su ubicación se convirtió en un misterio que desafió a generaciones de exploradores.
Los registros históricos más valiosos proceden de un fraile español que describió el trayecto hasta Sak-Bahlán: varios días a pie desde el río Lacantún, seguidos de un viaje en canoa. Al introducir esos datos en su modelo geoespacial, Lozada pudo establecer un radio de búsqueda muy específico, en una zona donde la selva ha borrado cualquier trazo visible desde el aire.
El proyecto, codirigido por los arqueólogos Brent Woodfill (Universidad de Winthrop, EE.UU.) y Yuko Shiratori (Universidad Rissho, Japón), se adentró en el terreno con un equipo reducido, pero armado con datos precisos y la experiencia acumulada de expediciones anteriores que habían fracasado. Tras jornadas de marcha, navegación y machete en mano, dieron con un conjunto de estructuras de piedra, fragmentos cerámicos, herramientas de obsidiana e incluso restos de una pequeña iglesia colonial.
La última fortaleza de un pueblo indómito
Sak-Bahlán no era una ciudad monumental como las del periodo clásico maya. Sus construcciones, modestas y adaptadas al entorno, fueron diseñadas para pasar desapercibidas. Sin embargo, su significado histórico es enorme: fue la capital de los lacandones-ch’olti’es desde finales del siglo XVI hasta su caída en 1695.

Estos mayas habían abandonado su antigua capital, Lacam-Tún, tras su conquista por los españoles en 1586, internándose en una región remota donde mantuvieron su independencia durante más de un siglo. Allí continuaron cultivando maíz, chiles y frutales, criando guajolotes y practicando sus rituales ancestrales en cuevas cercanas, mientras establecían redes de comercio y, en ocasiones, de guerra con otros pueblos mayas y con asentamientos coloniales.
La caída de Sak-Bahlán se produjo por una combinación de diplomacia fallida y traición. Algunos de sus líderes aceptaron viajar a Guatemala para dialogar con las autoridades españolas y eclesiásticas, pero la mayoría murió por enfermedad antes de regresar. Poco después, un contingente de soldados y aliados indígenas entró en la ciudad, rebautizándola y marcando el fin de su historia independiente.
Del mito a la evidencia material
El descubrimiento de este asentamiento en la confluencia de los ríos Jataté e Ixcán no solo confirma las hipótesis del modelo predictivo, sino que también abre una ventana inédita a la vida cotidiana de un pueblo que eligió el aislamiento antes que la rendición.
Los trabajos de campo han identificado plazas, cimientos de edificios comunales y materiales que sugieren un intercambio de bienes más amplio de lo que las crónicas dejaban entrever. Los arqueólogos esperan que el análisis detallado de la cerámica y otros artefactos revele conexiones con centros mayas aliados y tal vez con productos europeos que pudieron integrarse en su cultura.
Próximamente, el equipo utilizará tecnología LiDAR para mapear el sitio bajo el dosel selvático y localizar estructuras ocultas. Este método podría mostrar no solo la extensión real de la ciudad, sino también caminos, sistemas agrícolas y zonas rituales que hasta ahora permanecen invisibles.
Resistencia, memoria y reivindicación
Más allá de su valor arqueológico, Sak-Bahlán es un símbolo de resistencia. Representa a un pueblo que prefirió la selva, el silencio y el aislamiento antes que someterse a un orden impuesto. Para los investigadores, su hallazgo no solo corrige un vacío en la historia de Chiapas, sino que reivindica la memoria de comunidades que fueron borradas de los relatos oficiales.
Este descubrimiento también se suma a un patrón más amplio: la conquista española del mundo maya no fue un episodio fulminante, sino un proceso prolongado, con zonas que resistieron durante décadas o incluso siglos. Sak-Bahlán fue la penúltima capital maya en caer; la última, Nojpetén, en Guatemala, resistiría dos años más.
Hoy, los descendientes de los antiguos lacandones viven en otras zonas de Chiapas y Guatemala, con identidades y lenguas diferentes a las de sus antepasados de Sak-Bahlán. Sin embargo, su historia, marcada por la resistencia y la adaptación, sigue latiendo en la memoria cultural de la región.
El regreso de Sak-Bahlán al mapa no es solo un triunfo científico, sino también un acto de justicia histórica. Y, como advierten los arqueólogos, apenas es el comienzo: las profundidades de Montes Azules guardan aún más secretos, esperando a quienes se atrevan a buscarlos.
Hay ideas que parecen sacadas directamente de una novela de ciencia ficción, pero que en realidad emergen de la investigación científica más rigurosa. A veces, incluso, lo que hoy suena inverosímil puede convertirse en el próximo gran salto de la humanidad. Tal como ocurrió con la detección de ondas gravitacionales —un logro impensable para Einstein y que tardó un siglo en llegar—, un grupo de científicos plantea ahora algo que puede parecer igual de descabellado: enviar una nave a un agujero negro. Tal como suena.
El astrofísico Cosimo Bambi, de la Universidad Fudan (China) y la Universidad de Nueva Uzbekistán, ha publicado un artículo en la revista iScience donde propone con argumentos físicos y tecnológicos sólidos una misión interestelar hacia un agujero negro cercano. "La posibilidad de una misión interestelar [...] no es completamente irrealista", escribe, dejando claro que se trata de una propuesta extremadamente ambiciosa, pero científicamente fundamentada.
Un laboratorio natural para probar la relatividad
Los agujeros negros son los objetos con los campos gravitatorios más intensos del universo. Su estudio no solo permite comprender su naturaleza, sino que ofrece una oportunidad única para poner a prueba los límites de la teoría de la relatividad general. Aunque esta teoría ha resistido todas las pruebas hasta ahora, los entornos extremos como los que rodean a un agujero negro podrían revelar desviaciones importantes.
En su artículo, Bambi explica que "los agujeros negros son laboratorios ideales para comprobar las predicciones de la relatividad general", ya que permiten estudiar fenómenos gravitacionales imposibles de recrear cerca de la Tierra. Y añade: "Generalmente, no conocemos la estructura de un agujero negro, en particular la región dentro del horizonte de eventos. La relatividad general hace predicciones claras, pero algunas de ellas son ciertamente incorrectas".
El problema es que estudiar estos objetos desde nuestro planeta implica muchas limitaciones. Las observaciones actuales, como las ondas gravitacionales o las imágenes del horizonte de sucesos, son indirectas y muy afectadas por el entorno astrofísico. Por eso, una sonda que se acercara físicamente a un agujero negro podría ofrecer datos imposibles de obtener por otros medios.

¿Hay un agujero negro cerca de la Tierra?
Uno de los desafíos clave de esta propuesta es identificar un objetivo viable. El agujero negro más cercano del que se tiene constancia está a unos 1.560 años luz. Demasiado lejos. Sin embargo, según cálculos de distribución estelar y poblaciones de objetos compactos, es razonable pensar que podría haber un agujero negro a solo 20 o 25 años luz de la Tierra.
Esa distancia es clave: si no se encuentra uno en ese rango, el viaje sería demasiado largo o exigiría tecnologías mucho más avanzadas. "Si el agujero negro está a más de 40 o 50 años luz, me temo que tendremos que rendirnos", explica Bambi en el artículo de ScienceAlert.
¿Cómo detectar uno tan cercano? La mayoría de los agujeros negros son objetos aislados, sin emisión de luz visible, por lo que son extremadamente difíciles de localizar. Pero algunos métodos emergentes como el microlente gravitacional o la detección de radiación por acreción interestelar están mejorando nuestra capacidad de encontrarlos. Se trata, en parte, de una cuestión de suerte tecnológica y observacional en las próximas décadas.

La nave: un reto de ingeniería interplanetaria
El segundo gran desafío es la tecnología necesaria para alcanzar un agujero negro. Con los cohetes actuales, incluso la estrella más cercana está fuera de nuestro alcance práctico. Por eso, Bambi sugiere usar nanonaves impulsadas por velas de luz y aceleradas por potentes láseres terrestres. Este concepto ya está en desarrollo dentro del proyecto Breakthrough Starshot, que busca enviar pequeñas sondas a Alfa Centauri.
Una vez en movimiento, estas nanonaves —de unos pocos gramos— podrían alcanzar hasta un tercio de la velocidad de la luz. El viaje a un agujero negro a 20 años luz tomaría entre 60 y 75 años, y los datos tardarían otros 20 en regresar a la Tierra. Una misión total de unos 100 años, según estima el autor del paper.
El plan contempla una nave que se divida en dos o más unidades al llegar a las inmediaciones del agujero negro. Una orbitaría más lejos y enviaría los datos a la Tierra, mientras que otra se acercaría al horizonte de sucesos. Estas naves intercambiarían señales para registrar con precisión cómo se comporta la gravedad en esa región tan extrema del universo.
Las cuatro fases de la misión a un agujero negro
El plan propuesto por Cosimo Bambi contempla una misión organizada en cuatro fases fundamentales, cada una con sus propios desafíos técnicos y tiempos estimados. Esta secuencia proporciona una hoja de ruta clara para transformar una idea altamente especulativa en un proyecto de exploración interestelar plausible.
En la primera fase, la nave —una nanocápsula ligera equipada con una vela fotónica— sería acelerada desde la Tierra mediante un potente haz láser. Este impulso inicial duraría apenas unos minutos, pero permitiría que la nave alcanzara una velocidad cercana a un tercio de la velocidad de la luz. La aceleración requeriría una distancia de aproximadamente un tercio del espacio entre la Tierra y el Sol.
La segunda fase es el viaje interestelar propiamente dicho. A esa velocidad, una sonda podría llegar a un agujero negro situado a unos 20 o 25 años luz en un plazo de 60 a 75 años. Durante este tramo, la nave viajaría sin propulsión activa, navegando por el espacio interestelar hasta acercarse a su objetivo.
En la tercera fase, la nave tendría que modificar su trayectoria para colocarse en órbita del agujero negro. Esto implicaría pasar de una órbita abierta a una cerrada, una maniobra especialmente complicada sin sistemas de frenado convencionales. En ese momento, la nave podría dividirse en al menos dos sondas: una principal que mantendría una órbita segura y otra que se acercaría más al objeto para realizar mediciones más cercanas.
La fase final sería la más larga y crucial: ambas sondas realizarían los experimentos científicos planeados y enviarían los datos obtenidos hacia la Tierra. La comunicación se realizaría mediante señales electromagnéticas, y los datos tardarían al menos otros 20 años en llegar, dependiendo de la distancia del agujero negro objetivo.

Tres experimentos clave
Bambi describe tres pruebas principales que podrían realizarse en esta misión. La primera sería un test de la métrica de Kerr, la solución matemática que describe cómo debe comportarse el espacio-tiempo alrededor de un agujero negro rotatorio. La segunda, verificar si existe realmente un horizonte de eventos, es decir, si el agujero negro se comporta como predice la relatividad o si hay estructuras alternativas, como los "fuzzballs" propuestos por la teoría de cuerdas. La tercera consistiría en detectar posibles variaciones en las constantes fundamentales de la física en un entorno de campo gravitatorio extremo.
En relación con esta última, el autor propone comparar transiciones atómicas cuya energía depende de forma diferente de la constante de estructura fina (α). Si hubiera variaciones de esta constante en las inmediaciones del agujero negro, se observarían diferencias medibles en los espectros registrados por las sondas. Estos experimentos podrían abrir una ventana completamente nueva a la física fundamental.
Un proyecto para varias generaciones
La duración, los costes y la dificultad técnica hacen que esta propuesta no esté pensada para los próximos años, ni siquiera para una única generación. Pero eso no le resta valor. La historia de la ciencia está repleta de proyectos que comenzaron como ideas imposibles y terminaron marcando hitos en el conocimiento humano.
Bambi es consciente de ello. En el artículo original, recuerda que "la posibilidad de una misión interestelar para estudiar un agujero negro no es completamente irrealista, aunque sea ciertamente muy especulativa y extremadamente desafiante". Su objetivo no es tanto construir ya una nave, sino abrir un nuevo horizonte de discusión científica sobre qué podemos hacer para estudiar mejor uno de los objetos más misteriosos del universo.
Tampoco es necesario desarrollar toda la tecnología desde cero para esta misión. Muchas de las herramientas, como los sistemas de propulsión o comunicación, pueden desarrollarse en paralelo con otras misiones interestelares, como las dirigidas a estudiar exoplanetas cercanos. La clave es integrar ese avance en un plan más ambicioso a largo plazo.
Referencias
- Cosimo Bambi. An interstellar mission to test astrophysical black holes. iScience, 2025. https://doi.org/10.1016/j.isci.2025.113142.
Año 2575 antes de Cristo. Una flotilla transporta bloques de piedra desde las canteras de Tura hasta la meseta de Giza, unos 15 kilómetros río abajo. Aquí, miles de trabajadores y artesanos se afanan en la construcción de la Gran Pirámide y son alojados en Heit el-Ghurab, un asentamiento provisto de barracones para los trabajadores, casas y oficinas para los funcionarios y dignatarios encargados de coordinar los trabajos. Almacenes, cocinas y mataderos sirven para abastecer a las alrededor de diez mil personas empleadas a diario en esta obra colosal para mayor gloria del faraón Quéops. Y sin embargo, ellos tan solo constituyen la punta del iceberg. Porque, a la vez, miles de campesinos, canteros, marineros y artesanos se ocupan de producir y transportar en todo Egipto la inmensa cantidad de bienes utilizados y consumidos a diario en Giza.
Año 1274 antes de Cristo. El ejército de Ramsés II se enfrenta en Kadesh a las tropas del rey hitita Muwatalli II en la que fue, probablemente, una de las mayores batallas de la Edad del Bronce. Si las fuerzas enfrentadas incluían varias decenas de miles de soldados así como miles de carros de batalla, las inmensas necesidades logísticas de ambos ejércitos requerían una minuciosa organización: producir miles de lanzas, flechas, escudos y armaduras en talleres especializados, mantener miles de caballos y proveer los alimentos y el forraje requeridos por las tropas a lo largo del itinerario que conducía al campo de batalla. Barcos, asnos, rebaños, porteadores e ingentes depósitos de material y alimentos debían estar disponibles para el ejército en marcha.
Ambos acontecimientos, separados por mil trescientos años de distancia, dan fe de la existencia de una compleja organización política capaz de extraer y movilizar recursos humanos y materiales a gran escala y proyectarlos donde fuera necesario, obedeciendo a las directrices de un monarca. No por casualidad Quéops y Ramsés II simbolizan aún, miles de años tras su muerte, la esencia de un estado sólido, firme, bien organizado y gobernado, donde sus construcciones colosales parecen transmitir la idea de un poder absoluto.

¿Un estado absoluto?
Sin embargo, ¿fue esto realmente así? A fin de cuentas, estos monumentos fueron producidos por la monarquía para transmitir, precisamente, tal impresión: un poder omnímodo y benévolo, caracterizado por la eficacia, la buena gestión y la abundancia, y bendecido por los dioses. Sin embargo, los documentos de la vida cotidiana, tales como cartas, informes de escribas y administradores e incluso decretos reales, transmiten una imagen mucho más matizada. En ellos es frecuente la mención de abusos, corrupción, mala organización e incluso de robos perpetrados con el consentimiento de las autoridades. Tampoco es raro que las fuentes administrativas y literarias mencionen intrigas palaciegas destinadas a asesinar al faraón y sustituirlo por el candidato de alguna de las facciones que dominaban la corte.
Por tanto, la realidad del poder en el Egipto faraónico es mucho más compleja de lo que pudiera sugerir una lectura inmediata e ingenua de los textos e imágenes producidos por la realeza. Y esto lleva inevitablemente a interrogarse sobre los fundamentos del poder de los faraones y su capacidad real para movilizar recursos. Al contrario de lo que los títulos administrativos de los funcionarios parece indicar, Egipto no estaba organizado únicamente en departamentos gubernamentales (una suerte de ministerios) con competencias claras y bien delimitadas: el Granero, el Tesoro, la Oficina de los Documentos Reales y otros.

Aunque estos departamentos existían, ignoramos qué porcentaje de la riqueza del país controlaban efectivamente y podían movilizar regularmente. Junto a ellos, las fuentes mencionan templos, potentados locales, ciudades, el propio palacio real y otras instituciones que proporcionaban trabajadores, impuestos, productos agrícolas y metales preciosos cuando así lo requería el estado. Incluso las provincias parecen menos estables como entidades organizativas territoriales de lo que las listas geográficas pudieran hacer pensar. Algunas provincias corresponden, de hecho, a territorios poco poblados, caracterizados por un hábitat disperso y por el peso de poblaciones muy móviles: nómadas de los desiertos circundantes, pastores trashumantes, cazadores y pescadores…
Egipto aparece así como un mosaico de regiones e instituciones dominadas en gran medida por potentados locales cuyo grado de integración en la monarquía era variable. Por ello, una de las tareas principales de la monarquía será la creación de un entramado de instituciones en provincias capaz de vincular los intereses de las élites locales con los de la corona. Las donaciones de tierras a los templos locales, la creación de centros económicos de la corona gestionados por administradores provinciales, la educación y posterior promoción en la capital de los hijos de la nobleza provincial mediante la concesión de cargos, honores y recompensas en el entorno palaciego, ayudaron a alcanzar tal fin. También la creación de una cultura común a la élite palaciega y provincial, que compartía códigos iconográficos y literarios que ensalzaban la lealtad hacia el monarca y la gestión eficaz, así como la promoción social y económica con que eran recompensadas.
Estrategias convergentes… ¿o divergentes?
Por ello, el éxito de la monarquía, su viabilidad a largo plazo, reposaba en buena medida en la habilidad de los faraones para conseguir que sus intereses fuesen compartidos por la élite del país, de modo que nobles, altos dignatarios y la familia real pudiesen colaborar para sostener un orden social y político del que eran los principales beneficiarios. Sin embargo, no siempre sucedía así y el país entraba entonces en un período de disgregación del poder central, de formación de centros políticos regionales y de auge de conflictos armados que podía durar siglos. Egipto conoció varios episodios de esta naturaleza.
Recomponer la monarquía requería entonces establecer nuevos compromisos, un uso selectivo de la fuerza contra disidentes o sectores recalcitrantes de la nobleza y, sobre todo, respetar los intereses de los centros de poder regionales más poderosos. Esta realidad del poder, base de la estabilidad de la monarquía, queda frecuentemente oculta tras los oropeles de la cultura oficial reconstituida. Esta cultura celebra de nuevo el orden y la prosperidad logrados por el faraón reunificador de Egipto. Y esto implica presentar los períodos precedentes de fragmentación política como tiempos oscuros, dominados por la pobreza, el caos y la arbitrariedad, aunque no fuera así en la realidad, como la arqueología demuestra desde hace décadas. Pero el principio central es un ideal de tradición y continuidad, de vuelta a un orden eterno e inmutable, donde un monarca absoluto dirige el país sin cortapisas. Sin embargo, se trata tan solo de un ideal. La realidad era mucho más prosaica, dominada por compromisos y alianzas que resultaban en juegos de poder y en prácticas políticas descarnadas solo documentadas excepcionalmente.

Contrapoderes
El mundo local era un mundo tozudo que funcionaba a menudo al margen de las directivas de los faraones y sus administradores. Se trataba de un mundo cerrado, de aldeas y pequeñas localidades donde el poder efectivo estaba en manos de potentados que ni ostentaban títulos administrativos o de rango ni poseían monumentos de calidad (estatuas, tumbas decoradas, ataúdes pintados, papiros funerarios). Ello no impedía que fueran las autoridades efectivas a nivel local, con quienes los agentes del estado debían negociar y cuya autoridad e intereses debían respetar para que las directrices de la corona fueran aplicadas en el mundo rural.
Las denominaciones de tales potentados son simples pero sugerentes: “grande”, “gran hombre”, “hijo de un hombre (de calidad)”. Eran ellos quienes dominaban los consejos que gestionaban y resolvían los conflictos cotidianos de la comunidad. Para conseguir su integración en los aparatos del estado, los templos y los consejos privados de los grandes nobles y cortesanos constituían vehículos primordiales. Convertirse en sacerdote o llegar a ser consejero de un alto dignatario garantizaban contactos, prestigio y recompensas, fundamentales para reforzar la autoridad de tales potentados ante sus vecinos.
Lejos, por tanto, de un estado uniforme y monolítico a lo largo de tres milenios, Egipto aparece como un laboratorio de prácticas políticas y de equilibrios de poder que, a pesar de inevitables vaivenes y rupturas, fue capaz de producir una notable estabilidad y una cultura fascinante. ¿El secreto? Un estado flexible, alimentado por una longeva experiencia política y capaz de adaptarse a los desafíos sociales y geopolíticos de cada época.

En este sentido, el libro El Estado en el Antiguo Egipto, su poder, cambios y dinámicas, publicado por Erasmus, ofrece una mirada renovadora y necesaria. Lejos de mitificar la excepcionalidad de Egipto, lo inserta en un contexto comparativo con otros estados de la Antigüedad, desmontando ideas preconcebidas sobre su supuesta inmutabilidad. A partir de los últimos avances en teoría política y arqueología, la obra muestra cómo el Egipto faraónico fue un laboratorio histórico donde se ensayaron —y reajustaron— modelos de gobierno, circulación de la riqueza y control del territorio. Una lectura para entender que incluso los imperios más duraderos se construyen, se tensan y se reinventan constantemente.
Referencias
- Juan Carlos Moreno García (ed.), Ancient Egyptian Administration, Brill, Leiden-Boston, 2013.
- Juan Carlos Moreno García, Gary Feinman, Power and Regions in Ancient States: An Egyptian and Mesoamerican Perspective, Cambridge University Press, Cambridge, 2022.
- Juan Carlos Moreno García, Seth Richardson, Monarchies and the Organization of Power: Ancient Egypt and Babylonia Compared (2100-1750 BC), Cambridge University Press, Cambridge, 2025.
- Juan Carlos Moreno García, El estado en el antiguo Egipto. Su poder, cambios y dinámicas, Almuzara, Córdoba, 2025.
En muchas aulas del mundo, se repite una afirmación con total seguridad: la primera ley de Newton es solo un caso particular de la segunda. Esta idea se transmite como si fuera una verdad indiscutible, y rara vez se cuestiona. Sin embargo, quienes han intentado enseñar física con profundidad saben que esa explicación puede dejar huecos. Basta con recordar la experiencia de mirar por la ventanilla de un tren en movimiento: si no hay sacudidas ni frenazos, se siente igual que estar detenido. ¿Qué ley explica realmente esa sensación de equilibrio? ¿La Primera? ¿La Segunda? La confusión está más viva de lo que parece, según un paper reciente, que pone en el punto de mira las leyes de Newton.
Un nuevo estudio de los investigadores Indresh Yadav y P. M. Geethu pone este debate sobre la mesa con una claridad poco habitual. Su artículo, publicado en agosto de 2025, revisa en detalle las tres leyes de Newton y demuestra que la primera no puede ni debe entenderse como una simple derivación de la segunda. El trabajo no solo aporta argumentos teóricos sólidos, sino que también propone una revisión conceptual: introducir una "Ley Cero de Newton" que explique las bases tácitas sobre las que se construye toda la mecánica clásica. Lejos de tratarse de una discusión académica sin consecuencias, sus conclusiones tienen implicancias directas en cómo se enseña la física en todos los niveles.
Una ley con función propia
La primera ley de Newton afirma que “todo cuerpo persevera en su estado de reposo o de movimiento uniforme en línea recta, a menos que sea obligado a cambiar ese estado por fuerzas impresas sobre él”. Esta frase, que se aprende en los primeros años de secundaria, ha sido históricamente minimizada como una simple consecuencia de la segunda ley. Sin embargo, el estudio argumenta que esta visión es incorrecta: la primera ley no es redundante, sino estructuralmente necesaria para que la segunda tenga sentido.
¿Por qué? Porque define qué tipo de sistema permite aplicar la segunda ley. En física, esto se conoce como un "marco de referencia inercial". Es decir, un entorno en el que los objetos no cambian de velocidad salvo que haya una fuerza actuando. Solo en estos marcos la relación F = ma (fuerza igual a masa por aceleración) se cumple correctamente. Sin esta condición previa, no se puede saber si un objeto se está acelerando por una fuerza o simplemente porque el observador está en un entorno que se mueve.
Además, la primera ley establece una simetría clave de las leyes físicas: que no hay diferencia entre estar quieto o moverse a velocidad constante si no hay fuerzas externas. Esa idea, conocida como invariancia bajo traslación uniforme, es una piedra angular de toda la física clásica. Por tanto, reducir la primera ley a un caso especial de la segunda es ignorar su papel fundamental como criterio para definir qué marcos son válidos en la teoría.

El tren de Alice y Bob
El artículo usa un ejemplo concreto para dejar esto más claro. Supongamos que Alice está parada en la acera y ve pasar a Bob dentro de un coche que comienza a acelerar. Desde su punto de vista, Bob cambia de velocidad porque hay una fuerza actuando: la del motor del coche. Ella puede aplicar perfectamente la segunda ley para describir lo que ocurre. Pero desde dentro del coche, Bob ve cómo Alice "se aleja" sin causa aparente, como si el mundo exterior se moviera hacia atrás.
Este fenómeno se debe a que Bob no está en un marco de referencia inercial, sino en uno acelerado. En ese marco, la segunda ley parece fallar: hay movimiento, pero no hay fuerza visible que lo cause. Este ejemplo, incluido en el artículo original como parte de la discusión conceptual, ilustra por qué es necesario tener una ley que defina cuándo se puede usar la fórmula F = ma con garantías. Esa ley es la lrimera.
En palabras del estudio, “sin la primera ley para proporcionar un criterio para identificar marcos inerciales, la segunda ley perdería su significado físico”. No se trata entonces de una ley decorativa o introductoria, sino de una pieza estructural sin la cual el edificio lógico de la mecánica clásica se tambalea.

Más allá de Newton: relatividad y pedagogía
Otra fortaleza del trabajo es que no se limita al análisis histórico, sino que conecta los argumentos con desarrollos más modernos. En particular, la primera ley sigue vigente en el marco de la relatividad especial, la teoría que reemplazó a la física newtoniana a principios del siglo XX. A pesar de que la segunda ley se modifica en ese contexto, la definición de un sistema inercial sigue dependiendo de que los objetos se muevan a velocidad constante si no hay fuerzas actuando. La transformación de coordenadas entre observadores ya no es galileana, sino lorentziana, pero la idea de fondo se conserva.
Esto demuestra que la primera ley no solo es válida en la física clásica, sino también en sus versiones más avanzadas. Incluso cuando se redefine el concepto de masa o se ajustan las ecuaciones de movimiento, la necesidad de establecer un sistema de referencia inercial permanece. Por eso, los autores insisten en que se trata de una ley con estatus lógico independiente. Y esa independencia, según el artículo, tiene valor pedagógico: ayuda a evitar errores comunes en la enseñanza de física y refuerza la comprensión de conceptos clave.
Una Ley Cero que no está en los libros
Además de defender el papel de la primera ley, el artículo propone una idea provocadora: que la mecánica newtoniana se basa en ciertos supuestos que no están expresados formalmente como leyes, pero que son igual de necesarios. Uno de ellos es la idea de que la masa es aditiva, invariante y conservada. Es decir, que si juntamos varios cuerpos, la masa total es la suma de las partes, y que esta no cambia con el tiempo. Aunque esto suele darse por hecho, sin esta propiedad no podría definirse correctamente la cantidad de movimiento (o momento lineal), ni aplicarse la segunda ley.
Otro supuesto clave es que los cuerpos responden únicamente a las fuerzas que actúan en un instante dado, sin memoria de fuerzas pasadas. Esta condición, conocida como localidad temporal, está implícita en la forma diferencial de la segunda ley, pero rara vez se explica como una premisa independiente.
Finalmente, el tercer supuesto es la existencia de un espacio y un tiempo absolutos, independientes del observador. Aunque esta idea fue superada por la relatividad, sigue siendo fundamental dentro del marco clásico. Por eso, los autores sugieren que el principio de conservación de la masa podría enunciarse como una “Ley Cero” de Newton, ya que “soporta toda la estructura formal de la dinámica newtoniana”.
Las tres suposiciones
Aunque el artículo no presenta una formulación exacta ni única de la “Ley Cero”, sí identifica tres supuestos fundamentales que, aunque no se expresan formalmente como leyes físicas, sostienen de manera implícita el marco entero de la dinámica newtoniana.
- El espacio y el tiempo proporcionan un escenario absoluto en el que los cuerpos se mueven e interactúan, independientemente del movimiento del observador.
- En cualquier instante de tiempo, un objeto responde únicamente a las fuerzas que experimenta en ese mismo instante.
- La masa es una cantidad aditiva, invariante y conservada. En un sistema cerrado, la masa total es igual a la suma de las masas de sus partes constituyentes y permanece constante en el tiempo.
Un debate clásico, una exposición más clara
La idea de que la primera ley de Newton es independiente de la Segunda no es nueva ni revolucionaria. Ha sido objeto de análisis desde hace décadas por físicos, historiadores y educadores. Autores como J. S. Rigden, J. L. Anderson y H. Pfister ya habían criticado la noción —aún muy común en libros de texto— de que la primera ley es una simple consecuencia del caso F = 0 en la segunda. Lo que aporta el estudio de Yadav y Geethu no es una tesis original en ese punto, sino una presentación más estructurada y pedagógica del conjunto completo de leyes.
Lo destacable es cómo el artículo construye una jerarquía lógica entre las leyes, dejando en claro que no deben enseñarse como fórmulas sueltas, sino como partes interdependientes de un marco coherente. En particular, la introducción de una “Ley Cero” —la conservación e invariancia de la masa— es una propuesta formal poco común, aunque basada en ideas ya presentes de forma implícita en la física clásica. Esta ley fundacional no figura en los manuales, pero según los autores, debería tener un lugar explícito como base ontológica y operativa de toda la mecánica newtoniana.
En ese sentido, el valor del trabajo no reside tanto en descubrir algo nuevo, sino en aclarar lo que a menudo se malinterpreta. La combinación de ejemplos bien elegidos, referencias a la relatividad y propuestas pedagógicas hacen que este artículo sea especialmente útil como herramienta de divulgación y enseñanza. Ofrece claridad conceptual sobre un tema donde abundan explicaciones vagas o contradictorias, y eso, aunque no sea novedoso, sigue siendo muy necesario.
Referencias
- Indresh Yadav, P. M. Geethu. Newton’s First Law Is Not a Special Case of the Second Law. arXiv:2508.02246v. 4 de agosto de 2025. https://doi.org/10.48550/arXiv.2508.02246.
Citroën renueva por completo su apuesta en el segmento C con la llegada del nuevo C5 Aircross, un SUV que no solo actualiza su diseño y plataforma, sino que también abraza de forma decidida la electrificación y la conectividad. Su evolución es integral: desde su estructura, que ahora utiliza la plataforma STLA Medium, hasta sus soluciones de confort, tecnológicas y de eficiencia energética.
El nuevo modelo representa también una declaración de intenciones de Citroën: ofrecer una experiencia moderna, digitalizada y centrada en el bienestar de sus ocupantes. Es también el pionero en ofrecer una experiencia de compra '100% online', permitiendo a los usuarios configurar y adquirir el vehículo sin salir de casa. Un planteamiento que redefine la relación entre marca y cliente.
Un diseño robusto y aerodinámico
El nuevo C5 Aircross rompe con las curvas suaves de su predecesor y adopta un lenguaje de diseño más tenso, afilado y musculoso, en línea con la nueva identidad visual de Citroën. Su frontal integra el nuevo logotipo de la marca, faros Matrix LED de tres puntos y una parrilla cerrada en la versión eléctrica para mejorar la eficiencia.
La silueta lateral destaca por su fluidez, con una línea de borde continua y un techo levemente inclinado que mejora la aerodinámica sin sacrificar el volumen interior. Las llantas de hasta 20 pulgadas, diseñadas para optimizar el flujo de aire, refuerzan su imagen robusta.

Citroën Light Wings: estilo y función
En la parte trasera, las nuevas Citroën Light Wings combinan funciones estéticas y aerodinámicas. Estas luces de tres puntos, inspiradas en la tecnología y la electrónica, mejoran el flujo de aire y ofrecen una firma visual única. También ayudan a reforzar visualmente el ancho del vehículo, junto con el portón trasero vertical.
Gracias a estos avances y a otros detalles como los deflectores y tomas de aire estratégicamente colocados, el C5 Aircross mejora su coeficiente SCx a 0,75, ganando hasta 30 km adicionales de autonomía eléctrica en carretera respecto a la generación anterior.

Dimensiones generosas y habitabilidad de referencia
Con 4,65 m de largo, 1,90 m de ancho y una distancia entre ejes de 2,78 m, el nuevo C5 Aircross se posiciona entre los más espaciosos de su categoría. Gracias a la nueva plataforma STLA Medium, ofrece espacio equivalente al C5 X en la segunda fila, una referencia del segmento.
El espacio para las piernas ha aumentado 51 mm respecto a su predecesor, y la altura al techo crece en 68 mm, ofreciendo una experiencia de confort superior para todos los pasajeros.

Interior C-Zen Lounge: viajar como en casa
El habitáculo ha sido diseñado como un verdadero salón rodante, con el concepto C-Zen Lounge de Citroën. Destacan los materiales de alta calidad, la iluminación ambiental con ocho colores y un salpicadero tipo "sofá" recubierto de tejido espumado.
Los nuevos asientos Citroën Advanced Comfort® incorporan ajuste eléctrico, calefacción, ventilación y cinco programas de masaje. La banqueta trasera ofrece respaldo reclinable, calefacción y un espacio similar al del C5 X. Además, el maletero de hasta 1.668 litros mantiene su capacidad en todas las versiones, incluso las electrificadas.

Pantalla táctil Cascade HD: tecnología intuitiva
La experiencia digital se centra en una pantalla táctil en cascada HD, la más grande de Stellantis, completamente personalizable y con controles de climatización integrados. Su diseño vertical flotante facilita el uso y conecta visualmente con la consola central.
Gracias a sus widgets configurables, barra de acceso directo y navegación conectada 3D, permite un control centralizado y ergonómico del vehículo.

Conectividad total e inteligencia artificial
El sistema ofrece integración inalámbrica con Apple CarPlay y Android Auto, reconocimiento de voz natural "Hello Citroën" y, como novedad, ChatGPT integrado para interactuar de forma conversacional. La carga inalámbrica de 15W y el soporte para dos smartphones completan la oferta.
El planificador de ruta EV calcula trayectos optimizados y, para los modelos eléctricos, la app e-ROUTE ayuda a planificar las paradas de carga en tiempo real.

Head-Up Display y cuadro digital
El cuadro de instrumentos digital de 10 pulgadas puede complementarse con un Head-Up Display ampliado que proyecta información esencial sobre el parabrisas. El sistema es regulable en altura y personalizable según las preferencias del conductor. Esta tecnología inmersiva mejora la seguridad y permite una conducción más relajada, evitando distracciones.

Ayudas a la conducción de nueva generación
El paquete Drive Assist 2.0 incluye funciones como cambio de carril semiautomático, alerta de tráfico trasero y cámaras de vigilancia del conductor. También incorpora detección ampliada de puntos ciegos y el sistema VisioPark 360º para facilitar el estacionamiento. Con estas ayudas, el C5 Aircross alcanza el nivel 2 de conducción autónoma, ofreciendo seguridad y tranquilidad.

Gama electrificada a medida del usuario
El nuevo C5 Aircross se ofrece con tres tipos de motorizaciones:
- Hybrid 145: 136 CV + 12 CV eléctricos, hasta 950 km de autonomía total
- Híbrido enchufable 195: hasta 100 km en modo eléctrico en ciudad
- Ë-C5 Aircross: 100% eléctrico, con 520 o 680 km de autonomía según versión
La recarga rápida permite recuperar 160 km en solo 10 minutos, y a partir de 2026 estará disponible la carga bidireccional (V2L).

Suspensión y confort dinámico
Las suspensiones Progressive Hydraulic Bump Stops® ofrecen una conducción suave, absorbiendo irregularidades del terreno sin comprometer la estabilidad. El sistema aporta esa sensación de "alfombra mágica" tan característica de Citroën.
Esta tecnología permite un equilibrio óptimo entre confort y placer de conducción, incluso en trayectos largos o superficies en mal estado.

Producción responsable y materiales reciclados
El nuevo C5 Aircross se produce en Rennes con baterías ensambladas localmente y componentes franceses. Incorpora 47 kg de plásticos reciclados o biológicos, incluyendo sarmientos de viña orgánicos en sus acabados interiores. Además, el modelo prescinde de cuero y reduce al mínimo el uso de cromo, reforzando su enfoque eco-responsable.

Citroën C5 Aircross: el SUV perfecto para este verano
El vehículo perfecto para este verano combina movilidad sostenible, tecnología avanzada y versatilidad familiar en un diseño robusto y elegante.

Disponible en el segundo semestre de 2025, promete posicionarse como uno de los SUV más atractivos del mercado europeo para quienes buscan libertad, confort y una experiencia de conducción moderna.
Desde el ocre hasta el kohl, los seres humanos hemos utilizado toda clase de pigmentos y sustancias para transmitir mensajes simbólicos, mejorar nuestra apariencia o tratar afecciones dérmicas. Cuanto más nos remontamos en el tiempo, sin embargo, mayor es la dificultad para reconstruir las recetas de estos ungüentos y preparados. Por eso, hallazgos arqueológicos recientes como el realizado en el corazón de la provincia de Jiangsu, al este de China, resultan tan importantes. Gracias a un análisis multidisciplinar de los residuos presentes en dos pequeños recipientes de porcelana, hallados en una tumba femenina del siglo XII, un equipo de científicos chinos ha logrado reconstruir la composición química de un cosmético antiguo.
Este descubrimiento, descrito con detalle en un artículo académico publicado en la revista Archaeometry, ha arrojado nueva luz sobre las prácticas cosméticas de las élites femeninas durante la dinastía Song (960–1279 d.C.). No solo aporta la primera evidencia arqueológica del uso cosmético de ciertas plantas medicinales, sino que también confirma el uso extendido de ingredientes minerales, animales y vegetales en los ungüentos de la época.

El hallazgo de la tumba M50 en Shijiatang
En 2019, durante unas excavaciones en el cementerio de Shijiatang, en la ciudad de Changzhou, se localizó una tumba de cámara de ladrillo. Denominada M50, pertenecía a una mujer de alto estatus social, tal como atestiguaban los ornamentos funerarios que la acompañaban: un buyao (típico ornamento para el cabello), horquillas de pelo y más de veinte objetos de plata, cerámica, hierro y cobre.
Lo más sorprendente aún estaba por llegar. En el interior de una caja lacada, los arqueólogos encontraron dos pequeñas recipientes redondos de porcelana, aún selladas, que contenían un residuo rojizo adherido a sus paredes. Una inscripción en el fondo de una de ellas —汪家合子记 (Wang jia he zi ji)— identificaba su probable procedencia: un taller familiar del periodo Song especializado en la producción de este tipo de recipientes. El excepcional estado de conservación de los residuos permitió someterlos posteriormente a un análisis químico avanzado.

La identificación de los ingredientes
Los investigadores aplicaron un conjunto de técnicas analíticas —como SEM-EDS, FTIR, GC/MS, Py-GC/MS y GC-C-IRMS— para determinar la naturaleza orgánica e inorgánica de los residuos cosméticos. Las observaciones microscópicas revelaron una mezcla compleja y heterogénea, compuesta por partículas minerales en una matriz de origen graso.
Entre los componentes minerales, se identificó hematita (Fe₂O₃), responsable del característico color rojizo del ungüento. Este pigmento se ha usado desde tiempos prehistóricos como colorante en contextos rituales y cosméticos. También se hallaron trazas de baritina (BaSO₄), empleada como pigmento blanco o como extensor, y de cerusita (PbCO₃), una forma natural del blanco de plomo, muy común en la cosmética de época imperial.
En cuanto a la parte orgánica, el análisis isotópico de lípidos reveló que el cosmético contenía grasa de animal no rumiante, quizás manteca de cerdo, empleada como base emoliente para los pigmentos. Este hallazgo coincide con lo que recogen los textos médicos y agronómicos de la antigüedad china, que describen la elaboración de ungüentos a partir de grasas animales.

Una planta medicinal como ingrediente cosmético
Otro innovador descubrimiento que ha hecho pçublico el estudio hace referencia la detección de dos triterpenoides —arundoin y cilindrin—, que los investigadores atribuyen, con alta probabilidad, a la raíz de la planta bai mao gen o Imperata cylindrica. Se trata de una especie perenne ampliamente documentada en la literatura médica china desde la dinastía Han, que posee propiedades hemostáticas, diuréticas y antiinflamatorias.
Este descubrimiento representa la primera evidencia arqueológica directa del uso cosmético del bai mao gen en China antigua, que confirma las referencias en fuentes literarias y médicas. El simbolismo del bai mao —asociado a la blancura, la pureza y la feminidad— también aparece en obras clásicas como el Shijing y el Yijing, lo que sugiere un componente ritual o simbólico adicional en su uso.
Un cosmético entre la estética y la farmacología
La complejidad de los ingredientes encontrados —minerales colorantes, grasa animal y compuestos vegetales bioactivos— sugiere que el uso de este cosmético superaba la mera función embellecedora. Probablemente, se trataba de un producto híbrido entre la cosmética y la medicina, en la línea de los modernos “cosmeceúticos”. Era capaz de hidratar, proteger y embellecer la piel al mismo tiempo.
Este tipo de formulación también refleja una sofisticada comprensión química y botánica por parte de los artesanos de la dinastía Song, quienes integraban saberes médicos, rituales y estéticos en un solo producto. La popularidad de este tipo de preparados cosméticos durante la época queda reforzada por las múltiples referencias a tiendas especializadas en la capital Lin’an (actual Hangzhou), documentadas en textos como el Mengliang Lu, una obra Song que recogía datos sobre los usos y costumbres de la región.

La cosmética en la dinastía Song
La dinastía Song fue una época de gran dinamismo económico, refinamiento cultural y expansión urbana. En este marco, la cosmética adquirió un lugar destacado en la vida cotidiana de las clases altas, como reflejan tanto los registros literarios como los manuales técnicos de la época. Se retrataba a las mujeres aristocráticas no solo por su belleza física, sino también por su sofisticación artística y literaria, lo que desembocó en una idealización del cuidado corporal y la expresión estética.
Autores como Zhao Changqing o Ouyang Xiu celebraron el uso del carmín o el polvo blanco en la poesía amorosa, mientras que tratados como el Shi Lin Guang Ji ofrecían fórmulas detalladas para fabricar cosméticos con ingredientes naturales y minerales. Sin embargo, hasta ahora, la evidencia arqueológica de estos productos era escasa o mal conservada.

Belleza milenaria
El análisis de los cosméticos hallados en la tumba M50 de Shijiatang, por tanto, constituye una contribución pionera al estudio de la historia de la belleza en la China antigua. Este hallazgo ofrece una prueba empírica y científicamente verificable de la composición de un producto cosmético de hace más de mil años, elaborado con ingredientes naturales de alto valor simbólico, terapéutico y estético.
Además de su interés arqueológico, este descubrimiento abre nuevas líneas de investigación sobre el conocimiento tecnológico y farmacológico de las sociedades premodernas, así como sobre el papel de la cosmética en la construcción del género, el estatus y la identidad social en la China medieval.
Referencias
- Han, Bin, et al. 2024. "Insights into cosmetic ingredients in the late Northern Song dynasty: A case study from the Shijiatang tomb, southern China." Archaeometry, 67.4. DOI: https://doi.org/10.1111/arcm.13044
El arqueólogo español Francisco Barado escribió, hace ya un siglo, una curiosa Historia del peinado. En ella ofrece documentos e imágenes que muestran cómo, desde la noche de los tiempos, los seres humanos hemos dedicado tiempo y esfuerzo al cuidado del cabello.
La investigación científica actual trata de analizar qué necesidades psicológicas hay detrás de este interés. Las hipótesis que han surgido hasta ahora resaltan que la forma en que nos componemos el pelo es parte de nuestra identidad. Muchos de los estereotipos que usamos –tribus urbanas diferentes, clases sociales, rubias o morenas…– incluyen un tipo especial de peinado. De hecho, la adolescencia, la época en que nos definimos como individuos, es también el momento en el que más tiempo le dedicamos a nuestro cabello.
Por tu peinado no pasa el tiempo. Una reciente investigación realizada por las sociólogas Julia Twigg, de la Universidad de Kent (Inglaterra), y Shinobu Majima, de la Universidad de Gakushuin (Japón), sugiere otra variable que interviene en esta dedicación estética: el mantenimiento de la cabellera nos sirve para controlar nuestra autoimagen asociada a la edad. Twigg y Majima argumentan que otras partes de nuestro físico –como el rostro o la silueta– llevan inevitablemente el sello del tiempo. Sin embargo, el peinado puede parecer más o menos inalterado si le dedicamos determinados cuidados.
La hipótesis de estas científicas cuadra con el hecho de que la forma que adopta el pelo de la cabeza es, quizá, el aspecto estético que menos sometido está a normas de edad en nuestra civilización. Otros –como el vestuario, para el que existen ciertos códigos cronológicos– están mucho más regulados. Sin embargo, las personas mayores pueden controlar el paso del tiempo arreglando su cabello como si fueran más jóvenes.

¿Las emociones pueden dañar nuestro corazón?
Al médico suizo Paracelso se le atribuye una frase que puede definir la relación entre sentimientos y salud física: “Nada es veneno y todo es veneno: la diferencia está en la dosis”. Las investigaciones recientes confirman que lo que daña nuestro sistema circulatorio es el abuso, no el uso de nuestras emociones.
La doctora Michelle Williams, de la Universidad de Harvard (EE. UU.), ha recopilado investigaciones que muestran cómo nos afecta el exceso de sentimientos negativos –ira, miedo, tristeza…– relacionados con el estrés. Según ella, muchas de las desigualdades entre estratos socioeconómicos que se observan al estimar la salud del sistema circulatorio se correlacionan con un exceso de esas emociones.
Jack Shonkoff, también de Harvard, opina que la activación emocional sostenida que supone la exposición a la violencia en la primera infancia tiene efectos orgánicos: eleva el ritmo cardiaco y la presión arterial, y aumenta las hormonas del estrés.
Pero las emociones positivas también pueden ser peligrosas: June Gruber, profesora de la Universidad de Yale, señala que el abuso de la alegría lleva a una sensación de invulnerabilidad que permite comportamientos de alto riesgo para la salud, como el consumo excesivo de alcohol o de comida.
¿Es posible saber si un niño es un psicópata?
La escritora Lionel Shriver publicó en 2003 una de las novelas más controvertidas de los últimos tiempos: Tenemos que hablar de Kevin. En ella, hablaba de una madre que va descubriendo gradualmente que su hijo es un psicópata. La obra plantea, de forma descarnada, una gran duda que se suelen hacer los psicológos: ¿son los padres y el medio los responsables, o la persona que padece ese trastorno está determinada desde que nace?
Una década después, la psicóloga de la Universidad de Michigan, Rebecca Waller ha revivido la polémica al publicar, junto con su equipo, una investigación en la que afirmaba que los primeros síntomas de psicopatía pueden ser vistos en niños de dos años. Factores como la ausencia de culpabilidad tras el mal comportamiento, el egoísmo, el abuso de la mentira, el déficit de empatía con el dolor ajeno o el comportamiento manipulador guardaban correlación con comportamientos psicopáticos en los años posteriores.
No es la única investigadora que defiende esa hipótesis: la psicóloga Abigail Marsh, en su libro Good For Nothing: From Altruists to Psychopaths and Everyone in Between, presenta una gran cantidad de casos en los que padres que no crían a sus hijos en un ambiente cálido y estructurado notan que algunos de ellos, desde pequeños, muestran rasgos psicopáticos.

¿Por qué nos alivia llorar?
Una investigación reciente dirigida por Asmir Gračanin, psicólogo de la Universidad de Rijeka (Croacia), intentaba resolver una incongruencia que se había observado en estudios anteriores: la mayoría de experimentos encontraban que el llanto era beneficioso para el estado de ánimo cuando se producía en condiciones naturales; sin embargo, muchos estudios realizados en laboratorio sugerían que podía tener un efecto negativo. El estudio de Gračanin obtuvo, efectivamente, esos mismos resultados.
Llorar sirve para que los demás se apiaden de nuestro dolor, objetivo que no vemos satisfecho en un laboratorio. En la vida diaria sucede lo mismo: si percibimos que nuestros lamentos han servido para “dar ventaja” a la otra persona, si no hemos encontrado la comprensión que esperábamos o si lloramos solos, podemos acabar agravando el problema.
¿Qué es la batmofobia?
La serie documental The Staircase analiza el juicio contra el novelista Michael Peterson. Su mujer falleció al pie de las escaleras de su casa y a Peterson se le procesó para saber si se trataba de un asesinato o de una caída accidental. La duda se acentuó cuando se descubrió que una amiga íntima había muerto de una manera similar unos años antes…
Las escaleras generan un lógico recelo por el peligro que suponen. Pero hay personas que llevan ese miedo al extremo: a eso se llama batmofobia. Los que tienen este tipo de miedo exacerbado se distinguen de aquellos que padecen climacofobia –temor a subirlas y bajarlas– en que les basta verlas para sufrir síntomas de ansiedad, como palpitaciones o respiración entrecortada.
Las causas de esta afección pueden ser muy diversas. Una mala experiencia que resultó traumática es el desencadenante más obvio, pero no se da en la mayoría de los casos. En general, esta fobia se desarrolla por un doble mecanismo. Al principio, alguna escalera se asocia a una situación concreta de ansiedad. Después, la persona evita acercarse a ellas y eso hace que el miedo se acreciente hasta convertirse en fobia.

¿En qué consiste el síndrome de la covada?
Se llama así a un malestar general que a veces se produce en ciertos hombres cuando su pareja está embarazada. El doctor Thilagavathy Ganapathy, en un artículo de 2019, recordaba algunos de los síntomas, muy parecidos a los del embarazo: aumento de peso, náuseas, dolores abdominales similares a las contracciones del útero, presión arterial baja, etc. Este médico hindú estima que el síndrome puede afectar a uno de cada cuatro hombres.
Hay varias hipótesis para explicarlo. Una es que los cambios hormonales de las embarazadas generan señales que son detectadas de forma inconsciente por sus parejas, que pasan a adoptar una actitud más protectora. Otra posible causa es que las variaciones hormonales se produzcan también en el varón. La psicóloga Anne Storey, de la Universidad Memorial de Newfoundland (Canadá), nos recuerda que se han observado aumentos de la prolactina y del cortisol en futuros padres.
Los portátiles finos y ligeros con inteligencia artificial destacan por integrar funciones avanzadas como asistentes inteligentes, edición automática de documentos o mejoras en videollamadas. Además, ofrecen una mayor eficiencia energética y autonomía.
Con el verano en su punto álgido y los descuentos disparados por parte de la competencia, LG no se queda atrás y vuelve a ajustar el precio de su portátil LG 15Z80T para mantenerse en lo más alto.

Aunque su precio habitual supera los 850 € en tiendas como Amazon o Miravia, la marca surcoreana ha vuelto a mover ficha con fuerza. Gracias a su colaboración con MediaMarkt, este portátil puede conseguirse ahora por solo 809,10 euros. Cuenta con un descuento directo de 89,90 € que se aplica automáticamente en el carrito de compra.
Destaca por su diseño ultraligero (1,12 kg), batería de hasta 27 horas y pantalla IPS FHD de 15 pulgadas con cobertura sRGB del 99 %. Incorpora IA avanzada con AMD Ryzen™ AI 5, ofreciendo hasta 50 TOPS y compatibilidad con Copilot+ y GPT-4o. Su chasis de aluminio supera pruebas militares, combinando resistencia y elegancia.
Equipa 1 TB SSD NVMe y 16 GB RAM LPDDR5x, perfectos para edición, multitarea o uso profesional. Incluye conectividad moderna con Thunderbolt 4, HDMI 2.1 y Wi-Fi 6E para máxima velocidad y baja latencia. Su concepto "Full IA" permite un rendimiento autónomo e inteligente que se adapta al usuario.
Samsung contraataca con una agresiva rebaja del Galaxy Book4 Edge para reforzar su posición
Samsung responde a la presión de LG bajando el precio de su Galaxy Book4 Edge hasta los 871 euros. Una rebaja notable frente a los más de 1.100 € que marca en tiendas como Fnac o MediaMarkt. Una jugada con la que busca afianzar su posición en la gama premium.

Destaca por su potente procesador Snapdragon X Elite de última generación con 12 núcleos y GPU Qualcomm Adreno para un rendimiento gráfico excepcional. Incorpora la innovadora tecnología Copilot+ PC que integra IA avanzada para tareas como generación de imágenes, traducción en tiempo real y gestión inteligente de contenidos. Su batería ofrece autonomía de todo un día.
En conectividad, cuenta con Wi-Fi 7 para velocidades de hasta 5.8 Gbps y latencia ultra baja, permitiendo streaming 8K y descargas rápidas. Además, dispone de puertos USB 4.0 dobles, HDMI 2.1 compatible con 4K a 60 Hz y entrada para auriculares/micrófono.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En 1935, cuando Einstein hablaba de “acciones fantasmales a distancia”, se refería con escepticismo a una de las ideas más extrañas y contraintuitivas de la mecánica cuántica: el entrelazamiento. Desde entonces, esta propiedad ha pasado de ser una rareza conceptual a convertirse en una piedra angular de las tecnologías cuánticas emergentes. Sin embargo, su estructura matemática profunda y su comportamiento en distintos tipos de espacio siguen siendo un misterio, especialmente cuando se trata de sistemas en más de dos dimensiones.
Ahora, un equipo de físicos teóricos ha logrado algo notable: demostrar que el entrelazamiento cuántico obedece reglas universales en todas las dimensiones del espacio-tiempo, desde las más simples hasta las más complejas. Publicado en Physical Review Letters, el trabajo combina ideas de física de partículas, teoría cuántica de campos y teoría de la información, para revelar un patrón común que hasta ahora había escapado incluso a los enfoques más sofisticados.
Estructuras profundas en el caos cuántico
En física clásica, dos partículas que se encuentran a grandes distancias no tienen por qué estar relacionadas. Pero en el mundo cuántico, la información puede compartirse entre partículas de forma instantánea, aunque estén separadas por kilómetros. Este fenómeno, conocido como entrelazamiento cuántico, no solo ha sido demostrado en laboratorio, sino que también es crucial para tecnologías como la computación cuántica o las redes de comunicación seguras.
Lo que todavía se desconocía con precisión era cómo se comporta este entrelazamiento en sistemas de más de una dimensión espacial, un problema complejo tanto matemática como físicamente. La mayor parte de los estudios anteriores se centraban en modelos simplificados de una sola dimensión espacial más el tiempo (1+1), porque resultan más manejables desde el punto de vista técnico. Pero los investigadores querían saber si había una estructura común que se mantuviera al ampliar la cantidad de dimensiones.

Una herramienta poderosa importada desde la física de partículas
Para abordar este reto, el equipo de Yuya Kusuki (Kyushu University), Hirosi Ooguri (Caltech y Universidad de Tokio) y Sridip Pal (Caltech) recurrió a una estrategia poco convencional en este campo: la teoría térmica efectiva, una herramienta que ha tenido aplicaciones importantes en física de partículas pero rara vez se había utilizado en el ámbito de la información cuántica.
Este marco permite describir el comportamiento de sistemas complejos utilizando unos pocos parámetros clave, en lugar de lidiar con todos los detalles microscópicos. Gracias a esta simplificación, los autores fueron capaces de estudiar cómo se comporta una medida fundamental del entrelazamiento llamada entropía de Rényi, en diferentes tipos de sistemas y dimensiones.
Una de las afirmaciones clave del artículo es que, en el límite cuando el número de réplicas tiende a cero, la entropía de Rényi para un dominio de entrelazamiento con frontera esférica se comporta de forma universal, siguiendo esta fórmula (solo para gente atrevida, te lo puedes saltar):
Aquí, f es una constante cosmológica que depende de la teoría, ϵ es un parámetro de corte ultravioleta y d es la dimensión del espacio-tiempo. Lo importante es que el comportamiento no depende de los detalles del sistema, sino solo de su dimensión y geometría, lo que implica una universalidad profunda.

Más allá del límite: espectros y fronteras
Además de confirmar este comportamiento universal en el límite n→0, los autores también exploraron cómo se distribuyen los valores propios del llamado Hamiltoniano modular, un operador que describe cómo está estructurada la información en el sistema cuántico. Este análisis permitió obtener una expresión aproximada para el espectro de entrelazamiento, algo esencial para comprender cómo se organiza la información en sistemas cuánticos extensos.
La investigación también abordó un aspecto técnico pero fundamental: las contribuciones de los bordes del dominio de entrelazamiento. En los cálculos, estas contribuciones aparecen como correcciones que decrecen con potencias de nn, pero que son importantes para entender cómo se aplica la fórmula en sistemas reales. En palabras del artículo: “La corrección subdominante de la frontera del dominio de entrelazamiento está suprimida por una potencia de n”.
Este detalle técnico no solo confirma la validez del método en distintos escenarios, sino que también abre el camino a futuros estudios sobre cómo se comportan los bordes en teorías conformes más generales.
¿Qué significa "número de réplicas" y por qué tiende a cero?
El número de réplicas, o replica number, es un parámetro matemático que aparece cuando se utiliza el método de réplicas para calcular cantidades como la entropía de Rényi o la entropía de entrelazamiento en sistemas cuánticos.
En lugar de calcular directamente la entropía de un sistema —algo muy difícil cuando se trata de muchos estados entrelazados—, se considera una especie de “truco” matemático: copiar el sistema n veces (las “réplicas”), calcular una cierta cantidad en ese sistema replicado, y luego extrapolar el resultado al valor que realmente se busca.
El límite n→0 puede parecer extraño al principio, pero es común en este tipo de técnicas. En este contexto, se estudia el comportamiento del sistema cuando el número de copias tiende a cero, porque eso permite acceder a ciertas propiedades del espectro de entrelazamiento y entender cómo se comporta la información cuántica en estados muy complejos.

El límite de las ideas brillantes: la "zona caliente"
En física cuántica, a veces los métodos brillantes tienen sus propias limitaciones. Uno de los enfoques mencionados en el trabajo es la "hot spot idea", que sugiere que en ciertos límites, como cuando la temperatura efectiva diverge en ciertas regiones, los resultados se ven dominados por contribuciones locales. Este método había sido útil en dos dimensiones para derivar fórmulas exactas. Pero los autores muestran que en dimensiones superiores, la divergencia del gradiente térmico hace que el método pierda validez.
Como explican en el paper: “Los términos de orden superior contribuyen al mismo orden que el término cosmológico, y la expansión en temperatura alta falla cerca de la zona caliente”.
Esto no invalida la aproximación global, pero indica claramente dónde dejan de aplicarse ciertas intuiciones válidas en teorías más simples.
Aplicaciones futuras: desde simulaciones hasta gravedad cuántica
Aunque el trabajo es fundamentalmente teórico, sus implicaciones son notables. En primer lugar, puede contribuir a mejorar los métodos numéricos de simulación para sistemas cuánticos de muchas partículas. También puede ofrecer nuevas claves para clasificar estados cuánticos complejos, algo crucial para avanzar en la computación cuántica.
Pero lo más ambicioso es que este marco podría aportar una nueva perspectiva para abordar problemas en física de fronteras, como la paradoja de la pérdida de información en agujeros negros o la estructura de la gravedad cuántica. En sistemas holográficos, donde las teorías cuánticas tienen equivalentes gravitacionales, estas fórmulas universales pueden usarse como pruebas de consistencia, o incluso como herramientas para descubrir nuevas dualidades.
Referencias
- Yuya Kusuki, Hirosi Ooguri, Sridip Pal. Universality of Rényi Entropy in Conformal Field Theory. Physical Review Letters (2025). DOI: 10.1103/fsg7-bs7q.
Cuando se piensa en Pompeya, la imagen que nos viene a la cabeza es la de una ciudad congelada en el tiempo, sepultada bajo cenizas volcánicas, con cuerpos petrificados en sus últimos momentos de vida y frescos romanos asombrosamente bien conservados. Pero lo que no esperábamos —y que hasta hace poco parecía improbable— es que esa ciudad condenada fue, en realidad, reocupada y habitada durante siglos después del desastre.
Una reciente investigación publicada por el E-Journal degli Scavi di Pompei, y divulgada por el Parque Arqueológico de Pompeya en una nota de prensa oficial, ha desenterrado nuevos indicios que confirman que supervivientes y forasteros regresaron a vivir entre los escombros, improvisando una existencia precaria entre las estructuras arruinadas. Lejos de la imagen tradicional de Pompeya como una ciudad detenida en el año 79, los arqueólogos hablan ahora de una Pompeya “gris, improvisada, casi como una favela”, que persistió hasta bien entrado el siglo V.
La vida después del apocalipsis
Pompeya tenía unos 20.000 habitantes cuando el Vesubio entró en erupción. Aunque la cifra de víctimas mortales identificadas —alrededor de 1.300— es relativamente baja en comparación con la población estimada, se cree que muchos murieron fuera del núcleo urbano, intentando huir del infierno que se cernía sobre la ciudad. Los que sobrevivieron enfrentaron una realidad devastadora: hogares destruidos, familiares perdidos, economías arruinadas. Muchos huyeron para siempre, pero no todos.
Algunos, sin medios para rehacer sus vidas en otros lugares, regresaron a lo que quedaba de Pompeya. Otros, probablemente forasteros sin hogar ni posesiones, vieron en aquella ciudad sepultada una oportunidad: un lugar donde vivir y quizás recuperar objetos de valor enterrados entre la ceniza.
Los hallazgos más recientes en la llamada Insula Meridionalis, dentro del proyecto de restauración y consolidación llevado a cabo por el Parque Arqueológico, muestran cómo los ocupantes reutilizaron los restos de las viviendas. Las plantas superiores, parcialmente visibles entre los escombros, se convirtieron en espacios habitables. Lo que antes era la planta baja terminó siendo transformado en sótanos o cuevas, donde se instalaron rudimentarios hornos, molinos y hogares.

Un asentamiento al margen del imperio
Los datos arqueológicos apuntan a que no se trataba de una refundación oficial ni de una reconstrucción planeada por Roma, sino más bien de un asentamiento espontáneo, desordenado y marginal. Sin los servicios básicos, sin foros ni templos en funcionamiento, sin cloacas ni mercados, esta nueva Pompeya vivía al margen de las normas urbanísticas romanas. Una comunidad fantasma, nacida de la necesidad y el abandono, donde la vida se abría paso entre la muerte petrificada.
De hecho, se ha documentado que el emperador Tito envió a dos antiguos cónsules a la región con el objetivo de reorganizar las ciudades afectadas, incluida Pompeya. Su misión era no solo redistribuir los bienes de los difuntos sin herederos, sino intentar impulsar la recuperación urbana. Sin embargo, el fracaso fue rotundo. La ciudad no volvió a ser nunca el vibrante núcleo que había sido antes de la erupción. Se convirtió en un asentamiento informal que languideció durante siglos, hasta su abandono definitivo, probablemente coincidiendo con otra erupción en el siglo V, conocida como la erupción de Pollena.

Una historia silenciada durante siglos
Durante décadas, los arqueólogos ignoraron, quizás inconscientemente, estas huellas tenues de la vida posvolcánica. Obsesionados con alcanzar los niveles del año 79, con sus frescos intactos, mosaicos y objetos detenidos en el tiempo, muchos excavadores pasaron por alto —e incluso destruyeron— los rastros más frágiles de la reocupación. Esta “segunda Pompeya” quedó sepultada no por la ceniza, sino por el olvido académico.
Gracias a los nuevos métodos de excavación y a una mayor sensibilidad hacia los testimonios periféricos, hoy podemos reconstruir una historia alternativa: la de quienes se atrevieron a regresar. Las viviendas que se adaptaron, los objetos que se recuperaron, los cuerpos que quizás aún emergían a la superficie mientras los vivos escarbaban en busca de monedas o herramientas.
Pompeya se convierte así en una doble metáfora: no solo del desastre súbito, sino también de la resistencia, de la supervivencia en condiciones extremas, del empeño humano en rearmar una existencia entre ruinas.

De la ciudad romana a la “favela” antigua
La imagen que emerge de estos nuevos estudios es tan inquietante como reveladora. En lugar de calles bulliciosas, templos en uso y baños termales, lo que se ve es una comunidad fragmentada, improvisada, con viviendas adaptadas como se podía. No había una verdadera autoridad, ni planificación. Pompeya pasó de ser una ciudad con derecho latino, comercio floreciente y vida pública activa, a convertirse en una sombra de sí misma, habitada por quienes no tenían otro lugar al que ir.
Incluso la vegetación se había abierto paso entre las piedras, creando un entorno salvaje y propicio para la supervivencia de quienes decidieron quedarse. Algunos buscaban simplemente un refugio; otros, tal vez, la posibilidad de enriquecerse con lo que quedó enterrado.
Hoy, el parque arqueológico recibe millones de visitantes cada año. Muchos de ellos caminan por las calles de basalto con la ilusión de viajar al pasado, al último día de Pompeya. Pero lo que estas nuevas excavaciones nos dicen es que, tras ese “último día”, hubo muchos más. Días difíciles, días inciertos, vividos entre la ceniza y el silencio.
Las plumas del pavo real macho son mundialmente famosas por su espectacular abanico de colores. Pero ahora, un equipo de científicos ha revelado que esconden un fenómeno aún más sorprendente: la capacidad de emitir luz láser cuando se les introduce un tinte fluorescente y se iluminan con un láser externo. Este hallazgo, publicado en PNAS Nexus por investigadores de India y del Reino Unido, representa el primer caso documentado de emisión láser asistida por una estructura biológica sin necesidad de espejos tradicionales.
El equipo infundió un colorante fluorescente llamado rodamina 6G en las estructuras microscópicas que componen la pluma del pavo real. Luego, al iluminar estas estructuras con un pulso de luz láser, observaron la aparición de emisión láser en el rango visible del espectro, especialmente en las regiones azul y verde. Lo que hace tan especial este fenómeno es que la propia estructura jerárquica de las plumas actúa como una cavidad óptica natural, es decir, como un resonador que amplifica la luz.
Este hallazgo no solo revela un nuevo tipo de láser biológico, sino que también abre la puerta a desarrollar dispositivos bioinspirados. Lo más notable es que esta emisión láser ocurre sin necesidad de espejos reflectantes, lo que convierte a estas plumas en una plataforma única y potencialmente útil para crear sensores ópticos compactos y de bajo coste.

El secreto está en la física de las plumas
La clave del fenómeno descubierto está en la estructura nanométrica de las plumas del pavo real. Estas plumas poseen una arquitectura tridimensional altamente ordenada compuesta por fibras de queratina y espacios llenos de aire, organizados de manera que dispersan selectivamente ciertas longitudes de onda de la luz. Este tipo de estructura se conoce como "estructura fotónica" y es responsable de los colores intensos que vemos en el plumaje del ave.
Cuando los investigadores introdujeron rodamina 6G en estas estructuras y las bombardearon con luz láser, la luz generada por el tinte interactuó con la estructura interna de la pluma, generando interferencias constructivas que amplificaron selectivamente ciertas longitudes de onda. Este tipo de retroalimentación óptica es la que permite que se produzca la emisión láser, sin necesidad de espejos.
En total, se analizaron 15 muestras de plumas de pavos reales indios. En todos los casos, la estructura funcionó como una cavidad óptica natural, con propiedades únicas.
La emisión observada se comportó como un láser de espectro estrecho, con líneas definidas que confirmaron su coherencia. Este comportamiento se mantuvo consistente a lo largo de múltiples mediciones, lo que demuestra que no se trata de un fenómeno aislado ni casual.
Un láser sin espejos ni cristales artificiales
Tradicionalmente, un láser necesita tres componentes básicos: un medio activo que emita luz, una fuente de energía para excitarlo y una cavidad óptica que permita amplificar esa luz. Normalmente, esta cavidad consiste en dos espejos enfrentados. En el caso del pavo real, sin embargo, la cavidad es biológica y natural, formada por las capas jerárquicas de su pluma.
La ausencia de espejos es lo que convierte este sistema en un "láser de retrodispersión" o random laser, un tipo poco común y especialmente buscado en óptica biomimética.
El equipo utilizó espectroscopía para analizar las longitudes de onda emitidas y descubrió líneas láser muy precisas, con anchos espectrales tan pequeños como 0.1 nanómetros, lo que indica una emisión de alta coherencia.
Además, los investigadores probaron la emisión láser en diferentes condiciones y con distintos ángulos de incidencia, demostrando que el sistema es estable y reproducible. En otras palabras, la pluma del pavo real funciona como un resonador óptico tridimensional, algo nunca antes observado en estructuras naturales de este tipo. Este descubrimiento podría inspirar nuevas formas de fabricar láseres biocompatibles o sensores basados en biomateriales.

Posibles aplicaciones tecnológicas
Aunque el hallazgo es puramente científico, sus aplicaciones prácticas ya se vislumbran en el horizonte. Una de las posibilidades más inmediatas es el desarrollo de sensores ópticos ultra sensibles, capaces de detectar cambios mínimos en el entorno.
Gracias a su estructura, las plumas del pavo real podrían usarse como base para sensores bioinspirados que detecten gases, cambios de temperatura o incluso biomarcadores en medicina.
Otra posible aplicación está en la creación de dispositivos fotónicos flexibles y biodegradables. La estructura de las plumas es resistente, ligera y biocompatible, lo que podría facilitar el diseño de láseres portátiles y sostenibles. En el campo biomédico, podrían usarse para iluminar tejidos, guiar cirugías o incluso en dispositivos implantables que se comuniquen ópticamente con el exterior.
Los investigadores también mencionan la posibilidad de usar este fenómeno en seguridad óptica y autenticación de objetos. Dado que la estructura de cada pluma es única y produce una firma espectral específica, podría emplearse para crear "huellas láser" imposibles de replicar. La naturaleza, una vez más, demuestra ser una fuente inagotable de innovación tecnológica.
¿Por qué el pavo real?
El pavo real ha sido admirado durante siglos por su belleza, pero hasta ahora no sabíamos que también podía comportarse como un sistema óptico avanzado. La elección de esta ave no fue casual. Las plumas del macho, especialmente en época de cortejo, están diseñadas evolutivamente para atraer, mediante su iridiscencia, la atención de las hembras.
Esta capacidad para manipular la luz ya era conocida, pero el descubrimiento de que también puede amplificarla hasta convertirla en láser abre un nuevo capítulo en la bioóptica.
El equipo eligió específicamente las plumas de la cola del pavo real indio (Pavo cristatus), por su estructura jerárquica y su estabilidad mecánica. Además, el material es fácilmente accesible y no requiere alteraciones químicas complejas, lo que facilita su uso como plataforma experimental. La emisión láser no ocurre de forma espontánea en la naturaleza, pero con una simple infusión de tinte, las plumas se convierten en emisores activos.
Este hallazgo también pone sobre la mesa un debate interesante sobre el potencial evolutivo de estas estructuras. Aunque no se ha demostrado que los pavos reales generen láseres de forma natural, el hecho de que su cuerpo tenga esa capacidad sugiere que la evolución ha llegado a soluciones ópticas sorprendentemente cercanas a las desarrolladas por la ingeniería moderna.

Un puente entre biología y fotónica
El estudio representa una prueba más de que la naturaleza puede ofrecer soluciones avanzadas a problemas tecnológicos complejos. La colaboración entre físicos, biólogos y expertos en óptica fue clave para entender el comportamiento del láser en las plumas del pavo real. La interdisciplinariedad permitió no solo descubrir el fenómeno, sino también caracterizarlo con rigor científico y proponer sus posibles aplicaciones futuras.
Este tipo de investigación encaja dentro del creciente campo de la fotónica bioinspirada, que busca reproducir mecanismos naturales para crear dispositivos más eficientes, sostenibles y económicos. El láser biológico del pavo real es un ejemplo perfecto de cómo una estructura que evolucionó para impresionar a las hembras puede terminar inspirando sensores médicos o nuevos materiales ópticos.
Finalmente, este hallazgo también despierta nuestra admiración por la complejidad de la naturaleza. Lo que a simple vista parece solo una pluma de colores, bajo el microscopio y con la luz adecuada, se revela como un sofisticado sistema óptico.
En un mundo donde la ciencia y la tecnología se entrelazan cada vez más con lo biológico, descubrimientos como este nos recuerdan que la innovación más brillante puede estar oculta en las alas de un ave.
Referencias
- Fiorito, A., Sheffield, D.R., Liu, H. et al. Spectral fingerprint of laser emission from rhodamine 6g infused male Indian Peafowl tail feathers. Sci Rep 15, 20938 (2025). doi: 10.1038/s41598-025-04039-8
A primera vista, parece una escena digna de una leyenda fluvial: soldados cruzando un caudaloso río sin puente, sin botes visibles, aferrados a lo que parecen ser sacos hinchados mientras arrastran caballos a nado. Pero no es una fábula, ni una invención moderna. Es un bajorrelieve asirio de hace casi tres milenios, tallado con precisión y poder narrativo, que muestra cómo los ejércitos del rey Ashurnasirpal II se las ingeniaban para atravesar ríos sin perder tiempo en construir estructuras o buscar desvíos.
Descubierto en las ruinas del palacio real de Nimrud, en el actual norte de Irak, este fragmento de mural no solo refleja el poderío y la ambición del Imperio asirio en su apogeo, sino también una creatividad militar que pocos esperaban encontrar en una cultura conocida más por sus campañas despiadadas que por su ingeniería práctica. La escena es hoy uno de los ejemplos más comentados de cómo la arqueología puede revelar aspectos inesperados de la vida cotidiana —y militar— de civilizaciones antiguas.
El arte de nadar con pieles infladas
La técnica retratada no es una ficción artística. Los soldados aparecen aferrándose a odres inflados, probablemente hechos con pieles de cabra o de cerdo. Estos improvisados flotadores les permitían cruzar ríos anchos como el Tigris o el Éufrates con mayor seguridad, sin mojar sus armas y, lo que es más importante, sin detener la marcha del ejército. En algunas versiones del relieve también aparecen pequeñas embarcaciones, pero los nadadores con odres son los verdaderos protagonistas de esta escena.
Este tipo de transporte no era solo una cuestión de supervivencia: también ofrecía ventajas tácticas. Una tropa capaz de cruzar ríos rápidamente podía sorprender al enemigo por la retaguardia, evitar emboscadas o alcanzar puntos estratégicos sin ser detectada. En un tiempo en el que los puentes eran escasos y los barcos lentos, una solución tan simple como una piel inflada podía marcar la diferencia entre la victoria y la derrota.

Una campaña inmortalizada en piedra
El mural en cuestión formaba parte de un programa decorativo más amplio en el palacio del rey Ashurnasirpal II, uno de los monarcas más notorios de la historia asiria. Su gobierno, entre 883 y 859 a.C., estuvo marcado por una intensa actividad bélica y por la construcción de nuevos centros administrativos, entre ellos la monumental Nimrud, levantada junto al Tigris.
Los relieves que adornaban las paredes de su palacio no eran simples decoraciones. Eran propaganda visual, relatos oficiales del poder del rey, de su piedad ante los dioses y de sus victorias en el campo de batalla. Cada escena estaba pensada para impresionar: desde la caza de leones hasta los desfiles militares, pasando por rituales religiosos y, por supuesto, hazañas logísticas como la del cruce de ríos. En una época sin prensa ni televisión, las paredes hablaban.
En la escena fluvial, los caballos nadan junto a sus jinetes, guiados con cuerdas. Algunos soldados remar en pequeñas barcas, mientras otros, los más audaces, se lanzan al agua con su equipaje atado a los flotadores. La perspectiva, típica del arte asirio, representa las figuras de perfil, pero con detalles que permiten identificar armas, ropajes y expresiones. El conjunto transmite acción, decisión y, sobre todo, dominio del medio.
Tecnología simple, eficacia absoluta
Aunque hoy pueda parecer rudimentario, el uso de odres como flotadores demuestra una comprensión empírica del cuerpo humano, de la flotabilidad y del uso del entorno natural para fines militares. Los soldados no necesitaban madera, clavos ni herramientas especiales. Solo pieles bien curtidas, aire y habilidad para nadar. En campañas donde la movilidad lo era todo, esta tecnología era una bendición.
Curiosamente, otros pueblos de la Antigüedad también usaron variantes de esta técnica. En algunas regiones del Cáucaso y Asia Central, los pastores cruzaban ríos sobre balsas hechas con pieles hinchadas, y en ciertas zonas del Indo también se conocen representaciones similares. Pero en el caso asirio, lo que sorprende es la escala: se trataba de maniobras de ejército, no de aventuras individuales. Y eso eleva esta práctica a otro nivel.
Además, se cree que los odres también servían para proteger armamento, suministros e incluso documentos de campaña. Todo lo que debía llegar seco al otro lado del río podía envolverse en piel y flotar. No hay registro de cuántas veces se utilizó esta táctica, pero los relieves de Nimrud sugieren que no era una anécdota aislada, sino parte de una estrategia militar consolidada.

El legado de una civilización audaz
Los asirios fueron temidos por su brutalidad, pero también admirados por su eficacia. Su imperio, que abarcó buena parte del actual Irak, Siria y más allá, no habría durado tanto sin una capacidad logística extraordinaria. La escena del cruce del río con flotadores es solo una muestra de esa habilidad para adaptarse, resolver y conquistar.
Nimrud, saqueada y abandonada siglos después, ha sido víctima del tiempo y de conflictos más recientes. Sin embargo, los relieves sobrevivieron. Muchos están hoy en museos como el Británico de Londres, donde aún impresionan por su fuerza visual. Frente a estas piedras, uno no solo observa el pasado: lo siente.
A menudo pensamos en la historia antigua como un mundo de estatuas, jeroglíficos y templos inmóviles. Pero escenas como esta nos recuerdan que hubo ingenio, movimiento y creatividad. Que una piel de cabra podía ser una herramienta tan decisiva como una espada. Y que, en el silencio de la piedra, aún resuena el chapoteo de aquellos soldados asirios desafiando el curso del río con nada más que su ingenio... y un buen flotador.
La región del Levante mediterráneo es uno de los puntos clave para entender la evolución humana. Entre el mar y el desierto, sus cuevas y abrigos rocosos han conservado vestigios del pasado más remoto de la humanidad. En este contexto, un nuevo estudio centrado en la cueva israelí de Tinshemet ha revelado evidencias sorprendentes de un comportamiento sistemático y reiterado entre los grupos de homínidos que habitaron la zona hace más de 100.000 años. Los datos arqueológicos de este enclave apuntan a que existió un patrón de comportamiento notablemente homogéneo que se mantuvo a lo largo del tiempo.
La cueva de Tinshemet: un enclave paleolítico excepcional
Situada en las estribaciones del monte Carmelo, en el norte de Israel, la cueva de Tinshemet fue ocupada d emanera intermitente durante el Paleolítico medio por grupos de neandertales y otros homínidos. Las excavaciones más recientes, llevadas a cabo entre 2015 y 2018, han permitido acceder a un conjunto estratigráfico muy bien conservado, compuesto por depósitos arqueológicos intactos que han ofrecido una imagen precisa de la vida cotidiana de sus antiguos ocupantes.
La datación por luminiscencia, así como las características tecnológicas del material lítico hallado, sitúan la ocupación de la cueva entre hace 160.000 y 100.000 años, aproximadamente. Los arqueólogos han podido verificar que, e lo largo de esos milenios, los grupos humanos que frecuentaban Tinshemet desarrollaron formas de organización espacial y tecnológica que se repitieron con constancia, como si respondieran a un esquema cultural compartido.

Organización espacial: una arquitectura del hábito
Uno de los aspectos más llamativos del estudio muestra la coherencia de ciertos patrones espaciales en el yacimiento. Los homínidos que habitaron la cueva utilizaron de forma sistemática las mismas zonas para llevar a cabo actividades específicas, como el procesamiento de alimentos o la fabricación de herramientas, generación tras generación. Esto se observa en la disposición recurrente de núcleos líticos, lascas y restos óseos en puntos concretos del yacimiento.
Así, los investigadores han verificado que las zonas de talla lítica se localizan, sobre todo, en los márgenes del vestíbulo de la cueva. Por su parte, las áreas destinadas al consumo de carne, identificadas por las altas concentraciones de huesos animales con marcas de corte, se ubican en el centro. Esta organización sugiere una gestión del espacio basada en normas tácitas, posiblemente transmitidas por vía cultural.
Además, los hogares de combustión —es decir, los fuegos utilizados para cocinar o calentarse— muestran una disposición constante en las diferentes capas estratigráficas. Estas estructuras se emplazan en casi los mismos puntos entre los niveles más antiguos y los más recientes, lo que refuerza la idea de una tradición espacial mantenida durante decenas de miles de años.

Tecnología lítica, una continuidad sin ruptura
El estudio también destaca una notable uniformidad en las estrategias tecnológicas. La producción de herramientas de piedra se basa en técnicas recurrentes, en particular la llamada técnica Levallois, que permite obtener lascas predeterminadas a partir de núcleos cuidadosamente preparados. Este método, que requiere tanto planificación como un conocimiento avanzado sobre cómo se fracturan las rocas, se repite en todos los niveles excavados.
A lo largo de los diferentes episodios de ocupación, los habitantes de Tinshemet no solo utilizaron las mismas técnicas de talla, sino que también dieron preferencia a los mismos tipos de herramientas, como los raspadores, los denticulados y las puntas. Tal consistencia en la tipología y en las cadenas operativas sugiere que estos grupos compartían un sistema de conocimientos técnicos que permaneció inalterado durante, al menos, 60.000 años.
Según los arqueólogos, este hallazgo contradice, en parte, la idea de que la tecnología prehistórica se mantuviese en constante evolución y adaptación. Los datos de Tinshemet reflejan una tecnología eficaz que fue perfeccionada y repetida, sin modificarse sustancialmente durante largos periodos de tiempo.

Implicaciones culturales y sociales
La homogeneidad observada en la cueva de Tinshemet no puede explicarse solo por una cuestión de azar. Los autores del estudio proponen que los patrones observados en la cueva reflejan una forma de transmisión cultural estable y eficaz, lo cual implica la existencia de estructuras sociales que favorecían la enseñanza y la repetición de conductas compartidas.
Es probable que el uso de la cueva formara parte de una red más amplia de lugares usados por los grupos móviles. Estos habrían regresado a Tinshemet de forma repetida, aprovechando su posición estratégica, su abrigo natural y la disponibilidad de recursos en el entorno. La repetición de esquemas conductuales sugiere la existencia de una memoria colectiva del lugar que se habría transmitido de generación en generación.
Este modelo de ocupación también refuerza la hipótesis de que, al menos en ciertos contextos, los neandertales fueron capaces de mantener sistemas culturales duraderos, caracterizados por normas de comportamiento compartidas y una planificación a largo plazo del uso del espacio y los recursos.

Comparación con otros yacimientos del Levante
Los resultados procedentes de Tinshemet se alinean con hallazgos similares procedentes de otros yacimientos paleolíticos del Levante mediterráneo, como Qafzeh, Tabun o Hayonim. Sin embargo, lo que distingue a Tinshemet es la claridad de los registros arqueológicos y la ausencia de disturbios post-depositacionales. Esta excepcionalidad ha permitido reconstruir con precisión la estructura interna de cada episodio de ocupación.
El estudio de la cueva de Tinshemet, por tanto, aporta evidencias contundentes de que los homínidos del Levante mediterráneo, durante el Paleolítico medio, compartían patrones de comportamiento altamente estructurados, tanto en el uso del espacio como en la tecnología. Los datos sugieren que estos grupos humanos poseían una memoria cultural que les permitió organizar y utilizar espacios y herramientas de manera funcional y predecible.
Referencias
- Zaidner, Y., Prévost, M., Shahack-Gross, R. et al. 2025. "Evidence from Tinshemet Cave in Israel suggests behavioural uniformity across Homo groups in the Levantine mid-Middle Palaeolithic circa 130,000–80,000 years ago". Nature Human Behaviour, 9: 886–901. DOI: https://doi.org/10.1038/s41562-025-02110-y
Cuando se estudia física avanzada, hay conceptos que parecen no tener utilidad alguna, meros residuos matemáticos que no encajan en las teorías principales. Muchos estudiantes y científicos los pasan por alto, considerando que si no aportan valor inmediato, es mejor descartarlos. Pero a veces, esas piezas perdidas pueden ser justo lo que hacía falta. Así ocurrió con un tipo de partícula teórica que, durante años, fue relegada por no aportar nada práctico. Hoy, un equipo de físicos y matemáticos ha demostrado que esas partículas olvidadas, los llamados neglectones, podrían ser la clave que faltaba para lograr la computación cuántica universal.
Este hallazgo, publicado en Nature Communications, combina conceptos complejos de física de partículas, matemáticas puras y computación cuántica. La propuesta parte de un marco teórico que llevaba tiempo sin explorarse: las teorías topológicas cuánticas no semisimples. Gracias a ellas, se ha identificado una nueva clase de aniones, ignorada en enfoques anteriores, que puede desbloquear la capacidad total de los ordenadores cuánticos basados en aniones de tipo Ising. Con solo añadir un neglectón, el sistema pasa de estar limitado a convertirse en universal.
Aniones y computación cuántica: ¿por qué importa tanto este avance?
La computación cuántica promete resolver problemas imposibles para los ordenadores clásicos. Sin embargo, los qubits, las unidades básicas de información cuántica, son extremadamente sensibles al entorno, lo que provoca errores difíciles de controlar. Por eso, uno de los enfoques más esperanzadores es la computación cuántica topológica, que busca proteger la información codificándola en las propiedades geométricas de partículas llamadas aniones.
Entre estos aniones, los más prometedores hasta ahora han sido los aniones de tipo Ising, ya que pueden surgir en sistemas como los estados de Hall cuántico fraccionario con fracción de llenado ν = 5/2. No obstante, este tipo de aniones presenta una limitación importante: por sí solos solo permiten implementar un conjunto limitado de operaciones cuánticas, conocidas como puertas Clifford. Estas puertas no bastan para ejecutar cualquier algoritmo cuántico posible.
La solución habitual ha sido combinar el trenzado de aniones con otros métodos que implican operaciones no protegidas topológicamente, lo cual introduce errores y complica la corrección de los mismos. La propuesta del nuevo estudio evita este problema de raíz.

¿Qué son los neglectones y por qué fueron descartados?
En los modelos estándar de computación topológica, los físicos suelen simplificar las matemáticas descartando ciertas representaciones con lo que se conoce como “traza cuántica cero”. Esto significa que, al no contribuir a los invariantes topológicos del sistema, se eliminan para facilitar los cálculos. Sin embargo, el nuevo trabajo demuestra que esas representaciones eliminadas esconden un tipo adicional de anión.
El término neglectón proviene del inglés neglected (descartado), y fue propuesto por los autores para subrayar que estas partículas habían sido ignoradas en teorías anteriores pese a su potencial.
Estos aniones, denominados neglectones, surgen al aplicar una teoría cuántica de campos topológicos (TQFT) no semisimple, que evita el proceso de semisimplificación. En palabras del artículo original: “La potencia de las TQFT no semisimples es que evitan el proceso de semisimplificación y aprovechan las representaciones que se habrían eliminado renormalizando la traza cuántica”.
"Neglectón" significa "descartado".
En lugar de desechar lo que no encajaba, los autores del estudio conservaron estos elementos y descubrieron que, combinados con los aniones Ising, permiten realizar computación cuántica universal solo con trenzado, sin necesidad de otras técnicas auxiliares.

El papel central del neglectón: un solo ingrediente extra, sin moverse
Una de las claves del hallazgo es que solo se necesita un único neglectón para convertir un sistema limitado en uno universal. Este anión adicional permanece fijo durante todo el proceso. Las operaciones cuánticas se realizan trenzando aniones Ising alrededor de él.
Este diseño tiene una ventaja extraordinaria: al mantener el neglectón inmóvil, se reduce enormemente la complejidad del sistema físico necesario para su implementación. Además, el modelo evita que la información cuántica entre en regiones matemáticamente inestables del sistema, garantizando así que los errores asociados con las propiedades indefinidas de la teoría no afecten al cálculo final.
Como explican los autores, “el espacio de Hilbert computacional es siempre definido positivo para α ∈ (2, 3)”, lo cual asegura que la información cuántica se mantenga segura en ese rango.
Una teoría matemática sin garantías físicas… hasta ahora
Uno de los obstáculos iniciales era que estas TQFT no semisimples violan la unitariedad global, lo que puede suponer un problema en mecánica cuántica. Sin embargo, los investigadores lograron diseñar el sistema de forma que la parte computacional se mantuviera unitaria, y los efectos indefinidos se confinaran a espacios no computacionales.
La estrategia fue construir espacios de Hilbert con productos internos definidos solo en las regiones relevantes para el cálculo, una solución que, aunque poco ortodoxa, ha demostrado ser eficaz. En una metáfora muy precisa del propio paper, los autores comparan esto con realizar los cálculos en “habitaciones estables” de una casa, evitando las que son estructuralmente débiles.
Esto supone un ejemplo claro de cómo las matemáticas puras pueden resolver problemas prácticos de ingeniería cuántica. De hecho, los autores afirman que esta propuesta abre nuevas direcciones tanto en la teoría como en la experimentación.
Viabilidad experimental: ¿se puede llevar a la práctica?
Uno de los aspectos más destacables del estudio es que el modelo propuesto no requiere partículas completamente nuevas o desconocidas. Todo el sistema, salvo el neglectón, se basa en aniones que ya se han observado o generado experimentalmente, especialmente en sistemas de Hall cuántico fraccionario.
El desafío ahora es lograr identificar plataformas físicas en las que el neglectón pueda surgir. Los investigadores sugieren que podría ser posible mediante ajustes en las condiciones de frontera en sistemas ya conocidos, como ciertas cadenas de espines o variantes del modelo de Levin-Wen.
Como indican en el artículo: “Este trabajo nos acerca a la computación cuántica universal con partículas que ya sabemos cómo crear” . El siguiente paso será desarrollar protocolos prácticos para llevar esta propuesta del papel al laboratorio.
¿Una revolución silenciosa?
Si los experimentos logran confirmar esta teoría, estaríamos ante un cambio profundo en cómo se diseña la computación cuántica. Hasta ahora, la universalidad requería complejos mecanismos de corrección de errores o la combinación de técnicas no topológicas. Con los neglectones, bastaría un diseño más simple y robusto, en el que toda la computación se realiza mediante trenzado, aprovechando al máximo la protección topológica natural de estos sistemas.
Además, esta propuesta muestra que conceptos descartados hace años pueden volver con fuerza, una lección que no solo aplica a la física cuántica, sino al pensamiento científico en general: lo que hoy parece irrelevante, mañana puede ser esencial.
Referencias
- Filippo Iulianelli, Sung Kim, Joshua Sussan, Aaron D. Lauda. Universal quantum computation using Ising anyons from a non-semisimple topological quantum field theory. Nature Communications (2025). https://doi.org/10.1038/s41467-025-61342-8.
Durante décadas, Sulawesi, una isla montañosa en el corazón del archipiélago indonesio, había sido un enigma en la historia humana. A diferencia de islas vecinas como Java o Flores, con hallazgos fósiles bien documentados, Sulawesi parecía un vacío en el mapa evolutivo. Pero eso ha cambiado. Un equipo internacional de arqueólogos ha descubierto en el yacimiento de Calio siete herramientas de piedra que podrían tener entre 1,04 y 1,48 millones de años, convirtiéndose en las evidencias más antiguas de presencia humana en toda la isla. El estudio, publicado en la revista Nature y liderado por investigadores indonesios y australianos, no solo adelanta en cientos de miles de años la presencia de homínidos en Sulawesi, sino que plantea incógnitas que podrían alterar todo lo que sabíamos sobre las migraciones humanas en el sudeste asiático.
Un hallazgo silencioso que hace ruido
Las herramientas, simples en apariencia pero de gran trascendencia arqueológica, fueron encontradas incrustadas en capas de sedimentos fluviales endurecidos, en un antiguo lecho de río. Estaban fabricadas en sílex (chert), una roca dura y cortante que los homínidos trabajaban mediante técnicas de percusión directa. Aunque primitivas, algunas muestran indicios de retoques posteriores, una señal de planificación y conocimiento técnico.
Este tipo de utensilios —lascas afiladas para cortar, raspar o tallar otros materiales— no son nuevos en el registro arqueológico. Lo que los hace extraordinarios es su antigüedad y localización. Hasta ahora, la evidencia más antigua en Sulawesi databa de unos 194.000 años, y estaba limitada a otros yacimientos como Talepu. Lo de Calio, sin embargo, cambia completamente la escala temporal: no estamos hablando de Homo sapiens, ni siquiera de neandertales, sino de sus lejanos ancestros, posiblemente Homo erectus o una especie aún desconocida.

El rompecabezas de Wallacea
Sulawesi se encuentra en la región biogeográfica conocida como Wallacea, una zona compuesta por islas que, a lo largo de la historia, nunca estuvieron unidas ni a Asia ni a Oceanía. Esto significa que cualquier llegada de homínidos a estas tierras requirió el cruce de barreras marítimas, incluso cuando los niveles del mar estaban bajos durante las glaciaciones. La implicación es monumental: estos homínidos cruzaron el mar más de un millón de años antes de que existiera nuestra especie, sin ayuda de barcos como los que conocemos.
Este dato sitúa a Sulawesi en la misma cronología que Flores, la isla donde se descubrió en 2004 al famoso Homo floresiensis, apodado “el hobbit”, por su baja estatura y peculiar morfología. También recuerda al hallazgo de restos en la isla filipina de Luzón, donde Homo luzonensis vivió hace más de 60.000 años. Sin embargo, en Sulawesi no se ha encontrado aún ningún fósil humano tan antiguo como los artefactos. El hueso más antiguo hallado en la isla —una mandíbula de humano moderno— apenas tiene 25.000 años.
Entonces, ¿quién fabricó estas herramientas?
Una especie perdida en el tiempo
Los investigadores han sido cautelosos en sus interpretaciones, pero reconocen que las fechas y el estilo de las herramientas apuntan, en principio, a un ancestro del Homo floresiensis o incluso a Homo erectus, que ya estaba presente en Java hace 1,6 millones de años. No se descarta que estos fabricantes de herramientas representen una población intermedia, una rama lateral de la evolución humana, tal vez una especie que aún no conocemos, una que pudo adaptarse y evolucionar de forma independiente en Sulawesi durante cientos de miles de años.
La hipótesis más aceptada actualmente es que llegaron a la isla como navegantes involuntarios, tal vez tras haber sido arrastrados en balsas naturales —troncos, raíces, vegetación— por tsunamis o corrientes oceánicas. Este fenómeno, conocido en la biogeografía como “dispersión pasiva”, también explicaría la presencia de ciertos animales terrestres en estas islas: elefantes enanos, cerdos salvajes y especies de ratas gigantes que también habitaron Flores y Sulawesi.

El análisis de las herramientas reveló que los homínidos sabían exactamente dónde y cómo golpear la piedra para obtener los bordes más afilados. En algunos casos, reutilizaron lascas grandes como núcleos para extraer otras más pequeñas, lo que sugiere un pensamiento secuencial y adaptativo. Incluso se han identificado técnicas de rotación del núcleo y plataformas de percusión bien definidas, lo que demuestra que estos homínidos no eran meros improvisadores, sino artesanos de su tiempo, aunque en una escala muy rudimentaria.
Además de las herramientas, los arqueólogos encontraron fósiles de un cerdo gigante extinto, Celebochoerus heekereni, cuya dentadura fue datada mediante técnicas combinadas de paleomagnetismo y datación por resonancia paramagnética. Los resultados confirmaron que el entorno en el que se hallaron los artefactos data de hace al menos 1,04 millones de años, con una posible antigüedad de hasta 1,48 millones de años.
¿Un antepasado común?
Este descubrimiento no solo resalta la capacidad de adaptación de los primeros homínidos, sino que también cuestiona el relato lineal de la migración humana en Asia. Si Sulawesi fue ocupada antes que Flores o Luzón, ¿pudo haber sido el origen de los “hobbits” de Flores, en lugar de un simple paso intermedio? La ausencia de fósiles humanos en Calio complica la respuesta, pero da paso a una pregunta aún más intrigante: ¿qué otras especies de homínidos han vivido en las islas del sudeste asiático y aún no hemos descubierto?
Los investigadores ya planean futuras campañas en Sulawesi para encontrar restos óseos que permitan identificar con precisión a los habitantes de Calio. Mientras tanto, el hallazgo se convierte en una nueva pieza clave del puzle evolutivo humano, una que nos recuerda que muchas partes de nuestra historia aún permanecen enterradas bajo capas de roca y sedimentos.
Porque, a veces, todo lo que se necesita para reescribir la historia de la humanidad es una lasca de piedra olvidada en un campo indonesio.
El estudio ha sido publicado en la revista Nature.
En pleno auge de la tecnología vestible, los smartwatches se han convertido en una extensión indispensable del smartphone. No solo nos permiten recibir notificaciones al instante, sino que han evolucionado hasta ser herramientas clave para la salud y el bienestar.
Además, durante esta segunda mitad del año, muchas marcas están apostando por fuertes rebajas que responden tanto a la renovación de catálogo como a una guerra abierta por el liderazgo en la gama media y baja. Y es aquí donde Xiaomi ha decidido agitar el mercado aplicando una potente rebaja en su Redmi Watch 4.

Con un precio habitual en tiendas como Amazon, MediaMarkt o PcComponentes cercano a los 70€. Xiaomi y AliExpress lo han hundido significativamente hasta los 49,16 euros.
Este reloj inteligente incorpora una pantalla AMOLED cuadrada ultragrande de 1,97 pulgadas, con una tasa de refresco de 60 Hz y brillo de hasta 600 nits. Además, su cuerpo está fabricado en una aleación de aluminio resistente y ligera, con corona giratoria de acero inoxidable. Contando en su interior con un chip GNSS independiente, batería de 470 mAh, altavoz integrado y llamadas por Bluetooth.
Así mismo, dispone de un sistema de monitorización de salud avanzado con sensor PPG de 4 canales, seguimiento del sueño en fases (incluyendo REM), medición continua de frecuencia cardiaca, saturación de oxígeno en sangre (SpO₂), y alertas por niveles de estrés elevados. Destacando también, los 5 sistemas de posicionamiento satelital, resistencia al agua de 5 ATM y los más de 150 modos deportivos.
OnePlus centra su mirada en la gama alta con la rebaja de su Watch 3
En plena batalla por dominar el mercado de los smartwatches, OnePlus ha decidido mover ficha dentro de la gama alta hundiendo el precio de su Watch 3 gracias al cupón descuento CTES15, alcanzando los 173,93 euros. Toda una ganga, pues en Amazon, Miravia y PcComponentes, su precio actual se acerca a los 300€.

Este modelo integra una pantalla LTPO AMOLED de 1,50 pulgadas con resolución de 466 x 466 px y un impresionante brillo de hasta 2200 nits. Está impulsado por el potente procesador Snapdragon W5 junto a una MCU BES2800BP, acompañado por 32 GB de memoria interna y ejecuta una combinación de Wear OS by Google + RTOS.
En cuanto a sensores, incluye monitor de frecuencia cardiaca, SpO₂, temperatura de muñeca, acelerómetro, entre otros. Además de ofrecer más de 100 modos deportivos. Comentar que cuenta con resistencia al agua 5ATM, Bluetooth 5.2, Wi-Fi 2.4G/5G, NFC y una batería que ofrece hasta 5 días en modo inteligente, 3 en uso intensivo y hasta 16 días en modo ahorro.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
¿Somos lo que dicta nuestro ADN? Los catedráticos en psicología diferencial y psicobiología, Roberto Colom y Juan Ramón Ordoñana, respectivamente, se han unido para responder a esta compleja pregunta en ‘Eres tu ADN’ (ARIEL), un libro que reivindica el papel de la genética en el estudio del comportamiento humano sin caer en reduccionismos. Con un enfoque provocador pero riguroso, los autores desmontan mitos como el del “gen de la inteligencia” o el “gen de la infidelidad” y recuerdan que ninguna característica psicológica nace solo de los genes… ni únicamente del entorno. “Explicar el comportamiento atendiendo solo a los genes —dicen— es como pintar un cuadro con la mitad de los colores”.
¿Qué os llevó a escribir ‘Eres tu ADN’? ¿Cuál era la necesidad divulgativa que sentíais que debíais cubrir?
Roberto Colom (R.C): Esto proviene de nuestros campos disciplinarios. Yo vengo de la psicología diferencial y Juan Ramón de la genética del comportamiento. Ambas cosas llevan muchos años trabajando sobre la pregunta de qué nos hace diferentes, y esencialmente hay dos respuestas: nuestras características genéticas diferenciales, y las circunstancias. En ambas disciplinas hemos visto a lo largo de los años la enorme carencia de conocimientos que hay a nivel general para interpretar correctamente qué hemos descubierto en la investigación científica.
Juan Ramón Ordoñana (J.R.O): Y esa necesidad de dar información es más perentoria ahora por la enorme cantidad de información relacionada con la genética que está apareciendo. Observamos que surgen continuamente noticias alrededor de aspectos genéticos que tienen que ver con la conducta.

¿A qué tipo de lector va dirigido este libro? ¿Puede disfrutarlo alguien sin conocimientos previos en genética o psicología?
R.C.: El público que está interesado en aprender algo nuevo sobre ciencia recurre a fuentes de documentación fiable, y ese porcentaje no es muy elevado, hablamos de un 15 % de la población. Lo que nosotros hacemos es divulgación científica explicando las cosas de una forma sencilla para que cualquier persona con un nivel cultural medio lo pueda entender.
J.R.O.: Y entendemos que los lectores de Muy Interesante entran dentro de ese grupo, porque ya muestran un interés, valga la redundancia, en aspectos muy variados como todos los que trata la revista.
¿Cómo fue vuestra colaboración? ¿En qué os complementáis como coautores?
R.C.: ¡Nos lo pasamos muy bien trabajando juntos! Compartimos un lenguaje científico común. No es tan fácil que dos académicos, además de dos centros diferentes, se entiendan cuando hablan. Y en nuestro caso ha sido muy sencillo comunicarnos, porque compartimos paradigma. Lo que él hace complementa lo que yo hago, y al revés. Acordamos qué tipo de temáticas podían ser más interesantes para transmitir a la audiencia a la que nos dirigíamos. Y hecho eso, nos pusimos a escribir.
J.R.O.: Y ponerse a escribir cuando las cuestiones de fondo están claras hace que todo sea más fácil.
¿Cuál diríais que es la idea más sorprendente que se llevará el lector de ‘Eres tu ADN’?
R.C.: La temática atrae muchísimo. Y nos llama la atención cómo el título llama la atención de los lectores.
J.R.O.: Sí, yo diría que el título es seductor y provocador, y en realidad lo que pretende es reivindicar el papel del ADN en las ciencias sociales. Reivindicamos la existencia del ADN como base, como estructura principal del inicio de la construcción de la estructura de nuestro edificio psicológico. Durante toda la mitad del siglo XX, hablar de ADN y comportamiento a la vez era un anatema. Poco a poco se ha ido haciendo y en España ya es clara la acumulación de evidencias de que realmente existe una influencia de los factores genéticos en el comportamiento, aunque nos encontramos con una aceptación a regañadientes, es decir, sí, pero poco. Nadie piensa que solo somos ADN. Tratar de explicar el comportamiento atendiendo solo a los genes es como tratar de pintar un cuadro con la mitad de los colores. Si lo hacemos así, siempre nos vamos a quedar a medias.
¿Hasta qué punto nuestro comportamiento está escrito en nuestro ADN? ¿Hay una línea que diga dónde termina la genética y empieza el entorno?
J.R.O.: Nosotros no enfocamos esto pensando que algo empieza y algo termina en algún sitio, sino que hablamos de una interacción continua. No hay baile si no hay dos actores que están continuamente bailando.
R.C.: ¡Es que eso depende de un montón de cosas! Para empezar, depende de la característica psicológica que tengamos en cuenta, y mucho del tipo de circunstancias.

¿Qué papel juegan los genes en rasgos como la inteligencia, la empatía o la impulsividad?
J.R.O.: En realidad lo que los genes proporcionan es la estructura de partida de nuestro edificio. Después de nuestra concepción, no somos mucho más que eso. Y es en ese ADN donde van a estar todos los planes de ese edificio para saber dónde tienen que ir las vigas, las columnas, los ladrillos, dónde están las cañerías, qué grosor han de tener y cómo ha de ser su funcionamiento. Si lo miramos a grandes rasgos no hay grandes diferencias entre nuestro sistema nervioso, pero si nos vamos a los pequeños detalles sí aparecen esas diferencias, y esas son las que van a ser la base de las diferencias que se van a ir formando dentro de ese edificio con la incorporación de muebles, pinturas… ¿Qué tendremos al final? Un hogar. ¿Y qué es el hogar? Pues ni las cuatro paredes, ni el contenido. Lo es todo.
R.C.: Cualquier característica psicológica que contribuye a entender lo que somos está influida por la genética.
Muy poco se sabe de esto, aunque ahora se habla mucho más. ¿Cómo ha cambiado nuestra percepción de hasta qué punto influye nuestra genética en nuestra personalidad? ¿Se puede decir eso de “tengo mal carácter porque lo he heredado”?
R.C.: Nosotros somos lectores ávidos de la información que aparece en los medios de comunicación que tiene que ver con esta temática, y gracias a eso hemos incluido en el libro ejemplos de errores y equívocos. Un objetivo fundamental del libro es justamente corregir ese tipo de información equivocada.
J.R.O.: Muchas veces lo entiende mejor la gente de la calle que los propios académicos, porque ponen menos pegas. Hay estudios que demuestran que los que mejor aciertan el peso que tienen los factores genéticos y los ambientales a la hora de producir diferencias entre los individuos son los maestros y las madres de muchos hijos, porque son los que tienen la experiencia de ver diversidad. Nadie puede sostener ‘yo nací tal como soy ahora’. Ni nacimos con todo ni con tabla rasa.
¿Qué mitos sobre la genética y la personalidad os gustaría desmontar con este libro?
R.C.: El concepto de heredabilidad. Creo que hacemos un esfuerzo rotundo en el libro para explicarlo con claridad. (No haremos espóiler).
J.R.O.: Hay un mito importante que es el que dice que hay un gen para cada cosa. En prensa se lee y se escucha, por ejemplo, que hay un gen guerrero, un gen de la infidelidad, un gen de la inteligencia, un gen de la depresión, un gen de la timidez… y la realidad es que no hay genes específicos para este tipo de cosas. Hay genes que actúan en el sistema nervioso que hacen que dicho sistema responda de manera mejor o peor ante situaciones en las que, por ejemplo, tienes que enfrentarte al público, y tu sistema de recompensa funciona de una manera u de otra ante ese tipo de estímulos.
¿Estamos preparados, como sociedad, para convivir con esta información?
J.R.O.: Creo que la sociedad necesita información. No se puede asumir algo que desconoces. Una de las cosas en las que más recursos se han invertido es en tratar de ver qué factores genéticos están detrás de los problemas de salud mental, en tratar de encontrar qué genes hay detrás de la esquizofrenia. Sabemos que esta tiene una influencia genética importante —su heredabilidad es de un 80 %—, pero no conocemos exactamente qué genes están asociados a ella, y cuando los encontramos tampoco sabemos qué hacen.
R.C.: Lo que está claro es que, si somos capaces de leer el genoma y calcular una puntuación que resuma todo lo que tiene que ver a nivel genético con la esquizofrenia antes de que se manifiesten los síntomas, quizá podamos hacer labores de prevención.
¿Creéis que viviremos con un "perfil genético" como hoy vivimos con un DNI?
R.C.: En Reino Unido ya han aprobado que en los próximos 10 años van a hacer a todos los recién nacidos un análisis de genoma completo, con el objetivo de poder mejorar el sistema sanitario. Si en un bebé identifican un conjunto de marcadores que le hacen especialmente proclive a la esquizofrenia, se podrá hacer una labor de prevención que luego reduzca gastos sanitarios a largo plazo.
J.R.O.: Eso tiene una serie de implicaciones, y no solo a nivel preventivo, que son muy interesantes y valiosas, que van a cambiar la forma en la que nos enfrentamos al tratamiento y a la prevención de distintos trastornos.

El riesgo es que esa información se use para justificar desigualdades sociales, educativas, económicas…, y estigmatice
R.C.: Tenemos un capítulo en el libro que justamente se llama el estigma del ADN.
J.R.O.: Evidentemente este tema tiene su lado oscuro, que es muy peligroso. Ya hay revistas planteando que vamos a tener muchas más capacidades de análisis del genoma, y de edición del genoma, y que debemos reflexionar sobre ello antes de que ocurra. Al final habrá intereses comerciales que podrán utilizar desde ese lado oscuro toda esta información y todas estas capacidades que ahora mismo estamos adquiriendo.
Si pudierais incluir una página al libro para añadir algo que se quedó fuera, ¿cuál sería?
R.C.: Yo daría un toque de atención a nuestros colegas que están empezando a colaborar muy seriamente con empresas comerciales que están dedicadas a la lectura del ADN para seleccionar, por ejemplo, embriones a medida, y lo están haciendo con poco filtro.
J.R.O.: Quizá añadiría un capítulo para abordar cómo podemos limitar que se use la ciencia del ADN para justificar ciertos planteamientos políticos, o cómo podemos hacer que los supremacistas no se agarren al ADN para decir que el suyo es mejor que el del vecino.
Sumarios
- “El título de nuestro libro es seductor y provocador, y pretende reivindicar el papel del ADN en las ciencias sociales.”
- “Es clara la acumulación de evidencias de que existe una influencia de los factores genéticos en el comportamiento.”
- “Cualquier característica psicológica que contribuye a entender lo que somos está influida por la genética.”
- “Nadie puede sostener ‘yo nací tal como soy ahora’. Ni nacimos con todo ni con tabla rasa.
- “Ni hay un gen guerrero, ni uno de la infidelidad, ni otro de la inteligencia u otro de la timidez… no hay genes específicos para este tipo de cosa.”
Los autores
Roberto Colom es catedrático de psicología diferencial en la Universidad Autónoma de Madrid. Forma parte de una selecta lista elaborada por la Universidad de Stanford (USA) que recoge a los científicos más relevantes a nivel internacional. Es autor de más de veinte libros y de más de ciento setenta artículos científicos. Invitado por asociaciones científicas a impartir conferencias plenarias, practica la divulgación científica en distintos medios.
Juan Ramón Ordoñana es catedrático de psicobiología en la Universidad de Murcia (UM) e Investigador Principal en el Instituto Murciano de Investigación Biomédica. Ha sido investigador visitante en el Social, Genetic and Developmental Psychiatry Centre del King’s College de Londres, la VU University en Ámsterdam y el QIMR Berghofer Medical Research Institute en Brisbane, Australia. Autor de más de 120 artículos científicos y miembro de la Asociación de Genética de la Conducta (Behavior Genetics Association), su última obra es Genética del Comportamiento (2023).
La historia del universo es una sucesión de descubrimientos que no dejan de sorprendernos. Cada vez que los astrónomos miran un poco más atrás en el tiempo, encuentran algo que desafía nuestras ideas previas. Hace poco, el telescopio espacial James Webb ha añadido otro giro inesperado a esa historia: la detección del agujero negro activo más antiguo confirmado hasta ahora. Un hallazgo que ha dejado a los científicos con más preguntas que respuestas, y que obliga a repensar cómo surgieron los primeros grandes objetos del cosmos.
En el centro de una diminuta galaxia bautizada como CAPERS-LRD-z9, situada a más de 13.300 millones de años luz, los astrónomos han identificado un agujero negro supermasivo activo que ya existía cuando el universo tenía apenas 500 millones de años. Este descubrimiento, publicado en The Astrophysical Journal Letters, no solo amplía el mapa del universo temprano, sino que plantea serios desafíos a los modelos actuales de formación de galaxias y agujeros negros.
Un punto rojo en el firmamento
Lo que hoy conocemos como CAPERS-LRD-z9 empezó siendo una mota de luz rojiza en los datos del programa CAPERS, que forma parte de la misión del telescopio James Webb para explorar las primeras galaxias. Su apodo, “Little Red Dot”, hace referencia al aspecto compacto y enrojecido de este tipo de objetos. Al principio, estos puntos rojos eran un misterio: demasiado brillantes y rojos para ser galaxias típicas de esa época.
Cuando el equipo liderado por Anthony J. Taylor analizó su espectro, detectó una firma clara: una línea de emisión de hidrógeno muy ancha (Hβ) con un ancho de más de 3500 km/s, típica de núcleos galácticos activos con agujeros negros en crecimiento. Según los autores, “la combinación de líneas prohibidas estrechas y una línea de Hβ ancha indica claramente que CAPERS-LRD-z9 es un BLAGN a z = 9.288” .
Este tipo de línea, junto con otras señales, solo puede explicarse por la presencia de gas cayendo a altísima velocidad hacia un agujero negro supermasivo, lo que confirma su naturaleza activa y su enorme energía liberada.

Un agujero negro demasiado grande para tan poco tiempo
Una de las mayores sorpresas fue el tamaño del agujero negro: los investigadores estiman que podría tener hasta 300 millones de veces la masa del Sol, una cifra difícil de imaginar y más propia de galaxias mucho más grandes y antiguas. Esta estimación se basa en el análisis detallado de la luz que emite el gas que lo rodea. Aunque hay cierto margen de incertidumbre, los valores probables oscilan entre unos pocos millones y varios cientos de millones de masas solares, lo que sigue siendo extraordinario para un objeto que existía cuando el universo apenas había empezado a formarse.
Este dato es problemático. Si los agujeros negros se forman a partir del colapso de estrellas masivas y crecen gradualmente, ¿cómo es posible que uno tan grande existiera cuando el universo apenas estaba empezando? Para alcanzar tal tamaño en tan poco tiempo, los modelos actuales requieren que haya comenzado con una semilla ya muy masiva, o que haya crecido a velocidades extremas, muy por encima del límite teórico llamado tasa de Eddington.
Como explican los autores, “estas observaciones sugieren que es necesario un agujero negro semilla muy masivo, o bien uno más ligero sometido a episodios de acreción super-Eddington”.

La galaxia anfitriona: pequeña, densa y enrojecida
CAPERS-LRD-z9 no solo alberga un agujero negro colosal: es una galaxia extremadamente pequeña, con una masa estelar estimada menor a 10⁹ masas solares, y aparentemente envuelta en una capa densa de gas neutro. Este gas espeso es clave para entender el aspecto rojizo de la galaxia. Según los modelos usados en el estudio, esta envoltura densa puede absorber y reemitir la luz, creando un “quiebre de Balmer” inusualmente fuerte, algo que suele estar asociado a poblaciones estelares viejas, pero que en este caso parece tener un origen diferente: la interacción de la radiación del agujero negro con el gas que lo rodea.
La estructura de su espectro sugiere una combinación de luz del agujero negro y un posible componente estelar muy tenue. La relación entre la masa del agujero negro y la de las estrellas de la galaxia alcanza valores extraordinarios: más del 4,5%, cuando en galaxias del universo cercano esta proporción ronda el 0,1%.

Semillas oscuras y crecimiento acelerado
El caso de CAPERS-LRD-z9 reabre un debate fundamental en astrofísica: ¿cómo nacen los primeros agujeros negros supermasivos? Existen dos escenarios principales. Por un lado, las “semillas ligeras”, restos de las primeras estrellas, que tendrían unas 100 masas solares y crecerían lentamente. Por otro, las “semillas pesadas”, que se formarían por el colapso directo de grandes nubes de gas sin fragmentar, dando lugar a agujeros negros iniciales de hasta 10⁵ masas solares.
Para explicar a CAPERS-LRD-z9, ambas opciones parecen insuficientes si no se introduce alguna forma de crecimiento acelerado. Según los autores del artículo, un crecimiento continuo por encima del límite de Eddington —que marca cuánto material puede tragar un agujero negro sin que la presión de radiación lo frene— podría explicar su enorme tamaño en tan poco tiempo. Otra opción es que su semilla inicial ya fuera excepcionalmente grande, lo que implicaría revisar nuestras ideas sobre la formación de estructuras en el universo temprano.
Un nuevo tipo de galaxias: los Little Red Dots
CAPERS-LRD-z9 pertenece a una clase emergente de objetos conocidos como “Little Red Dots” (pequeños puntos rojos), detectados gracias a la sensibilidad del telescopio Webb. Estos objetos destacan por ser compactos, extremadamente rojos y muy brillantes en el infrarrojo. Según el equipo que publicó el estudio, hasta un 30% de los núcleos activos descubiertos por JWST en el universo primitivo podrían pertenecer a esta categoría .
El fenómeno de los Little Red Dots ha desafiado las expectativas porque, hasta ahora, no se esperaban tantos núcleos activos tan pronto en la historia del universo. Y lo que es más importante: su brillo no parece venir de estrellas, sino del crecimiento de agujeros negros envueltos en gas denso. Este nuevo tipo de galaxias podría representar una fase temprana y breve en la evolución de las galaxias.
El equipo del estudio sugiere incluso una posible evolución: primero una fase de LRD, seguida por una etapa en que el gas se disipa, el agujero negro queda al descubierto y la galaxia se convierte en un cuásar o en un núcleo galáctico más convencional .
¿Y si la luz ultravioleta no proviene de las estrellas?
Un aspecto particularmente intrigante es la naturaleza del brillo ultravioleta observado en CAPERS-LRD-z9. En principio, se asumió que esta parte del espectro provenía de estrellas jóvenes. Pero el análisis del espectro sugiere que esta luz podría tener también un origen no estelar, quizá procedente del mismo agujero negro, dispersada por el gas circundante. Si esto se confirma, la masa estelar de la galaxia sería aún menor de lo estimado, lo que haría que el agujero negro fuese desproporcionadamente más masivo en comparación con su anfitriona.
Este tipo de discrepancias añade complejidad al modelo y pone de relieve lo poco que sabemos todavía sobre los procesos que moldearon las primeras galaxias y sus núcleos.
Referencias
- Anthony J. Taylor, Vasily Kokorev, Dale D. Kocevski, Hollis B. Akins, Fergus Cullen, et al. CAPERS-LRD-z9: A Gas-enshrouded Little Red Dot Hosting a Broad-line Active Galactic Nucleus at z = 9.288. The Astrophysical Journal Letters, 989:L7 (18pp), 2025 August 10. https://doi.org/10.3847/2041-8213/ade789.
Poco después de que los incendios forestales azotaran el sureste de Australia en 2019, muchos habitantes de las zonas afectadas comenzaron a experimentar un tipo de sufrimiento difícil de describir. No se trataba solo del trauma por el fuego, ni de la angustia económica derivada de las pérdidas materiales. Era algo más profundo: una sensación de desarraigo, de dolor por un paisaje que ya no reconocían, de tristeza por la transformación irreversible del lugar que llamaban hogar. Para muchas personas, esa emoción no tenía nombre. Hoy, sí lo tiene: solastalgia.
Este nuevo concepto ha ganado terreno en la psicología ambiental y está comenzando a ser tomado muy en serio por la comunidad científica. El reciente trabajo publicado en BMJ Mental Health por el equipo de Alicia Vela Sandquist y Susanne Fischer ofrece una revisión sistemática de estudios sobre la solastalgia y su relación con la salud mental. La conclusión principal es clara: existe una asociación significativa entre la solastalgia y trastornos como la depresión, la ansiedad y el estrés postraumático (TEPT) .
¿Qué es exactamente la solastalgia?
El término fue acuñado en 2003 por el filósofo ambiental Glenn Albrecht y surge de la combinación de las palabras solace (consuelo) y nostalgia. Se refiere al dolor psicológico producido por la degradación del entorno natural cercano, generalmente debido al cambio climático o la acción humana. A diferencia de la nostalgia, que implica un anhelo por un lugar lejano en el tiempo o el espacio, la solastalgia se vive en el presente y en el mismo lugar que se habita, cuando ese espacio pierde sus cualidades esenciales.
Este tipo de malestar no es simplemente una tristeza vaga o pasajera. Según los autores del estudio, "solastalgia, una forma de angustia causada por los cambios ambientales, está significativamente asociada con problemas de salud mental" . Se han creado varias escalas para medir este fenómeno, como la Environmental Distress Scale o la Brief Solastalgia Scale, que permiten cuantificar su intensidad y correlacionarla con síntomas psicológicos.

El impacto en la salud mental: datos que preocupan
Los investigadores analizaron 19 estudios realizados entre 2003 y 2024 en países como Australia, Alemania, Perú y Estados Unidos. De ellos, cinco eran estudios cuantitativos que evaluaban directamente la relación entre solastalgia y salud mental. Los resultados mostraron una correlación positiva con la depresión, la ansiedad y el TEPT. Por ejemplo, en personas que vivían cerca de minas a cielo abierto en Alemania, se encontraron las correlaciones más altas, con valores de entre 0,35 y 0,53 en relación con síntomas depresivos .
También se halló una relación significativa con la ansiedad y la somatización, es decir, síntomas físicos que tienen su origen en un malestar emocional. Un estudio en Arizona, tras el incendio forestal de 2011, concluyó que por cada punto de aumento en una escala de solastalgia, las probabilidades de sufrir angustia psicológica aumentaban un 26% .
Pero el sufrimiento no se limita a los números. En los estudios cualitativos analizados, muchos testimonios reflejan sentimientos de pérdida, impotencia y confusión: “Cuando todo lo que conoces te es arrebatado y no puedes controlar tus circunstancias, te sientes totalmente indefenso”. Esta frase, recogida en un estudio con comunidades indígenas en Canadá, resume de forma precisa el núcleo de la experiencia solastálgica.

Más allá del desastre: el papel de la degradación lenta
Un hallazgo interesante del estudio es que la solastalgia tiende a ser más intensa en escenarios de destrucción ambiental progresiva y continua que en eventos puntuales como desastres naturales. Es decir, el daño constante y visible en el entorno cotidiano genera un sufrimiento acumulativo, difícil de procesar y que puede prolongarse durante años .
Esto coincide con lo que se sabe sobre los traumas interpersonales. Según los autores, “esta idea encaja bien con la evidencia existente en la investigación sobre traumas, según la cual los traumas continuos son más propensos a causar TEPT” . De este modo, los cambios medioambientales provocados por actividades humanas —como la minería, la deforestación o el urbanismo intensivo— podrían ser psicológicamente más perjudiciales que una catástrofe natural puntual.
Además, la pérdida del paisaje conocido afecta a la identidad y al sentido de pertenencia. En muchas culturas, especialmente entre comunidades indígenas, la conexión con la tierra va más allá del aspecto físico. Su degradación implica también una pérdida espiritual, cultural y social. En palabras de los autores, “la conexión profunda con ciertas tierras implica que la degradación impacta directamente en la salud mental de muchas poblaciones indígenas”.

¿Un trastorno o una respuesta racional?
Una cuestión clave es si la solastalgia debe considerarse un trastorno psicológico como tal o más bien una reacción normal frente a una situación anormal. El artículo sostiene que es “una respuesta racional al cambio ambiental, aunque está correlacionada con una peor salud mental” . Es decir, no se trata de una patología en sí, sino de un indicador de que algo no va bien ni en el entorno ni en las personas que lo habitan.
Esta idea lleva a una pregunta crucial: ¿cómo se puede intervenir? Los autores plantean que la solastalgia podría ser una señal de alerta temprana y que debería servir como objetivo clínico para prevenir o tratar trastornos más graves. Sin embargo, también señalan que no está claro si se pueden aplicar los mismos tratamientos que se usan en casos de duelo, ansiedad o depresión, o si será necesario desarrollar estrategias terapéuticas específicas.
Otro punto importante es que la mayoría de los estudios revisados son transversales, lo que impide establecer una relación causal firme. Por ello, el equipo de investigación destaca la necesidad de realizar más estudios longitudinales que permitan observar la evolución de la solastalgia en el tiempo y su impacto real en la salud mental.
Una emoción global con matices culturales
Aunque el término solastalgia nació en Australia, los estudios muestran que el fenómeno se da en lugares tan diversos como India, Canadá, Alemania, Ghana o los Países Bajos. Esto sugiere que no se trata de una emoción exclusiva de una cultura o región, sino de una reacción humana amplia frente a un entorno que cambia de forma alarmante.
Sin embargo, los autores también advierten que la forma de experimentar y nombrar ese dolor varía según el contexto. Por ejemplo, en el Pacífico, se ha propuesto una definición más amplia de solastalgia, que incluye la pérdida de la conexión con los ancestros y la historia del lugar. Esto implica que las herramientas de medición desarrolladas en Occidente podrían no ser aplicables directamente a otros contextos culturales, y que los estudios en comunidades indígenas deben diseñarse en colaboración con ellas .
Por todo esto, la solastalgia se perfila como una emoción compleja, multidimensional y profundamente humana. No solo nos habla del deterioro ambiental, sino también de nuestras raíces, nuestra identidad y la necesidad urgente de reconectar con el mundo natural de una forma más saludable y sostenible.
Referencias
- Vela Sandquist A, Biele L, Ehlert U, Fischer S. Is solastalgia associated with mental health problems? A scoping review. BMJ Mental Health. 2025;28:1–6. https://doi.org/10.1136/bmjment-2025-301639.
En un momento en que los SUV premium buscan equilibrar lujo, prestaciones y sostenibilidad, el Nuevo Jeep Grand Cherokee emerge como un modelo emblemático que redefine los estándares del segmento. Esta última generación, presentada oficialmente en 2024, encarna la evolución de un icono capaz de combinar acabados de alta gama, tecnología avanzada y una vocación todoterreno heredada de su ADN Jeep.
La puesta en escena de esta renovada versión no se limita al confort o la exclusividad; incorpora también una motorización híbrida enchufable 4xe que desarrolla hasta 380 CV y un par motor de 637 Nm, con una autonomía eléctrica de hasta 50 km en entorno urbano. Todo ello con tracción total y capacidades “Trail Rated”, lo que demuestra que no renuncia a su esencia off-road incluso en modo cero emisiones.
El interior recibe una profunda transformación, con tapicerías en piel Palermo, detalles en madera de nogal auténtico y asientos calefactados, ventilados y con masaje en 16 posiciones con memorias. Además, estrena un sistema de sonido McIntosh con 19 altavoces que crea una experiencia sonora envolvente al más alto nivel. Todo ello convive con ayudas a la conducción modernas como control de crucero adaptativo, asistencias de ángulo muerto, Park Assist y sistemas de protección de peatones, alcanzando un nivel de conducción autónoma de nivel 2.
Este SUV no solo posiciona a Jeep en la liga de los modelos premium junto a referentes como Mercedes‑Benz o Range Rover, sino que reafirma su compromiso con la innovación sostenible sin descuidar su herencia todoterreno. Con versiones de cinco y siete plazas (como el Grand Cherokee L), ofrece flexibilidad para familias que buscan espacio, lujo y versatilidad en cualquier terreno.
Motorización híbrida enchufable 4xe
La versión 4xe combina un motor gasolina turboalimentado con un sistema eléctrico que, en conjunto, entrega hasta 380 CV y un par máximo de 637 Nm. Su batería permite recorrer hasta 50 km en modo eléctrico urbano, lo que supone una solución idónea para trayectos diarios sostenibles.
Esto se traduce en prestaciones sobresalientes sin renunciar a la eficiencia y a una significativa reducción de emisiones. La tracción total está siempre garantizada, incluso en modos plenamente eléctricos.

Autonomía eléctrica y modos de conducción
El sistema 4xe ofrece tres modos: eléctrico, híbrido y e-Save, que permite conservar carga para su uso posterior. En contexto urbano, el recorrido sin emisiones directas aporta ventajas reales en entornos con restricciones medioambientales.
Además, el modo Trail Rated mantiene capacidades off-road con alto rendimiento incluso en terreno mojado o irregular, todo ello con tracción total activada eléctricamente.

Diseño exterior y presencia premium
La estética exterior del Grand Cherokee combina líneas robustas con detalles urbanos refinados. Incorpora faros y pilotos LED, techo bicolor opcional y llantas de hasta 21 pulgadas en acabados Summit Reserve. El diseño transmite elegancia y fortaleza, lo que sitúa al modelo como referencia visual dentro del segmento de SUV de lujo.

Lujo interior y materiales selectos
El habitáculo está revestido con tapicería de piel Palermo, inserciones de nogal auténtico y ambientación interior con iluminación LED multicolor. Los asientos calefactados, ventilados y con función masaje aseguran confort prolongado incluso en trayectos largos.
El ambiente es cálido y sofisticado, pensado para usuarios que demandan calidad premium sin perder funcionalidad. Todo está dispuesto para que cada viaje sea una experiencia sensorial envolvente.

Tecnología y asistencias
El vehículo integra sistemas como Park Assist, control de crucero adaptativo, alerta de ángulo muerto y protección de peatones. Junto con otros elementos, alcanza un nivel de Conducción Autónoma Nivel 2, marcando un salto cualitativo en seguridad y confort.
El sistema Uconnect 5 se apoya en una instrumentación digital avanzada y una experiencia de usuario intuitiva y conectada. La navegación, la conectividad y los servicios en línea están completamente integrados.

Sistema de sonido McIntosh
El equipo McIntosh incluye 19 altavoces, amplificador de 17 canales y 950 W, con subwoofer de 10 pulgadas. Es el sistema más potente disponible en su clase y transforma cada trayecto en una experiencia sonora de alta fidelidad.
El sonido, combinado con aislamiento acústico de alta calidad, convierte el interior en una auténtica sala de conciertos móvil, ideal tanto para viajes urbanos como de larga distancia.

Capacidades todoterreno y "Trail Rated"
El Grand Cherokee mantiene su reputación off‑road gracias a su tracción total, chasis robusto y capacidad de vadear hasta 61 centímetros de agua. Estas prestaciones certificadas Trail Rated reflejan su espíritu Jeep genuino: del barro a la ciudad, el Grand Cherokee está preparado para ofrecer lo mejor en cualquier entorno.
Suspensiones adaptativas y modos de terreno le permiten abordar caminos pedregosos, arena o nieve sin comprometer el confort interior. Es un vehículo preparado para salir del asfalto sin perder su carácter premium.

Versiones de carrocería y emplazamiento en gama
La oferta incluye versiones de cinco plazas y el Grand Cherokee L con tres filas y capacidad para siete ocupantes. Esta versión extendida mejora el espacio para pasajeros y carga, especialmente pensada para familias.
La versión L también destaca por su mayor longitud de batalla, mejor acceso a las plazas traseras y una tercera fila que no compromete el espacio de carga.

Seguridad y premios reconocidos
El modelo ha sido galardonado como Top Safety Pick 2024, integrando tecnología de última generación en protección activa y pasiva del conductor y ocupantes. La rigidez estructural del chasis contribuye a estos reconocimientos.
Sistemas como la frenada automática de emergencia, alerta de tráfico cruzado o el asistente de cambio de carril garantizan una conducción segura y confiable en todo tipo de condiciones.

Plataforma y tecnología de construcción
Se construye sobre la plataforma FCA Giorgio, utilizada también en modelos de gama alta como los Alfa Romeo Stelvio o Giulia, adaptada para ofrecer robustez, confort y capacidad 4×4 en un SUV de gran tamaño.
Esta arquitectura modular permite integrar distintas motorizaciones, incluida la híbrida enchufable, con gran eficiencia y equilibrio dinámico. Aporta estabilidad, rigidez y refinamiento mecánico.

Posicionamiento en el mercado premium
Jeep sitúa este modelo como referente dentro del segmento de SUV de lujo (segmento E), compitiendo con marcas como Mercedes‑Benz, BMW o Range Rover. Ofrece una propuesta diferenciada: lujo sostenible con vocación todoterreno.
A ello se suma una imagen de marca asociada a la aventura y la resistencia, lo que convierte al Grand Cherokee en una alternativa racional y emocional a los SUV premium europeos.

Perspectivas futuras y próximos modelos
Jeep planea lanzar un SUV híbrido compacto para finales de 2025, pensado como sucesor espiritual de los Grand Cherokee V8. El objetivo es ampliar su gama electrificada manteniendo las capacidades todoterreno que definen su ADN.
Esta evolución forma parte de la estrategia que ya ha dado resultados con modelos como el Jeep Avenger, el SUV eléctrico que ha conquistado Europa por su tamaño, autonomía y espíritu urbano, abriendo la puerta a una nueva generación de modelos sostenibles.

Jeep Grand Cherokee: lujo, innovación tecnológica y vocación todoterreno
Este Nuevo Jeep Grand Cherokee combina con maestría lujo, innovación tecnológica y vocación todoterreno sin concesiones. La versión 4xe es una declaración de intenciones: sostenibilidad, potencia y capacidad. Su diseño ofrece elegancia y presencia imponente. El interior está repleto de detalles premium, mientras que la tecnología garantiza confort, seguridad y placer de conducción.

En definitiva, es un SUV premium que mira al futuro sin olvidar de dónde viene. Del linaje Jeep, del legado trail rated, vestido de lujo moderno y con el compromiso de la electrificación. Un vehículo preparado para conquistar tanto el asfalto como lo desconocido.
Un hallazgo extraordinario ha devuelto a la localidad normanda de Avranches una parte olvidada de su historia. Tras más de dos siglos de ausencia, un valioso manuscrito medieval procedente del Mont Saint-Michel ha regresado a la región de la que fue arrebatado durante la Revolución Francesa. Se trata de una pieza excepcional tanto por su contenido como por su procedencia. Su recuperación supone un hito en la restitución del patrimonio documental perdido.
Un regreso inesperado tras más de dos siglos de ausencia
La historia de la desaparición de este manuscrito comienza a finales del siglo XVIII, cuando, en el contexto revolucionario, se expropió y dispersó la biblioteca del monasterio del Mont-Saint-Michel. Muchos de sus volúmenes desaparecieron sin dejar rastro, en medio del caos de las confiscaciones y ventas.
Este manuscrito en concreto se dio por perdido durante más de 200 años, hasta que, en 2018, apareció de forma inesperada en el catálogo de una casa de subastas de Alençon. Un estudioso advirtió en la pieza ofertada ciertas características que apuntaban a un origen monástico. La caligrafía, los elementos decorativos, el contenido y sobre todo, una prosa litúrgica dedicada a san Aubert, obispo de Avranches y figura fundacional del Mont-Saint-Michel, dieron la voz de alarma.
Tras una investigación minuciosa y la consulta de inventarios históricos, se confirmó que el manuscrito había pertenecido a la biblioteca del Mont saint-Michel. En abril de 2023, el texto se restituyó al estado como bien nacional y, tras pasar por un proceso de restauración y digitalización, se entregó a la ciudad de Avranches el 27 de junio de 2025. En una ceremonia solemne, el director del Libro y la Lectura del Ministerio de Cultura, junto con el alcalde David Nicolas, celebraron este regreso.

Un manuscrito singular: música, liturgia, filosofía y humor
Variedad de textos medievales
El manuscrito recuperado es una obra que recoge cuatro textos medievales diferentes, todos destinados a la enseñanza. Aunque los textos se redactaron entre los siglos XII y XIII, las partes litúrgicas probablemente se copiaron en el propio scriptorium del Mont-Saint-Michel. Las secciones filosóficas, por su parte, podrían haber sido escritas por monjes estudiantes en París, antes de ser llevadas al monasterio. Este cruce de influencias ilustra la vitalidad cultural del Monte durante su apogeo.
La primera parte incluye tratados pedagógicos sobre el aprendizaje musical, que probablemente sirvieron como material didáctico en el monasterio. La segunda parte contiene prosa litúrgica y poética dedicada a san Auberto, obispo en Avranches en el siglo VIII al que se le atribuyen milagros.
El texto establece una profunda analogía entre la armonía musical, la armonía divina y la armonía del alma humana. Esta composición resulta especialmente significativa porque representa la versión más antigua conocida del texto, anterior incluso a las copias del siglo XVII que se conservan. Su descubrimiento arroja nueva luz sobre la evolución de la liturgia en el entorno del Mont-Saint-Michel.

Alegorías y pensamiento filosófico
El volumen incluye, además, dos obras narrativas de corte filosófico y alegórico. La primera es el Architrenius de Jean de Hauville. Este poema latino sigue a un joven desesperado por los vicios del mundo, que acude a la Madre Naturaleza en busca de sentido. La segunda es una obra de Alain de Lille, también cargada de simbolismo y crítica moral. Ambos textos eran muy apreciados en los círculos monásticos del siglo XIII y servían como herramientas intelectuales para los jóvenes estudiantes.
Una ilustración autocrítica
El manuscrito también guarda algunas sorpresas de interés. Entre sus últimas páginas, aparece un dibujo singular. Representa a un personaje sentado con las piernas cruzadas que sostiene un bastón —o quizás un instrumento musical— y está acompañado de una inscripción manuscrita que dice: “Es de conocimiento general que me gusta mucho beber. Estoy molesto y sufro por no poder aprender mejor el arte de la gramática que el de la lógica”. Esta curiosa nota refuerza el carácter didáctico del manuscrito, que humaniza a quienes lo copiaron, leyeron y utilizaron hace siglos.

La biblioteca del Mont-Saint-Michel y el papel de Avranches
Avranches, ciudad episcopal de gran importancia en la Edad Media, desempeñó un papel esencial en la conservación del patrimonio monástico tras la Revolución. En 1791, cuando los manuscritos del Mont-Saint-Michel se confiscaron como bienes nacionales, Avranches se convirtió en el centro depositario de estos textos. Desde entonces, su biblioteca ha custodidado estos valiosos documentos, que hoy se exhiben en el Scriptorial, un museo dedicado a preservar y difundir este legado.
Inaugurado en 2006, El Scriptorial, alberga más de 200 manuscritos medievales y organiza exposiciones periódicas en su sala del Tesoro, donde cada tres meses se muestran una docena de volúmenes distintos. La incorporación del manuscrito recuperado a la exposición estival de 2025 ha generado una gran expectación, no solo entre los especialistas, sino también entre el público general, cada vez más interesado por la historia del Mont-Saint-Michel y sus tesoros ocultos.

El esplendor medieval del Mont-Saint-Michel
Fundado en el año 966 por una comunidad de benedictinos sobre las ruinas del oratorio construido por san Aubert, el Mont-Saint-Michel se convirtió en un símbolo de espiritualidad y erudición. Su scriptorium fue particularmente activo entre los siglos XI y XIII, coincidiendo con la expansión de la arquitectura románica y gótica en la abadía.
La fortaleza que hoy admiramos fue también un baluarte de la resistencia francesa durante la Guerra de los Cien Años. El Mont resistió todos los asedios ingleses gracias a su ubicación estratégica y sus sólidas defensas, hasta el punto de convertirse en un emblema de la nación. A lo largo de los siglos, el Mont-Saint-Michel ha atravesado múltiples transformaciones. De santuario medieval a prisión durante la Revolución, y de allí a icono turístico y espiritual en la actualidad, su historia refleja las tensiones y continuidades de la cultura europea. Desde 1979, el lugar está inscrito en la lista del Patrimonio Mundial de la UNESCO, lo que subraya su valor universal.
Memoria restituida: el poder simbólico de un manuscrito reencontrado
El regreso del manuscrito, además de ser una victoria en lo que a recuperación patrimonial se refiere, también es una forma de devolver al presente la memoria intelectual del pasado. El hecho de que se haya recuperado, restaurado y expuesto al público muestra la voluntad de preservar y compartir un legado común. El contenido mismo del manuscrito —que combina música, liturgia, filosofía, crítica moral y humor cotidiano— ofrece un retrato vívido del mundo medieval que revela cómo se enseñaba y vivía en el recinto monástico del Mont-Saint-Michel.
Referencias
- 2025. "Retour exceptionnel : un manuscrit du Mont Saint-Michel réapparaît après deux siècles". Avranches. URL: https://www.avranches.fr/actualites/retour-exceptionnel-un-manuscrit-du-mont-saint-michel-reapparait-apres-deux-siecles/
En marzo de 1969, John Lennon y Yoko Ono protagonizaron uno de los actos de holgazanería más sonados de la historia. Recién casados, alquilaron la suite presidencial del Hotel Hilton de Ámsterdam y convocaron a los medios de comunicación con el reclamo: “Ven a la luna de miel de John y Yoko: En la cama”. Y para allá que fue la prensa, pensando que la pareja se desnudaría o tendría sexo delante de las cámaras. Pero nada de eso. El plan, en verdad, consistía en estar tumbados en pijama, sin hacer absolutamente nada, a favor de la paz en el mundo. La encamada antibélica duró una semana, tiempo más que suficiente para que el mensaje llegara a todos los rincones del planeta. ¿Quién dijo que la pereza no era productiva?
Sin embargo, ya desde la infancia nos meten en la cabeza que tenemos que saltar de la cama en cuanto suene el despertador. “Fulanito es una persona muy trabajadora”, nos dicen, como si el esfuerzo fuera la máxima virtud y nos tuviéramos que sentir culpables por no estar haciendo algo productivo cada minuto del día.
El cristianismo, de hecho, considera la pereza, directamente, un pecado capital. Pero tenemos buenas noticias, porque la ciencia demuestra que este estado no solo viene impreso en nuestros genes, sino que puede tener beneficios para nuestra salud.
La pereza, un pecado… evolutivamente adaptativo
Seamos sinceros: la mayoría de nosotros preferimos hacer las cosas de manera que nos cueste un menor esfuerzo. Nos sentamos antes que estar de pie. Vamos en ascensor en lugar de subir por las escaleras. Y somos capaces de dar mil vueltas con el coche para buscar el aparcamiento más cercano en vez de ubicarnos en el primer sitio que encontramos y caminar un poco.
El motivo es que la flojera es una especie de jugada inteligente del cuerpo para guardar energía para cuando sea realmente necesaria. Nuestros antepasados acumulaban alimentos para compensar las calorías que gastaban cuando salían de caza o a recolectar. Ahora, en cambio, podemos hacer la compra o encargar la comida sin movernos del sofá de casa, y el resultado de eso es la inactividad. Así lo postula Daniel Lieberman, profesor de Harvard y experto en biología humana evolutiva, en el informe ¿Es realmente el ejercicio una medicina? Una perspectiva evolutiva, de 2015.
A propósito de la actividad física, otro estudio del mismo año, esta vez de Jessica Selinger y Max Donelan, de la Universidad Simon Fraser de Canadá, concluyó que los humanos somos capaces de adaptar nuestra forma de andar para minimizar el coste energético. Para ello, pidieron a un grupo de personas que caminaran mientras llevaban puesto un exoesqueleto robótico, lo que hacía más difícil el movimiento.
En cuestión de minutos, ya habían adaptado la frecuencia de paso, aunque el ahorro no representaba ni un 5 %. Es el sistema nervioso el que, de forma inconsciente, está buscando siempre la manera más barata posible de moverse.

¿Por qué algunas personas son más vagas que otras?
A pesar de nuestra tendencia a buscar siempre el camino más fácil, todos conocemos a alguien a quien no le cuesta nada hacer las cosas. ¿Qué es lo que hace que algunas personas sean más vagas que otras? A veces, no se trata de fuerza de voluntad. Hay individuos genéticamente predispuestos a estar desmotivados para hacer ejercicio, por ejemplo.
Así lo han demostrado diversos experimentos con ratones: al suprimirles determinados genes, son incapaces de correr largas distancias. Esto ocurre porque se reduce el número de mitocondrias, que son las encargadas de suministrar la mayor parte de la energía necesaria para la actividad celular. Y es extrapolable al ser humano: cuando hacemos deporte de manera regular, aumenta el número de mitocondrias en los músculos; de lo contrario, se reduce.
Por otra parte, el origen de las diferencias en el cerebro entre una persona a la que no le cuesta cumplir con las obligaciones y otra más indulgente podría también residir en la dopamina. Este neurotransmisor se encarga tanto de empujarnos a movernos físicamente como de potenciar nuestra fuerza de voluntad. Como en esos días que pensamos: “¡Hoy me voy a comer el mundo!”. El hecho de que tengamos más o menos dopamina en el encéfalo es lo que podría marcar esas diferencias, si atendemos a los estudios liderados por Mercè Correa, del Laboratorio de Neurobiología de la Motivación de la Universidad Jaume I (UJI), en Castellón.
Motivación y dopamina: el motor invisible del esfuerzo
La investigadora lleva años observando este fenómeno en modelos animales –ratas y ratones–, que podrían agruparse, según su comportamiento, en tres categorías: los que son más trabajadores, los que lo son menos y un tercer grupo cuya actividad varía en función del día. Una de las pruebas a los que son sometidos consiste, por ejemplo, en tener que alcanzar la comida en un laberinto en forma de T. En una de las rutas, el animal accede a la pitanza con facilidad, pero hay poca cantidad; y en la otra, debe saltar una barrera para acceder al alimento, que es más abundante.
“Lo que encontramos, básicamente, es que aquellos animales que de forma espontánea liberan más dopamina, no solo inician la actividad de este circuito cerebral antes, sino que lo mantienen conectado durante más tiempo”, explica Correa por teléfono desde el laboratorio de John D. Salamone, psicólogo de la Universidad de Connecticut (EE. UU.) con el que colabora desde 2001.
Para hacer una analogía, es como cuando nos da mucha pereza una cosa, como pintar una habitación, pero una vez que arrancamos ya no hay quien nos pare y seguimos con más tareas. Los animales con menos receptores de dopamina, en cambio, prefieren ir por el camino más fácil, aunque acaben comiendo la mitad.
Cuando entrenar desde pequeños cambia el cerebro adulto
En otra de las pruebas, los roedores pueden escoger entre correr en una rueda de actividad, degustar bolitas de comida dulce u olfatear a través de un agujero. Según la directora del Laboratorio de Neurobiología de la Motivación de la UJI, “la mayoría de animales prefieren la rueda, pero hay algunos que, aparte de correr, también van a comer y otros no”. Si se les reduce el sistema dopaminérgico, entonces corren menos y escogen opciones más pasivas. “Reorganizan las preferencias en función de cómo desmotivados y de activos se vean”, señala Correa.
Otra de las preguntas que se han formulado los científicos es qué pasaría si, desde pequeños, los animales entrenaran para estar activos. ¿Les haría eso menos vulnerables a las reducciones de dopamina? “Tomamos ejemplares jóvenes y los sometemos a un régimen de entrenamiento que consistía en correr una hora al día. Lo que vimos es que, cuando llegan a adultos, tardan menos en estar motivados. Es decir, el ejercicio los hace más resistentes a condiciones que reducen la dopamina de forma patológica”, asegura la experta.
Los resultados de estos experimentos podrían abrir una importante vía para el tratamiento de las personas que tienen verdaderas dificultades para sentirse motivadas, como ocurre en los casos de depresión. “No se trata de inventar una pastilla para hacer que la gente sea más trabajadora –advierte Correa–, sino de ayudar a los que tienen alguna dolencia para llevarlos a niveles normales”.

La pereza saludable: contemplar, descansar, recargar
Para Montse Bordas, psicóloga experta en desarrollo organizativo, “es importante conocer el motivo por el cual una persona siente desgana”. Primero, descartar que no haya síntomas de tristeza extrema, depresión u otro trastorno, o un mal funcionamiento fisiológico, como podría ser el hipotiroidismo. Pero, “desde una perspectiva saludable, la pereza es un estado que lleva a las personas a la quietud, a la inacción, al silencio. Pararse y contemplar son actividades necesarias para dar sentido a las cosas que se hacen en el día a día”.
Los filósofos griegos ya recomendaban volvernos improductivos, aunque fuera por un momento. Y es que bajar el ritmo puede reportarnos múltiples beneficios, ya sean físicos o para nuestra salud mental.
Para empezar, nos ayuda a recargar las baterías internas y a conectar con nosotros mismos. En palabras de Bordas, “se trata de un aspecto básico para el trabajo espiritual y todo aquello relativo al sentido de la vida y el propósito superior”. Existen numerosas investigaciones que apuntan que aquellos que divagan mentalmente, ya sean niños o adultos, muestran una mayor flexibilidad cognitiva y una mejor respuesta cuando se les pide que desempeñen tareas relacionadas con la función ejecutiva, como podría ser la resolución de un problema.
Creatividad, inteligencia y las ventajas de divagar
También se habla de que la vagancia potencia la creatividad, porque “para tener buenas ideas y planear cómo llevarlas a la práctica, la gente creativa necesita tiempo para pensar, lejos del despacho, del teléfono y de las mil y una distracciones de la vida doméstica cotidiana”, escribe el británico Tom Hodgkinson en su libro Elogio de la pereza.
Asimismo, un estudio de psicólogos estadounidenses sugiere que las personas con un alto cociente intelectual se aburren menos, ya que tienen más en lo que pensar y, por tanto, gozan más de su vida interior. Eso sí, son más proclives a los problemas de salud relacionados con el sedentarismo. No todo iba a ser un festival de purpurina en el mundo de la holgazanería.
Tanto en la vida personal como en la profesional, si no hacemos las cosas que nos proponemos y las vamos postergando por holgazanería, al final podemos acabar sumidos en un estado de impotencia y frustración.
Tal y como explica Bordas, esto puede desembocar en “falta de resultados personales y profesionales, dificultades en el liderazgo de la propia vida, falta de compromiso con las responsabilidades y con las personas del entorno, fragmentación personal y, en definitiva, baja confianza en uno mismo”. Para solucionarlo, nos recomienda emprender un plan de pequeñas acciones orientadas a revertir la situación.

El lado oscuro de la inacción: frustración y sedentarismo
Podemos asignar un tiempo a realizar tareas, primero un minuto, por ejemplo, y durante este momento no hay excusas que valgan. Es una forma de imponer disciplina a nuestra mente para ayudarnos a conseguir objetivos cada vez mayores. De la misma manera, “el hecho de vaciar el cerebro del caos en una lista de tareas pendientes libera energía para dedicarla a la creatividad y a la toma de decisiones”.
Otra forma de superar la molicie es reducir las distracciones y eliminar lo que los expertos en time management llaman ladrones del tiempo, es decir, las redes sociales, las reuniones eternas, las interrupciones, la falta de organización, los desplazamientos…
Y, por último, igual de importante sería mantener hábitos de vida saludables y disponer de pequeñas ayudas, “como una música que inspire a la acción”, concluye Bordas. Por tanto, no es solo que nuestros genes determinen el nivel de actividad. Es que, a veces, nos podemos permitir holgazanear y, otras, debemos actuar.
En cualquier caso, como dice Hodgkinson, “¿no es insólito que una actividad que llena tanto tiempo de nuestras vidas se suela relegar a menudo a los reinos de lo que no es importante?”. Despojémosla, entonces, de su mala fama.
Las barras de sonido están marcando tendencias gracias a innovaciones como integración de audio 3D, optimización IA que ajusta el sonido según la habitación y claridad de diálogo mejorada. Combinan estética y potencia, ideal para quienes buscan un sonido envolvente.
Coincidiendo con el arranque de la nueva temporada de fútbol, JBL lanza una agresiva rebaja en su barra de sonido SoundBar 2.0 MK2, buscando frenar a la competencia y atraer a los amantes del deporte con una experiencia sonora envolvente.

Habitualmente en tiendas como Fnac o MediaMarkt ronda los 191€, pero ahora JBL ha decidido hundir el precio hasta los 122,75 euros en el marketplace de Amazon, marcando uno de los descuentos más agresivos del verano.
Ofrece una experiencia acústica clara y potente con 80W RMS y dos canales de salida ideales para potenciar el sonido del televisor. Compatible con formatos como MP3 y WAV, incorpora decodificador Dolby Digital.
Funciona tanto con conexión inalámbrica como alámbrica, lo que permite una gran versatilidad al momento de integrarla con otros dispositivos. Opera en un rango de temperatura de 0 a 45 °C, con un consumo de energía eficiente. Su alimentación AC de 100-240V asegura compatibilidad global, mientras que su formato 2.0 hace que sea perfecta para quienes buscan un audio equilibrado.
LG sigue apostando fuerte por el audio premium con una gran rebaja en la S80QY
Mientras JBL acapara titulares, LG contraataca con fuerza rebajando su barra de sonido premium S80QY hasta los 335,58 euros. Una oferta difícil de igualar si tenemos en cuenta que en tiendas como Amazon o Carrefour su precio supera los 369€. Un movimiento claro para dominar el segmento de audio de gama alta.

Ofrece un control sencillo desde el propio mando del televisor, facilitando la gestión del volumen, modos de sonido y encendido. Su sistema 3.1.3 canales con 480W de potencia y subwoofer inalámbrico garantiza una experiencia envolvente e inmersiva. Además, incorpora triple altavoz vertical Atmos para un escenario sonoro más amplio y realista.
Esta barra de sonido de gama alta es compatible con sonido Hi-Res (96 kHz / 24 bits). Permite pasar señal 4K con HDR Dolby Vision sin pérdida de calidad para completar la experiencia visual. Ofrece soporte para Dolby Atmos, DTS:X e IMAX Enhanced, así como conectividad con AirPlay 2, Spotify Connect y Chromecast. Gracias a AI Sound Pro y AI Room Calibration, el audio se adapta automáticamente al entorno y contenido.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
A finales de 2023, una revista científica publicó un artículo que analizaba cómo el consumo de avellanas tostadas afectaba la salud cardiovascular. Lo extraño no era el tema, sino el lugar donde apareció: una revista dedicada a cuidados de enfermería sobre el VIH. Detrás de ese sinsentido no había un error editorial, sino algo más inquietante: el dominio de esa revista había sido comprado por una organización que lo usaba para publicar estudios falsos. No se trataba de un caso aislado, sino de un ejemplo de cómo el fraude científico se ha vuelto un negocio global.
Un nuevo estudio publicado en Proceedings of the National Academy of Sciences expone el crecimiento acelerado de redes organizadas que se dedican a producir y distribuir ciencia falsa. El trabajo, liderado por Reese Richardson y Luís A. Nunes Amaral, demuestra con datos masivos que estas redes superan ya en volumen de publicaciones a la ciencia legítima. Y hay algo más preocupante. Los autores advierten que, si no se detiene esta tendencia, la inteligencia artificial podría absorber como verdad toda esa literatura contaminada, perpetuando y amplificando la mentira en futuros descubrimientos.
El ecosistema de la trampa científica
Cuando se habla de fraude científico, la mayoría piensa en un investigador aislado que falsifica datos o plagia un texto. Sin embargo, los autores del estudio revelan algo muy diferente: “grandes redes de individuos y entidades cooperan para producir fraude científico a escala”, dejando rastros visibles en la literatura científica actual.
Estas redes incluyen "fábricas de artículos" (o paper mills), que redactan y venden manuscritos a científicos que quieren engrosar su currículum sin hacer investigación real. También hay intermediarios o “brokers”, que conectan a estos compradores con revistas académicas dispuestas a publicar el material sin revisar nada. Y en muchos casos, revistas enteras han sido secuestradas o infiltradas por estas organizaciones para facilitar la publicación de basura científica.
Este fenómeno no ocurre en los márgenes del sistema, sino dentro de publicaciones indexadas en bases de datos como Scopus o Web of Science. Según el estudio, el número de artículos sospechosos de haber sido generados por fábricas de papers ya supera al de artículos retratados y a los criticados en plataformas como PubPeer.

Ciencia falsa con sello de calidad
Uno de los hallazgos más inquietantes es que estas organizaciones no solo producen artículos falsos, sino que logran que parezcan legítimos. Para ello, manipulan imágenes, plagian estructuras de textos científicos reales e incluso insertan “frases torturadas”: expresiones incoherentes pero construidas con palabras científicas para pasar filtros automáticos de revisión. Algunas de estas frases resultan casi absurdas, como “determinación vegetal de consecuencias moleculares”.
Además, muchos de estos artículos incluyen autores de varios países sin conexión aparente, lo que indica que la autoría también se vende por partes. El primer autor puede pagar más que el cuarto, y si alguien quiere que su artículo se publique sin revisión, también puede pagar un extra por un proceso editorial ficticio.
Esto tiene consecuencias graves. En disciplinas como la biología molecular, se ha detectado que algunos subcampos —como los relacionados con ARN no codificante— presentan tasas de retracción de hasta el 4%, muy por encima del 0,1% habitual en campos sólidos como CRISPR. Es decir, hay disciplinas enteras donde la ciencia falsa podría haber contaminado el conocimiento de manera irreversible.

El riesgo de entrenar la inteligencia artificial con mentiras
Hasta aquí, el problema sería suficientemente alarmante. Pero el estudio da un paso más. Advierte que el crecimiento del fraude organizado coincide con el auge de modelos de lenguaje como ChatGPT, Gemini o Claude, que se entrenan a partir de textos disponibles en la red, incluyendo artículos científicos.
En el paper se advierte: "los enfoques basados en modelos de lenguaje aún no son capaces de distinguir ciencia de calidad de ciencia de baja calidad o fraudulenta", y este desafío solo empeorará a medida que el volumen de publicaciones fraudulentas aumente. En otras palabras, si no se actúa ahora, la IA —que promete sintetizar y acelerar el conocimiento— podría convertirse en un canal de amplificación de errores y falsedades.
Imagina un escenario en el que modelos entrenados con estudios falsos generen más estudios, más papers y más recomendaciones clínicas, todos basados en datos inventados. Esto no solo afectaría a la academia, sino también a la medicina, la industria farmacéutica, las políticas públicas y el conocimiento ciudadano. Lo que empieza como una trampa para escalar en la carrera investigadora, podría terminar afectando la salud y el bienestar de millones de personas.

Cómo operan estas redes: del fraude editorial al secuestro de revistas
El estudio también revela patrones de comportamiento que permiten identificar a los actores clave de estas redes. Por ejemplo, en la revista PLOS ONE, un pequeño grupo de editores aceptó el 30% de todos los artículos que luego fueron retratados, a pesar de haber manejado solo el 1,3% del total de publicaciones. Además, muchos de estos editores se enviaban artículos entre sí, como si operaran en un circuito cerrado.
Otra práctica descubierta es el “journal hopping”, que consiste en cambiar de revista cuando una de ellas ha sido descubierta o desindexada por mala praxis. Una organización llamada ARDA, por ejemplo, mantenía en su web una lista rotativa de más de 80 revistas donde garantizaba publicación, muchas de ellas ya fuera de los principales índices académicos.
Este comportamiento adaptativo demuestra que estas redes no son accidentales ni improvisadas: son estructuras resilientes, con capacidad para evadir controles y reinventarse. Como advierten los autores, "la escala de actividad en la empresa del fraude científico ya supera el alcance de las medidas punitivas actualmente implementadas".
¿Qué se puede hacer?
La respuesta no es simple, pero el estudio ofrece varias propuestas. Una de ellas es separar las funciones de detección, investigación y sanción, que actualmente recaen en los mismos actores con posibles conflictos de interés: editores, universidades o instituciones financiadoras. Otra medida clave es reforzar las plataformas de revisión post-publicación, como PubPeer, y dar respaldo legal y académico a quienes denuncian irregularidades.
Pero quizás la medida más urgente sea reconocer que el fraude ya no es marginal, sino un fenómeno estructural. Como dice el estudio, muchos investigadores jóvenes podrían estar comenzando su carrera en un entorno donde el engaño ya es la norma, y no la excepción.
Además, si se quiere evitar que la inteligencia artificial contribuya a este ciclo, es imprescindible depurar los datos con los que se entrena, aplicar filtros de calidad más exigentes y establecer criterios claros para excluir literatura contaminada.
Referencias
- Reese A. K. Richardson, Spencer S. Hong, Jennifer A. Byrne, Thomas Stoeger, Luís A. Nunes Amaral. The entities enabling scientific fraud at scale are large, resilient, and growing rapidly. Proceedings of the National Academy of Sciences, 4 de agosto de 2025. https://doi.org/10.1073/pnas.2420092122.
Beber un refresco dietético al día se relacionó con un aumento del 38 % en el riesgo de diabetes tipo 2. Y no, no se trata de una exageración. Investigadores del Melbourne Collaborative Cohort Study analizaron los datos de decenas de miles de adultos de mediana edad durante más de una década. Quienes tomaban al menos una bebida con edulcorantes artificiales al día (ASB, por sus siglas en inglés) mostraron una mayor probabilidad de desarrollar esta enfermedad crónica, incluso después de ajustar por factores como obesidad, sedentarismo o dieta general.
Lo más llamativo es que el riesgo no se explica únicamente por el sobrepeso. Aunque el índice de masa corporal y la circunferencia de cintura pueden influir, los resultados se mantuvieron estables incluso después de considerar esas variables. Esto sugiere que las bebidas con edulcorantes podrían estar afectando el metabolismo de maneras más complejas de lo que se pensaba.
Los autores creen que el vínculo podría deberse a cómo estos productos alteran la microbiota intestinal, interfieren con la absorción de glucosa o generan picos hormonales inesperados. Sea cual sea el mecanismo, el mensaje es claro: lo “dietético” no siempre es sinónimo de saludable.

Las bebidas azucaradas también son un riesgo, pero hay matices
Consumir bebidas con azúcar añadida a diario también se asoció con mayor riesgo de diabetes tipo 2, pero el efecto desaparece al considerar el peso corporal. En el estudio, los refrescos tradicionales aumentaban el riesgo en un 23 %, pero esta asociación dejó de ser estadísticamente significativa una vez que se tuvo en cuenta el índice de masa corporal y la relación cintura-cadera.
Esto significa que el daño de las bebidas azucaradas está más ligado al aumento de peso que generan. No sorprende: los consumidores habituales de estos productos mostraban mayores niveles de obesidad central, mayor ingesta calórica y peores hábitos dietéticos en general. Es decir, no solo beben más azúcar, sino que tienden a tener estilos de vida menos saludables.
El estudio sugiere que el consumo excesivo de azúcar promueve el aumento de grasa visceral, que es especialmente dañina para el metabolismo. Al elevar el índice glucémico, estas bebidas producen picos de insulina que terminan alterando el equilibrio energético del cuerpo. Con el tiempo, esto puede derivar en resistencia a la insulina y, finalmente, diabetes tipo 2.
Aunque las bebidas con azúcar siguen siendo perjudiciales, su efecto parece depender en mayor medida del peso corporal. En cambio, los refrescos con edulcorantes muestran un riesgo que va más allá del número en la balanza.
Un estudio único en su tipo, con datos exclusivamente australianos
Esta es la primera investigación longitudinal en Australia que analiza de forma diferenciada los efectos de bebidas azucaradas y dietéticas en la aparición de diabetes. Utilizó datos del Melbourne Collaborative Cohort Study, un proyecto que comenzó en los años 90 y que ha seguido a más de 36.000 personas durante casi 14 años.
Los participantes, todos entre 40 y 69 años, respondieron cuestionarios detallados sobre su alimentación, actividad física, historial médico y hábitos de vida. Los investigadores clasificaron el consumo de bebidas dulces en cuatro categorías: desde quienes no las tomaban nunca hasta los que bebían al menos una vez al día. A partir de estos registros, calcularon la incidencia de nuevos casos de diabetes tipo 2.
Durante el seguimiento se identificaron 1.782 nuevos casos de diabetes. La incidencia fue más alta entre hombres, personas mayores, con obesidad abdominal, historial familiar de diabetes y aquellos con baja puntuación en la calidad de la dieta. Además, el consumo diario tanto de bebidas con azúcar como con edulcorantes se asoció de forma clara al diagnóstico de la enfermedad.
Este enfoque local es importante porque la composición de los refrescos puede variar entre países. Por ejemplo, en Australia se usa mayoritariamente sacarosa, mientras que en Estados Unidos predomina el jarabe de maíz con alta fructosa. Las diferencias metabólicas entre estos azúcares podrían influir en el riesgo final.

Lo que se sabe —y lo que aún no— sobre los edulcorantes artificiales
Aunque los edulcorantes fueron creados para ofrecer una alternativa sin calorías, su seguridad a largo plazo sigue siendo objeto de debate. El estudio sugiere que no basta con contar calorías para evaluar los riesgos. Muchos consumidores eligen estas bebidas para “controlar el peso”, pero los efectos metabólicos podrían ir más allá de lo que refleja la báscula.
Los investigadores mencionan estudios que muestran cómo ciertos edulcorantes afectan la microbiota intestinal, alteran la tolerancia a la glucosa e incluso provocan respuestas hormonales similares al azúcar común. En otras palabras, el cuerpo podría estar “confundido” por estos compuestos y reaccionar de manera perjudicial.
Además, algunos tipos de edulcorantes son metabolizados de forma distinta: el aspartamo, por ejemplo, podría afectar la inflamación vascular y la respuesta a la glucosa en algunos casos; otros, como la sucralosa o la sacarina, pueden alterar la flora intestinal en apenas dos semanas de consumo diario.
El mensaje final es claro: “sin azúcar” no significa automáticamente saludable. Y aunque los datos aún no permiten identificar qué tipo de edulcorante es más problemático, el patrón general ya preocupa a la comunidad científica.
"Los edulcorantes artificiales a menudo se recomiendan a las personas en riesgo de diabetes como una alternativa más saludable, pero nuestros resultados sugieren que pueden plantear sus propios riesgos para la salud", dijo Barbora de Courten, profesora de la Universidad de Monash y RMIT y autora del estudio.

¿Y ahora qué? Políticas públicas y responsabilidad individual
Los autores del estudio piden medidas más contundentes para frenar el consumo de bebidas dulces, tanto azucaradas como dietéticas. Hasta ahora, la mayoría de las campañas de salud pública han apuntado al azúcar, y con razón. Pero este enfoque parcial podría estar dejando un problema oculto sin resolver.
En Australia, existen iniciativas como “Rethink Sugary Drink” o propuestas de impuestos a las bebidas azucaradas, apoyadas por la Organización Mundial de la Salud y asociaciones médicas locales. Sin embargo, al centrarse solo en el azúcar, estas políticas podrían empujar a los consumidores hacia productos dietéticos que también conllevan riesgos.
"Apoyamos medidas como los impuestos sobre las bebidas azucaradas, pero nuestro estudio muestra que también necesitamos prestar atención a las opciones endulzadas artificialmente", dijo de Courten.
Por eso, los investigadores instan a adoptar un enfoque más integral. No se trata solo de reducir calorías, sino de entender cómo cada ingrediente interactúa con el cuerpo. Además, sugieren seguir investigando el impacto específico de cada edulcorante, porque no todos actúan igual.
Mientras tanto, la recomendación más sensata sigue siendo optar por el agua, infusiones sin azúcar u otras alternativas naturales que no interfieran con la regulación de la glucosa. La prevención de la diabetes comienza por nuestras elecciones cotidianas, y lo que bebemos es parte esencial de ese camino.
"Estos a menudo se comercializan como mejores para usted; sin embargo, pueden conllevar sus propios riesgos. Las políticas futuras deberían adoptar un enfoque más amplio para reducir la ingesta de todas las bebidas no nutritivas", concluyó.
Referencias
- Kabthymer, R. H., Wu, T., Beigrezaei, S., Franco, O. H., Hodge, A. M., & de Courten, B. (2025). The association of sweetened beverage intake with risk of type 2 diabetes in an Australian population: A longitudinal study. Diabetes & Metabolism, 101665. doi: 10.1016/j.diabet.2025.101665
Bajo las aguas profundas del Atlántico Sur, frente a las costas de Argentina, un equipo internacional de científicos ha registrado uno de los hallazgos más curiosos del año. En un paisaje submarino prácticamente inexplorado, donde la oscuridad es casi absoluta y la presión aplasta cualquier rastro de vida superficial, apareció un protagonista insólito: una estrella de mar con una forma tan peculiar que ha despertado sonrisas en los laboratorios y en las redes sociales.
Se trata de un ejemplar de la familia Hippasteria, de cuerpo abultado y brazos cortos, cuya silueta recuerda, de manera cómica, la anatomía humana. Para quienes lo vieron por primera vez en la transmisión en vivo del ROV SuBastian, el vehículo robótico que recorrió el cañón submarino de Mar del Plata, la comparación fue inevitable: parecía un personaje de dibujos animados, con un cuerpo redondeado que evocaba un par de glúteos. El hallazgo se convirtió rápidamente en un fenómeno viral, acercando al gran público un mundo del que apenas conocemos un fragmento.
Pero más allá de la anécdota visual, este descubrimiento tiene una dimensión científica significativa. La expedición ha documentado más de 40 especies nunca antes vistas en la región, desde peces translúcidos hasta esponjas carnívoras y corales de colores que emergen en la negrura absoluta. La zona, ubicada a más de 4.000 metros de profundidad, constituye un verdadero oasis de biodiversidad del que hasta ahora se tenía escasa información.
Un mundo oculto bajo el Atlántico Sur
La misión, desarrollada por el Schmidt Ocean Institute en colaboración con el CONICET argentino, ha puesto sus ojos en un escenario que parecía inaccesible: el cañón submarino de Mar del Plata, una profunda grieta en el fondo del océano donde confluyen corrientes frías y nutrientes que alimentan la vida. Allí, en condiciones extremas de presión y oscuridad, florece un ecosistema que ha logrado pasar inadvertido durante siglos.
El SuBastian, un sofisticado vehículo operado a distancia, descendió a más de cuatro kilómetros bajo el nivel del mar, transmitiendo imágenes en tiempo real a la cubierta del buque de investigación y a los espectadores que seguían la misión desde sus pantallas. Lo que se reveló fue un paisaje casi alienígena: corales que parecían esculturas de cristal, peces fantasmales que se movían como sombras y crustáceos que caminaban entre sedimentos vírgenes.

Entre estas criaturas surgió la que se llevó toda la atención: una estrella de mar de disco central prominente y brazos robustos, que parecía posar con descaro ante la cámara. La naturaleza le otorgó un diseño que, desde la perspectiva humana, resulta divertido y sorprendente, pero que responde a un patrón adaptativo. Su forma redondeada podría estar relacionada con la alimentación, con la gravedad actuando sobre su cuerpo al adherirse a superficies verticales, o simplemente con un almacenamiento de energía excepcional.
Este tipo de exploraciones no solo generan fascinación por lo pintoresco; también son fundamentales para entender la riqueza biológica de los fondos oceánicos. Cada nueva especie encontrada representa una pieza en el rompecabezas de los ecosistemas abisales, que juegan un papel crucial en la salud del planeta al participar en procesos como el ciclo del carbono y la regulación del clima.
Más que un hallazgo simpático: la ciencia detrás de la expedición
Aunque la estrella de mar robó la atención mediática, los científicos insisten en la importancia de los descubrimientos menos vistosos. Durante la expedición se identificaron esponjas carnívoras que atrapan pequeñas presas con sus filamentos, peces de aguas profundas con cuerpos casi transparentes que revelan sus órganos internos y invertebrados capaces de sobrevivir donde la temperatura es cercana a cero grados.
Cada organismo recolectado se convierte en una ventana al pasado evolutivo de la vida marina. Muchas de estas especies podrían tener adaptaciones únicas, como proteínas anticongelantes o estrategias de alimentación inusuales, que ayudan a comprender cómo la vida persiste en condiciones extremas. En algunos casos, los compuestos bioquímicos descubiertos en criaturas abisales han tenido aplicaciones inesperadas en la medicina y la biotecnología.
El Atlántico Sur, pese a su relevancia ecológica, ha sido menos estudiado que otras regiones oceánicas. Esto convierte a cada inmersión en una auténtica exploración pionera, casi como una misión espacial bajo el mar. De hecho, la transmisión en directo de la expedición permitió que miles de personas en todo el mundo observaran, desde la seguridad de sus hogares, un mundo que hasta hace unas décadas era completamente desconocido para la humanidad.

Entre la ciencia y la fascinación popular
No es casual que imágenes como la de la ya famosa estrella de mar “simpática” despierten tanto interés en redes sociales. Estos hallazgos muestran un lado amable y sorprendente de la ciencia, que conecta con la curiosidad más básica del ser humano: el deseo de descubrir lo que hay más allá de nuestro alcance.
El humor y la sorpresa funcionan como un puente entre la biología marina y el público general. Ver a un organismo que parece sacado de una caricatura nos recuerda que el océano es un reservorio infinito de sorpresas, capaz de desafiar lo que creemos conocer sobre la vida en la Tierra. Además, este tipo de hallazgos ayudan a generar conciencia sobre la importancia de conservar estos ecosistemas, muchos de los cuales podrían verse amenazados por la actividad humana, desde la pesca de arrastre hasta la futura minería submarina.
El equipo científico tiene previsto analizar los especímenes recolectados en los próximos meses, con la esperanza de describir formalmente las nuevas especies y entender mejor su ecología. Mientras tanto, la expedición sigue ofreciendo imágenes que combinan ciencia y espectáculo, recordándonos que aún queda mucho por explorar en nuestro propio planeta.
Cuando todavía se debate sobre el sistema de escritura más antiguo conocido o el sentido de determinadas lenguas muertas, este nuevo hallazgo reescribe la lingüística indoeuropea. Durante la campaña de excavaciones de 2023 en el yacimiento de Boğazköy-Hattuša, la capital del antiguo Imperio hitita (actual Turquía), arqueólogos y epigrafistas dieron la noticia: se había descubierto una lengua, hasta ahora desconocida, perteneciente al grupo anatolio de las lenguas indoeuropeas. Ahora, los especialistas Elisabeth Rieken, Ilya Yakubovich y Daniel Schwemer han publicado la tablilla de arcilla, parcialmente conservada, que contiene un texto ritual escrito en esta lengua inédita. El nuevo idioma se ha bautizado, de forma provisional, como la lengua de Kalašma, en referencia a la región del noroeste anatolio de la que procedía.
Un hallazgo fortuito en el corazón de la antigua Ḫattuša
El descubrimiento se produjo durante las campañas arqueológicas del verano de 2023. En la zona noroccidental del Büyükkale, en el núcleo palaciego de Hattuša, los arqueólogos encontraron la mitad inferior de una tablilla con escritura cuneiforme en un estrato que se ha datado con seguridad en el siglo XIII a. C.
El fragmento, catalogado como Bo 2023/12 = KBo 71.145 y en un estado de conservación excepcional, se encontró en el interior de un edificio parcialmente excavado. No presentaba indicios de haber sido desechado, reciclado ni destruido, lo cual refuerza su valor documental.

Una tablilla ritual bilingüe
El texto comienza con un pasaje en hitita, la lengua oficial del imperio, en el que se dan instrucciones rituales relativas al sacrificio de animales. Se menciona el degüello de bueyes y ovejas, cuya carne se preparará y presentará ante una deidad. Esta primera parte culmina con una fórmula que introduce el segmento principal del texto en la nueva lengua identificada: “se pronuncia así en Kalašma” o, quizás, “en la lengua de Kalašma se dice lo siguiente”.
Con esta frase comienza una recitación ceremonial en una lengua totalmente ajena al hitita, que ocupa el resto del anverso y parte del reverso de la tablilla. Gracias a esta introducción bilingüe, los investigadores pudieron asignar la procedencia geográfica del idioma y contextualizar su función ritual.
¿Dónde estaba Kalašma?
Kalašma fue una región situada al noroeste del territorio central hitita, con probabilidad, en la actual provincia turca de Bolu. Se tienen noticias de ella en varias fuentes escritas del Imperio hitita, como las anales de Mursili II, donde se narra una campaña militar que integró el territorio de Kalašma al reino. La zona también se menciona en un documento en el que el rey Hantili, al regresar de Kalašma a la capital hitita, no purificó a las tropas y, con ello, llevó la impureza al interior del palacio.

¿Qué dice el texto en la lengua de Kalašma?
El contenido del texto en la nueva lengua descubierta se ha descifrado de forma parcial gracias a un enfoque metodológico que combina análisis comparativo morfosintáctico, reconstrucción fonética y asociaciones con las lenguas anatolias conocidas. Aunque el texto solo cuenta con unas quince líneas, permite inferir su estructura ritual y el papel que jugaba la lengua en las prácticas religiosas.
La recitación estaba dirigida a una deidad, probablemente al llamado Dios de la tormenta que golpea, y contiene invocaciones para que acepte las ofrendas y sea propicio. Pese a los desafíos lingüísticos que supone trabajar con un texto de estas características, se han podido reconstruir algunas frases que emplean fórmulas propias de la literatura ritual de otras lenguas indoeuropeas. El texto emplea, además, términos y partículas repetidos que, por su estructura y colocación, apuntan a elementos morfológicos flexivos similares a los de otras lenguas indoeuropeas.

Una lengua emparentada, pero distinta
El estudio lingüístico ha determinado que la lengua de Kalašma pertenece a la rama luvita del grupo anatolio, que incluye también lenguas como el hitita, el cario y el licio. Sin embargo, no puede identificarse con el luvita propiamente dicho, que ya era conocido por fuentes anteriores. Esta nueva lengua presenta rasgos distintivos tanto en la fonología como en la morfología, como la terminación vocálica de la mayoría de palabras y la posible presencia de formas flexivas postpuestas, una característica típica de las lenguas indoeuropeas.
Además, la aparición de construcciones paralelas y repeticiones refuerza la idea de que estamos ante un sistema lingüístico estructurado. Se trataría, por tanto, de una lengua luvita independiente, hablada en la región de Kalašma y utilizada, probablemente, en contextos religiosos y rituales.
Implicaciones para la historia de Anatolia
El hallazgo ha tenido una gran relevancia en el estudio de las lenguas anatolias, así como en la reconstrucción del paisaje lingüístico del Imperio hitita. Hasta ahora se conocían unas cinco lenguas anatolias (hitita, palaico, luvita, licio y cario), pero esta nueva lengua amplía ese conjunto, lo que sugiere una mayor diversidad lingüística.
Por otro lado, el uso ritual de esta lengua en un documento oficial hitita revela que las autoridades hititas reconocían y registraban recitaciones en lenguas locales, incluso en su capital. También sugiere que existía una coexistencia religiosa y lingüística estructurada, en la que los idiomas regionales seguían empleándose en contextos sacros. Este tipo de multilingüismo controlado aporta nuevos datos sobre las políticas de integración y diversidad cultural en el Imperio hitita durante el siglo XIII a. C.

¿Una lengua viva o ceremonial?
Una de las cuestiones aún abiertas concierne si el idioma de Kalašma se utilizaba como lengua común y viva en el momento de redactarse la tablilla, o si se trataba ya de una lengua ritualizada, es decir, mantenida solo para uso religioso. En cualquier caso, la tablilla demuestra que la lengua mantenía en uso, al menos en el ámbito litúrgico, y que sus hablantes tenían un espacio cultural reconocido dentro del imperio.
Ampliando el conocimiento de las lenguas indoeuropeas
El descubrimiento de la lengua de Kalašma supone el hallazgo de una nueva lengua indoeuropea con más de 3000 años de antigüedad. A pesar de estar incompleto, el texto ha permitido a los investigadores identificar estructuras gramaticales, léxico y patrones morfológicos que lo vinculan claramente al grupo anatolio, y a la vez lo distinguen de las lenguas ya conocidas.
Este hallazgo, además de ampliar el corpus de lenguas indoeuropeas documentadas, ofrece nuevas perspectivas sobre el papel del lenguaje en los rituales religiosos, sobre la diversidad cultural del mundo hitita y sobre la forma en que los grandes imperios del pasado integraron las lenguas de sus regiones periféricas.
Referencias
- Rieken, E., Yakubovich, I. y Schwemer, D. 2024. "Eine neue Sprache im Hethiterreich: Der Fund der Kalašma-Tafel (Bo 2023/12 = KBo 71.145)". Archäologischer Anzeiger, 1: 1–59. DOI: https://doi.org/10.34780/v669-8p6f
En 1913, Niels Bohr publicó una serie de tres artículos que cambiaron para siempre la forma en que entendemos la materia. No se trató de un hallazgo aislado ni de una hipótesis extravagante, sino de una construcción gradual y argumentada que dio lugar a una imagen revolucionaria: el átomo cuántico. Mucho antes de que se hablara de modelos atómicos en los libros de texto, Bohr proponía que los electrones no se movían libremente, sino que obedecían reglas precisas, casi misteriosas, vinculadas a una nueva constante que comenzaba a tomar protagonismo: la constante de Planck. Aquella trilogía fue el nacimiento formal de una nueva física.
Al leer los tres artículos consecutivos que Bohr publicó en Philosophical Magazine, se nota una progresión pensada. El primero explica cómo se liga un electrón al núcleo. El segundo, cómo se organizan sistemas con un solo núcleo. El tercero, cómo se forman moléculas cuando hay más de uno. Más que tres artículos aislados, Bohr ofrecía una teoría secuencial. Como si se tratara de capítulos de una serie bien escrita, cada entrega agregaba una capa de profundidad, dejando atrás los modelos clásicos y abriendo paso a una física dominada por el concepto de estados estacionarios, cuantos de energía y estabilidad dinámica no clásica.
El nacimiento del átomo cuántico
En su primer artículo, Bohr parte de una idea entonces radical: las leyes clásicas no son válidas para describir los sistemas atómicos. Propone que, aunque los electrones giren alrededor del núcleo siguiendo órbitas circulares o elípticas, no lo hacen como planetas obedeciendo la gravedad, sino bajo nuevas reglas que incorporan la constante de Planck hh. Bohr impone una condición: solo son posibles aquellas órbitas donde el momento angular del electrón sea un múltiplo entero de h/2π. Esto es crucial: introduce una restricción cuántica a un sistema que, hasta entonces, se consideraba continuo.
La fórmula que obtiene para el espectro del hidrógeno es:
En ella se reproducen los resultados empíricos conocidos, pero con una base física. Aquí Bohr conecta el mundo discreto (los niveles de energía) con la emisión de luz. Cada transición del electrón implica un salto entre órbitas permitidas, y la diferencia de energía se emite como un fotón. A esta idea la acompaña una precisión sorprendente: al calcular los valores con las constantes físicas conocidas, obtiene una frecuencia que coincide con los datos experimentales de Balmer.

Sistemas con un solo núcleo: organización y estabilidad
En el segundo artículo, Bohr se centra en los átomos con varios electrones, pero aún con un solo núcleo. Introduce una disposición de los electrones en anillos concéntricos, cada uno con su propio número de partículas y su frecuencia. La clave aquí no es solo el equilibrio dinámico clásico, sino la estabilidad cuántica. Para asegurarla, Bohr requiere que las configuraciones minimicen la energía total bajo la restricción del momento angular constante. Esto va más allá de la mecánica newtoniana: es una propuesta híbrida, donde las leyes de Newton funcionan, pero se subordinan a una regla cuántica.
Además, examina cómo se pueden añadir electrones de manera progresiva, considerando tanto la atracción del núcleo como la repulsión entre ellos. A partir de este modelo, Bohr explica la existencia de configuraciones estables como la del helio (dos electrones) y sugiere límites para el número de electrones por anillo. La estructura de capas, característica de la tabla periódica, empieza a perfilarse tímidamente. La estabilidad de cada sistema se analiza desplazando ligeramente los electrones y observando si la energía aumenta o disminuye, como se indica en su análisis de los desplazamientos perpendiculares al plano del anillo.

Moléculas y sistemas con varios núcleos
El tercer artículo es quizá el más ambicioso. Bohr se adentra en la formación de moléculas a partir de núcleos múltiples, un paso fundamental para entender la química desde la física. La estrategia es sencilla en apariencia: estudiar cómo se comportan dos núcleos positivos cuando un anillo de electrones gira alrededor de la línea que los une. Aunque el modelo es simplificado (asume simetría y órbitas circulares), los resultados son reveladores.
Bohr muestra que para ciertas configuraciones, como dos núcleos con un anillo de dos electrones, se obtiene un sistema estable que representa una molécula de hidrógeno neutra. Calcula su energía, el radio del anillo y la frecuencia de vibración. Incluso compara el valor teórico con los datos experimentales de Langmuir sobre la energía de formación del H2, señalando que, aunque el valor teórico es algo inferior, está en el orden correcto: “el valor es del orden correcto de magnitud, aunque inferior al experimental de 13×104cal”.
Este modelo molecular también permite a Bohr explicar por qué los átomos se atraen y forman enlaces químicos. Al seguir paso a paso cómo dos átomos de hidrógeno se aproximan, giran sus electrones en sincronía y terminan en una configuración estable, Bohr anticipa el concepto de enlace covalente. "Durante el proceso, las fuerzas del sistema habrán hecho trabajo contra las fuerzas exteriores", afirma en el artículo. Esta frase resume su interpretación del "enlace": no es una mera atracción, sino un equilibrio dinámico donde los electrones juegan un papel estructural.
De la teoría atómica a la física del enlace
En este último artículo también se analiza la posibilidad de estados ionizados, como el ión hidruro (H⁻) o el ión molecular positivo (H₂⁺). Bohr advierte que ciertos sistemas, como un solo electrón entre dos núcleos, son inestables para perturbaciones fuera del plano orbital, lo que limita su existencia a condiciones muy específicas. Sin embargo, también señala que algunos resultados experimentales, como los de J. J. Thomson sobre rayos positivos, podrían interpretarse como indicios de estos iones fugaces.
A pesar de la sencillez del modelo (y de las limitaciones de la época), Bohr consigue vincular sus predicciones con fenómenos observables. La estructura del átomo cuántico propuesta aquí anticipa muchos desarrollos futuros: desde los niveles energéticos discretos hasta los principios que guiarán la teoría del enlace de Lewis o los orbitales moleculares. En particular, su insistencia en que los electrones conservan su momento angular durante las interacciones marca una pauta que la mecánica cuántica formalizaría años después.
Referencias
- Niels Bohr. On the Constitution of Atoms and Molecules. Part I. Philosophical Magazine Series 6, Volume 26, 1913, Pages 1–25. DOI: 10.1080/14786441308634955.
- Niels Bohr. On the Constitution of Atoms and Molecules. Part II. Philosophical Magazine Series 6, Volume 26, 1913, Pages 476–502. DOI: 10.1080/14786441308634993.
- Niels Bohr. On the Constitution of Atoms and Molecules. Part III. Philosophical Magazine Series 6, Volume 26, 1913, Pages 857–875. DOI: 10.1080/14786441308635031.
Seguramente muchos recordamos nuestro tiempo en la escuela, sobre todo los que somos de la generación de EGB, cuando estábamos rodeados de "atlas" por todos los sitios: atlas geográfico, atlas político, atlas incluso geológico. Mapas en los que se representaba prácticamente de todo: economía, fronteras de los países y regiones, montañas, ríos, lagos, mares. Y la parte menos atractiva de esto era que teníamos que aprendernos estos nombres de memoria.
En este artículo vamos a hablar de un atlas un poco diferente al que no estamos acostumbrados: un atlas sobre radiación natural. Un trabajo muy extenso que recoge, parafraseando a Woody Allen, “todo lo que siempre quisiste saber sobre la radiación natural y no te atreviste nunca a preguntar”.
Se trata de un proyecto inmenso, de muchos años de trabajo, en el que han colaborado más de 100 expertos en temas de radiación natural de todo el mundo, fundamentalmente de Europa.
Los inicios
Tenemos que remontarnos al año 2006, cuando la idea de crear un atlas, o en aquel momento un mapa europeo de gas radón en interiores, se presentó por primera vez en el congreso GARRM (Geological Aspects of Radon Risk Mapping) celebrado en Praga. Este es uno de esos congresos de referencia que los profesionales dedicados al gas radón tenemos siempre en nuestras agendas y que se lleva celebrando desde hace más de 20 años, cada dos años, siempre en la ciudad de Praga.

En ese congreso, la idea de crear un atlas de radiación natural se presentó como algo novedoso y comenzó a gestarse el proyecto. La institución detrás del proyecto y que coordinó todos los trabajos fue el JRC (Joint Research Centre) de la Comisión Europea. El centro JRC tiene una de las sedes en la ciudad de Ispra, al norte de Italia, y desde allí se coordinaron todos los trabajos de redacción del Atlas.
Se trata de un proyecto que necesitó unos 20 años desde que surgieron las primeras conversaciones, las primeras ideas, hasta que se terminó publicando. En la redacción han colaborado más de 100 autores de diferentes instituciones, tanto públicas como privadas, al igual que la asociación europea del gas radón, que en la última etapa recibió el encargo de redactar resúmenes de cada capítulo para hacerlos más accesibles al público general.
Precisamente una de las intenciones del atlas es exactamente esa: trasladar al público general, no solo el especializado, la información más actualizada posible sobre la radiación natural, entendiendo por radiación la radiactividad de origen natural. Todo el contenido del atlas está disponible de forma gratuita en su página web.
Estructura del atlas
El atlas trata de responder a varias preguntas, todas ellas relacionadas con la radiación natural: ¿qué es la radiación natural? ¿Cuáles son las fuentes y niveles de radiación natural en Europa? Y finalmente, ¿cuáles son las vías de entrada de dicha radiación en los edificios?
En la web del atlas podemos acceder a dos versiones diferentes. Una versión online y una versión en formato PDF que contiene todo el material del atlas exactamente como aparece en la edición impresa.
La versión online presenta una colección de mapas de radiactividad generada por fuentes naturales de radiación en Europa. La ventaja de esta versión online es que se puede actualizar de forma mucho más rápida y permite en algunos casos descargar la información.
Encontraremos mapas de radiación cósmica, de concentración de gas radón en el interior de los edificios y, un mapa que normalmente no se suele ofrecer, la cantidad de medidas de la concentración de radón en los edificios en cada una de las cuadrículas en las que se ha dividido el territorio que son de una superficie de 10 x 10 km. Este mapa es especialmente interesante para poder interpretar de forma correcta el mapa de concentración de radón en interiores, puesto que hay muchísimos lugares de Europa donde la cantidad de medidas es realmente muy baja, lo que resulta en una imprecisión muy elevada en los resultados ofrecidos.

Encontramos también mapas de concentración de uranio, torio y potasio en el suelo y en las rocas, mapa de radiación gamma externa y mapas de permeabilidad del suelo y del parámetro denominado “geogenic radon”.
Como hemos indicado antes, la posibilidad de disponer de una versión digital de los mapas del atlas permite una actualización muy sencilla y fruto de ella ha sido la incorporación en 2023, cuatro años después de la publicación del atlas, del mapa de flujo de radón (actualizado a fecha de 31 de mayo de 2023 en la publicación de este artículo). Este mapa resulta interesante para poder emplear el gas radón como trazador atmosférico para estudios, entre otros, de cambio climático.
En cuanto a la versión impresa, el atlas contiene las siguientes partes:
- Una descripción de los elementos legales o legislativos de la Unión Europea que regulan los niveles de radiación natural, no solo de gas radón sino también de otro tipo de materiales como los materiales NORM (Natural Occurring Radioactive Materials), el contenido de radiactividad de las aguas, los materiales de construcción, radiación cósmica, etc.
- Una parte dedicada a la física de las radiaciones. Esta parte es especialmente valiosa porque contiene una descripción no solo general de la física que explica el fenómeno de la radiación ionizante, sino que además incluye una sección dedicada a las técnicas estadísticas que se emplean en el estudio de radiaciones. Esta sección no solamente es útil para aquellos profesionales que trabajan en este campo, sino que también puede aplicarse a otros sectores de la ciencia en general. Se incluye una explicación de las técnicas de mapeado de los niveles de radiación y las principales técnicas de medida de radiactividad.
- Capítulos dedicados a diferentes radionuclidos esenciales en el estudio de la radiación natural como el uranio, el torio, el potasio, junto con las principales fuentes de radiación natural a las que estamos expuestos.
- Como no podía ser de otro modo, el radón ocupa un lugar muy destacado dentro del atlas con un capítulo dedicado en exclusiva a este gas.
- Encontramos otro capítulo dedicado en exclusiva a la radiación cósmica y un capítulo final con múltiples referencias para ampliar información y también explicación de temas técnicos como el sistema internacional de unidades y una lista muy valiosa con las diferentes autoridades de cada país europeo con competencias en temas de protección radiológica.
¿A quién está dirigido el atlas?
El Atlas europeo de radiación natural está dirigido a un público general, no necesariamente especializado en Física o en radiactividad. El lenguaje del atlas es sencillo aunque está en inglés y no hay de momento versión en castellano.
Cada uno de los capítulos contiene un breve resumen que fue redactado por especialistas miembros del comité ejecutivo de la asociación europea del radón. De modo que con este breve resumen de una página se puede tener una visión completa de lo que trata el capítulo y extraer mensajes que permitan entender el contenido de cada capítulo.
El lenguaje en el que están redactados estos breves resúmenes es intencionadamente sencillo y su lectura estimula la lectura del capítulo entero.
Dado que los contenidos del atlas cubren todos los aspectos básicos, y no tan básicos, de la radiación natural, en particular se recomienda la lectura del documento a aquellos profesionales que tienen que trabajar con radiaciones en su día a día. Estamos hablando desde responsables políticos que elaboran y desarrollan la legislación para proteger a la población de la exposición a radiaciones ionizantes, profesionales de evaluación de riesgos, científicos e investigadores que trabajan con radiaciones, profesionales de la salud, profesionales de media de comunicación y cualquier persona interesada en aprender más sobre el mundo de las radiaciones.
En concreto, los profesionales de la comunicación encontrarán una herramienta en el atlas tremendamente valiosa para poder desarrollar su trabajo con precisión. Cada vez más se necesita transmitir información sobre radiaciones ionizantes, radiación natural y gas radón, sobre todo a raíz de la nueva legislación. De modo que es muy necesario que esta información se transmita con la mayor precisión posible para evitar la difusión de bulos y falsos mensajes.
Para evitar eso, los contenidos del atlas son la herramienta perfecta. Incluso para hablar de otros temas no necesariamente de radiaciones es el atlas una referencia dado que como hemos comentado dispone de un capítulo en el que trata sobre temas de estadística y modelos matemáticos, desde un punto de vista sencillo, que se pueden aplicar prácticamente a cualquier campo de la ciencia.
Si alguien se asoma por primera vez al mundo de las radiaciones, la primera referencia que debería consultar es precisamente este atlas, que además está disponible de forma gratuita en la red. Igualmente, la versión digital del documento permite obtener información muy actualizada de los niveles de radiación en Europa. Y la lista de referencias de la que dispone el atlas abre las puertas a ampliar mucha más información.
Podríamos decir que el atlas es como el “Google de la radiación natural”.
Ejemplos de contenidos prácticos de aplicación del atlas
El atlas contiene muchos ejemplos de aplicación, siendo la versión online la que mejor se adapta para poder utilizar materiales visuales para facilitar las labores de divulgación sobre radiación natural. Encontramos como ya hemos explicado muchos mapas como por ejemplo el mapa de radiación cósmica anual:

Este mapa refleja la radiación de origen cósmico que recibe la población europea en promedio a lo largo de un año. Dado que se trata de un parámetro muy relacionado con la altitud, se puede observar cómo en aquellas zonas más elevadas el nivel de radiación es superior. Se debe tener en cuenta el límite establecido para el público en general para este parámetro para poder interpretar correctamente el mapa. Según la legislación vigente, el límite de radiación que debe recibir una persona del público en general no puede ser superior a 1 mSv por año. Este límite en teoría incluye diferentes tipos de radiaciones entre los que se encuentra la radiación cósmica.
Otro de los ejemplos que ofrece el atlas es el mapa de radiación gamma terrestre, como podemos observar en la figura siguiente.

Este mapa se elabora empleando datos reales de la dosis de radiación ambiental total que suministra la red Europa EURDEP y sustrayendo para cada dato la contribuyente de radiación cósmica, de radón, y otros efectos que incorporan fondo a la radiación. También se excluyen los efectos del accidente de Chernóbyl y la lluvia radiactiva que generó. De esta forma, se representa la radiación que recibiría una persona procedente del terreno si estuviera durante todo un año al exterior.
Y podemos encontrar más aplicaciones del atlas, además de los mapas, en el caso de la versión impresa, donde encontramos en los capítulos casos reales de estudio de radiación natural en algunos países.
Conclusiones
En conclusión, la obra del atlas europeo de radiación natural es un trabajo fantástico que recopila el conocimiento existente sobre la radiación de origen natural y proporciona al lector las herramientas no solo matemáticas sino una gran cantidad de información y referencias útiles para poder comprender el fenómeno de la radiactividad de origen natural.
La obra llevada a cabo por más de 100 especialistas expertos en el campo es la obra de referencia en el campo de la radiación natural y además está disponible de forma gratuita. Finalmente, la Comisión Europea elaboró un vídeo para resumir el contenido del atlas. Las más de 7000 visualizaciones del vídeo demuestran el interés por este campo de la física que sin duda no va a hacer más que aumentar en los próximos años.

José Luis Gutiérrez Villanueva
Dr. Ciencias Físicas

Cuando Hannah Cairo se enfrentó a un problema en su clase de análisis armónico, no esperaba que terminaría desafiando un principio aceptado por generaciones de matemáticos. Era solo un ejercicio más, planteado como opción para estudiantes curiosos. Pero esa curiosidad la llevó a cuestionar la validez de una conjetura que llevaba más de cuarenta años sin resolverse. A los 17 años, esta estudiante, que aún no había terminado el instituto, presentó un contraejemplo que refutaba la llamada conjetura de Mizohata-Takeuchi.
Este resultado, lejos de ser anecdótico, ha tenido un eco inmediato en la comunidad matemática. Su trabajo, meticuloso y riguroso, desmonta uno de los pilares sobre los que se intentaban apoyar estimaciones fundamentales dentro del análisis de Fourier. La autora presentó su hallazgo en un congreso internacional en El Escorial, rodeada de investigadores consolidados, y lo respaldó con un artículo que ahora circula en arXiv y ha sido recibido con interés por especialistas del campo.
Qué es la conjetura de Mizohata-Takeuchi
La conjetura de Mizohata-Takeuchi surgió en los años setenta en el contexto del estudio de ciertas ecuaciones diferenciales parciales, en particular del análisis de cuándo el problema de Cauchy está bien planteado en presencia de operadores con perturbaciones de primer orden. La formulación precisa aparece en el trabajo del matemático japonés Jiro Takeuchi y fue posteriormente refinada por Sigeru Mizohata. El enunciado puede parecer técnico, pero se resume en una afirmación sobre cómo ciertas funciones, llamadas operadores de extensión de Fourier, deberían comportarse al integrar sus valores con un peso determinado.
Dicho en términos más sencillos, la conjetura postulaba que, dadas ciertas condiciones sobre una superficie curva y una función definida en ella, era posible controlar cuánto “se dispersa” su transformación al espacio real, usando una medida geométrica conocida como la transformada de rayos X. Esta conjetura estaba directamente relacionada con otros grandes problemas abiertos, como las conjeturas de restricción de Fourier y de Kakeya, y se consideraba un paso intermedio hacia su resolución.

Qué ha demostrado Hannah Cairo
Lo que Hannah Cairo ha hecho es construir un contraejemplo explícito que demuestra que la conjetura de Mizohata-Takeuchi no puede ser cierta de forma general. En su artículo, Cairo presenta una familia de estimaciones Lp del transformado de rayos X para medidas positivas y muestra que, para cualquier superficie de clase C2 que no sea un plano, se puede encontrar una función y un peso tal que se rompe la desigualdad esperada por la conjetura.
La frase clave del paper dice: “Para cualquier superficie C2 que no sea un plano, existe una función y un peso no negativo tal que…” la desigualdad propuesta por la conjetura falla con una pérdida logarítmica. Esta afirmación, aunque técnica, tiene profundas implicaciones: la estrategia basada en esta conjetura para resolver otros problemas queda descartada.
Además, la autora conecta este resultado con varias otras conjeturas importantes. Su contraejemplo también afecta de forma indirecta a la conjetura de Stein, mostrando que tampoco puede ser cierta en su forma más fuerte. En palabras del artículo: “El teorema 1.2 implica que la conjetura de Stein es falsa tal como está formulada en la conjetura 1.4”.

La conjetura de Mizohata-Takeuchi para que lo entienda cualquiera que esté en la playa
Imagina que estás tumbado en la arena, viendo cómo las olas llegan a la orilla. Ahora piensa en que esas olas no vienen al azar, sino que se pueden describir con fórmulas matemáticas que dicen cómo se propagan, cómo se cruzan entre sí o cómo se descomponen en otras más pequeñas. Eso, a grandes rasgos, es lo que estudia el análisis armónico: cómo representar fenómenos complejos (como una ola, una señal de sonido o una imagen) a partir de “ondas más simples”, usando herramientas como las transformadas de Fourier. La conjetura de Mizohata-Takeuchi es una afirmación matemática que intentaba decir: “si estas ondas simples cumplen ciertas condiciones, entonces podemos garantizar que su comportamiento global también se comporta bien”.
Más concretamente, esta conjetura decía que, si uno tomaba una función bien definida sobre una superficie curva (como una campana o una esfera) y la proyectaba al espacio de una forma concreta (mediante lo que se llama un operador de extensión de Fourier), entonces esa proyección estaría controlada, es decir, no se desbordaría. Y esa “controlabilidad” se medía con algo llamado transformada de rayos X, que, por así decirlo, consiste en recorrer el espacio con rayos rectos y ver qué tan intensa es la función a lo largo de esas trayectorias. Si el resultado de esa suma de intensidades se mantenía dentro de ciertos márgenes, entonces todo iba bien. Lo que Hannah Cairo ha demostrado es que, en algunos casos, esto no se cumple, y por tanto, la conjetura no es válida en general. ¿El resultado? Una forma de pensar sobre las ondas y sus límites que durante 40 años parecía fiable… ya no lo es.
Un problema con historia y consecuencias
La conjetura no era simplemente un resultado aislado. Su interés residía en que, de haber sido cierta, habría implicado automáticamente varios otros teoremas dentro de la teoría de restricción de Fourier. En concreto, se esperaba que pudiera usarse para probar estimaciones multilineales sin pérdidas de tipo RεRε, un objetivo central en el análisis armónico contemporáneo. Pero como indica el propio artículo, “el teorema 1.2 muestra que no es posible usar este enfoque para probar la conjetura de restricción multilineal”.
Esto no significa que todas las aproximaciones basadas en esta línea de trabajo queden descartadas. Algunos autores han propuesto versiones más débiles o locales de la conjetura, que podrían seguir siendo válidas. El artículo plantea una nueva posibilidad: una reformulación local con una pérdida controlada de tipo RεRε, mucho más razonable desde el punto de vista técnico. En este sentido, la refutación no destruye un camino, sino que redirige la búsqueda hacia versiones más realistas del problema.
Cómo llegó hasta aquí
El interés de Hannah por las matemáticas viene de lejos, pero su formación ha sido poco convencional. Originaria de Nassau (Bahamas), se trasladó a Estados Unidos y comenzó a tomar clases universitarias en paralelo al instituto. Escribía a los profesores para pedir permiso para asistir a sus cursos, y así llegó a estudiar con Ruixiang Zhang, quien le propuso como tarea voluntaria trabajar sobre una versión simplificada de la conjetura.
A partir de ahí, su implicación fue total. En lugar de buscar una demostración, optó por buscar un contraejemplo, una estrategia arriesgada que terminó siendo la clave. Usó herramientas geométricas, análisis de frecuencias y técnicas de proyección para construir una función que violara la desigualdad supuesta. El proceso fue exigente, y requirió convencer a su propio profesor de que el resultado era válido.
La construcción de Cairo se basa en técnicas de geometría de incidencias y argumentos de proyección multilineales. Uno de los puntos centrales del paper es un lema sobre cómo las proyecciones de ciertos conjuntos de puntos distribuidos en una superficie no pueden concentrarse en un solo plano, lo que impide que la desigualdad se mantenga universalmente. En su formulación rigurosa, la autora ofrece incluso un modelo explicativo más simple (una “versión con mentiras piadosas”) para ayudar a los lectores a seguir el razonamiento antes de presentar la demostración formal.
La recepción de la comunidad matemática
El resultado fue presentado en el prestigioso congreso internacional de análisis armónico en El Escorial, un evento de referencia para este campo. Allí, Cairo impartió una charla sobre su trabajo ante especialistas del área. Su presentación no pasó desapercibida: no solo por el contenido del paper, sino también por su dominio del lenguaje técnico y claridad expositiva.
Este tipo de contribuciones, sobre todo viniendo de una persona tan joven, son inusuales en matemáticas puras. No se trata solo de una curiosidad biográfica, sino de un aporte real a un problema abierto y debatido desde hace décadas. Su resultado ya se discute en seminarios y artículos de otros investigadores, y es previsible que tenga repercusión en desarrollos posteriores en análisis armónico y teoría de Fourier.
La comunidad no solo ha valorado la corrección técnica del resultado, sino también su impacto conceptual. Cairo ha demostrado que ciertos caminos no llevan a la meta esperada, y que es necesario buscar rutas alternativas. La refutación de una conjetura también es una forma de avanzar, y su trabajo es un ejemplo claro de cómo se construye conocimiento científico: no solo confirmando hipótesis, sino también sabiendo cuándo y por qué descartarlas.
Referencias
- Hannah Cairo. A Counterexample to the Mizohata-Takeuchi Conjecture. arXiv:2502.06137v2 [math.CA], 12 Mar 2025. https://doi.org/10.48550/arXiv.2502.06137.
Los investigadores del yacimiento de Gran Dolina, en la sierra de Atapuerca (Burgos), han hallado pruebas claras de que se practicó el canibalismo infantil hace más de 800.000 años. El descubrimiento, que se anunció a mediados de 2025, se ha hecho a partir del análisis tafonómico de una nueva colección de fósiles humanos, entre los cuales se incluye la vértebra de un niño, de entre 2 y 5 años. Los resultados consolidan lo que ya se apuntaba desde hace décadas: la antropofagia formaba parte del comportamiento de los primeros homínidos europeos.
Un hallazgo que reabre el debate sobre la violencia prehistórica
La vértebra infantil, que se encontró junto a un grupo de restos humanos, presentaba marcas de corte que se practicaron para poder separar la cabeza del cuerpo, según los investigadores. Este nuevo descubrimiento actualiza y amplía los datos que se han recopilado desde 1994 en el nivel TD6 de Gran Dolina, donde ya se habían recuperado restos de, al menos, once individuos, casi todos en edad infantil. Aquel hallazgo pionero permitió tanto identificar a una nueva especie, el Homo antecessor, como abrir un importante debate sobre las motivaciones del canibalismo en la prehistoria.
Ahora, con un volumen mayor de restos fósiles, técnicas más precisas y un equipo multidisciplinar de 38 especialistas, el panorama prehistórico de Atapuerca se vuelve aún más nítido. Los cuerpos fueron descarnados, desmembrados, golpeados y, quizás, también cocinados para su consumo. Los investigadores, además, han podido observar que los restos humanos aparecen mezclados y tratados sin distinción alguna respecto a los de animales como ciervos o caballos. Es decir, en este caso, los restos animales y los restos humanos recibieron el mismo tratamiento. Este dato refuerza la hipótesis de que practicó un canibalismo de tipo gastronómico.

El caso de TD6: canibalismo recurrente en el Pleistoceno inferior
Según las investigaciones realizadas en la Gran Dolina, los fósiles analizados muestran un patrón sistemático de descarnación, fractura y extracción de médula ósea. Los huesos presentan marcas de corte, impactos de percusión y huellas de dientes humanos. Estas señales son características de un tratamiento post mortem asociado a la obtención de carne y nutrientes, y coinciden con las encontradas en los animales que consumían estos mismos grupos humanos.
La mayoría de las víctimas fueron niños y adolescentes. Los expertos sugieren que esta preferencia podría reflejar una estrategia selectiva, consecuencia de la alta mortalidad infantil o, como sugiere parte del equipo, un conflicto intergrupal con fines depredatorios. De hecho, el análisis de las marcas en huesos infantiles indica que estos se trataron exactamente igual que las presas animales, sin evidencias de tratamientos rituales ni funerarios.
Se han documentado, además, dos oleadas principales de canibalismo, separadas por cientos de años. Se trataría, pues, de una práctica cultural reiterada en el tiempo. Este aspecto es crucial, pues, de acuerdo con los expertos, no se trataría de un acto aislado motivado por las hambrunas, sino de un comportamiento bien asentado entre determinados grupos de homínidos.

Canibalismo en el Pleistoceno: ¿hambre, ritual o estrategia?
Aunque la interpretación del fenómeno sigue resultando compleja, las investigaciones más reciente apuntan a que el canibalismo fue una práctica relativamente frecuente entre los homínidos del Paleolítico. A menudo, en la arqueología, las marcas de que los cadáveres fueron manipulados pueden deberse tanto al consumo como a prácticas simbólicas o funerarias, por lo que la equifinalidad tafonómica —esto es, la posibilidad de que diferentes causas generen señales similares— dificulta su análisis.
No obstante, en yacimientos como la Gran Dolina, evidencias como la ausencia de enterramientos, la disposición indiferenciada de los huesos humanos junto a restos faunísticos y la presencia de múltiples huellas de procesamiento llevan a descartar un componente ritual. Según los investigadores, la homogeneidad presente entre las señales de los restos humanos y las de los animales cazados y consumidos refuerza la hipótesis nutricional.
Otros yacimientos, como Moula-Guercy (Francia) o El Sidrón (Asturias), ofrecen casos comparables, aunque con diferencias importantes. En Moula-Guercy, un grupo de neandertales descuartizó y consumió a a seis individuos, incluidos dos niños. El Sidrón, por su parte, se ha ofrece lo que se ha interpretado como un episodio de canibalismo por supervivencia, tal vez vinculado a una hambruna estacional. En todos ellos, sin embargo, los restos infantiles son una constante.

¿Por qué se comían niños en el Pleistoceno?
Uno de los aspectos más impactantes del hallazgo en TD6 es la alta proporción de restos infantiles. ¿Se trataba de un grupo infantil que murió al mismo tiempo? ¿Eran niños de un grupo rival cazados de manera intencional? ¿Fueron víctimas de un colapso demográfico? Las respuestas no son concluyentes, pero el perfil de edad recuerda más a una mortalidad catastrófica que a una selección alimentaria intencionada. En el caso de TD6, las evidencias de canibalismo infantil a lo largo del tiempo sugiere una estrategia económica adaptativa, aunque también podría reflejar un conflicto violento entre grupos humanos.
Los homínidos del Pleistoceno inferior eran plenamente conscientes de la diferencia entre humanos y otros animales, como demostraría la sistematización de los cortes en zonas como manos, pies y cráneos. Sin embargo, esta conciencia no impidió se consumieran restos humanos como parte de su alimentación cotidiano.

El canibalismo como marca de la evolución humana
Los datos procedentes de la Gran Dolina consolidan una hipótesis que se planteó hace ya varias décadas: el canibalismo no fue una anomalía, sino una práctica recurrente en algunos grupos del Paleolítico. El propio canibalismo se ha documentado en otras especies de primates y en numerosos contextos animales. Su aparición en la Prehistoria humana, por tanto, debe entenderse como una posible adaptación más del género Homo. El registro arqueológico, por tanto, obliga a reconocer que la violencia, incluida la antropofagia, formó parte del repertorio de conductas de nuestros ancestros, sin que ello implique juzgar con categorías actuales.
Una lección desde las entrañas de la Prehistoria
El reciente hallazgo de los restos de un cuerpo infantil canibalizado en la Gran Dolina no solo aporta una nueva pieza al complejo puzle de la evolución humana, sino que invita a reflexionar sobre la relación entre violencia, alimentación y cultura en el Paleolítico. El canibalismo infantil fue una realidad que ahora cuenta con pruebas arqueológica sólidas e irrefutables.
Referencias
- 2025. "A Child Decapitated 850,000 Years Ago: New Evidence of Prehistoric Cannibalism at Atapuerca". IPHES. URL: http://comunicacio.iphes.cat/eng/news/new/879.htm
- Fernández-Lomana, J. Carlos Díez y Antonio J. Romero. "Canibalismo en el Pleistoceno Cannibalism during the Pleistocene." Vínculos de Historia Revista del Departamento de Historia de la Universidad de Castilla-La Mancha 5 (2016): 27-40. URL: https://www.vinculosdehistoria.com/index.php/vinculos/article/view/200
Es fácil pensar que distinguir especies es tan sencillo como mirar sus diferencias externas. Un pez tiene rayas, otro no; uno es azul brillante, otro naranja. ¿Cómo podrían no ser especies distintas? Pero la ciencia moderna, equipada con herramientas genéticas cada vez más sofisticadas, nos está mostrando un panorama mucho más complejo y fascinante. En los arrecifes del Caribe, unos pequeños peces tropicales llamados hamlets (Hypoplectrus spp.) están desafiando la lógica tradicional con la que se clasifican las especies.
Un nuevo estudio publicado en Science Advances, liderado por un equipo internacional de 16 científicos, pone patas arriba las ideas convencionales sobre el origen de las especies. Tras analizar el genoma completo de 335 ejemplares de hamlets —representantes de las 19 especies reconocidas de este género—, los investigadores llegaron a una conclusión inesperada: apenas existe señal genética que permita distinguirlas entre sí. Esta sorprendente ausencia de diferencias claras a nivel del ADN pone en entredicho algunos de los métodos clásicos para identificar especies en la biología evolutiva.
Peces diferentes... pero no tanto por dentro
Los hamlets son peces marinos del Caribe que se distinguen principalmente por sus patrones de coloración. Algunos tienen bandas verticales oscuras, otros exhiben colores vibrantes como el azul, el amarillo o el blanco. A simple vista, cualquiera diría que se trata de especies claramente diferenciadas. Y sin embargo, la genética cuenta otra historia.
En el nuevo estudio, los investigadores secuenciaron los genomas completos de ejemplares capturados en 15 ubicaciones distintas del Caribe, incluyendo zonas como el Golfo de México, la costa de Colombia o la isla de Barbados. Usando herramientas bioinformáticas avanzadas, esperaban poder construir un “árbol genealógico” que mostrara cómo se habían separado estas especies a lo largo del tiempo.
Pero el resultado fue desconcertante: solo encontraron una gran separación genética clara, que divide a tres especies del Golfo de México del resto del grupo. Para todas las demás, la señal genética era tan débil que resultaba imposible establecer relaciones claras de parentesco, algo que contrasta fuertemente con lo que ocurre en otros grupos de peces como los cíclidos africanos, cuya diversificación puede trazarse con precisión.

Una sola región del genoma parece marcar la diferencia
A pesar de la falta de una estructura genética definida en el conjunto del genoma, los científicos sí encontraron un punto de interés. Un único fragmento del ADN, centrado en el gen casz1, mostró cierta relación con los patrones de coloración que distinguen a algunos hamlets. Este gen, que se expresa en la piel, el ojo y el cerebro, está vinculado a la percepción y expresión del color. Los autores sospechan que podría influir tanto en la apariencia del pez como en la forma en que elige pareja.
Esta doble función potencial es clave: si un mismo gen regula tanto cómo se ve el animal como qué aspecto prefiere en una pareja, eso podría impulsar una rápida diversificación, incluso sin grandes cambios en el resto del genoma. “Identificamos un solo intervalo genómico con señal filogenética que se relaciona con las diferencias entre especies. Esta región está centrada en el gen casz1, y su topología en el árbol filogenético está vinculada al patrón de color, el rasgo funcional principal de esta radiación” .
Aun así, ni siquiera esta región es completamente clara. Los árboles genealógicos basados en casz1 siguen mostrando relaciones poco definidas y solapan individuos de distintas especies. Es decir, incluso este gen especial no basta por sí solo para ordenar la diversidad observada.

¿Qué es realmente una especie?
Este estudio pone sobre la mesa un debate que lleva décadas abierto en biología: ¿cómo definimos una especie? En el caso de los hamlets, se observa un patrón curioso: aunque genéticamente son casi idénticos, se reproducen selectivamente entre miembros del mismo color. Los científicos han comprobado que los hamlets muestran un apareamiento altamente selectivo según el patrón de color, un fenómeno conocido como apareamiento selectivo o “assortative mating”.
Esto implica que la barrera reproductiva no está en el ADN que se transmite, sino en el comportamiento de los propios peces. Las especies están separadas no porque no puedan cruzarse, sino porque no quieren hacerlo. En palabras del estudio: “La radiación de los hamlets se caracteriza por diferenciación fenotípica y fuerte aislamiento reproductivo, dos atributos fundamentales de las especies”.
Este caso refuerza lo que se conoce como la “visión génica” de la especiación. Según esta idea, las especies no se forman por una divergencia general del genoma, sino por cambios en genes concretos que afectan a rasgos funcionales clave. El resto del ADN puede permanecer bastante similar, especialmente si hay flujo genético entre poblaciones. En los hamlets, esa visión se confirma con una precisión sorprendente: un solo gen parece jugar un papel central, mientras que el resto del genoma es casi indistinguible entre especies.

Un rompecabezas para la biología evolutiva
El estudio no solo presenta un reto conceptual, también técnico. Los investigadores utilizaron métodos de análisis genético de última generación, incluyendo reconstrucciones filogenéticas a partir de más de 100.000 marcadores genéticos y análisis de asociación genómica para buscar regiones del ADN relacionadas con la identidad de especie. Pero incluso con todos estos recursos, no lograron separar genéticamente a más de 8 de las 19 especies reconocidas.
Este patrón se mantuvo incluso al considerar regiones del genoma individualmente, e incluso al sumar los fragmentos con mayor asociación a rasgos físicos. “Nuestros resultados muestran los límites del enfoque filogenómico para abordar la adaptación, especiación y radiación rápida”, concluyen los autores del artículo .
Este hallazgo tiene implicaciones más allá de los arrecifes del Caribe. También se ha observado algo parecido en mariposas Heliconius, aves y hasta en humanos. En todos estos casos, la hibridación y el intercambio de genes entre poblaciones pueden facilitar la aparición de nuevos rasgos adaptativos, incluso sin una separación clara de especies.
Una historia de color, visión y comportamiento
El gen casz1, protagonista involuntario de esta historia, es conocido por su papel en el desarrollo de células del ojo, del sistema nervioso y del corazón en otros organismos. En los hamlets, se expresa especialmente en la retina, lo que sugiere un papel central en la percepción visual del entorno… y de otros individuos.
Este vínculo entre visión y coloración podría explicar el papel crucial del gen en la formación de nuevas especies. Si un pez ve colores de cierta forma, y al mismo tiempo produce un patrón determinado, el vínculo entre percepción y preferencia podría facilitar la selección de parejas compatibles y reforzar las barreras reproductivas.
Aunque no se encontraron diferencias importantes en la estructura de casz1 entre especies, los investigadores plantean que la regulación de su expresión podría ser la clave, algo que podría depender del desarrollo temprano o de situaciones específicas como el cortejo. Así, casz1 podría actuar como una especie de interruptor que impulsa tanto el aspecto físico como el comportamiento reproductivo de los peces.
Más preguntas que respuestas
A pesar de los avances, este estudio deja muchas preguntas abiertas. ¿Hasta qué punto basta un solo gen para impulsar la especiación? ¿Cuántos casos similares hemos pasado por alto por centrarnos demasiado en la genética global? ¿Y cómo deberíamos definir una especie en un mundo donde los límites genéticos son tan difusos?
En un momento en que la biodiversidad global está en riesgo, comprender cómo surgen y se mantienen las especies es más urgente que nunca. Los hamlets, con su deslumbrante paleta de colores y su genética enigmática, nos recuerdan que la naturaleza rara vez se ajusta a nuestras categorías simples. Y que, a veces, el misterio está en lo que no podemos ver… ni clasificar con claridad.
Referencias
- Helmkampf M, Coulmance F, Heckwolf MJ, Acero A, Balard A, Bista I, Dominguez O, Frandsen PB, Torres-Oliva M, Santaquiteria A, Tavera J, Victor BC, Robertson DR, Betancur-R R, McMillan WO, Puebla O. Radiation with reproductive isolation in the near-absence of phylogenetic signal. Science Advances. 11(30), eadt0973. 25 de julio de 2025. https://doi.org/10.1126/sciadv.adt0973.
Un libro publicado en 1996 fue la chispa que activó el cambio en la consideración de esas personas que ven y sienten cada detalle y que se emocionan, entusiasman o preocupan –aparentemente– demasiado. Se trataba de The Highly Sensitive Person (La persona altamente sensible), editado en España, en 2006, con el título de El don de la sensibilidad. Su autora, la psicóloga estadounidense Elaine Aron, ya había perfilado este rasgo de la personalidad en trabajos realizados desde 1991, junto con su marido, el también psicólogo Arthur Aron. Pero sería dicho libro el que, traducido y publicado por todo el planeta, daría relevancia al concepto de persona altamente sensible o PAS.
Nacía así una corriente teórica que se ha extendido internacionalmente y ha dado lugar a asociaciones de gente identificada con el perfil psicológico definido por Aron. Muchos profesionales lo incluyen ya en sus terapias. Y, para miles de personas, ha significado una luz en su perspectiva de vida: de sentirse unos bichos raros –incluso enfermos– han pasado a reconocerse como integrantes de un grupo humano con una dimensión específica de la personalidad que, según algunas encuestas, representaría alrededor de un 20 % del total de la población mundial.
Si bien el fenómeno es ante todo occidental, ya que en otras culturas, sobre todo asiáticas, los hombres y mujeres con este perfil sí han sido tradicionalmente aceptados, hasta muy respetados.
¿Un rasgo o un trastorno? El debate sigue abierto
Por ahora, esta toma de conciencia continúa, mientras que los PAS se afanan por conseguir un reconocimiento pleno como axioma de la psicología por parte de lo que podríamos denominar establishment científico y psiquiátrico de ministerios y sistemas de sanidad. Aunque los terapeutas que ya tienen en cuenta esta perspectiva son muy numerosos, y a pesar de que hay estudios, como el de la neurocientífica Bianca Acevedo, que demuestran claras diferencias funcionales en los cerebros de estas personas –especialmente en la ínsula y el sistema de neuronas espejo–, el término PAS aún no es, por así decirlo, oficial.
El quid de la cuestión es que se defina y admita como un rasgo de la personalidad de origen fisiológico, y no un trastorno. “En lugar de ser simplemente un tipo de persona, como quien es tímido o extrovertido, la PAS se define por tener un sistema nervioso hipersensible”, especifica Aron.

¿Nacemos PAS o nos hacemos así?
Asimismo, defiende su origen genético, algo que apoyan muchos de sus seguidores, aunque no lo afirmen de forma taxativa. “Personalmente, creo que es hereditario, pero cierto es que un trauma de cualquier tipo lo puede despertar, disparar o intensificar”, opina Karina Zegers de Beijl, presidenta de la Asociación de Personas con Alta Sensibilidad de España (APASE), coach acreditada por Aron y autora de libros especializados en el tema.
El cuestionamiento de este supuesto lo expresa José Luis Carrasco, catedrático de Psiquiatría de la Universidad Complutense y director científico de la Unidad de Personalidad y Comportamiento del Hospital Ruber Juan Bravo (Madrid): “El exceso de sensibilidad interpersonal tiene bases biológicas en ciertas estructuras del cerebro, como la amígdala, el hipocampo y el córtex cingulado, pero esto no indica que sea genético. Estas áreas se desarrollan a lo largo de los primeros años de vida y están muy influenciadas por los acontecimientos con carga emocional que se experimentan durante la infancia”.
Así, el origen de la alta sensibilidad sigue en entredicho. “Los estudios con gemelos criados en ambientes distintos arrojan datos a favor de su transmisión de padres a hijos. Y aun cuando hay mucha evidencia científica a favor de esta hipótesis, es difícil de comprobar en el caso de los adultos sin haberles hecho un seguimiento desde su niñez”, comenta David G. Alcaraz, coach y bloguero especializado en PAS.
Cuatro letras para entenderlo todo: PSES
Lo que sí está sobradamente definido, a partir de Aron y de los profesionales que han seguido su mismo camino –muchos de ellos a causa de considerarse PAS a sí mismos–, es el perfil que presentan estas personas. Algo que, insisten, no tiene nada de patológico. “La alta sensibilidad cualifica como normal, aunque quizá no se encuentre dentro de la norma–que no deja de ser una estadística–. Pero es lo suficientemente normal como para ser un rasgo y no un trastorno”, recalca Zegers.
La propia Aron estableció los cuatro aspectos distintivos que han de manifestarse claramente para que una persona pueda ser considerada PAS. Se representan con un acrónimo, que en español es PSES: profundidad de procesamiento; sobreestimulación; fuerte emocionalidad y empatía; y sensibilidad a las sutilezas.
Procesamiento profundo
La primera se refiere a la tendencia a analizar de forma más concienzuda cualquier detalle o información. Se trata de una característica personal, por lo general poco comprendida por los demás, de quienes la PAS a menudo escuchará frases como “le das demasiadas vueltas a todo” o “te comes mucho el coco”. Y es verdad que, si la persona en sí no sabe poner límites a esta tendencia, puede desarrollar serios problemas psicológicos.
En cambio, si aprende a gestionarlo bien, llegará a contar con la ventaja de un análisis de cada asunto mucho más completo que el de la mayoría. Aunque siempre se ha de tener en cuenta que “la intuición de la PAS no es infalible. Por desgracia, algunos textos alientan a dar por sentado que sus percepciones son inequívocas, y no siempre es así”, advierte Pablo Villagrán, terapeuta y presidente de la Asociación Española de Personas Altamente Sensibles.
Sobreestimulación
La segunda característica se refiere al resultado de esa capacidad cerebral de sentir cada elemento del entorno, ya sea emocional o físico. Es decir, una PAS va a captar inmediatamente la energía y los estados anímicos de quienes la rodean, así como los ruidos, luces o ambientes cargados. Todo ello le provoca una sobreestimulación que debe aprender a manejar para no verse invadida y saturada por su alta capacidad perceptiva, para no necesitar con tanto apremio aislarse o retirarse a entornos más relajados.
Se trata, sin duda alguna, de la faceta que más riesgo supone para padecer trastornos mentales. Sin usar el término PAS, el doctor Carrasco lo explica así: “Las personas anómalamente sensibles van a sufrir con mayor intensidad cualquier tipo de frustración o de agresión procedente del entorno. El trauma producirá un trastorno de estrés postraumático con mayor probabilidad que en otras personas. De la misma manera, si sufren rechazo por cualquier condición –sexual, física, racial, etcétera–, “también es más probable que desarrollen un trastorno global de las emociones o de la personalidad”, añade el doctor Carrasco.
No obstante, la relevancia de esta interacción con el ambiente y los acontecimientos va a depender de otros condicionantes de la vida. “La interpretación o el sentido que la persona otorgue a ese conjunto de datos va a estar mediatizado por la cultura, la personalidad, la experiencia previa, los aprendizajes y un sinfín de factores añadidos”, señala Alcaraz.

Fuerte emocionalidad y empatía
El tercer factor determinante es la fuerte emocionalidad y empatía, lo que, de alguna manera, representa el lado positivo de la sobreestimulación. Intuir con tanta intensidad las emociones ajenas activa en estos individuos su tendencia natural a ponerse en su lugar. “A menudo pueden incluso saber cómo se sienten los demás antes de que estos sean conscientes de ello”, asegura Alcaraz.
De esta manera, la PAS puede ser de gran ayuda para quienes la rodean y, de hecho, suele involucrarse en esta tarea, que resultará muy positiva para sus amigos y para sí misma, siempre que sepa gestionarlo y se proteja de ser abrumada o contagiada de los sentimientos negativos de los demás.
“Por eso, cuando las PAS funcionan en entornos propicios, es probable que sean populares, porque están muy en sintonía con las necesidades de los otros. Asimismo, es muy posible que sean artistas, músicos, profesores, consejeros o profesionales de la salud”, explica el psicólogo norteamericano Ted Zeff, autor de libros sobre el tema.
Sensibilidad a las sutilezas
La cuarta y última característica, la sensibilidad a las sutilezas, alude a su captación de pequeños detalles que pasan inadvertidos para los demás. Es como si su engranaje cerebral les posibilitase una visión panorámica inmediata. “Se ha demostrado en recientes estudios de neurociencia social, cognitiva y afectiva, donde se ha observado que estos individuos muestran una mayor actividad en la región del cerebro conocida como la sede de la conciencia”, enfatiza Alcaraz.
Es una habilidad que, junto con las tres anteriores, conforma una de las ventajas del rasgo PAS bien delimitado y utilizado. “La investigación de Michael Pluess, psicólogo de la Queen Mary University de Londres, ha demostrado que suelen tener una resiliencia por encima de la media; o sea, una gran capacidad de superar traumas, probablemente porque la persona, por su tendencia a la reflexión, puede llegar a ver más allá que su propia desgracia”, apunta Zeger.
Se trata de una virtud que aflora en muchos sujetos que cumplen estas cuatro características establecidas como condición sine qua non por Aron. Siempre en función, como ocurre con cualquier ser humano, de las circunstancias que hayan ayudado a resaltar esta cualidad sensitiva. O, por el contrario, que el entorno no solo no le haya dejado espacio para manifestarse, sino que haya contribuido a obstruirla e intensificar la incomodidad, el sufrimiento y, acaso, algún tipo de trastorno psicológico.
Cuando sentir mucho duele: los riesgos del rasgo
Es lo mismo que pasa con otros aspectos comunes, pero no determinantes, para que alguien se identifique con este rasgo personal. Con frecuencia, las PAS manifiestan un gran sentido de la justicia, alta responsabilidad, mucha sensibilidad al dolor, conciencia medioambiental, preferencia por los deportes individuales, intensa curiosidad, capacidad de innovación, interés por los temas espirituales, preocupación por que cunda el buen ambiente en reuniones y fiestas... Además, son muy enamoradizas.
Son, en definitiva, características que se relacionan más con personas populares y extrovertidas, si bien esta última característica solo se da en un 30 % de las PAS. El resto, a pesar de su introversión, no dejará de interactuar con su entorno, debido a esa sobreinformación y sobreestimulación que reciben de él. Y empatizará con quienes tienen cerca, contribuirá a reflexiones y buenos ambientes, pero no por eso dejará de ser introvertida.
Quienes las rodean admirarán su bonhomía e, incluso, su optimismo, aun a pesar de que la PAS en cuestión, en ese preciso momento y sin que nadie lo sepa, se esté sintiendo fatal. Porque uno de sus vapuleos mentales sigue escapándose a esa gestión de personalidad que ya ha aprendido, pero que no acaba de interiorizar, o que se debilita cuando se presenta un problema nunca antes vivido.
Ciertamente, a las PAS no se les hace fácil esquivar la alteración de su mundo interior, porque “no tienen un escudo natural y les resulta difícil desconectar de las cosas”, indica Zeff. Es la razón por la que les acechan ciertas dolencias mentales. “Se encuentran personas especialmente sensibles entre los pacientes con depresión y ansiedad, con trastorno límite de la personalidad o con alteraciones de la conducta alimentaria”, comenta el experto.
¿Cerebro diferente?
En todos estos casos, se hallan disfunciones en las áreas del sistema límbico cerebral, que incluyen la amígdala y el hipocampo, así como en las regiones del procesamiento más inmediato de las emociones, como son los lóbulos prefrontales y el córtex cingulado —explica el doctor Carrasco. Y añade—: Se debe enseñar a regular las emociones derivadas de la sensibilidad interpersonal, para que no se conviertan en destructivas o en egocéntricas. De un exceso de sensibilidad puede derivar lo mejor o lo peor de las personas”.
“La buena noticia es que los adultos muy sensibles tienden a responder bien a la terapia, porque están muy en contacto con sus emociones”, asegura Aron. Sobre todo cuando sus padres han detectado la alta sensibilidad a edades tempranas y, con ayuda de especialistas, la han sabido encajar y optimizar.
En el caso del adulto que se ve desbordado, la terapia ha de consistir en “un proceso de profundo autoconocimiento, a la par de ahondar en las características del rasgo”, explica Zeger. En definitiva, conocerse a sí mismo como remedio esencial para cualquier humano, y saber bien en qué consiste su peculiaridad para reconciliarse con ella y usarla positivamente.

Una personalidad intensa, compleja… y creativa
“Es muy recomendable entrenarse y perfeccionarse en la gestión emocional, ya que la información sensorial llega a las áreas emocionales –amígdala, sistema límbico, cíngulo, etc.– del cerebro tres veces más rápido que a las áreas racionales –neocórtex–. Pero la emoción no es lo que perdura, sino la interpretación, los pensamientos y las conclusiones que sacamos de ellas”, puntualiza Alcaraz.
“Con el desarrollo de la llamada inteligencia emocional, aprendemos a elegir el ángulo interpretativo que más nos beneficia para el momento presente. Y, con la práctica del mindfulness, podemos observar cómo surge una emoción, cómo la vivimos y cómo se desvanece, sin interpretarla a priori, lo cual nos hace más objetivos a la hora de vivir las situaciones”, señala el experto.
De la aceptación al autocuidado
Otras técnicas que pueden contribuir a esta reconducción –que no curación, según recalcan sus defensores– pueden ser las de relajación, de meditación o de reprocesamiento de las vivencias dolorosas antiguas, como es el caso de la terapia denominada EMDR, siglas que, en español, significan desensibilización y reprocesamiento por movimientos oculares.
Y lo cierto es que, “cuando una persona entiende que es una PAS, por lo general, es una liberación, porque comprende por fin por qué no es como los demás y por qué a veces no se entienden sus necesidades desde fuera”, nos comenta la psicóloga Teresa Arias.
No obstante, “una vez que hemos aprendido de este rasgo, deberíamos vigilarnos para no encontrar en él excusas a nuestro victimismo”, aconseja Villagrán.
Igualmente, resultará a la postre negativo si, debido a muchos textos erráticos que circulan por internet y al título de la edición española del libro de Aron –El don de la sensibilidad–, se vive como tal, como un talento extraordinario, “un término que hace más daño que bien, ya que conlleva el tentador y seductor riesgo de que las PAS se sientan seres superiores”, reacciona Zeger. Y claro que no se trata de eso.
Referencias
- Acevedo, B. P., Aron, E. N., Aron, A., Sangster, M. D., Collins, N., & Brown, L. L. (2014). The highly sensitive brain: an fMRI study of sensory processing sensitivity and response to others' emotions. Brain and behavior, 4(4), 580–594. doi: 10.1002/brb3.242
En la era actual del gaming, donde los videojuegos ya no solo se juegan sino que se viven, contar con un buen sistema de sonido es casi tan importante como tener una buena gráfica. Los altavoces para PC han evolucionado de simples periféricos a componentes esenciales en la experiencia inmersiva que todo gamer busca.
Y justo ahora, en plena temporada veraniega donde muchos aprovechan su tiempo libre para jugar títulos favoritos, Logitech ha dado un paso muy significativo en el sector gaming al romper el precio de uno de sus productos estrella: los altavoces Logitech G560.

Estos altavoces normalmente superan los 170€, como se puede comprobar en tiendas especializadas como Coolmod, Amazon, MediaMarkt y Miravia, donde su precio habitual ronda los 200€. Sin embargo, actualmente Logitech apuesta por PcComponentes para ofertarlos a un precio de 159,99 euros.
Están diseñados para ofrecer una experiencia inmersiva gracias a su sistema de audio 2.1 con 240 W de potencia de pico (120 W RMS) y la innovadora tecnología RGB LIGHTSYNC. Este sistema sincroniza la iluminación dinámica permitiendo efectos personalizados con hasta 16,8 millones de colores a través de cuatro zonas de iluminación configurables por altavoz.
Así mismo, su subwoofer de disparo inferior y sus dos altavoces satélite con transductores metálicos proporcionan una calidad sonora nítida. Además, integra un visualizador de audio que adapta los efectos de iluminación al ritmo y volumen del sonido. Destacar que es compatible con USB, jack 3.5 mm y Bluetooth 4.1. Conectando hasta hasta cuatro dispositivos simultáneamente.
LG apuesta por reducir el precio de su modelo top de altavoz portátil UltraGear GP9
En el segmento premium del audio gaming, LG también se suma a la ola de ofertas veraniegas reduciendo notablemente el precio de su altavoz portátil UltraGear GP9 hasta los 213,81 euros. Cuando realmente su precio actual en webs como PcComponentes es de 300€.

Este modelo incorpora un sistema de audio 2.0 canales con cuatro altavoces (incluyendo tweeters) y una potencia RMS de 15 W, respaldado por un Hi-Fi Quad DAC integrado. Su ecualización optimizada para géneros FPS y RTS, junto al sonido envolvente virtual 7.1 DTS:X para auriculares, proporciona una experiencia inmersiva.
Además, integra micrófono para chat de voz sin auriculares, conectividad inalámbrica y por cable (Bluetooth y USB tipo C), y salida de auriculares. Todo ello, alimentado por una batería interna de 2600 mAh, incluyendo uminación LED de estado.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El nuevo Opel Corsa se reafirma como un referente del segmento B gracias a una combinación única de espacio interior, propulsión avanzada y estilo renovado. Fabricado en exclusiva en Zaragoza, ha superado ya el medio millón de unidades producidas, incluyendo versiones eléctricas y térmicas, consolidándose como el superventas compacto más popular en mercados clave como Alemania y Reino Unido.
Uno de sus grandes atractivos es el generoso espacio interior: asientos delanteros amplios, excelente espacio para las rodillas y un maletero que crece de 309 L a 1 150 L con los respaldos abatidos, una palanca disruptiva en el segmento urbano. Además, ofrece versión eléctrica Corsa‑e, híbrida suave de 48 V (mHEV) y motores térmicos altamente eficientes.
La nueva gama híbrida mild‑hybrid con tecnología de 48 V llega por primera vez en el Corsa, con motores de 100 CV y 136 CV que logran etiqueta ECO y reducen emisiones sin comprometer dinamismo. Esto amplía las opciones tecnológicas de un modelo que ya incluye asistencias como IntelliLux LED® matricial, control de crucero adaptativo, mantenimiento de carril y Night Vision en versiones más equipadas.
Además, destacan las elegantes ventajas YES para el Opel Corsa, una propuesta que combina estilo, tecnología y eficiencia con una campaña de comunicación fresca y directa.
Espacio interior que redefine el segmento
El nuevo Corsa ofrece un entorno sorprendentemente amplio: medidas de confort de primer nivel en asientos delanteros y traseros, con espacio para piernas y hombros líder en categoría. El maletero estándar de 309 L llega a 1 150 L con asientos abatidos, facilitando su uso diario y familiar.
La exclusividad de su producción en la planta de Zaragoza le permite ofrecer estas cotas sin perder agilidad urbana, manteniendo una longitud compacta ideal para el entorno urbano.

Propulsión híbrida de 48 V por primera vez
Opel estrena tecnología mild‑hybrid (MHEV) de 48 V en el Corsa, con motores turbo de 100 CV y 136 CV. Esta solución aporta etiqueta ECO, asistencias eléctricas suaves y regeneración de energía sin necesidad de enchufe. Este sistema mejora la eficiencia en ciudad y reduce emisiones de CO₂ respecto a versiones térmicas equivalentes, sin perder potencia ni dinamismo.

Corsa Electric: autonomía, agilidad y cero emisiones
Dentro de la gama del nuevo Opel Corsa, la versión 100 % eléctrica Corsa-e se posiciona como una alternativa ideal para quienes buscan movilidad sin emisiones, sin renunciar a diseño, tecnología ni prestaciones. Esta versión cuenta con una autonomía de hasta 359 km según ciclo WLTP, lo que permite afrontar tanto los trayectos urbanos diarios como escapadas de media distancia con total tranquilidad.
El Corsa-e destaca por su aceleración inmediata: alcanza los 100 km/h en tan solo 8,1 segundos, ofreciendo una respuesta ágil y silenciosa que transforma la experiencia de conducción en ciudad. A ello se suma un centro de gravedad bajo que mejora el comportamiento dinámico y la estabilidad en curva, haciendo que conducirlo sea tan cómodo como divertido.
Además, el sistema de recuperación de energía en frenadas y la posibilidad de elegir entre tres modos de conducción (Eco, Normal y Sport) permiten optimizar el consumo según las necesidades del día a día. Y gracias a su compatibilidad con carga rápida, es posible recuperar hasta el 80 % de la batería en poco más de media hora.

Diseño moderno con identidad Opel
El frontal incorpora el distintivo Opel Vizor, generando una estética limpia y tecnológica. Los faros IntelliLux LED® matriciales ofrecen visibilidad óptima sin deslumbrar a otros conductores.
La silueta dinámica se acentúa con proporciones equilibradas, superficies marcadas, entradas de aire integradas y una zaga elegante que combina deportividad y funcionalidad.

Campaña de lanzamiento: “Yes, of Corsa”
La campaña global de lanzamiento “Yes, of Corsa” celebra el modelo como icono cultural, con estética cinematográfica, humor, música pegadiza y presencia en múltiples plataformas digitales y sociales.
Con preguntas como “¿Tiene autonomía?”, “¿Es divertido conducirlo?”, la respuesta siempre es “Yes, of Corsa”, subrayando la posición del coche como respuesta a la movilidad actual. Esta narrativa también se extiende a otras propuestas de la marca, como puede verse en cómo el Opel Grandland Eléctrico revoluciona la movilidad, combinando tecnología, sostenibilidad y diseño.

Tecnología y asistentes avanzados
El Corsa incorpora sistemas de ayuda normalmente reservados a segmentos superiores: control de crucero adaptativo, asistente de mantenimiento de carril, detección de puntos ciegos, frenado de emergencia y cámara de visión trasera.
También ofrece sistema Night Vision opcional, que detecta peatones u objetos en condiciones de baja visibilidad mediante cámara térmica.

Conectividad y experiencia digital
El interior dispone de pantalla táctil moderna, integración de Apple CarPlay y Android Auto, y sistema multimedia de interacción intuitiva. Las versiones Premium incluyen mirroring inalámbrico y actualizaciones OTA.
El entorno digital busca ser tan familiar como el uso de un smartphone, con interfaz ergonómica y comandos táctiles accesibles.

Conducción urbana con eficiencia
La versión eléctrica Corsa‑e ofrece hasta 359 km de autonomía y acelera de 0 a 100 km/h en unos 8 segundos, ofreciendo conducción sin emisiones y cero vibraciones. Toda la gama combina respuesta ágil en ciudad, consumo contenido y comodidad de marcha, gracias al bajo centro de gravedad y ajuste preciso de suspensión.

Confort y calidad
Al interior se suma calidad: materiales suaves al tacto, iluminación ambiental y asientos ergonómicos con textura premium. La acústica interior se ha mejorado para reducir el ruido en rodadura y viento.
El puesto de conducción agrupa todo de forma intuitiva, con volante compacto, superficie libre visual y comandos accesibles.

Producción y legado español
Desde su origen en Zaragoza, el Opel Corsa V ha superado el récord de medio millón de unidades producidas. Su versión eléctrica Corsa‑e forma parte del hito del vehículo 15 millones fabricado en la planta aragonesa. Su éxito demuestra la unión de diseño alemán y fabricación española, con calidad constante y enfoque global.

Eficiencia y electrificación real
La gama completa, desde mHEV a eléctrico 100% Corsa‑e, permite adaptar la movilidad a diferentes perfiles: desde ciudad sostenible hasta recorridos más dinámicos sin emisiones locales. El enfoque está en facilitar acceso a tecnologías limpias sin renunciar a confort, prestaciones ni diseño urbano.

Un Corsa contemporáneo para hoy
El nuevo Opel Corsa ofrece una propuesta coherente: amplio, tecnológicamente avanzado, eficiente y emocional. Su campaña “Yes, of Corsa” refuerza su presencia como coche del siglo XXI: accesible, intuitivo y emocional.

Con espacio interior de segmento superior, tecnologías híbridas y un diseño actual, el Corsa se mantiene como referente del segmento B y como una apuesta realista para la movilidad del futuro.
El sentido no se encuentra: se vive. Hay momentos en los que la pregunta golpea sin aviso: ¿tiene sentido seguir? Puede surgir tras perder a alguien, enfrentar una enfermedad o simplemente despertarse con una sensación de vacío. Para el filósofo japonés Masahiro Morioka, estas crisis no solo son psicológicas, sino oportunidades de diálogo con nuestra propia existencia. En su nuevo estudio, propone que el sentido de la vida no es un concepto que se define en libros, sino algo que se experimenta desde dentro, cuando respondemos a los desafíos que nos lanza nuestra historia personal.
Este enfoque, publicado en Philosophia, parte de una rama filosófica llamada fenomenología, centrada en cómo vivimos las cosas en primera persona. En lugar de preguntar “¿qué es el sentido de la vida?” como si fuera una fórmula universal, Morioka se enfoca en cómo se siente una vida significativa o vacía, y qué papel juegan nuestras decisiones, emociones y acciones cotidianas en esa percepción.
En su propuesta, el autor introduce una noción clave: no hay una única forma de vivir con sentido, sino múltiples “paisajes” posibles, que se despliegan dependiendo de cómo miramos y nos movemos dentro de nuestra vida. Como si estuviéramos en la cima de una montaña, la vista cambia según hacia dónde giremos.

Cuando la vida nos habla
Morioka describe momentos en los que sentimos que nuestra vida nos lanza una pregunta difícil. Lo llama “solicitación vital”: un tipo de llamado interno que surge en situaciones límite, como una ruptura, el duelo, la enfermedad o el agotamiento existencial.
Ante ese llamado, no podemos evitar responder, aunque sea con silencio, con rabia o con resignación. Es la vida preguntándonos por su propio valor, y nosotros intentando contestar, a tientas.
No se trata de voces literales, sino de sensaciones profundas: la urgencia de tomar una decisión, el impulso de cambiar, la duda sobre si seguir adelante. Esta interacción, según el autor, funciona como una especie de diálogo entre la persona y su biografía. La vida no es solo lo que ocurre, sino lo que sentimos que ocurre, y cómo respondemos a eso. En ese sentido, el sentido de la vida no viene dado: se construye desde la respuesta a estas solicitaciones.
El estudio identifica tres formas comunes de solicitación: el deseo de rendirse o sobrevivir, la necesidad de mejorar la calidad de vida, y la pregunta directa por el significado de todo. Cada una nos empuja a actuar, pensar o cambiar, y con ello, colorea la forma en que vivimos nuestro presente.
Lo que la vida nos ofrece (y lo que no)
Para entender estas interacciones, Morioka toma prestado un concepto de la psicología perceptual: el “affordance”. En términos simples, es lo que el entorno nos permite hacer. Un suelo firme nos permite caminar; una taza, sostener café. El autor traslada esta idea a la vida misma: nuestra vida también nos ofrece ciertas posibilidades —amar, llorar, cambiar, recordar— y nos niega otras, como retroceder en el tiempo o ver nuestra historia completa desde fuera.
Esta noción, llamada en el estudio “life affordance”, implica que nuestras decisiones y emociones emergen de las oportunidades que la vida concreta nos ofrece, aquí y ahora. No todas las vidas permiten lo mismo, y no todos los momentos vitales nos presentan las mismas salidas.
Por ejemplo, alguien joven con apoyo emocional puede sentir que tiene más caminos abiertos que alguien solo y mayor. Pero eso no significa que uno tenga más sentido que otro: la clave está en cómo respondemos a esas posibilidades, por limitadas que sean.
Así, el sentido no está en lo que objetivamente ocurre, sino en la forma subjetiva en que percibimos nuestras posibilidades. Y esa percepción, según el estudio, se activa especialmente cuando sentimos que la vida nos exige una respuesta.

Enacción: percibir es actuar
El segundo concepto clave que introduce Morioka es “enacción”, proveniente de la neurociencia y la filosofía de la percepción. Su idea principal es que no vemos pasivamente el mundo: lo percibimos a través de nuestras acciones. Lo mismo aplica a la vida. No entendemos su valor desde afuera, como quien observa una película, sino desde dentro, a medida que actuamos en ella.
En este enfoque, cuando una persona se pregunta “¿vale la pena seguir viviendo?”, la respuesta no está en una idea abstracta, sino en lo que hace con esa pregunta.
Si decide resistir, buscar ayuda, transformar su rutina o simplemente respirar un día más, está encarnando una actitud que genera una experiencia de sentido. Pero si cae en la desesperación, y no logra responder, puede vivir su vida como un callejón sin salida. Ambos son paisajes posibles dentro de la misma biografía.
Así como un bastón permite a una persona ciega “ver” el mundo al tocarlo, nuestra forma de explorar la vida —con esperanza, resignación o curiosidad— determina qué significado emerge en el presente. El sentido, entonces, no es una meta: es una forma de caminar.
Una cartografía interior: el modelo geográfico del sentido
La idea más original del estudio es que la experiencia del sentido vital se parece a recorrer un territorio cambiante. Morioka propone un “modelo geográfico” del significado de la vida: una especie de mapa subjetivo formado por distintos paisajes emocionales, que se despliegan según la dirección desde la que observamos nuestra existencia.
Como quien gira sobre sí mismo en la cima de una montaña, cada actitud vital (esperanza, miedo, rebeldía, gratitud) revela una imagen distinta de la vida.
Ninguna es falsa, y todas son parciales. Solo vemos una a la vez, pero podemos imaginar las demás. Este conjunto de experiencias posibles —reales, pasadas, futuras o potenciales— conforman nuestra “geografía del sentido”.
En esa geografía interna, hay zonas soleadas y caminos oscuros. El valor de vivir no está solo en lo que tenemos frente a los ojos, sino en saber que hay otros senderos. Sentir que podríamos ver otra cosa, aunque hoy no podamos, ya es una forma de mantener el horizonte abierto.

Un modelo para tiempos difíciles
El mayor valor del enfoque de Morioka es que no promete certezas, sino comprensión. En lugar de ofrecer fórmulas sobre lo que “debería” dar sentido a la vida, nos invita a prestar atención a cómo experimentamos el mundo desde dentro, en cada gesto, emoción o decisión. Especialmente cuando todo parece derrumbarse.
Este modelo fenomenológico es útil para pensar en el sufrimiento, el duelo o la depresión. Reconoce que en esos momentos no se trata de encontrar grandes respuestas, sino de reconocer las pequeñas acciones que todavía nos conectan con la vida, como aceptar ayuda, expresar un sentimiento o simplemente seguir preguntando. Cada actitud, cada compromiso con uno mismo, abre un posible paisaje de sentido.
Más que un mapa externo, es una brújula interior. Y quizás, en tiempos de confusión existencial, esa sea la herramienta más honesta que la filosofía pueda ofrecer: un modo de caminar la vida con atención, aunque no sepamos hacia dónde vamos.
Referencias
- Morioka, M. A Phenomenological Approach to the Philosophy of Meaning in Life.Philosophia. (2025). doi: 10.1007/s11406-025-00854-5
Las arenas del Nilo han guardado durante milenios los ecos de mujeres que, desafiando su tiempo, gobernaron con sabiduría, poder y misterio. En esta revista coordinada por Vicente Barba Colmenero, arqueólogo especializado en Egiptología, exploramos el universo de las faraonas egipcias, figuras que no fueron excepción, sino testimonio de un poder femenino arraigado en las estructuras del Antiguo Egipto. Lo cierto es que, desde los albores de la primera dinastía hasta la caída de Alejandría, estas mujeres se alzaron como símbolos de autoridad, religiosidad y sofisticación política, dejando una huella más allá de los obeliscos y las enormes estatuas. De la mano de grandes expertos descubrimos a Hatshepsut, la mujer que se vistió con barba ceremonial para ocupar su trono con legitimidad indiscutible; a Tiy, esposa de Amenhotep III y madre del herético Akhenatón, cuya influencia en la corte fue mucho más que decorativa; o a la fascinante Cleopatra VII, que conjugó diplomacia, saber y estrategia hasta convertirse en leyenda. Descubrimos que hubo mujeres clave en la expulsión de los hipsos, que algunas llegaron del Sur trayendo esos ajuares que tanta información nos proporcionan hoy en día, que otras se atrevieron a soñar y levantar grandes obras arquitectónicas que han sobrevivido a los siglos y que todas fueron capaces de dejar su huella en un mundo, dominado por los hombres, que no se lo puso fácil. Así pues, te invitamos a sacar del olvido a las mujeres más poderosas del Antiguo Egipto, abordando no solo el poder político que ejercieron, sino también la huella que dejaron en las representaciones artísticas, en los templos, su papel en la religión y sus desafíos dinásticos. Se trata de comprender mejor lo que era el poder femenino en la Antigüedad. Porque estas faraonas no fueron simples musas o mitos sino auténticas protagonistas de la Historia de Egipto. Disfruta de la lectura.
La mujer en el antiguo Egipto
La sociedad del antiguo Egipto, como muchas otras en la antigüedad, estaba organizada de forma jerárquica y era la familia el núcleo fundamental desde donde giraba la vida diaria. A lo largo de su historia, una élite poderosa dominaba tanto la política como la religión, pero dentro de esta compleja estructura social, las mujeres jugaron un papel esencial en la familia, la sociedad e incluso en la política.
La posición de la mujer en Egipto era relativamente avanzada para su época y, gracias a las pinturas, esculturas y documentos encontrados en tumbas, templos y papiros, conocemos el papel que desempeñaron las mujeres, con una gran variedad de funciones, tanto dentro del hogar como en la vida pública.
Sigue leyendo este artículo de Vicente Barba Colmenero en la edición impresa o digital.
Contenidos
- La mujer en el antiguo Egipto, por Vicente Barba Colmenero
- Las reinas del dinástico temprano, por Luna Beerden
- Nitocris y Jentkaus I, por Andrés Martín García de la cruz
- El poder femenino en el reino medio, por Luisa M. García González
- Tetisheri y Ahhotep, por Javier Ramos
- Hatshepsut, por Adriana Recasens Escardó
- Logros arquitectónicos, por Antonio Tomás Mozas Calvache
- Tiy, la gran esposa real, por Susana Soler
- Nefertiti, por Cristina Lechuga Ibáñez
- Las mujeres poderosas que llegaron del sur, por Dra. Gersande Eschenbrenner Diemer
- Las hijas del sol, por José Manuel Alba Gómez
- Nefertari, por Vicente Barba Colmenero
- Tausert, por Inmaculada Delage González
- El poder religioso femenino, por Raúl Sánchez Casado
- Las reinas ptolemaicas, por Cristina Lechuga Ibáñez
- Cleopatra VII, la reina alquimista, por Dra. Marina Escolano-Poveda
- La última reina del Nilo, por José Javier Martínez García
- Poder e imagen a través de los siglos, por Dra. María Engracia Muñoz-Santos
- Bibliografía

Durante más de dos siglos, una familia de reyes dominó buena parte de lo que hoy es Francia sin necesidad de coronas deslumbrantes ni castillos inexpugnables. Su símbolo de poder era mucho más cotidiano, algo que cualquiera podía tener, pero que solo ellos podían convertir en un emblema de autoridad: el cabello. Esta es la historia de los Merovingios, la dinastía de los llamados “reyes de la melena”, y de cómo un simple mechón podía decidir el destino de un trono.
En un mundo en el que el Imperio romano se desmoronaba y Europa occidental se fragmentaba en reinos rivales, la legitimidad era un bien escaso. La fuerza en el campo de batalla no bastaba: había que proyectar autoridad de manera que todo el mundo la reconociera sin necesidad de explicar nada. Los Merovingios encontraron en su cabellera el arma perfecta para distinguirse de cualquier otro noble y para recordarle a todos, desde guerreros hasta clérigos, quiénes eran los verdaderos herederos de Roma y de los dioses.
Un linaje nacido entre leyendas
El origen de los Merovingios se remonta al siglo V d.C., cuando los restos del Imperio romano de Occidente se deshacían como arena entre los dedos. De aquel caos surgió un líder semilegendario, Meroveo, del que la dinastía tomaría su nombre. Su nieto, Clodoveo I, transformó a esta familia de jefes tribales francos en una potencia capaz de someter a tribus vecinas, conquistar territorios en la antigua Galia y, lo más importante, forjar un pacto con la Iglesia cristiana que cimentaría su autoridad durante generaciones.
Pero los Merovingios no se conformaron con la fuerza de las armas ni con la bendición de los obispos. Necesitaban algo que los diferenciara visualmente de cualquier otro noble germano. Encontraron ese sello en un detalle que podía parecer banal: el cabello. Largos, cuidados y visibles, sus cabellos se convirtieron en una especie de corona natural. Nadie fuera de la familia real tenía derecho a lucirlos así, y cualquier intento de imitarlos podía considerarse un desafío directo al trono.

La melena como corona invisible
En la Edad Media temprana, la melena merovingia era mucho más que una cuestión estética. Simbolizaba la virilidad, la fuerza y, sobre todo, el derecho a gobernar. En un tiempo en que los retratos oficiales eran escasos y las inscripciones en monedas apenas mostraban rostros, el cabello era el emblema que viajaba de boca en boca y de mirada en mirada.
Los rivales sabían que cortar el cabello a un rey Merovingio era equivalente a destronarlo. Más que un castigo humillante, era una forma de exilio político. Quien perdía su melena perdía su aura sagrada y quedaba apartado de la sucesión. Monasterios enteros recibieron a príncipes despojados de su cabello y, por tanto, de su poder. Algunos recuperaron su posición cuando su pelo volvió a crecer; otros, en cambio, se desvanecieron para siempre en la penumbra de la historia.
El riesgo de un símbolo tan simple
Convertir algo tan accesible como el cabello en un emblema de legitimidad tenía un problema: cualquiera podía intentar imitarlo. En un tiempo sin certificados de nacimiento ni registros fiables, no era raro que aparecieran supuestos príncipes Merovingios mostrando largas cabelleras y reclamando el trono. Algunos lograron arrastrar seguidores; otros terminaron siendo desenmascarados o eliminados de manera fulminante.
Aun así, la fuerza del símbolo era tan grande que la dinastía logró mantener su poder hasta el siglo VIII. Cuando finalmente fueron reemplazados por los carolingios, la transición también tuvo su gesto capilar: los nuevos reyes adoptaron el bigote como seña de identidad, marcando así un cambio de era visual y político.

Más allá del mito: el poder de la imagen
La historia de los Merovingios demuestra que, en la Edad Media, la política era también un espectáculo visual. La imagen que proyectaba un rey era tan importante como sus conquistas o alianzas. La melena merovingia funcionaba como un recordatorio constante de que ellos eran distintos, casi tocados por lo sagrado, en una Europa donde la autoridad era frágil y la fuerza del mito podía decidir guerras.
Con la caída de esta dinastía, el símbolo cambió, pero la lección perduró: el poder no solo se ejerce; también se representa. En un mundo sin periódicos ni redes sociales, un mechón de pelo podía ser tan efectivo como una corona de oro.
En las profundidades heladas del océano, donde la luz del sol nunca llega y la presión aplasta cualquier intento de exploración humana, una criatura etérea guarda un secreto sobre la vida en los mares. Se trata de Botrynema brucei ellinorae, una medusa de aguas profundas que parece flotar sin esfuerzo en el abismo. Pero un estudio reciente publicado en Deep-Sea Research Part I ha revelado que esta especie esconde mucho más que un simple espectáculo bioluminiscente: podría ser la clave para entender la existencia de una frontera biológica invisible en el Atlántico Norte.
El equipo liderado por Javier Montenegro, del Minderoo-UWA Deep-Sea Research Centre de la Universidad de Western Australia, ha pasado años recopilando datos de esta singular medusa, combinando registros históricos, imágenes de vehículos submarinos y análisis genéticos de especímenes capturados en campañas oceanográficas. El resultado es un mapa de distribución global que muestra algo insólito: la población de estas medusas se comporta como si hubiera una línea secreta en medio del océano que determina quién puede cruzar y quién queda confinado en el norte.
Dos rostros de una misma especie
A simple vista, Botrynema brucei ellinorae parece un delicado paraguas de gelatina, una criatura más de ese mundo silencioso donde flotan organismos que parecen sacados de un sueño. Sin embargo, esta especie tiene dos variantes morfológicas muy marcadas: una con un pequeño "nudo" o protuberancia en la parte superior de su campana y otra completamente lisa.
El hallazgo sorprendente es que, aunque los análisis genéticos demuestran que ambas formas pertenecen a la misma línea evolutiva, su distribución geográfica está estrictamente delimitada. Los ejemplares sin nudo solo aparecen en aguas árticas y subárticas. Nunca han sido encontrados al sur de los 47 grados de latitud norte, una línea imaginaria que coincide con la región conocida como North Atlantic Drift, donde las aguas frías del norte se mezclan con las corrientes más templadas del Atlántico central.
Por el contrario, las medusas con nudo parecen ser las viajeras incansables del grupo: pueden encontrarse en todos los océanos, desde el Ártico hasta regiones subtropicales, cruzando fronteras invisibles que detienen a sus contrapartes lisas.

Una barrera sin muros
El hallazgo plantea un misterio fascinante para los científicos: ¿cómo puede existir una frontera que no es física, que no se ve ni se toca, pero que limita el viaje de ciertas formas de vida?
Este tipo de fenómenos se conocen como barreras biogeográficas. Son líneas invisibles que dividen la distribución de especies, un fenómeno que ya ha sido documentado en la superficie, como la famosa Línea de Wallace en Indonesia, que separa la fauna asiática de la australiana. Pero en las profundidades del océano, donde las aguas parecen uniformes y los paisajes son abismos oscuros, encontrar una “muralla” de este tipo resulta extraordinario.
El estudio propone que esta barrera podría ser una combinación de factores ambientales, corrientes profundas y disponibilidad de alimento, creando lo que los investigadores llaman un “barrera blanda” o semipermeable. En otras palabras, no es un muro absoluto, pero sí un filtro ecológico que parece afectar de forma distinta a cada morfotipo.
Un elemento clave que los científicos están explorando es el papel de la corriente profunda del Atlántico norte, conocida como Deep Western Boundary Current, que transporta aguas densas y frías hacia el sur. Esta corriente podría servir de “autopista” para las medusas con nudo, mientras que las sin nudo, quizá menos adaptadas a condiciones externas, quedan confinadas a las aguas frías y estables del Ártico.

El nudo que abre caminos
Uno de los aspectos más intrigantes del hallazgo es la función potencial del nudo en la campana de la medusa. Aunque los estudios no han demostrado aún un beneficio funcional claro, los científicos especulan que podría ofrecer cierta ventaja evolutiva frente a depredadores o en la navegación de aguas más turbulentas.
La hipótesis es sugerente: en el hostil mundo del océano profundo, donde la supervivencia depende tanto de la energía como de la invisibilidad, cualquier pequeña variación morfológica puede marcar la diferencia entre un viaje interoceánico y el confinamiento en el norte.

Redibujando el mapa de la vida en el océano
Más allá de la curiosidad biológica, este hallazgo tiene implicaciones profundas para la comprensión de la biodiversidad marina. Si existen barreras invisibles que delimitan especies incluso en el océano profundo, significa que los patrones de dispersión y evolución de estas criaturas son mucho más complejos de lo que imaginábamos.
El descubrimiento también subraya lo poco que sabemos sobre los océanos. Menos explorado que la superficie de Marte, el fondo marino sigue revelando sorpresas que desafían nuestras expectativas. Cada nuevo registro de una medusa flotando en la oscuridad, cada análisis genético que conecta poblaciones separadas por miles de kilómetros, nos recuerda que el planeta tiene todavía fronteras biológicas que desconocemos.
Los investigadores sugieren que futuras expediciones deberían centrarse en la región del Atlántico norte donde se ha identificado esta barrera. Una mayor recopilación de muestras podría ayudar a determinar si existen otros factores –como diferencias en la temperatura, salinidad o presión– que expliquen la distribución desigual de los morfotipos.
Mientras tanto, la imagen de una medusa flotando en el abismo, detenida por una frontera que no podemos ver, es un poderoso recordatorio de que la naturaleza tiene sus propios mapas invisibles.
El estudio ha sido publicado en la revista Deep-Sea Research Part I.
Un reciente estudio arqueológico ha arrojado luz sobre un aspecto que, aunque poco documentado, fue profundamente significativo en la vida de las personas esclavizadas en el sur de Estados Unidos: el uso ritual de objetos materiales para la práctica del "hoodoo", una tradición mágica afroamericana de raíces africanas e indígenas. El trabajo, desarrollado por la arqueóloga Sharon K. Moses y publicado bajo el título Lowcountry Conjure Magic Historical Archaeology on a Plantation Slave Quarter, se basa en los materiales recuperados en la plantación de Hume, en Carolina del Sur.
Arqueología del conjuro: cuando los objetos hablan
La investigación arqueológica se centró en materiales procedentes del Lowcountry, región costera con una intensa presencia de culturas africanas e indígenas durante los siglos XVIII y XIX. El equipo de Moses centró su trabajo en los restos de una cabina de esclavos, situada en los márgenes del área residencial de la plantación.
Allí, se hallaron una serie de depósitos intencionales, que se habían ocultado con cuidado, y que estaba compuestos por objetos heterogéneos. Entre ellos, se cuentan cristales, botones, clavos doblados, fragmentos de loza, dientes de animales, conchas marinas, huesos y otras piezas que, aunque en apariencia ordinaria, configuran un patrón ritual reiterado.

Estos hallazgos se encontraron dispuestos, siguiendo una lógica específica, en lugares clave de la vivienda: las esquinas, los umbrales, el hogar, e incluso el espacio bajo el piso. Moses identifica esta práctica como una manifestación del "conjure" o "hoodoo", un sistema mágico-religioso afroamericano centrado en la manipulación de fuerzas espirituales mediante objetos con poder simbólico.

Más allá de la superstición: una forma de resistencia cultural
A diferencia del vudú, que cuenta con una estructura formal de culto, el hoodoo carece de instituciones y jerarquías religiosas. Sin embargo, su función social resultaba de gran importancia en la vida de los esclavos. Moses sostiene que estas prácticas no solo respondían a preocupaciones espirituales, sino que permitían tanto preservar saberes ancestrales como afirmar la propia identidad cultural frente a un sistema de brutalidad y deshumanización.
Los objetos hallados revelan funciones y significados específicos. Algunos, como las conchas de ostra y los cristales, estaban cargados de simbolismo protector. Otros, como los clavos doblados o los botones, se utilizaban para crear barreras mágicas contra los espíritus malignos o para atraer la buena fortuna y la salud. El hallazgo de una cuenta azul de vidrio, por ejemplo, evoca prácticas de protección ocular comunes tanto en África occidental como en algunas comunidades nativas.

Tradiciones sincréticas: la fusión de África y América
El estudio ha logrado verificar los mecanismos de fusión cultural entre las tradiciones mágicas de origen africano y las prácticas chamánicas indígenas. La región del Lowcountry fue escenario de una intensa interacción entre los esclavos africanos y las poblaciones nativas, muchas de las cuales también fueron esclavizadas.
La arqueología ha revelado que algunos rituales empleados en la plantación de Hume comparten elementos con las ceremonias indígenas, como el uso de huesos de animales o la orientación de ciertos depósitos hacia puntos cardinales específicos. Esta convergencia espiritual fue el producto de una convivencia forzada que generó formas compartidas de resistencia, supervivencia y espiritualidad.

El hogar como espacio ritual
La investigación de Moses también plantea una reflexión novedosa: el hogar de los esclavos no fue solo un espacio doméstico, sino también un lugar para la práctica ritual. Los depósitos hallados en las esquinas de las habitaciones —puntos considerados liminales y, por tanto, en muchas cosmologías africanas— indican una concepción del espacio muy distinta a la europea. Asimismo, la disposición de los objetos sugiere que muchos de estos rituales se celebraban de noche y en secreto, realizados al margen de la vigilancia de los amos.
Uno de los ejemplos más llamativos es el hallazgo de un paquete envuelto en tela y enterrado junto a la chimenea, que contenía dientes de cerdo, fragmentos de loza roja, botones y un cristal. Moses interpreta este conjunto como un "paquete de conjuro" destinado a proteger a la familia esclavizada de las enfermedades o los maleficios.

El papel de las mujeres y los ancianos
Aunque los registros escritos sobre el hoodoo en el periodo esclavista son escasos, la arqueología permite vislumbrar la posible implicación de las mujeres y los ancianos como guardianes del conocimiento mágico. La presencia de objetos relacionados con la salud reproductiva, como los fragmentos de loza en forma de cuenco y las pequeñas conchas, sugiere que las mujeres desempeñaron un papel central en estos rituales, sobre todo en la protección del hogar, la maternidad o el cuidado de los niños.
Moses también destaca la transmisión oral de estos saberes. En muchas comunidades esclavizadas, los más ancianos del grupo eran portadores de la memoria cultural y los conocimientos rituales que se transmitían de forma discreta, en un entorno marcado por la opresión y el silencio.
Una arqueología de la resistencia espiritual
El estudio de Sharon K. Moses no solo amplía nuestro conocimiento sobre las condiciones de vida de los esclavizados en el sur de Estados Unidos, sino que también recupera una dimensión a menudo olvidada de su resistencia: la espiritualidad como forma de agencia cultural. A través del análisis minucioso de los pequeños objetos, la autora ha logrado reconstruir un universo simbólico vibrante, en el que la esperanza adquiría, a través de la magia, una forma tangible.
Referencias
- Moses, Sharon K. Lowcountry Conjure Magic: Historical Archaeology on a Plantation Slave Quarter. Cambridge University Press, 2025.
Una de las características de la humanidad es el apetito creciente por recoger, almacenar y procesar información. A lo largo de nuestra historia, esta tarea se ha realizado con la ayuda de muy diferentes dispositivos, desde papiros y ábacos, hasta la creación del paradigma que domina nuestra sociedad: la computación digital. Hoy en día, estamos rodeados de infinidad de circuitos integrados que capturan, transmiten y procesan datos codificados como señales digitales, ceros y unos, usando corrientes eléctricas y luz para almacenar y comunicar la información.
Ya en los 80, físicos y matemáticos se preocuparon por los límites últimos de la computación digital, tanto desde el punto de vista de eficiencia como energético. En esta década surge la idea del computador cuántico, como un nuevo modelo de cálculo, una construcción teórica donde se reemplazaba la información tradicional —guardada en bits: sistemas físicos con dos estados, 0 y 1, bien distinguidos— por “qubits” o bits cuánticos —dispositivos que siguen las reglas de la mecánica cuántica y que, por tanto, no solo tienen dos estados 0 y 1, sino que pueden existir en “superposiciones” arbitrarias de ambas alternativas.
Mientras que un ordenador de 8 bits solo puede almacenar un número entre 2^8 = 256 posibilidades, en un ordenador cuántico podemos guardar una superposición cuántica de todos los números del 0 al 255, con pesos (o probabilidades) ajustables. Estas superposiciones en un registro cuántico se pueden transformar mediante operaciones elementales, las llamadas puertas cuánticas, para crear nuevas familias de algoritmos.
Si bien los ordenadores cuánticos surgen en los años 80 como una construcción puramente teórica, una idea local de físicos preocupados por las consecuencias últimas de la mecánica cuántica, muy poco después se descubre que estas máquinas ideales tienen aplicaciones interesantes y que probablemente se puedan construir. Una de las primeras aplicaciones, postulada en 1994 por Peter Shor, es la factorización de grandes números. Usando un ordenador cuántico perfecto con 2048 qubits se puede factorizar números de 1024 bits en un tiempo muy rápido, rompiendo gran parte de los códigos que usamos para comunicarnos hoy en día por internet.
La segunda y más inmediata aplicación es la simulación cuántica. Esto consiste en traducir determinados problemas cuánticos, como el cálculo de la estructura electrónica de una molécula o las propiedades de un material formado por miles de átomos, en una codificación de qubits. De esta manera, el ordenador cuántico ideal nos permite calcular las energías de diversos compuestos y el coste de determinadas reacciones químicas, con precisiones y tamaños que no se pueden conseguir ni con toda la capacidad de cálculo del mundo.
Sin embargo, lo que convierte en realidad al ordenador cuántico es la capacidad de ser fabricado. Desde la propuesta de Ignacio Cirac y Peter Zoller en 1995 para construir un ordenador cuántico con iones atrapados en cámaras de vacío, la física atómica y la física del estado sólido han avanzado en paralelo, creando procesadores cuánticos con tamaños cada vez más grandes y precisos. Así, en 2025 tenemos chips cuánticos superconductores, como los chips Willow y Heron de Google e IBM (Ilustración 1), ordenadores cuánticos formados por 256 átomos atrapados con luz Harvard y QuERA y alternativas como los procesadores cuánticos fotónicos o los chips cuánticos semiconductores. En este contexto, cabe preguntarse cuáles son los retos actuales de la computación cuántica, y que resumimos a continuación.

Más y mejores qubits
La fabricación de procesadores cuánticos se enfrenta a dos retos muy fundamentales: construir ordenadores con más qubits y conseguir que las superposiciones cuánticas sobrevivan más tiempo en estos procesadores. La importancia del primer reto es obvia: para realizar cálculos útiles de interés tecnológico y comercial se necesitan en la práctica muchos qubits. Por ejemplo, la factorización de las claves que usamos hoy en día o la simulación de compuestos interesantes requiere de decenas de miles de qubits operando de forma perfecta —muchos más si usamos corrección de errores, como explicamos más adelante.
Sin embargo, aunque empresas como IBM han demostrado la capacidad de integrar centenares y miles de qubits, no basta con esto: también necesitamos que la información almacenada en ellos sobreviva durante todo el cálculo. Esto implica evitar tanto la decoherencia como los errores de operación. El primer concepto se refiere a la fragilidad del qubit, cuyo estado cuántico se puede ver destruido (el qubit pierde la coherencia) por un simple fotón de luz o una partícula de rayos cósmicos que colisione con el procesador. El segundo concepto se refiere a los errores inevitables que ocurren cada vez que manipulamos o leemos un qubits. Aunque pequeños —entre un 0.1 % y un 0.01 %—, estos errores se acumulan exponencialmente, deteriorando la información del registro cuántico a lo largo del cálculo.
Ambos problemas se pueden mitigar creando mejores qubits. La investigación de nuevos materiales superconductores, o la mejora en cómo atrapamos y manipulamos átomos, son técnicas para hacer qubits más robustos y mejorar la fidelidad de las operaciones en los procesadores cuánticos actuales. Pero tampoco es descartable que en un futuro cercano surjan distintos tipos de qubits, como los dispositivos híbridos entre materiales superconductores y moléculas magnéticas investigados en el Instituto de Nanociencia y Materiales de Aragón.
Computación cuántica tolerante a fallos
Tanto la computación cuántica como la computación “tradicional” tienen que asumir que cualquier operación o dato puede estar afectado de errores. En la computación digital clásica existen desde hace mucho tiempo memorias con corrección de errores, que almacenan la información de manera redundante con indicadores que nos permiten detectar cuándo un bit ha fallado y corregirlo. Una estrategia obvia es la repetición. Podemos almacenar un bit lógico 0 o 1 usando tres bits físicos como los estados 000 y 111. Este código de distancia 1 permite detectar cuando 1 bit ha cambiado de estado, identificando que 010, 100 y 001 corresponden en realidad al estado de un bit lógico “0”.
En el mundo cuántico existen también “códigos de corrección de errores”, formalismos redundantes para identificar, localizarlo y arreglar fallos en registros cuánticos. La tarea no es obvia. No es factible “mirar” directamente los qubits para detectar si han sufrido un error, ya que hacer eso destruiría las superposiciones cuánticas. Sin embargo, mediante observables indirectos como paridades y otras medidas colectivas, es posible almacenar información en “qubits lógicos” con una fidelidad por operación superior a la que tiene cada qubit físico por separado.
En este ámbito son de particular relevancia dos experimentos recientes. Uno, de finales de 2023, es el almacenamiento de hasta 48 qubits lógicos en 256 átomos en un experimento de Harvard y el startup QuERA. El segundo, de mediados de 2024, es el almacenamiento de 1 qubit lógico con un código de distancia 7 en el procesador cuántico Willow de Google Quantum AI (Ilustración 1). En este experimento se preservó un 1 qubit de forma redundante usando 105 qubits superconductores, en un código capaz de corregir hasta 7 errores.
Sin embargo, es importante destacar que ninguno de estos procesadores es capaz aún de computación universal tolerante a fallos (“fault-tolerant quantum computing” ó FTQC). Un ordenador escalable de propósito general no solo debe ser capaz de corregir información cuántica, sino que tiene que poder realizar operaciones e implementar algoritmos completos usando qubits lógicos. Solo en ese momento podremos explotar el poder completo de la computación cuántica.
Más algoritmos de mayor utilidad
Una de las necesidades más acuciantes de la computación cuántica es el descubrimiento de nuevos algoritmos y soluciones cuánticas. Esto es así, porque la computación cuántica solo tiene sentido tecnológico, en tanto permita resolver problemas con una mejora cuantitativa clara en recursos (tiempo, memoria y tamaño de problemas).
Lamentablemente, existe aún un conjunto muy reducido de soluciones cuánticas, muchas de las cuales requieren de un ordenador cuántico universal y tolerante a fallos (por ejemplo, el Quantum Algorithms Zoo enumera unos 71 algoritmos). El algoritmo de factorización de Shor es un ejemplo de estos algoritmos que, pese a su interés obvio, no se puede ejecutar en los ordenadores existentes. Pero más importante aún es el hecho de que la programación cuántica es aún una tarea artesanal y difícil de generalizar a problemas arbitrarios.
Una posible solución en el corto plazo es la utilización de ordenadores cuánticos como procesadores externos en aplicaciones en optimización y simulación. Un ejemplo es el algoritmo variacional de optimización heurística. En este paradigma, el ordenador cuántico actúa como una memoria externa en una superposición cuántica exponencialmente grande que, guiada por un ordenador convencional, explora el espacio de configuraciones de un problema duro, hasta encontrar una buena aproximación. Aunque este tipo de soluciones se puede ejecutar en ordenadores imperfectos y produce resultados optimistas en modelos pequeños, muchos investigadores son escépticos de su “utilidad cuántica” frente a otros algoritmos clásicos---incluyendo nuevas soluciones heurísticas “de inspiración cuántica” y de “inteligencia artificial” que han avanzado el estado del arte de la computación digital.

Impulso a una economía cuántica
España, al igual que el resto del mundo, ha reconocido en los últimos años el carácter estratégico de la computación cuántica y las tecnologías cuánticas, promoviendo su implantación en los distintos sectores productivos a través de iniciativas nacionales y autonómicas.
A nivel nacional, la Secretaría de Estado de Digitalización e Inteligencia Artificial, creó el programa Quantum Spain (coordinado por el Barcelona Supercomputing Center), para promover el desarrollo de software cuántico y la creación de infraestructuras de computación cuántica. Este proyecto ha sufragado la adquisición de un ordenador cuántico a un consorcio de empresas liderado por Qilimanjaro Quantum Tech (Ilustración 2), la cual, junto a otras startups y empresas consolidadas, constituye un ejemplo del emergente ecosistema cuántico nacional. A nivel autonómico, tanto el Polo de Tecnologías Cuánticas de Galicia como la iniciativa Basque Quantum en el País Vasco han liderado la adquisición de ordenadores cuánticos a las empresas Oxford Quantum Circuits e IBM, para promover ecosistemas de computación cuántico autonómicos.
Sin embargo, no debemos olvidar que la computación cuántica aún es una tecnología no consolidada que pertenece al ámbito de la investigación. En este sentido, es importante recordar a grupos de investigación españoles, como Daniel Barredo (CSIC) y Leticia Tarruell (ICFO), que lideran el desarrollo de procesadores cuánticos atómicos, así como otros grupos de investigación que exploran tecnologías de computación híbrida o el desarrollo de memorias y dispositivos de comunicación cuántica. Pero sobre todo es importante no perder la perspectiva y reconocer que la computación cuántica es solo una más de las oportunidades que ofrece la segunda revolución cuántica, siendo otros campos, como la criptografía cuántica, el sensado cuántico y la metrología cuántica ámbitos que tendrán un impacto más inmediato en nuestras vidas en el corto plazo.
Referencias
- QMAD – Quantum Materials and Devices Group. (s.f.). Grupo de Materiales y Dispositivos Cuánticos. https://www.qmad.es
- Neven, H. (2024). Meet Willow, our state‑of‑the‑art quantum chip. Google Research Blog. Recuperado de https://blog.google/technology/research/google-willow-quantum-chip
- Bluvstein, D., Evered, S.J., Geim, A.A. et al. (2024). Logical quantum processor based on reconfigurable atom arrays. Nature. doi: 10.1038/s41586-023-06927-3
- Xunta de Galicia. (2022). Polo de Tecnologías Cuánticas de Galicia. Cesga. https://www.cesga.es/polo-de-tecnologias-cuanticas-de-galicia/
- Basque Quantum. (s.f.). Iniciativa para el desarrollo de la computación cuántica en Euskadi. https://www.basquequantum.eus/es

Juan José García Ripoll
Dr. en Física e Investigador Científico del CSIC

Cuando pensamos en cómo nuestros antepasados empezaron a caminar sobre dos piernas, es probable que imaginemos una transición gradual en algún lugar de la sabana africana, entre pastizales abiertos y árboles dispersos. Esa imagen ha sido la dominante durante décadas. Pero un estudio reciente sugiere que tal vez el bipedalismo —esa forma de andar tan característica del ser humano— no nació en el suelo, sino en las copas de los árboles.
El hallazgo proviene de un seguimiento detallado a una comunidad de chimpancés en el Valle de Issa, en el oeste de Tanzania, donde el paisaje no es una selva densa ni una sabana abierta, sino algo intermedio: un ecosistema llamado sabana-mosaico. Allí, los investigadores observaron comportamientos sorprendentes de locomoción arbórea y suspensión que podrían ayudar a reconstruir la evolución de nuestros propios movimientos. El estudio, publicado en Frontiers in Ecology and Evolution, propone una hipótesis alternativa que podría reescribir parte de la historia evolutiva humana.
Árboles, no llanuras
Una de las primeras ideas que desafía el artículo es la relación entre el bipedalismo y la vida en tierra firme. La suposición clásica decía que, al abandonar los árboles, los homínidos se vieron obligados a caminar erguidos para desplazarse por espacios abiertos. Sin embargo, los chimpancés del Valle de Issa no se comportan como se esperaba para animales que viven en un entorno así de seco y con vegetación dispersa.
En vez de permanecer en el suelo, estos chimpancés pasan una parte considerable del tiempo movilizándose entre las ramas, incluso en plena estación seca. Esto sugiere que la presión evolutiva para caminar en dos patas pudo haber estado ya presente en el entorno arbóreo, y no exclusivamente como una respuesta a un cambio de hábitat. Como explican los autores, “la locomoción arbórea, y en particular la locomoción bípeda, fue usada principalmente para la alimentación arbórea en Issa”.

Comida difícil, ramas más finas
Durante cinco meses, el equipo observó de cerca a 14 chimpancés adultos, registrando cómo forrajeaban, cuánto tiempo pasaban en los árboles y qué tipos de alimentos preferían. También midieron la forma, tamaño y estructura de los árboles en los que comían. Los resultados fueron claros: cuanto más grande y frondoso era el árbol, más tiempo pasaban en él. Pero no era solo cuestión de abundancia de alimento, sino también del tipo.
Los chimpancés se alimentaban sobre todo de frutas, pero también de hojas, flores y semillas duras ubicadas en las ramas terminales. Estas ramas suelen ser más delgadas y requieren un esfuerzo físico mayor para alcanzarlas sin caer. El comportamiento observado incluía movimientos suspendidos —colgándose con los brazos— y posturas erguidas mientras se aferraban a otras ramas. Estas acciones eran necesarias para acceder a la comida, pero al mismo tiempo recuerdan mucho a la locomoción bípeda.

Lo que dicen los árboles
Los árboles del entorno, en su mayoría de la especie Brachystegia, tienen una forma particular: copas abiertas con ramas largas que se proyectan como un cono invertido. Este tipo de estructura exige que el animal distribuya su peso con precisión para no romper las ramas, lo que favorece el uso de posturas ortógradas (con el tronco erguido) y movimientos controlados.
El estudio comprobó que los chimpancés preferían estos árboles cuando el alimento estaba bien distribuido y era abundante. En esos casos, pasaban más tiempo en una sola copa, lo que permitía amortizar el esfuerzo de subir. “La estrategia de forrajeo basada en invertir más tiempo en árboles con grandes copas y alimentos terminales abundantes probablemente explica la alta frecuencia de locomoción arbórea observada en Issa” .
Además, el análisis de la forma del árbol reveló que las probabilidades de que aparecieran comportamientos de suspensión aumentaban en árboles con forma de sombrilla o cono invertido. Estos diseños parecen facilitar la locomoción suspendida y bípeda como una forma eficiente de moverse entre las ramas.

Bipedismo sin tocar el suelo
Una de las observaciones más llamativas del estudio es que el bipedalismo no se limitaba al suelo. En realidad, los chimpancés lo empleaban sobre todo en las ramas, mientras se sostenían de otras para mantener el equilibrio. Como señalan los autores, “si los chimpancés del Valle de Issa pueden considerarse modelos adecuados, los comportamientos suspensivos y bípedos probablemente fueron vitales para un homínido grande, frugívoro y semi-terrestre que habitara un entorno abierto” .
Este enfoque reabre el debate sobre si caminar erguido fue una adaptación al terreno abierto o una habilidad ya presente en los árboles, favorecida por la necesidad de alcanzar frutas difíciles en ramas inestables. La importancia de la suspensión —moverse colgando del cuerpo— puede haber sido más decisiva que la simple caminata terrestre en los primeros pasos evolutivos del ser humano.
Más preguntas por responder
A pesar de lo sugerente de estos resultados, el estudio tiene límites. Por ejemplo, solo se realizaron observaciones durante la estación seca, cuando el alimento escasea en algunos sectores del bosque. Además, los datos provienen de una única comunidad de chimpancés, lo que impide generalizar sin precaución.
Aun así, el artículo abre una línea de investigación prometedora. A futuro, se esperan más estudios comparativos en otras regiones con hábitats similares, así como análisis nutricionales de los alimentos y datos sobre disponibilidad durante todo el año. Todo esto ayudaría a validar o refutar la hipótesis de que la locomoción bípeda se consolidó como una estrategia para aprovechar mejor recursos arbóreos dispersos en un entorno cambiante.
Como resume el equipo de investigación, “nuestros resultados informan sobre la interacción entre morfología, ecología y comportamiento de los simios en una sabana-mosaico, y tienen importantes implicaciones para la interpretación del comportamiento fósil hominoide a partir de la morfología en ambientes análogos”.
Referencias
- Drummond-Clarke RC, Reuben SC, Stewart FA, Piel AK y Kivell TL (2025) Foraging strategy and tree structure as drivers of arboreality and suspensory behaviour in savannah-dwelling chimpanzees. Frontiers in Ecology and Evolution. https://doi.org/10.3389/fevo.2025.1561078.
En un momento en que la movilidad eléctrica da pasos decisivos hacia la consolidación, Lexus redobla su apuesta con una propuesta tan sofisticada como ambiciosa: el nuevo Lexus RZ 300e e-Premium Design 2025. Se trata de una actualización relevante en su primer SUV 100% eléctrico, que ahora incorpora una versión mejorada con un enfoque aún más premium, refinado y tecnológico. Una evolución que no solo atiende a las demandas del mercado, sino que reafirma el compromiso de la marca con la electrificación y el diseño vanguardista.
Este nuevo acabado llega asociado exclusivamente a la versión RZ 300e, dotada de tracción delantera, 204 CV de potencia y una batería de 71,4 kWh capaz de proporcionar hasta 430 km de autonomía en ciclo WLTP. Una combinación que convierte al nuevo RZ en un modelo ideal tanto para el día a día como para los desplazamientos largos, sin comprometer la comodidad ni el rendimiento.
Pero si algo define al RZ e-Premium Design es su cuidada estética. Con líneas fluidas y expresivas, el SUV japonés no solo quiere ser eficiente: también quiere emocionar. Bajo el concepto Seamless E-motion, el diseño transmite dinamismo, fluidez y control, desde la parrilla frontal hasta la firma luminosa trasera, sin perder la esencia Lexus.
En el interior, la experiencia toma forma a través del concepto Tazuna, que pone al conductor en el centro, rodeado de materiales nobles, tecnología intuitiva y soluciones pensadas para el confort. Una atmósfera premium que no necesita exageraciones: habla el equilibrio, el silencio y la precisión. El e-Premium Design es, en definitiva, una invitación a redescubrir la movilidad eléctrica sin renunciar a nada.
Diseño exterior que transmite movimiento
El Lexus RZ 300e e-Premium Design se presenta con una silueta fluida y atlética. Su capó rebajado, la parrilla tipo “Spindle Body” y los faros ultrafinos refuerzan el carácter dinámico del vehículo, mientras que la zaga con alerón dividido y firma luminosa lo convierte en un SUV inconfundible.
Disponible en cuatro colores —Negro Graphite, Iridio Sonic, Gris Berlín y Blanco Santorini—, se combina con llantas de 20 pulgadas bitono que acentúan su identidad eléctrica y deportiva.

Interior inspirado en el concepto Tazuna
En el habitáculo, el diseño sigue el concepto Tazuna, basado en la interacción natural entre el conductor y el vehículo. Todo está dispuesto para reducir los movimientos y distracciones, facilitando una conducción más intuitiva.
La tapicería de cuero sintético Tahara, disponible en color avellana o gris oscuro (según el exterior), aporta un toque cálido y refinado, con perforaciones que mejoran la transpirabilidad y resistencia del material.

Tecnología de confort elevada al detalle
Uno de los elementos estrella del nuevo RZ es su sistema de calefacción radiante, más eficiente que los tradicionales. Dos paneles infrarrojos calientan directamente los objetos sólidos —como las piernas del conductor— reduciendo el consumo energético y mejorando la rapidez de climatización.
Este sistema inteligente baja automáticamente la temperatura si se toca el panel, asegurando una experiencia térmica segura y confortable.

Climatización con inteligencia ambiental
La climatización bizona del RZ incorpora tecnología nanoe™-X, que purifica el aire eliminando virus, alérgenos y malos olores. Al mismo tiempo, mantiene la humedad del habitáculo, beneficiando a piel y cabello.
Este sistema no solo mejora el bienestar de los ocupantes, sino que reduce el uso del sistema de aire acondicionado convencional, optimizando la eficiencia energética.

Pantalla de 14” y conectividad sin cables
El sistema Lexus Pro multimedia está presidido por una pantalla táctil de 14 pulgadas, con navegación premium integrada. Compatible con Apple CarPlay® inalámbrico y Android Auto® por cable, ofrece una experiencia digital fluida y moderna.
Toda la interfaz ha sido diseñada para facilitar el acceso a información clave, sin perder de vista la carretera ni sacrificar el diseño limpio del interior.

Prestaciones a la altura de la imagen
Bajo su elegante carrocería, el RZ 300e esconde un motor de 204 CV y 266 Nm de par. Gracias a su batería de gran capacidad y ubicación bajo el piso, el centro de gravedad es bajo, lo que mejora la estabilidad y la agilidad en curva.
La conducción precisa y suave se alinea con la filosofía “Lexus Driving Signature”, que pone el acento en la respuesta lineal y el confort. Y aunque el RZ representa el paso eléctrico más ambicioso de la marca, el Lexus más compacto hasta la fecha demuestra que la electrificación también puede tomar otras formas igual de eficientes y urbanas dentro del catálogo.

Recargas rápidas y autonomía útil
El sistema de carga rápida permite pasar del 10% al 80% en apenas 30 minutos, lo que facilita los viajes largos y la recarga en puntos públicos. En uso mixto, los 430 km de autonomía homologada ofrecen margen suficiente para olvidarse del enchufe durante varios días. Una cifra más que competitiva en el segmento de los SUV eléctricos premium con tracción delantera.

Seguridad de última generación con Lexus Safety System+ 3.0
La tercera generación del sistema de seguridad Lexus integra tecnologías como el Sistema Precolisión con Dirección Asistida de Emergencia, el Control de Crucero Adaptativo y la Dirección Asistida Proactiva, diseñada para entornos urbanos complejos.
Este enfoque avanzado de asistencia mantiene al conductor seguro sin invadir su control, elevando el confort en desplazamientos diarios y largos trayectos.

Control total gracias al Driver Monitor
El sistema Driver Monitor analiza el nivel de atención del conductor y, si detecta fatiga o distracción, puede detener el coche de forma segura y activar las luces de emergencia. Este componente mejora no solo la seguridad individual, sino también la del resto de ocupantes y vehículos en carretera.

Apertura inteligente y acceso manos libres
El RZ 300e e-Premium Design incluye de serie el sistema Smart Entry, que permite entrar y arrancar sin necesidad de sacar la llave. A esto se suma el portón trasero eléctrico con función Kick Power, muy útil para cargar el maletero con las manos ocupadas. Además, el sistema e-Latch evita la apertura de puertas si detecta peligro por vehículos o ciclistas en aproximación, reforzando la seguridad en ciudad.

Un modelo pensado para el presente (y el futuro)
Con un precio de 52.900 euros, el Lexus RZ 300e e-Premium Design se sitúa como una de las ofertas más competitivas en su categoría, tanto por tecnología como por estética y confort. Su perfil no solo convence al conductor urbano que busca un SUV premium eléctrico, sino también al aventurero que quiere disfrutar de su coche más allá del asfalto.
Y para quienes necesitan aún más versatilidad off-road, Lexus ofrece alternativas como el Lexus NX Overtrail: el SUV diseñado para aventureros exigentes, que lleva la experiencia SUV hacia entornos más extremos sin perder ese toque sofisticado que caracteriza a la marca.

Lexus RZ 300e: un pilar clave en la estrategia electrificada de la marca
El RZ 300e se suma a la familia eléctrica de Lexus, donde conviven modelos híbridos, enchufables y 100% eléctricos. Esta diversidad permite a la marca cubrir las distintas necesidades del mercado sin perder su identidad.

El nuevo e-Premium Design demuestra que electrificación y lujo pueden ir de la mano. Es una declaración de intenciones: Lexus no solo quiere liderar el cambio, quiere hacerlo con estilo.
La historia de cómo se persiguió a las brujas en la Europa de la Edad moderna sigue generando estudios cada vez más reveladores sobre las motivaciones y circunstancias que propiciaron tal fenómeno. Ahora, una reciente investigación traspasa las fronteras del continente europeo para rescatar del olvido las historias de dos mujeres indígenas acusadas por la Inquisición portuguesa en el siglo XVI. Sus nombres cristianos —Mónica e Íria— se cuentan entre los pocos datos que nos ha legado el archivo inquisitorial, pero bastan para abrir una vía para comprender cómo las mujeres indígenas preservaban, practicaban y transmitían los saberes tradicionales en un mundo atravesado por el colonialismo, la esclavitud y el catolicismo imperial.
El estudio, publicado por la historiadora Jessica O’Leary en Women’s History Review, demuestra que la represión de las prácticas tradicionales no respondió tanto a una lucha contra la herejía como al miedo al poder social de los saberes femeninos indígenas.

Dos mujeres, dos orillas del Atlántico, una misma represión
La primera de las dos acusadas, Mónica Fernandes, fue una mujer akan nacida entre los ríos Ankobra y Volta, en la actual Ghana. Los misioneros portugueses la esclavizaron y bautizaron en el enclave fortificado de São Jorge da Mina. Más tarde, se la manumitió.
Su caso llegó a la Inquisición de Lisboa en 1556, acusada de múltiples delitos. Entre ellos, emplear remedios curativos indígenas, maldecir a otras mujeres y hacer “hechizos” con yuca, gallinas y agua. Su única defensa se basó en afirmar que tales prácticas eran comunes en su tierra y no tenían nada de brujería: “todos los negros y negras de Mina lo hacían”, alegó.
Por otro lado, Íria Álvares fue una mujer tupinambá esclavizada en su infancia y trasladada a la región de Bahía, en Brasil. En 1593, ya manumitida y residente en Pernambuco, fue denunciada ante la Inquisición por su propio hijo, quien la acusó de haberlo llevado a participar en la Santidade de Jaguaripe, un movimiento espiritual y político indígena que recuperaba prácticas como el uso ritual del tabaco, la danza y la bebida ceremonial del cauim. Íria alegó que no había cometido herejía, ya que creía en el carácter sagrado de tales expresiones de fe.

Más que superstición: saberes indígenas codificados como crimen
El análisis de O’Leary se aparta de las categorías tradicionales con las que la Inquisición etiquetaba sus delitos —hechicería, idolatría, herejía— para centrarse en lo que, en verdad, estaba en juego: el control sobre la transmisión de saberes culturales no europeos en un contexto colonial. En ambos casos, las prácticas por las que se juzgó a Mónica e Íria correspondían a saberes indígenas profundamente enraizados. Sus críemenes fueron practicar la medicina botánica, las ceremonias de sanación, la cosmología tupi o los rituales agrícolas akan.
Para los inquisidores, estas prácticas eran peligrosas tanto por su contenido espiritual como por su capacidad de seducción. Las mujeres indígenas, sobre todo las más ancianas o las madres, se percibían como vectores de transmisión cultural. Su influencia en las comunidades indígenas podía alentar la resistencia a los intentos de aculturación cristiana, sobre todo en contextos donde escaseaban las mujeres europeas y la maternidad recaía de forma mayoritaria en las indígenas o las mamelucas.

Redes femeninas de conocimiento: una supuesta amenaza invisible
En el caso de Mónica, los testimonios recogidos en el fuerte de São Jorge da Mina muestran que la denunciaron varias mujeres africanas. Esto sugiere la existencia de una red social compleja de relaciones, rivalidades y temores. Mónica acudía a los curanderos locales para tratar las mordeduras de animales, por ejemplo, y también empleaba remedios caseros aprendidos en su comunidad akan. Negó rotundamente haber hablado con demonios o pactado con fuerzas malignas: insistió en que sus prácticas formaban parte de su cultura.
Por lo que respecta a Íria, la amenaza radicaba en la capacidad de transmitir a su hijo varón —un futuro hombre cristiano y colonizador— saberes indígenas considerados incompatibles con la ortodoxia. Aunque su primera acusación fue por bigamia, lo que preocupaba realmente al tribunal era su participación en el movimiento de la Santidade, algo que había despertado gran inquietud entre los jesuitas.
Saberes ancestrales en un mundo inquisitorial
Ambas mujeres se enfrentaron a los procesos inquisitoriales usando estrategias distintas. Mónica, que apenas conocía los rudimentos del catecismo, se negó una y otra vez a reconocer que sus prácticas fuesen actos de brujería. Incluso bajo presión, sostuvo que sus acciones no eran pecado, sino costumbre de su pueblo.
Íria, en cambio, dominaba el portugués y sabía cómo presentarse ante la justicia colonial. Declaró ser una mujer “simple” e “ignorante”, estrategia común entre las mujeres que buscaban mitigar su castigo.
Aun así, se las declaró culpables. Condenaron a Mónica a la reeducación doctrinal y a no tener contacto con otras personas indígenas. Íria, por su parte, tuvo que hacer penitencia pública en Olinda y pagar las costas judiciales. También se la estigmatizó por su implicación en prácticas consideradas bárbaras.

La criminalización del conocimiento femenino
Según el estudio de O'Leary, los documentos inquisitoriales revelan que la represión no se dirigía tanto a los actos individuales cuanto a las redes de conocimiento colectivo. Estas mujeres eran peligrosas por lo que sabían, enseñaban y compartían en su entorno
Además, en un contexto donde los archivos apenas conservan voces femeninas indígenas, estos procesos permiten recuperar algo de su subjetividad. Estas mujeres actuaban con capacidad de agencia al decidir cuándo callar, cuándo negar, cuándo negociar y cuándo resistir.
Una historia de conocimiento, resistencia y género
Este estudio demuestra que, al mirar más allá de las categorías inquisitoriales, podemos reconstruir una historia conectada de saberes indígenas y resistencia femenina en los márgenes del imperio portugués. Las prácticas de Mónica y de Íria, aunque percibidas como herejía, eran formas de vivir y entender el mundo desde otros marcos culturales. En definitiva, lo que estas historias nos enseñan es que el conocimiento —sobre la salud, la espiritualidad, el cuerpo o la comunidad— fue una trinchera de resistencia sustentada, en gran parte, por el trabajo de las mujeres indígenas.
Referencias
- O’Leary, Jessica. 2025. "Don’t call it magic: Indigenous knowledges in sixteenth-century Portuguese Inquisition trials of women in Brazil and West Africa." Women's History Review: 1-19. DOI: https://doi.org/10.1080/09612025.2025.2535052
Pocos estudiantes olvidan las primeras conversaciones con sus profesores. Quienes tienen vocación científica suelen recordar con nitidez los consejos que reciben cuando apenas están eligiendo su camino. Max Planck no fue la excepción. Cuando en 1878 comenzó sus estudios en la Universidad de Múnich, pidió consejo a uno de sus profesores más respetados, Philipp von Jolly. Lo que obtuvo no fue aliento, sino una advertencia: no valía la pena dedicarse a la física, porque ya estaba todo descubierto. En ese momento, Albert Einstein aún no había nacido y ni siquiera existía la palabra “cuántico”.
Este episodio, relatado por el propio Planck en una conferencia de 1924, es el núcleo del artículo académico firmado por James D. Wells, del Centro de Física Teórica de la Universidad de Michigan. El texto reproduce la cita exacta de Planck y analiza el contexto histórico de aquella predicción fallida. El trabajo no es solo una curiosidad histórica, puesto que no muestra cómo los errores de predicción los pueden cometer incluso las mentes más brillantes al proyectar el futuro del conocimiento científico.
La falsa sensación de final
A finales del siglo XIX, era común entre algunos científicos pensar que la física estaba a punto de completarse. Se conocían las leyes de Newton, el electromagnetismo de Maxwell y el principio de conservación de la energía. Todo parecía encajar. Esta sensación de cierre inminente llevó a muchos a creer que solo quedaban detalles por pulir. No era una posición marginal: incluso Lord Kelvin mencionó públicamente que no quedaban más que “dos nubecillas en el horizonte” científico.
Philipp von Jolly representaba esa visión. Cuando Planck acudió a él para hablar sobre su futuro académico, von Jolly fue claro. Según Planck, le describió la física como “una ciencia altamente desarrollada, casi completamente madura, que [...] pronto tomaría su forma final y estable”. Añadió que quedaban quizá “algunos rincones donde examinar o clasificar un detalle aquí y allá, pero el sistema como un todo estaba bastante asegurado”. Esas palabras no solo subestimaban lo que vendría, sino que reflejaban una confianza absoluta en que el conocimiento fundamental estaba cerrado.

Planck decide seguir adelante
A pesar de ese consejo, Max Planck no se dejó desalentar. Continuó sus estudios y acabó iniciando una de las mayores revoluciones científicas del siglo XX. En el año 1900, presentó una teoría para explicar la radiación del cuerpo negro, introduciendo la idea de que la energía no era continua, sino que se emitía en “cuantos”. Este concepto fue el germen de la física cuántica.
Lo notable es que Planck no se propuso revolucionar nada. En sus propios escritos, se muestra como un pensador conservador, más interesado en ajustar la física existente que en romperla. Sin embargo, sus cálculos lo llevaron a una conclusión radical. Esa paradoja —el revolucionario que no quería serlo— acentúa aún más el error de su antiguo profesor. Von Jolly creyó ver el final de un camino justo cuando se estaba abriendo un nuevo horizonte.
La actitud de Planck también revela algo importante sobre el progreso científico. No se trata solo de tener ideas brillantes, sino de atreverse a seguir investigando incluso cuando parece que todo está dicho. Muchos de los grandes avances surgen no de la ruptura intencional, sino del intento sincero de comprender lo que parece no encajar.

El valor de las predicciones equivocadas
El artículo de James D. Wells recuerda que este tipo de predicciones erróneas no son raras. De hecho, suelen ser cíclicas. Hay épocas en las que ciertos científicos o divulgadores anuncian que ya se ha alcanzado un límite, que ya no queda nada fundamental por descubrir, y que lo único que resta es perfeccionar lo que ya se sabe. Pero la historia muestra una y otra vez que estas afirmaciones son prematuras.
“Es útil recordar periódicamente predicciones erróneas hechas con gran seguridad para inmunizarnos contra pensamientos equivocados similares en el presente”, escribe Wells. La cita no solo encierra una advertencia, sino una sugerencia de humildad intelectual. Cada generación de científicos cree entender mejor el mundo que la anterior, pero eso no significa que el conocimiento esté completo.
Este recordatorio cobra aún más valor en la actualidad, cuando la física se enfrenta a desafíos como la materia oscura, la energía oscura o la unificación de las fuerzas fundamentales. Si alguien hoy afirmara que estamos cerca del final, ¿no repetiría exactamente el error de von Jolly?
Lo que Planck escuchó y lo que el tiempo desmintió
La cita que Planck conserva de su profesor es clara y contundente. En una conferencia pronunciada en 1924 en la Universidad de Múnich, titulada Vom Relativen zum Absoluten, rememoró así la advertencia que recibió en 1878:
Me describió la física como una ciencia altamente desarrollada, casi completamente madura, que, gracias al logro culminante del descubrimiento del principio de conservación de la energía, pronto tomaría su forma final y estable. Tal vez seguiría en algún rincón u otro, examinando o poniendo en orden algún detalle aquí o allá, pero el sistema en su conjunto estaba bastante asegurado, y la física teórica se acercaba notablemente al grado de perfección que, por ejemplo, la geometría había alcanzado siglos atrás
Max Planck
Esa visión era compartida por otros físicos de la época, pero su rotundidad es lo que llama la atención. Comparar la física con la geometría, como si ambas fueran estructuras ya cerradas, no dejaba mucho margen para la sorpresa.
Sin embargo, apenas unas décadas más tarde, esa imagen se desmoronaría por completo. Con el desarrollo de la relatividad general, la mecánica cuántica, la teoría del átomo y más adelante la física de partículas, la estructura misma del universo se reveló como algo mucho más complejo, dinámico y misterioso de lo que von Jolly habría imaginado.
Una historia que sigue vigente
La anécdota entre Planck y von Jolly no es solo una curiosidad histórica. Tiene un valor pedagógico y filosófico. Recordar que incluso los expertos pueden equivocarse de forma tan rotunda ayuda a cultivar el pensamiento crítico. Las ciencias evolucionan, se revisan, se contradicen y se reinventan. Creer que el conocimiento está cerrado es, en realidad, una forma de detener su avance.
También es una advertencia contra el exceso de confianza. Von Jolly no era un ignorante ni un charlatán. Era un académico respetado, que había contribuido a campos como la gravitación y la ósmosis. Incluso fue nombrado caballero en 1854. Su error no fue de formación, sino de perspectiva.
En momentos donde se discute el papel de la inteligencia artificial, las fronteras de la física o los límites de la biología sintética, esta historia sigue lanzando una pregunta incómoda: ¿qué parte del conocimiento actual será vista como ingenua o errada dentro de 50 años?
Referencias
- Planck, M. (2001). Vom Relativen zum Absoluten. In: Roos, H., Hermann, A. (eds) Vorträge Reden Erinnerungen. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-56594-6_11.
- James D. Wells, Prof. von Jolly’s 1878 prediction of the end of Theoretical Physics as Reported by Max Planck, Scholardox E7, 6 de marzo de 2016. https://deepblue.lib.umich.edu/handle/2027.42/163719.
Los smartphones de gama media siguen ganando protagonismo en 2025 al incorporar funciones avanzadas como pantallas OLED, cámaras de alto rendimiento y conectividad 5G. Su equilibrio entre precio y prestaciones los convierte en una opción muy atractiva.
Xiaomi no se queda atrás este verano y lanza una ofensiva imbatible. Tras liquidar el POCO F7 Ultra, ahora pone toda la carne en el asador y deja el Xiaomi 14T al precio más bajo visto hasta la fecha. Una jugada redonda que pone en jaque a la competencia.

Aunque su precio habitual supera los 348€ en tiendas como Amazon, Fnac o Miravia, Xiaomi vuelve a sorprender gracias a su alianza con AliExpress, el Xiaomi 14T cae en picado hasta los 307,99 euros. Una oportunidad difícil de repetir.
Incorpora el potente procesador MediaTek Dimensity 8300-Ultra de 4 nm, acompañado de 12 GB de RAM y 256 GB de almacenamiento interno. Su pantalla AMOLED plana de 6,67 pulgadas ofrece resolución 1.5K, tasa de refresco de 144 Hz y un brillo máximo de 4000 nits para una experiencia visual de alto nivel.
En fotografía, destaca con un sistema triple firmado por Leica: sensor principal de 50 MP IMX906 con OIS, lente teleobjetivo de 50 MP y ultra gran angular de 12 MP. Todo ello respaldado por una batería de 5000 mAh con carga rápida de 67 W, altavoces estéreo con Dolby Atmos, Wi-Fi 6E y Bluetooth 5.4.
Xiaomi suma el dispositivo 12 Pro de 256 GB a su lista de smartphones en oferta
Xiaomi redobla su apuesta en la gama media y lanza una agresiva rebaja en su 12 Pro de 256 GB, que ahora baja hasta los 212,39 euros. Una oferta muy por debajo de los más de 349€ que marca en tiendas como Amazon, PcComponentes o Miravia. En plena oleada de descuentos, se posiciona como uno de los smartphones más competitivos del momento.

Destaca por su diseño elegante y sofisticado con líneas suaves, acabado mate aterciopelado y protección Gorilla Glass Victus. Su pantalla AMOLED WQHD+ de 6,73 pulgadas ofrece una tasa de refresco de 120 Hz con AdaptiveSync Pro que ajusta la frecuencia de 1 a 120 Hz para optimizar brillo y consumo energético.
En fotografía, incorpora un sistema triple de cámaras Pro de 50 MP con sensor Sony IMX707 que capta un 120 % más de luz para fotos nocturnas excepcionales. Además, incluye modos avanzados como Ultra Night Photo y Video para capturar detalles en baja iluminación. Equipado con Snapdragon 8 Gen 1, altavoces cuádruples estéreo con Dolby Atmos y carga rápida HyperCharge de 120 W. Por lo que ofrece potencia y rendimiento de última generación.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Para que las relaciones funcionen, ya sea en una pareja, entre amigos o, incluso, entre dos países, es imprescindible un elemento que suele pasar desapercibido. Sin él, las tensiones serían constantes y, posiblemente, el ser humano no habría podido sobrevivir hasta hoy. Hablamos de la empatía, una capacidad que aprendemos desde los primeros años de vida.
El término engloba a una serie de conductas y capacidades centradas en la respuesta a las emociones de los demás. James Burkett, investigador del departamento de Salud Ambiental de la Universidad Emory (EE. UU.), explica que el concepto se divide en dos grandes categorías: la empatía emocional y la cognitiva.
Cuando vemos a alguien lesionarse o a una persona querida llorando, se nos despierta la emocional. “Configura nuestra respuesta instintiva y reflexiva hacia los sentimientos de los demás, y nuestra motivación inmediata para responder”, señala el científico. Este rasgo es típico de los humanos y de muchos otros mamíferos.
Sin empatía, no hay sociedad
En un nivel diferente, estaría imaginar los pensamientos y emociones de los demás, y pensar en cómo ayudarlos. Esa sería la empatía cognitiva, que es mucho más sofisticada y estaría limitada, según Burkett, a humanos, grandes simios, elefantes, perros y algunas aves de gran cerebro.
Por otra parte, esta compleja capacidad no solo es necesaria para que se puedan dar las relaciones humanas: además influye de forma positiva en la salud. Según apunta María Vicenta Mestre, catedrática de Psicología Básica y rectora de la Universidad de Valencia, la empatía está relacionada con una mayor salud mental, un equilibrio emocional y, por extensión, un mejor estado físico.
A su vez, esto “protege de determinados trastornos orgánicos o enfermedades que tienen como factor de riesgo la ansiedad o el estrés”, afirma la experta. Además, la rectora recuerda que es un escudo frente a la agresividad y facilita la conducta prosocial, es decir, la ayuda, la cooperación y la solidaridad.

El arte de sentir sin desbordarse
No obstante, en contadas ocasiones, un exceso de preocupación por el prójimo también puede resultar perjudicial. Es el caso de profesionales que trabajan de cara al público y se enfrentan cada día a dramas humanos. “Creo que la clave está en entrenar la capacidad de empatizar sabiamente, es decir, saber cuándo usar la propia empatía y cuándo no”, aconseja Christian Keysers, investigador del departamento de Neurociencia de la Universidad de Groninga y del Instituto de Neurociencia de los Países Bajos.
El neurocientífico pone a los cirujanos como ejemplo de profesionales que saben cuándo utilizar esta habilidad. Al hablar con el paciente y con los familiares, la emplean y así comprenden lo que estos necesitan, con lo que logra que se sientan mejor. Sin embargo, en la mesa de operaciones, la reducen al mínimo, para poder actuar de forma racional y sin emociones de por medio.
El cardiocirujano británico Stephen Westaby lo relata a la perfección en el libro Vidas frágiles (Paidós, 2018). Su consejo para los nuevos cirujanos es “nunca te involucres”. El veterano médico cuenta cómo le fue cambiando este rasgo con el paso de los años. “Con la edad, mi objetividad se iba desvaneciendo y la empatía se apoderaba de mí. Mi profesión me estaba pasando factura”, escribe.
La experiencia de Westaby no es un caso aislado. Diferentes estudios han demostrado que la empatía aumenta con la edad –eso sí, hasta llegar a un punto–. Una investigación dirigida por la Universidad de Míchigan con datos de más de 75000 individuos reveló que los participantes de mediana edad –en la cincuentena– eran más compasivos que los jóvenes y los ancianos.
Ellas sienten más, ellos se desconectan mejor
Dentro de este colectivo, las féminas se ponían más en la piel de los demás.
“En nuestros estudios, en todas las edades, desde la infancia hasta más allá de la juventud, las mujeres son más empáticas que los hombres”, resume Mestre. La única excepción que ha encontrado su equipo de investigación es un caso puntual, cuando evaluaron la empatía en jóvenes que estaban internados en un centro de menores bajo medidas judiciales por algún delito. Solo en ese caso, la capacidad era la misma en chicos que en chicas.
Por su parte, Begoña Delgado, profesora del departamento de Psicología Evolutiva y de la Educación de la UNED, también ha estudiado estas diferencias de género y corrobora estas observaciones. Pero ella y su equipo han descubierto una peculiaridad: los varones tienen mayor facilidad para frenar esta capacidad que las mujeres.
La investigación, publicada en la revista Child Psychiatry & Human Development, se llevó a cabo con 721 adolescentes de la Comunidad de Madrid. A todos se les aplicó una herramienta que se suele utilizar para medir la empatía, el Interpersonal Reactivity Index, que evalúa tanto los aspectos cognitivos como emocionales, y de la que los autores extrajeron una medida que definieron como impasibilidad.
Los resultados mostraron que las jóvenes tenían mayores niveles en todos los rasgos que componen la empatía, salvo en la citada impasibilidad, variable que destacó por su asociación con el género masculino. “Es posible que tanto ellas como ellos puedan llegar a ser igual de empáticos, pero es más difícil que sean igual de no empáticos”, puntualiza la investigadora.
Los hombres tienen mayor facilidad para frenar la empatía
Según Delgado, diferentes estudios han confirmado que los varones presentan un mayor control cognitivo de esta capacidad que las mujeres, lo que significa que, si empatizan con alguien pero la situación cambia, ellos son capaces de desconectar mejor.
Dejando a un lado esta particularidad, son varias las causas que explican por qué ellas son más compasivas que ellos. Por un lado, está la socialización, ya que, culturalmente, las mujeres han sido más educadas en la protección y sensibilidad hacia los demás. Pero, asimismo, hay factores endocrinos y neurológicos.
“Nuestra configuración hormonal es diferente. En los varones, la testosterona provoca fácilmente la ira, incluso la agresión, que es la antítesis de la empatía”, compara Delgado. Por el contrario, en ellas, hormonas como la progesterona o la oxitocina facilitan la comprensión emocional.

¿Qué personalidad tiene la gente más empática?
Otro equipo de científicos se propuso analizar qué rasgos de la personalidad estaban relacionados con la empatía y, para ello, utilizaron el modelo Big Five. Esta herramienta de “los cinco grandes” sirve para describir la personalidad y se resume en la palabra inglesa OCEAN. La O correspondería a Openness –apertura a nuevas experiencias–, la C a Conscientiousness –responsabilidad–, la E a Extraversion –extraversión–, la A a Agreeableness –amabilidad– y la N a Neuroticism –inestabilidad emocional–.
En la investigación, publicada en la revista Frontiers in Psychology, participaron alrededor de mil personas de China, Alemania, Estados Unidos y España, para que los autores analizaran si había diferencias culturales.
“El hallazgo más sólido apunta a que una mayor amabilidad está vinculada con una mayor empatía”, sostiene Christian Montag, investigador del Instituto de Psicología y Educación de la Universidad de Ulm (Alemania) y autor principal del estudio. Los datos también revelaron una relación proporcional con la responsabilidad. En cuanto a si había diferencias entre los participantes de los cuatro países analizados, no encontraron ninguna significativa.
Raíces genéticas
Las similitudes entre personas que viven en puntos tan diferentes del mundo podrían tener que ver con las raíces genéticas de esta conducta. Así, un estudio publicado en la revista Translational Psychiatry ha concluido que no solo es el resultado de la educación y experiencia, sino que también está influida por variaciones genéticas.
La investigación se remonta a hace quince años, cuando un equipo de la Universidad de Cambridge desarrolló una herramienta para medir este sentimiento de identificación con los demás: la llamaron Cociente de Empatía –EQ, por sus siglas en inglés–. Además de confirmar de nuevo que las mujeres, de promedio, son más compasivas que los hombres, los autores descubrieron que las personas con autismo presentaban dificultades con la empatía cognitiva, aunque la emocional podían tenerla intacta.
Ahora, en colaboración con el Instituto Pasteur de Francia, la compañía estadounidense 23andMe y otras instituciones han analizado la información genética de más de 46000 personas y la han relacionado con sus niveles de empatía, obtenidos gracias al test EQ que los participantes rellenaron de forma online.
Los resultados mostraron que una décima parte de las variaciones en el grado de empatía entre diferentes personas se asociaba con factores genéticos. El estudio volvió a revelar mayores niveles en las mujeres, pero no como consecuencia del ADN, puesto que los autores no observaron diferencias en los genes según el sexo. A juicio de los científicos, las causas tienen que ver con la socialización o con factores biológicos no genéticos, como las influencias hormonales.
En cuanto al autismo, encontraron que las variantes genéticas vinculadas a una menor empatía también se asociaban con un mayor riesgo de sufrir la enfermedad, “aunque en un porcentaje bastante bajo”, matiza Varun Warrier, investigador del departamento de Psiquiatría en el Centro de Investigación del Autismo de Cambridge y codirector del estudio.
Cuando el ADN también juega su parte
El científico señala que también hallaron el caso opuesto: las variantes genéticas relacionadas con una mayor empatía parecen aumentar el riesgo de sufrir esquizofrenia y anorexia nerviosa. Así, los esquizofrénicos tienen más posibilidades de sufrir angustia personal y contagio emocional, dos parámetros relacionados con ponerse demasiado en la piel del otro.
Por otra parte, si hay un perfil por antonomasia que asociamos con la falta de esta cualidad, es el de los psicópatas, que sufren un trastorno de la personalidad. O al menos eso era lo que se pensaba hasta ahora, porque una nueva investigación dirigida por Christian Keysers revela que los criminales psicopáticos no carecen de empatía. La tienen, pero no les surge de forma automática como al resto de la población.
Rodeados de fuertes medidas de seguridad, dieciocho internos con psicopatía fueron trasladados al Laboratorio del Cerebro Social del Centro Médico Universitario de Groninga. Allí, los científicos pudieron analizar con imágenes de resonancia magnética que áreas del cerebro se les activaban cuando observaban las emociones de los demás a través de imágenes de vídeo. “Nuestra investigación sugiere el engranaje sí se ponía en marcha si los investigadores les pedían explícitamente que se pusieran en la piel del otro.
“Si ven a otra persona sufiendo, su red de dolor se muestra menos activa que la de los sujetos sin psicopatía pero, si les pedimos que sientan empatía, pueden activar estos circuitos tanto como los demás”, recalca el científico, cuyo trabajo recoge la revista Brain.

El consuelo animal también existe
Como hemos visto, esta cualidad no es exclusiva de los humanos. Otros animales también han mostrado ciertos rasgos de empatía, sobre todo, hacia sus hijos. Desde la Universidad Emory, Burkett destaca que todos los mamíferos tienen una disposición biológica para sentir las necesidades y la angustia de sus jóvenes vástagos.“Esta capacidad ayuda a las crías a sobrevivir y a prosperar”, resalta.
Para analizar de qué forma los pequeños topillos de la pradera (Microtus ochrogaster) reaccionaban cuando un familiar u otro roedor conocido eran estresados levemente, Burkett y su equipo hicieron un experimento.
Separaron del resto a los roedores dañados y, cuando los juntaron, los sanos percibieron que algo les pasaba a sus compañeros y les lamieron durante más tiempo, en comparación con otros grupos que no habían sufrido daños.
Según el estudio, recogido en la revista Science, la oxitocina podría ser la responsable de este comportamiento empático. Cuando dicho neurotransmisor se bloqueaba, los animales dejaban de consolarse. Asimismo, las mediciones de los niveles hormonales revelaron que los miembros de la familia y otros amigos experimentaban angustia si no podían reconfortar a sus seres queridos.
Entre hermanos también se contagia la empatía
De hecho, esta conducta consoladora solo se dio entre los animales que tenían una relación, ya fueran parientes o conocidos, pero no entre extraños. “Al igual que los humanos, los topillos de las praderas se angustian al presenciar el sufrimiento de sus seres más cercanos”, declara Burkett. Cuando se aproximan y juntan sus cuerpos, es como si se abrazaran para aliviar una situación dolorosa.
En el caso de los humanos, los lazos familiares son igualmente determinantes. La conducta empática de padres y madres ha sido ya ampliamente observada, pero nuevas investigaciones han revelado también la influencia de los hermanos entre sí.
“Hemos descubierto que tanto los hermanos más jóvenes como los mayores pueden contribuir al desarrollo de la comprensión del otro”, indica Sheri Madigan, investigadora del departamento de Psicología de la Universidad de Calgary (Canadá), en un artículo publicado en la revista Child Development.
Esto significa que, si el menor demuestra gran empatía, el mayor se contagia, y viceversa. Nuevos datos para componer el puzle de una de las capacidades más sofisticadas que poseemos las personas.
Referencias
- Warrier, V., Toro, R., Chakrabarti, B., iPSYCH-Broad autism group, Børglum, A. D., Grove, J., 23andMe Research Team, Hinds, D. A., Bourgeron, T., & Baron-Cohen, S. (2018). Genome-wide analyses of self-reported empathy: correlations with autism, schizophrenia, and anorexia nervosa. Translational psychiatry, 8(1), 35. doi: 10.1038/s41398-017-0082-6
Dormir mal ya no es solo un mal hábito: es una epidemia silenciosa. El insomnio afecta hasta a uno de cada cinco adultos en el mundo y no se limita a pasar la noche en vela. Dificultades para conciliar el sueño, despertares constantes o sensación de no haber descansado afectan la concentración, el estado de ánimo, la salud cardiovascular y hasta el sistema inmunitario. La medicina ha tratado de ponerle freno con fármacos y terapias conductuales, pero no siempre son accesibles, asequibles o sostenibles. Por eso, un equipo internacional de investigadores ha preguntado: ¿puede el ejercicio físico ser una solución real y duradera?
El estudio, publicado en BMJ Evidence-Based Medicine en 2025, analizó 22 ensayos clínicos controlados con más de 1300 personas diagnosticadas con insomnio. Su objetivo era comparar, de forma directa e indirecta, el efecto de diferentes modalidades de ejercicio físico sobre la calidad y cantidad del sueño. La metodología utilizada fue un metaanálisis en red, una herramienta estadística que permite jerarquizar tratamientos incluso cuando no han sido enfrentados entre sí en los mismos ensayos. Los resultados fueron reveladores y tienen implicaciones inmediatas para la salud pública.
Yoga, Tai Chi, caminar, correr o ejercicios aeróbicos combinados con fuerza fueron algunos de los abordajes evaluados. Todos mostraron beneficios, pero algunos destacaron más que otros. Y lo más importante: los efectos positivos no solo fueron significativos, sino que, en muchos casos, se mantuvieron a largo plazo. El cuerpo, al parecer, también entrena cómo dormir.

Yoga: más que estirarse, una rutina que alarga la noche
Entre todos los tipos de ejercicio analizados, el yoga fue uno de los más efectivos para mejorar el sueño. Según el metaanálisis, las personas con insomnio que practicaron yoga aumentaron su tiempo total de sueño en más de 110 minutos por noche en comparación con quienes recibieron solo cuidados habituales.
Además, experimentaron mejoras en la eficiencia del sueño (es decir, el porcentaje de tiempo en cama que se pasa durmiendo), una reducción en el tiempo que permanecen despiertos tras conciliar el sueño, y una menor latencia para dormirse, con beneficios que alcanzan hasta 30 minutos menos de espera para caer dormido.
Pero ¿cómo puede una práctica tan suave tener un efecto tan potente? Los autores del estudio sugieren que el yoga no solo actúa sobre el cuerpo sino también sobre la mente. A través de la respiración consciente, el estiramiento progresivo y la atención plena, reduce la hiperactivación fisiológica que muchas personas con insomnio padecen. Esta activación constante del sistema nervioso simpático —el que nos mantiene en estado de alerta— impide entrar en fases profundas del sueño. El yoga, al promover una mayor actividad parasimpática, podría revertir ese desequilibrio.
El yoga también se asocia con aumentos en los niveles de GABA (ácido gamma-aminobutírico), un neurotransmisor que inhibe la actividad neuronal excesiva y favorece la relajación. Además, disminuye la actividad de la amígdala, región cerebral implicada en la ansiedad. En conjunto, estos mecanismos explican por qué el yoga no solo ayuda a dormir más, sino también mejor. Y lo mejor es que los beneficios se observaron incluso en intervenciones cortas de 4 a 16 semanas.
Tai Chi: movimiento lento, efecto duradero
El Tai Chi, una disciplina de origen chino que combina respiración, concentración y movimientos suaves y continuos, también se posicionó como una de las intervenciones más eficaces. El estudio encontró que los pacientes que practicaron Tai Chi lograron aumentar su tiempo total de sueño en más de 50 minutos, reducir los despertares nocturnos, dormirse más rápido y mejorar la calidad general del sueño. Además, los beneficios se mantuvieron en seguimientos realizados hasta dos años después de la intervención.
Este hallazgo es particularmente importante porque muchas terapias para el insomnio muestran efectos positivos a corto plazo, pero pierden eficacia con el tiempo. En cambio, el Tai Chi parece reeducar el cuerpo y el sistema nervioso para mantener una arquitectura de sueño saludable a largo plazo.
Se ha demostrado que esta práctica aumenta la actividad del sistema parasimpático, mejora la regulación emocional y disminuye la respuesta del sistema nervioso simpático ante el estrés.
A nivel biológico, el Tai Chi también parece influir en procesos más profundos. Estudios previos han señalado que puede reducir niveles de citoquinas proinflamatorias, aumentar el factor neurotrófico derivado del cerebro (BDNF), e incluso mejorar la regulación circadiana. Estos cambios neurobiológicos podrían explicar su eficacia tanto en parámetros subjetivos como en medidas objetivas del sueño. Y aunque los movimientos parezcan mínimos, el impacto es más que notable.

Caminar o trotar: el poder de lo simple
A veces, lo más accesible es también lo más útil. El análisis mostró que caminar o trotar de forma regular puede reducir significativamente la gravedad del insomnio, según los puntajes del Índice de Severidad del Insomnio (ISI). En concreto, las personas que caminaron o corrieron durante varias semanas redujeron sus síntomas en casi 10 puntos, una mejora clínica considerada de gran magnitud.
Este tipo de actividad también mostró un alto potencial de ser el mejor tratamiento cuando se analizó la probabilidad de efectividad total. Caminar o trotar podría funcionar a través de varios mecanismos complementarios: mejora la regulación hormonal (por ejemplo, aumentando la melatonina), reduce los niveles de cortisol, promueve un uso más eficiente de la energía durante el día y ayuda a regular el ciclo sueño-vigilia. Además, es una intervención de bajo costo, sin efectos secundarios y fácil de implementar.
Lo interesante es que los beneficios de esta actividad física no dependen de la intensidad. No hace falta correr maratones. Caminar a ritmo moderado de forma constante, varias veces a la semana, ya puede ser suficiente para observar resultados tangibles.
Por eso, los autores del estudio proponen considerar caminar o trotar como una primera línea de intervención, especialmente en personas que no pueden o no desean recurrir a medicamentos o terapias más complejas.
¿Ejercicio o terapia? Un debate que se vuelve más interesante
En los últimos años, la terapia cognitivo-conductual (CBT, por sus siglas en inglés) se ha consolidado como el tratamiento más eficaz para el insomnio. Este enfoque aborda los pensamientos negativos sobre el sueño, los hábitos perjudiciales y la ansiedad asociada con el descanso. Y en este estudio volvió a destacar: mejoró el tiempo total de sueño, la eficiencia, el inicio del sueño y redujo los despertares nocturnos.
Sin embargo, los autores decidieron comparar el ejercicio físico directamente con esta terapia, algo poco frecuente en estudios anteriores. Los resultados muestran que, en varios indicadores, el yoga y el Tai Chi ofrecieron beneficios similares o incluso superiores al CBT, especialmente en términos de duración del sueño y sostenibilidad de los efectos.
Esto no significa que uno sustituya al otro, pero sí que el ejercicio podría ofrecer una alternativa válida para quienes no acceden a terapia o desean complementar su tratamiento.
Además, a diferencia del CBT, que requiere sesiones con profesionales capacitados, el ejercicio físico puede ser más fácil de incorporar en la vida cotidiana. Si bien el CBT sigue siendo una opción sólida y respaldada por evidencia, estos hallazgos abren la puerta a repensar las estrategias de intervención, combinando mente y cuerpo desde el primer día.

¿Cuál ejercicio elegir? Guía para insomnes activos
Cada cuerpo, cada mente y cada insomnio son distintos. Por eso, el estudio sugiere adaptar la elección del ejercicio al perfil de cada persona. Si el objetivo principal es dormir más horas, el yoga parece la mejor opción.
Si la meta es mejorar tanto la cantidad como la calidad del sueño y mantenerlo en el tiempo, el Tai Chi puede ser ideal. Y si lo que más molesta son las consecuencias diurnas —como el cansancio, la irritabilidad o la dificultad para concentrarse— caminar o trotar puede ser especialmente eficaz.
También se evaluaron otros tipos de ejercicio como el entrenamiento aeróbico combinado con fuerza, el ejercicio aeróbico junto con terapia psicológica, y programas mixtos. Aunque mostraron beneficios, sus efectos fueron menos consistentes o más dependientes de otros factores. En cambio, las tres intervenciones principales —yoga, Tai Chi y caminar— destacaron por su efectividad sostenida, facilidad de implementación y escasos efectos secundarios.
La elección, por tanto, no solo debe basarse en los datos, sino también en las preferencias, posibilidades físicas y el entorno de cada persona. Al fin y al cabo, lo mejor no es solo lo que más funciona, sino lo que se puede mantener en el tiempo. Dormir mejor podría empezar por moverse mejor.
Referencias
- Bu Z, Liu F, Shahjalal M, et al. (2025). Effects of various exercise interventions in insomnia patients: a systematic review and network meta-analysis. BMJ Evidence-Based Medicine. doi: 10.1136/bmjebm-2024-113512
Con la evolución de los dispositivos móviles, las tablets han ganado un lugar clave en nuestro día a día, combinando la portabilidad de un smartphone con la funcionalidad de un portátil.
En plena batalla por el liderazgo del segmento Android, con Xiaomi, Samsung, HONOR y Lenovo sin dar tregua, OnePlus ha optado por un movimiento contundente este inicio de agosto, liquidando por sorpresa al mínimo su recién lanzada OnePlus Pad 3.

Normalmente valorada por encima de los 540€ en tiendas como PcComponentes, Amazon y Miravia. Ahora mismo, OnePlus se ha unido con AliExpress, y el uso del cupón iFPQZMI, para hundirla hasta su nuevo mínimo histórico situado en 383,01 euros.
Esta tablet cuenta en su interior con el procesador Snapdragon 8 Elite de hasta 4.32 GHz y 12 GB de RAM. Además de tener una batería de 12140 mAh, Wi-Fi 7, Bluetooth 5.4 y BLE. Todo ello bajo el ecosistema OnePlus con IA colaborativa en OxygenOS (Android 15).
Así mismo, dispone de una pantalla LTPS de 13,2 pulgadas que ofrece una resolución de 3392 × 2400 píxeles, 144 Hz de tasa de refresco, 12 bits de profundidad de color y soporte Dolby Vision. Acompañado por un sistema de 8 altavoces estéreo (4 woofers + 4 tweeters) y 2 micrófonos integrados. Incorporando finalmente una cámara trasera de 13 MP con EIS y HDR y una frontal de 8 MP.
Xiaomi intenta actuar lo antes posible reduciendo en este caso su tablet POCO Pad
La reacción del ecosistema Android no se ha hecho esperar, y Xiaomi ha decidido mover ficha rápidamente ante la inesperada ofensiva de OnePlus optando por rebajar el precio de su POCO Pad hasta los 172,68 euros gracias al código descuento ESCD20. Un modelo más económico que el anterior, el cual se trata de una ganga sabiendo que en plataformas como Amazon, Miravia o PcComponentes, su precio asciende por encima de los 210€.

Este modelo cuenta con una pantalla LCD 2.5K de 12.1 pulgadas (2560 x 1600 píxeles) con AdaptiveSync a 120 Hz, reforzada por Dolby Vision y 68.700 millones de colores. En su interior equipa el procesador Snapdragon 7s Gen 2 de 8 núcleos (hasta 2,4 GHz y 4 nm), junto con 8 GB de RAM y 256 GB de memoria.
En el apartado sonoro, integra cuatro altavoces estéreo compatibles con Dolby Atmos, además de una batería de 10.000 mAh, WiFi 6 y Bluetooth 5.2. Sin olvidar las cámaras trasera de 8 MP y frontal de 8 MP.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
No podemos negar que, junto a los hechos históricos rigurosos, el cofre de la Historia se ha ido llenando, a lo largo de los siglos, de enigmas, misterios y relatos alimentados de mitos. En esta revista abrimos precisamente uno de esos cofres: el de los tesoros malditos. Codiciados por aventureros, piratas y soñadores, muchos de estos botines —reales o forjados a golpe de leyenda— forman parte de nuestra memoria colectiva y de la crónica de civilizaciones enteras. Desde la mítica fortuna de Moctezuma buscada incansablemente en tierras americanas hasta cofres cifrados que prometen lingotes imposibles, la búsqueda de estos tesoros ha llevado a los más aguerridos a selvas, mares y desiertos… y a veces, como veremos, cobrándose su precio en vidas humanas. Pero la Historia no se detiene en cofres enterrados. Nos lleva también a los albores de la Revolución Rusa, donde zares y siervos, filósofos y obreros, plantaron la semilla que cambió el mapa del siglo xx; a la siniestra liturgia de los Autos de Fe, aquel teatro del miedo con el que la Inquisición encendía hogueras y conciencias; a caminar, entre jazz y totalitarismo, de la frágil luz de la República de Weimar a la oscura ascensión del Tercer Reich en Alemania; a ese Renacimiento, donde el arte de matar floreció entre conjuras y venenos; a revivir la odisea de Darwin en su Viaje del Beagle o el pulso épico entre helenos y aqueménidas; a conocer mejor a Julio César y Martin Luther King Jr., símbolos de ambición y esperanza; y a entrar asombrados en Altamira, la primera galería de arte de la humanidad. Sin duda, la Historia, con sus luces y sombras, sigue siendo el mejor mapa del tesoro. Disfruta de la lectura.
Tesoros malditos
Muchos fueron reales, aunque esquivos; otros forman parte del universo siempre cambiante de la leyenda, aderezada con los más variados elementos por distintos pueblos; un buen número de ellos son simples leyendas urbanas de estos tiempos virtuales de redes sociales y medias verdades que circulan por Internet y que dificultan aún más la tarea de dar con el paradero de los auténticos, aprovechando el poderoso influjo que ejercen sobre la imaginación de soñadores y aventureros codiciosos.
En la actualidad existen incluso aplicaciones para aquellos que, guiados por el espíritu romántico de Robert Louis Stevenson, quieran hallar su propio botín, sea en una isla, en un desierto, en la playa o en los parques de su propia ciudad. Hay programas de televisión dedicados a la búsqueda de oro con legión de seguidores, y solo en relación a los botines clásicos que reclamaban corsarios y bucaneros; ni qué decir tiene si incluimos en la extensa lista los objetos de poder, ciudades míticas como El Dorado o Aztlán, e incluso las reliquias perdidas de distintas religiones. Si a ello añadimos las falsificaciones, la crónica sería inacabable.
Sigue leyendo este artículo de Óscar Herradón en la edición impresa o digital.
Reportajes
- Tesoros malditos, por Óscar Herradón
- El largo camino hacia la Revolución Rusa, por Alberto Porlan
- Autos de fe, por Juan Carlos Losada
- El congreso antimasónico de 1896, por Eduardo Montagut
- Las consecuencias de una Alemania herida, por Rodrigo Brunori
- El arte de matar en el Renacimiento, por José Ángel Martos
- La expedición española a Escocia de 1719, por Pedro Damián Cano Borrego
- Helenos contra aqueménidas, por Carlos Gutiérrez
- La cueva de Altamira, por Carmen de las Heras
- Cayo Julio César, por Alberto Porlan
- Martin Luther King Jr., por Lourdes Ramírez-Cárdenas
- Darwin en el Beagle, por Juan Carlos Losada
Secciones
- Historias de la filosofía, por Jorge de los Santos
- Entrevista: Eric Frattini, por Gema Boiza
- Mujeres: María Mitchell, por Sandra Ferrer
- Biblioteca

En el corazón de la sierra de Atapuerca, donde los sedimentos guardan la memoria de cientos de miles de años, ha aparecido un testigo silencioso de una Europa helada: un diminuto diente de reno. A simple vista podría parecer un hallazgo menor, pero este fósil, recuperado en la Galería del complejo arqueológico, reescribe un capítulo clave de la historia natural de la península ibérica. Según el estudio publicado en la revista Quaternary por Jan van der Made y su equipo (MNCN-CSIC, CENIEH e IPHES-CERCA), se trata de la evidencia más antigua de fauna glacial en España, con una antigüedad estimada de entre 243.000 y 300.000 años (MIS 8 del Pleistoceno medio).
El pequeño molar deciduo, perteneciente a una cría de Rangifer, apareció en la unidad GIIIa de Galería, en el mismo estrato que un fragmento craneal humano y restos de industria lítica. La imagen que emerge es poderosa: mientras el clima de la península se endurecía bajo condiciones glaciales, grupos humanos primitivos compartían territorio con renos, grandes herbívoros adaptados a las duras estepas de hielo que entonces se expandían desde el norte de Eurasia.
Cuando la península ibérica fue refugio y frontera
Durante el Pleistoceno, Europa vivió una sucesión de glaciaciones que transformaron el continente en ciclos de expansión y retirada del hielo. Cada enfriamiento arrastraba hacia el sur ecosistemas fríos como la llamada “Estepa de los Mamuts”, donde convivían mamuts lanudos, rinocerontes peludos y renos. Hasta hace poco, se pensaba que estas faunas solo habían llegado a la península ibérica durante la penúltima glaciación, alrededor de 191.000-123.000 años atrás (MIS 6). El hallazgo de Atapuerca adelanta en decenas de miles de años esa frontera biogeográfica.
La península siempre fue un mosaico climático complejo: montañas, valles y mesetas que ofrecían refugio a especies templadas durante los fríos extremos y, a la vez, pequeñas “ventanas” para la llegada de fauna glacial. Por ello, la presencia de un reno en Burgos durante MIS 8 no solo marca el registro más meridional conocido para su época, sino que demuestra que los fríos del norte habían conquistado el corazón de Iberia mucho antes de lo que se creía.
Este escenario convierte a Atapuerca en un testimonio único de esa interacción entre clima, fauna y humanos. El descubrimiento, como destaca el equipo en su estudio, permite trazar la expansión progresiva de la fauna glacial hacia el sur a lo largo de los ciclos climáticos, siguiendo un patrón que acabaría llevando estos animales incluso hasta la actual provincia de Granada en el último máximo glacial.

Un diente que cuenta una historia
A nivel paleontológico, el fósil es tan modesto como revelador: un tercer molar de leche superior (D3). Sin embargo, su morfología lo distingue de otros cérvidos como ciervos y corzos. Comparado con colecciones de referencia europeas y actuales, el equipo lo atribuyó inequívocamente a Rangifer, el mismo género que hoy conocemos en los renos árticos.
El sedimento que lo envolvía no contenía solo huesos: industria lítica achelense y restos humanos acompañaban al pequeño testigo glacial. La combinación de fauna y tecnología permite vislumbrar una escena remota: grupos de homínidos del Pleistoceno medio, probablemente descendientes de Homo heidelbergensis, se movían por una meseta fría, entre herbívoros adaptados al hielo, cazando y carroñeando para sobrevivir.
Estos niveles de Galería no eran campamentos permanentes. El yacimiento funcionaba como una trampa natural, un pozo vertical en el que caían animales, cuyos cadáveres eran aprovechados por los humanos en visitas esporádicas. Que el diente del reno aparezca allí sugiere que el animal murió de forma natural, y que su especie ya formaba parte del ecosistema local sin necesidad de transporte humano.
Glaciaciones y supervivientes
El hallazgo de Galería encaja en una historia más amplia: la lenta conquista de Iberia por la fauna glacial. Según el estudio, tras MIS 8, cada ciclo frío llevó a estos animales un paso más al sur. Durante MIS 6, sus huellas alcanzan Madrid; en el último máximo glacial, llegaron hasta Andalucía oriental. Paralelamente, especies templadas como hipopótamos, elefantes de colmillos rectos (Palaeoloxodon) o ciervos quedaron relegadas a refugios cada vez más estrechos en el sur.
Este juego de avances y retrocesos no solo afectó a los animales. La población del Pleistoceno medio debieron adaptarse a cambios drásticos en su entorno: inviernos más largos, recursos limitados y un paisaje de tundra y estepa. La presencia simultánea de herramientas líticas y restos humanos junto al reno sugiere que estas poblaciones estaban ya familiarizadas con climas gélidos, mucho antes de que los neandertales dominasen Europa occidental.

La importancia de un hallazgo silencioso
El valor de este descubrimiento va más allá de su rareza. Permite reconstruir con precisión la cronología de los niveles de Galería, afinar las correlaciones con los estadios isotópicos marinos (MIS) y entender la dinámica de la expansión glacial. Además, abre preguntas sobre la resiliencia de las poblaciones humanas y animales frente a climas extremos en un territorio que, miles de años después, se convertiría en un refugio crucial durante los ciclos glaciares.
El reno de Atapuerca es, en definitiva, un fragmento diminuto de un relato mayor: cómo el clima modeló la vida en Europa, empujando fronteras invisibles de hielo, fauna y humanidad.
Referencias
- van der Made J, Lazagabaster IA, García-Medrano P, Cáceres I. Southernmost Eurasian Record of Reindeer (Rangifer) in MIS 8 at Galería (Atapuerca, Spain): Evidence of Progressive Southern Expansion of Glacial Fauna Across Climatic Cycles. Quaternary. 2025; 8(3):43. DOI:10.3390/quat8030043
Hoy quizás resulte difícil imaginar a España sin su bandera rojigualda, pero, como muchos elementos con valor simbólico, surgió de un contexto puramente circunstancial. El diseño de la actual bandera nacional española se remonta a una decisión técnica y administrativa tomada en el siglo XVIII por orden de Carlos III. Bastante alejada de las narrativas mitificadas que tienden a buscar en la bandera una esencia eterna de la patria, su origen es mucho más pragmático de lo que se podría pensar. Su génesis, de hecho, comienza en alta mar.
Una cuestión de visibilidad en el mar
Durante buena parte del siglo XVIII, la mayor parte de las monarquías europeas usaban enseñas blancas en sus navíos y buques de guerra, por lo general, con los escudos reales superpuestos. El problema de esto era evidente: la similitud entre las banderas blancas provocaba frecuentes confusiones en el mar, lo que resultaba de especial gravedad en tiempos de guerra, cuando resultaba vital identificar de inmediato la nacionalidad de las embarcaciones.
Consciente de este problema, Carlos III promulgó en 1785 una orden para cambiar el pabellón de la Marina de Guerra española. Confió el encargo a su ministro de Marina, Antonio Valdés y Fernández Bazán, quien seleccionó personalmente doce diseños entre los que el rey debía escoger uno. Carlos III eligió el diseño con franjas horizontales (roja-amarilla-roja), donde la amarilla era el doble de ancha que las rojas. Esta elección marcaría el nacimiento de lo que hoy es la bandera nacional de España.

Un emblema naval antes que nacional
Es fundamental subrayar que la bandera rojigualda nació como una insignia naval y no como un símbolo de la nación. Desde 1785 hasta bien entrado el siglo XIX, su uso estuvo restringido a los buques de guerra, mientras que la población civil y otras instituciones continuaron empleando una gran variedad de banderas, muchas de ellas blancas, con diferentes escudos o emblemas. Incluso en tierra firme, los castillos y fortalezas solían emplear banderas blancas con escudos reales, sin que existiera una norma de uso única. De hecho, no fue la única que ha tenido el país a largo de su historia.
No sería hasta el siglo XIX, con la consolidación de los estados-nación y el auge del nacionalismo, cuando la rojigualda comenzaría a adquirir su carácter simbólico como representación del conjunto del país. En este proceso, el contexto político, marcado por las guerras y revoluciones que afectaron a España a lo largo de la centuria, fue clave.

La oficialización como bandera nacional
Durante el reinado de Isabel II, la rojigualda se fue abriendo paso de manera progresiva en el ámbito civil. En 1843, un decreto estableció que la usaría el Ejército de Tierra, que hasta entonces había utilizado una gran variedad de enseñas. Este paso fue decisivo para extender la rojigualda más allá del ámbito naval.
Sin embargo, no fue hasta la Constitución de 1931, durante la Segunda República, cuando la bandera tricolor (roja, amarilla y morada) sustituyó oficialmente a la rojigualda, en un intento de romper con los símbolos de la monarquía borbónica. Esta etapa, aunque breve, demuestra, una vez más, que la elección de los colores de una bandera responde a la voluntad política cambiante de los pueblos.
Tras la Guerra Civil, la dictadura franquista restauró la bandera rojigualda en 1938. Desde entonces, se ha mantenido como enseña nacional, con distintas variantes en el escudo. La actual configuración de la bandera, que luce el escudo aprobado por ley en 1981, se ratificó durante la transición democrática y permanece como símbolo del Estado desde entonces.

Colores sin “esencia” nacional
Uno de los elementos más importantes que destaca el estudio titulado Los colores de la patria, de Javier Moreno Luzón y Xosé M. Núñez Seixas, es que los colores de la bandera española no poseen ningún tipo de matriz simbólica antigua o identitaria. A diferencia de lo que ocurre con algunas otras naciones, el rojo y el amarillo no derivan de antiguos estandartes patrios, por ejemplo, ni representan simbólicamente la sangre de los mártires o el sol del país, como a veces se pretende en discursos de corte nacionalista.
Por el contrario, la elección del rojo y el amarillo respondió a una intención funcional. Estos colores aseguraban una buena visibilidad en el mar, lo que a su vez, permitía identificar con claridad los navíos españoles. Solo más tarde, y en gran medida por la reiteración de su uso oficial, estos colores comenzaron a adquirir un carácter identitario y emocional para parte de la ciudadanía.
Un símbolo moldeado por el tiempo
Como ocurre con todos los símbolos nacionales, la bandera rojigualda adquirió, con el tiempo, una serie de significados que, en principio, no estaban presentes en su nacimiento. Su vinculación con los Borbones, su uso durante la Guerra de Independencia, la Restauración y la dictadura franquista, así como su posterior adopción constitucional en la democracia, fueron dotándola de distintas capas de sentido.
De hecho, la bandera se transformó, progresivamente, en una herramienta de cohesión nacional, un elemento de especial utilidad en los momentos de crisis o conflicto interno. No obstante, su historia demuestra que la nación no preexiste al símbolo, sino que es este el que se construye y reconstruye según las necesidades y los contextos políticos de cada momento.

Una historia menos épica, pero más reveladora
La bandera rojigualda, por tanto, no nació en un campo de batalla, ni fue diseñada para encarnar una supuesta alma eterna de España. Su origen fue de naturaleza técnica y funcional: una decisión pragmática tomada por un monarca ilustrado para resolver un problema logístico.
Los símbolos nacionales no son esencias inmutables, sino construcciones históricas moldeadas por las circunstancias, los intereses y las decisiones políticas. Comprender el verdadero origen de la bandera española permite desmitificar ciertas visiones esencialistas y acercarse a una comprensión más matizada, crítica y fundamentada de lo que representan los emblemas de cada nación.
Referencias
- Luzón, Javier Moreno y Xosé M. Núñez Seixas. Los colores de la patria: símbolos nacionales en la España contemporánea. Tecnos, 2017.
En el corazón de la península de Jutlandia, donde el viento del mar del Norte acaricia campos que parecen no haber cambiado en siglos, un hallazgo fortuito en 1892 desató uno de los misterios arqueológicos más sugerentes de la era vikinga.
Un joven jornalero, mientras araban los campos de su patrón en Hornelund, vio brillar algo entre los surcos. Al desenterrarlo, descubrió que no era una piedra ni un simple fragmento metálico, sino un pesado broche de oro con un diseño tan refinado que parecía imposible que hubiera pasado un milenio bajo tierra. Aquel hallazgo dio inicio a una historia que, más de 130 años después, sigue sin resolverse del todo.
El hallazgo que nadie esperaba
Pocos días después del primer descubrimiento, aparecieron un segundo broche y un brazalete de oro macizo. La noticia corrió por los periódicos locales: el campo de Hornelund, cerca de la actual ciudad de Varde, había entregado un tesoro vikingo sin precedentes.
La nota de prensa original del Museo Nacional de Dinamarca, conservada en sus archivos, recogía que las piezas se entregaron al museo en Copenhague, donde fueron tasadas y recompensadas. Aquel acto rutinario dio inicio a una investigación que aún hoy fascina a los arqueólogos.
Se trataba de dos broches circulares de aproximadamente 8,5 centímetros de diámetro y entre 60 y 75 gramos de peso, además de un brazalete trenzado de oro macizo. Según la investigación de la museóloga Lene B. Frandsen, las piezas combinaban filigranas, granulaciones y relieves que revelaban la mano de un orfebre excepcional.
Uno de los broches mostraba cabezas de animales en estilo puramente nórdico, mirando hacia el centro de un espacio que probablemente estuvo decorado con una piedra semipreciosa. El otro presentaba un delicado motivo vegetal que recuerda a palmetas y tallos ondulantes, de clara inspiración cristiana. Esta dualidad artística —lo pagano y lo cristiano conviviendo en el mismo conjunto— lo convierte en un hallazgo único en la orfebrería vikinga.

Un tesoro sin contexto
La belleza de los broches de Hornelund es indiscutible, pero lo que realmente intriga a los investigadores es lo que no se sabe.
Cuando el jornalero los encontró, el campo ya estaba intensamente trabajado y no se realizó una excavación arqueológica sistemática. Por ello, nunca se supo con certeza si estas joyas formaban parte de un ajuar funerario, un tesoro escondido ante un peligro inminente o los restos dispersos de una antigua granja de élite.
En 1993, el Museo de Varde emprendió una ambiciosa campaña para rastrear el origen del tesoro. Se excavaron siete áreas en la zona señalada por los registros históricos. Bajo la capa de tierra fértil aparecieron restos de asentamientos que abarcan desde la Edad del Bronce hasta la Edad del Hierro temprana, incluyendo hornos, grutas de piedras de cocción y escorias de hierro, evidencia de actividades metalúrgicas antiguas.
Sin embargo, nada relacionado con la época vikinga apareció en aquellas excavaciones. La tierra parecía guardar su secreto con celosa discreción.
Entre el arte local y la influencia extranjera
A pesar de la incertidumbre sobre su procedencia exacta, los especialistas coinciden en que los broches de Hornelund son productos de altísima calidad técnica.
Durante el siglo XI, el sur de Jutlandia era un núcleo activo de orfebres vikingos. Algunos trabajaban para la élite local, otros producían piezas para el comercio internacional. Se sabe que los orfebres daneses tomaban inspiración de múltiples fuentes: patrones vegetales de influencia franca, curvas en espiral propias de los países bálticos e incluso ecos del arte cristiano que ya penetraba en Escandinavia.
Estos broches condensan ese cruce cultural. Por un lado, las cabezas de animales evocan las raíces nórdicas, fieras y simbólicas; por otro, la filigrana vegetal recuerda los viñedos que en el arte cristiano primitivo simbolizan la resurrección. Es un testimonio silencioso de un tiempo en que los vikingos ya estaban dejando atrás su mundo pagano para integrarse en la cristiandad europea.
Pero, ¿por qué un conjunto tan valioso apareció en un campo de labor y no en un túmulo funerario o en un hallazgo urbano? Las teorías son variadas. Algunos arqueólogos sugieren que pudo ser un tesoro enterrado apresuradamente ante una amenaza, como una incursión o un conflicto local. Otros plantean que formaba parte de un ajuar funerario destruido por la arada y el paso del tiempo.
Sea cual sea la respuesta, el hallazgo sigue siendo una cápsula de historia que combina azar, belleza y misterio. La última campaña de excavación, hace tres décadas, apenas arañó la superficie de lo que podría ser un yacimiento mayor. Y en el Museo Nacional de Dinamarca, donde se exhiben hoy los broches, no se pierde la esperanza de que algún día aparezca la pieza que complete el puzzle: quizá otro fragmento de oro, un enterramiento intacto o un resto arquitectónico que revele quién poseyó estas joyas hace más de 1.000 años.

Un legado que trasciende el oro
Más allá de su valor material, los broches de Hornelund son un recordatorio de que la arqueología no solo consiste en objetos, sino en historias humanas. Detrás de cada filigrana, de cada cabeza de animal, late la mano de un artesano que dominaba técnicas milenarias.
En algún momento del siglo XI, alguien se abrochó estas joyas al vestido, quizá en un acto ceremonial o en un encuentro de poder. Ese gesto quedó suspendido en el tiempo, hasta que un golpe de arado lo devolvió a la luz.
Mientras la investigación continúa, los broches de Hornelund siguen brillando, no solo por su oro, sino por las preguntas que plantean. En su silencio metálico parecen recordarnos que, en la arqueología, el azar es tan poderoso como la ciencia, y que el pasado siempre guarda sorpresas para quienes saben mirar.
Los primeros achaques no siempre llegan como uno los espera. A veces es una rodilla que ya no responde igual, otras veces es un cansancio que antes no estaba o una cicatriz que tarda más en desaparecer. No se trata de alarmismo ni de quejas propias de quien cruza la barrera de los 30: hay algo que cambia dentro del cuerpo, aunque por fuera todo parezca seguir igual. Pero ¿a qué ritmo envejecen realmente nuestros órganos? ¿Y ese ritmo es el mismo para todos? Un nuevo estudio ha trazado el primer mapa proteómico integral del envejecimiento humano en 13 órganos diferentes y sus hallazgos son tan reveladores como inquietantes.
Publicado en la revista Cell en 2025, el trabajo liderado por la Academia China de Ciencias ha construido una especie de “reloj molecular” basado en proteínas, que permite estimar la edad biológica de distintos tejidos. Usando muestras de 76 individuos entre los 14 y los 68 años, los científicos observaron patrones únicos de envejecimiento en cada órgano. Lo más sorprendente es que este deterioro no empieza con la vejez, ni siquiera en la madurez tardía: muchos cambios se activan en plena adultez temprana, marcando un punto de inflexión antes de los 50. Los autores afirman que “los relojes proteómicos mostraron inflexiones consistentes en la mediana edad, entre los 45 y 55 años”.
Un atlas proteómico del envejecimiento
Este estudio representa la primera caracterización a gran escala del envejecimiento a nivel proteico en múltiples tejidos humanos. Más de 12.700 proteínas fueron cuantificadas en órganos del sistema cardiovascular, digestivo, inmunológico, endocrino, respiratorio, musculoesquelético y tegumentario. En total, se analizaron 516 muestras de tejido y plasma con espectrometría de masas de alta resolución y análisis transcriptómico paralelo.
Una de las claves del trabajo es la observación del desacoplamiento entre el transcriptoma (ARN mensajero) y el proteoma (proteínas realmente producidas), lo que refleja una pérdida progresiva de control en la síntesis de proteínas. Esta desconexión fue especialmente marcada en el bazo, los ganglios linfáticos y el músculo. Como afirman los investigadores, se detectó una “pérdida asociada a la edad de la correlación ARN-proteína en todos los tejidos”. Esto implica que, con el paso de los años, aunque los genes aún "den la orden", el cuerpo tiene cada vez más dificultades para fabricar las proteínas adecuadas en el momento justo.

El eje inflamatorio del envejecimiento
Uno de los descubrimientos más notables del estudio es el papel central de ciertas proteínas relacionadas con la inflamación y la inmunidad. Se identificó un eje formado por proteínas amiloides, inmunoglobulinas y factores del complemento, que se acumulan en los tejidos envejecidos. Este “eje amiloide-inmunoglobulina-complemento”, como lo llaman los autores, representa un bucle de retroalimentación entre proteínas mal plegadas, activación inmunitaria y daño tisular crónico.
Entre las proteínas más destacadas está SAP (componente P del amiloide sérico), cuya presencia aumentó en al menos seis tejidos. El SAP no solo se acumuló de forma observable mediante análisis histológico, sino que además indujo senescencia e inflamación en células endoteliales humanas. Esto sugiere que no se trata de un simple marcador pasivo del envejecimiento, sino de un actor activo en el deterioro funcional del organismo.

Los relojes del cuerpo: cada órgano a su ritmo
Uno de los avances más útiles de este trabajo es la construcción de “relojes proteómicos” específicos para cada órgano. Mediante regresión con redes elásticas (elastic net), los investigadores pudieron predecir la edad biológica de tejidos individuales con una alta precisión (correlaciones de Spearman entre 0.74 y 0.95). Estas herramientas son capaces de detectar cuándo un órgano empieza a envejecer más rápido que los demás.
Por ejemplo, la aorta mostró los cambios más sostenidos a lo largo del tiempo. También se observó una proteína —TIMP3— repetida en nueve de estos relojes, lo que sugiere que puede ser un regulador común del envejecimiento multiorgánico. En conjunto, los datos permiten afirmar que el envejecimiento no es uniforme: “cada órgano parece tener su propia trayectoria temporal de deterioro”.
Proteínas que propagan el envejecimiento
Uno de los hallazgos más intrigantes es la identificación de lo que los autores llaman un “senohub”: órganos que no solo sufren el envejecimiento, sino que también lo propagan a otros tejidos a través de proteínas secretadas. El principal de estos “emisores” sería la aorta, que a través de proteínas como GAS6 activa receptores en células del sistema inmune y vascular, acelerando la senescencia a nivel sistémico.
La proteína GAS6, en particular, aumentó con la edad tanto en plasma como en tejido aórtico. En células humanas, indujo marcadores de senescencia, elevó IL-6 (una molécula proinflamatoria) y redujo la capacidad de formación de vasos nuevos. En ratones de mediana edad, las inyecciones de GAS6 provocaron disfunción vascular, inflamación tisular y deterioro físico observable.
Estas observaciones indican que ciertas proteínas no solo reflejan el envejecimiento, sino que también lo inducen. Un fenómeno similar se observó con GPNMB, otra proteína cuya administración en ratones provocó inflamación vascular y pérdida de movilidad. El estudio concluye que “los tejidos vasculares actúan tanto como sensores como transmisores de señales de envejecimiento”.
Del laboratorio a la salud pública
Más allá de su valor como investigación básica, este mapa proteómico ofrece herramientas con gran potencial clínico. Los relojes proteómicos podrían usarse para evaluar la edad biológica de pacientes de forma personalizada, detectando envejecimiento prematuro en órganos específicos. Esto permitiría intervenciones más tempranas y dirigidas, como terapias antiinflamatorias o cambios de estilo de vida focalizados.
Además, el estudio señala que algunos cambios comienzan antes de lo que se pensaba. Entre los 30 y 45 años ya se activan varias trayectorias de deterioro, especialmente en tejidos vasculares y glandulares como la aorta y las glándulas suprarrenales. Esto plantea una pregunta importante para la salud pública: ¿deberíamos comenzar a vigilar y prevenir el envejecimiento sistémico desde la juventud?
A medida que avancen las tecnologías de análisis proteómico y se sumen nuevas cohortes más amplias y diversas, el mapa del envejecimiento humano podrá completarse con mayor resolución. De momento, este estudio representa un punto de inflexión: por primera vez, se ha trazado cómo envejece cada órgano, con una claridad que acerca la biología a la práctica clínica.
Referencias
- Yingjie Ding et al. Comprehensive human proteome profiles across a 50-year lifespan reveal aging trajectories and signatures. Cell (2025). DOI: 10.1016/j.cell.2025.06.047.
El mercado de smartphones de gama media y media/alta se ha convertido en el campo de batalla más feroz de estas vacaciones. Cada marca pelea por destacar con una combinación de potencia, diseño y precio ajustado, atrayendo a consumidores que exigen más por menos.
Con el verano en pleno apogeo y un aluvión de descuentos por parte de la competencia, Xiaomi ha decidido mantener el trono bajando de nuevo el precio de su POCO F7 Ultra.

Su precio original, y que se encuentra en tiendas como Amazon, Miravia y PcComponentes, es superior a los 540€. No obstante, Xiaomi, a través de su fuerte colaboración con AliExpress, reduce agresivamente su precio hasta los 479,99 euros.
Este smartphone está equipado con el Snapdragon® 8 Elite (fabricado en 3 nm), una CPU Oryon de ocho núcleos y GPU Adreno con motor AI. Estando complementado por 12 GB de RAM y almacenamiento de 256 GB. Cuenta con una pantalla AMOLED WQHD+ de 6,67 pulgadas ofreciendo una frecuencia de refresco de hasta 120 Hz, brillo máximo de 3200 nits y tecnología de atenuación PWM a 3840 Hz.
Integra una cámara triple trasera, con sensor principal de 50 MP Light Fusion 800 con OIS, teleobjetivo flotante de 50 MP (zoom óptico 2x) y ultra gran angular de 32 MP, soportando vídeo hasta 8K a 24 fps. Así mismo, dispone de sonido estéreo certificado Hi-Res con Dolby Atmos, Wi-Fi 7, Bluetooth 6.0 y una batería de 5300 mAh con carga rápida por cable de 120 W.
Realme intenta afianzar su posición reduciendo el precio de su Realme GT 7 Pro
Ante la fuerte presión que está ejerciendo Xiaomi en la gama media y media-alta, Realme no quiere perder terreno y responde con una bajada de precio contundente en su Realme GT 7 Pro, alcanzando los 539,62 euros. Una alternativa que compite directamente con el modelo anterior, y cuyo precio habitual en otras webs como Miravia y PcComponentes supera los 700€.

Este teléfono móvil integra también el procesador Snapdragon® 8 Elite, fabricado en 3 nm y con arquitectura de doble núcleo. Además de tener 12 GB de RAM y 256 GB de almacenamiento. Pero destaca sobre todo por su pantalla Eco OLED Plus de 6,78 pulgadas (1.5K, 120 Hz, 6500 nits de brillo máximo, 10 000 niveles de brillo, 2600 Hz de muestreo táctil instantáneo y DCI-P3 al 120 %).
Su sistema de cámara triple con sensores Sony, liderado por una cámara principal IMX906 de 50 MP con OIS, ofrece captura de vídeo hasta en 8K/24 fps y cámara lenta a 480 fps. Sin olvidar su conectividad Super WiFi y su batería Titan de 6500 mAh con carga rápida de 120 W.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El cambio climático representa uno de los mayores retos que enfrenta la humanidad en el siglo XXI. A medida que aumentan las temperaturas globales y se intensifican los fenómenos meteorológicos extremos, la búsqueda de soluciones eficaces y sostenibles se convierte en una prioridad científica, política y social. La atención se ha centrado especialmente en reducir las emisiones de gases de efecto invernadero como el dióxido de carbono (CO₂), y en desarrollar estrategias para capturar el carbono ya presente en la atmósfera. En este contexto, los ecosistemas costeros están cobrando un protagonismo inesperado y poderoso.
Este artículo se basa en nuestro estudio sobre los llamados ecosistemas de carbono azul, que incluyen marismas, praderas marinas y manglares. Estos sistemas naturales no solo capturan grandes cantidades de CO₂ mediante la fotosíntesis, sino que lo almacenan de forma segura en el suelo durante miles de años. Tal como demostramos en nuestra investigación, “estos ecosistemas almacenan una enorme cantidad de carbono, ¡hasta 30 mil millones de toneladas!”. A través de una mirada científica y divulgativa, queremos compartir los descubrimientos más relevantes de este trabajo y destacar el valor de la vegetación costera en la lucha contra el calentamiento global.
Los ecosistemas de carbono azul: qué son y por qué importan
Los ecosistemas de carbono azul se desarrollan en zonas costeras y están formados por tres tipos principales de hábitats: manglares, praderas marinas y marismas intermareales. Estas áreas no solo ofrecen refugio a una gran diversidad de especies, sino que también desempeñan un papel fundamental en la regulación del clima. Se les llama “azules” por su estrecha relación con los océanos, y son especialmente eficaces capturando CO₂, el principal gas de efecto invernadero.
Una característica clave de estos ecosistemas es que almacenan el carbono no solo en las plantas, sino también en el suelo. Esto se debe a que las raíces de las plantas crecen en suelos húmedos y pobres en oxígeno, lo que ralentiza la descomposición. Tal como explicamos en el estudio, “los ecosistemas de carbono azul tienen un arma secreta para almacenar carbono más tiempo que la mayoría de las plantas terrestres: lo entierran en el suelo y lo atrapan allí durante miles de años”. Esta capacidad de almacenamiento a largo plazo los convierte en aliados estratégicos en la lucha climática.

Funciones ecológicas más allá del carbono
El valor de los ecosistemas de carbono azul no se limita al secuestro de carbono. Estos hábitats proporcionan importantes servicios ecosistémicos que benefician tanto a las personas como a la biodiversidad. Entre sus funciones destacan la protección de las costas frente a tormentas y erosión, la mejora de la calidad del agua y la oferta de recursos naturales como madera o pesquerías.
Además, son zonas clave para la reproducción de numerosas especies marinas. “Actúan como viveros para animales jóvenes” y son esenciales para el sustento de comunidades costeras, incluidas muchas comunidades indígenas que mantienen vínculos culturales profundos con estos territorios. También representan espacios valiosos para la recreación y la educación ambiental, como el avistamiento de aves o la pesca tradicional.
Cuánto carbono almacenan y dónde se encuentra
Uno de los principales objetivos de nuestro trabajo fue cuantificar la extensión global de estos ecosistemas y el carbono que contienen. Descubrimos que los ecosistemas de carbono azul cubren entre 0,36 y 1,85 millones de kilómetros cuadrados, una superficie comparable a países como Japón o México. La variabilidad en las estimaciones se debe, sobre todo, a la dificultad para detectar las praderas marinas, que crecen bajo el agua y no son fácilmente visibles desde satélites.
A pesar de esa incertidumbre, las cifras son impactantes. Según nuestros cálculos, “la cantidad total de carbono almacenada en manglares, praderas marinas y marismas intermareales oscila entre 10 y 30 mil millones de toneladas”. Para entender la magnitud de este número, basta imaginar que equivale a las emisiones anuales de más de 6 billones de coches. Estos datos resaltan la enorme importancia de proteger y restaurar estos ecosistemas para evitar la liberación de ese carbono a la atmósfera.

La amenaza de la pérdida y el potencial de la restauración
Más de la mitad de los ecosistemas de carbono azul del planeta han desaparecido, en muchos casos por causa directa de la actividad humana. Esta pérdida no solo implica una reducción en la capacidad de almacenamiento de carbono, sino también la liberación del carbono previamente almacenado, agravando así el cambio climático. Al destruir estos ecosistemas, “ese carbono atrapado en el suelo puede volver a la atmósfera en forma de CO₂”, lo que genera un impacto climático negativo.
Nuestro estudio también evaluó el potencial de recuperación a través de la restauración. Si se protegieran los ecosistemas actuales, se evitaría la emisión de 300 millones de toneladas de CO₂ al año. Y si se restauraran las zonas degradadas, se podrían capturar otras 840 millones de toneladas anuales. En conjunto, estas acciones permitirían compensar aproximadamente un 3 % de las emisiones globales de gases de efecto invernadero. Es una contribución modesta pero relevante, especialmente si se combina con otras estrategias climáticas incluida la reducción de emisiones.
Retos científicos y oportunidades tecnológicas
Uno de los desafíos que enfrentamos fue la falta de datos precisos sobre la ubicación y estado de los ecosistemas de carbono azul. Si bien los manglares y marismas son relativamente fáciles de estudiar mediante imágenes satelitales, las praderas marinas presentan una mayor dificultad, ya que crecen bajo el agua y no se detectan con la misma facilidad. Esta limitación afecta la precisión de los modelos globales de carbono azul.
Sin embargo, las nuevas tecnologías ofrecen oportunidades para mejorar este conocimiento. El uso de sensores satelitales, drones acuáticos y modelos de inteligencia artificial puede ayudarnos a identificar mejor estas áreas y monitorizar su evolución. Cuanto más sepamos sobre estos ecosistemas, más eficaces serán las políticas para protegerlos y aprovechar su capacidad de capturar carbono a largo plazo.

Conclusión: actuar en favor del carbono azul
Nuestro estudio demuestra que los ecosistemas de carbono azul son una solución natural poderosa y eficaz para mitigar el cambio climático. Capturan carbono de forma eficiente, lo almacenan durante milenios, y ofrecen numerosos beneficios ecológicos, sociales y económicos. Pero también son frágiles y están desapareciendo a un ritmo alarmante.
Frente a este panorama, la acción colectiva es esencial. Proteger los ecosistemas que aún existen y restaurar los que hemos perdido puede generar un impacto climático positivo medible. Además, estas acciones tienen un efecto multiplicador al beneficiar la biodiversidad, mejorar la calidad del agua y fortalecer la resiliencia costera. Promover el conocimiento sobre el carbono azul y su inclusión en las políticas públicas es una tarea urgente, en la que todas las generaciones pueden participar.
Referencias
- Macreadie, P. I., Costa, M. D. P., Atwood, T. B., Friess, D. A., Kelleway, J. J., Kennedy, H., et al. 2021. Blue carbon as a natural climate solution. Nature Reviews Earth & Environment, 2, 826–839. doi: 10.1038/s43017-021-00224-1

Oscar Serrano Gras
Doctor en Biología

El azufre está en todas partes. En nuestro cuerpo, forma parte de las proteínas. En la Tierra, participa en ciclos biogeoquímicos esenciales. Y más allá, en el universo, su historia es mucho menos clara. Uno podría suponer que, al ser un elemento relativamente abundante, los astrónomos ya tendrían claro dónde y cómo se encuentra repartido entre las estrellas. Pero no. Durante años, una parte significativa del azufre parecía estar “desaparecida” del medio interestelar, como si se escondiera de los instrumentos científicos.
Esa incógnita acaba de comenzar a resolverse gracias a un hallazgo extraordinario: por primera vez, se ha detectado azufre interestelar tanto en forma gaseosa como en forma sólida, directamente y en la misma línea de visión. El resultado ha sido posible gracias a los datos obtenidos por la misión japonesa XRISM, especializada en espectroscopía de rayos X, y publicado en la Publications of the Astronomical Society of Japan por un equipo internacional liderado por Lía Corrales. Este trabajo no solo ayuda a cerrar una de las brechas más persistentes en la química del cosmos, sino que ofrece una nueva herramienta para entender cómo se forman las estrellas, los planetas y, quizá, los ingredientes básicos de la vida.
El azufre: imprescindible en la vida, escurridizo en el espacio
El azufre es un elemento clave para la vida. Interviene en procesos celulares esenciales y está presente en aminoácidos, enzimas y vitaminas. Sin embargo, en el medio interestelar —ese vasto entorno de gas y polvo que separa las estrellas— su presencia no estaba del todo clara. En regiones poco densas, se detectaba como gas mediante observaciones en el ultravioleta. Pero en zonas más densas, como las nubes moleculares donde nacen estrellas, el azufre desaparecía del radar.
Esta desaparición ha sido atribuida, durante décadas, a un fenómeno de “depleción”: el azufre se condensa y se incorpora a granos de polvo, volviéndose invisible para muchos instrumentos. El problema es que, hasta ahora, no se había observado de forma directa esta forma sólida. Como explica el estudio, “esta es la primera vez que se demuestra la detección con alta señal del azufre atómico interestelar en su línea de absorción SII Kβ”. Además, se han identificado residuos de absorción correspondientes a compuestos sólidos de azufre, como troilita, pirrotina y pirita.

Una ventana de rayos X al otro lado de la galaxia
Para lograr este avance, el equipo utilizó el espectrómetro Resolve a bordo de XRISM, una misión conjunta de JAXA y NASA. Los científicos observaron el sistema binario GX 340+0, situado a unos 11.000 parsecs, en el otro extremo del disco de la Vía Láctea. Aprovecharon la intensa emisión de rayos X de este sistema como fuente de luz de fondo, que al atravesar el medio interestelar se “marca” con las huellas químicas de los elementos presentes.
Esta técnica permitió no solo detectar la línea Kβ del azufre ionizado (SII) en gas, sino también registrar una absorción adicional que encaja con la presencia de azufre en forma sólida, mezclado probablemente con hierro. Como detalla el paper, “las plantillas de absorción de tres compuestos Fe-S proporcionan ajustes igualmente buenos a los residuos” observados en el espectro. Esto respalda la hipótesis de que parte del azufre se encuentra atrapado en minerales como la troilita, un sulfuro de hierro frecuente en meteoritos.

Detectar lo invisible: gas, polvo y compuestos de azufre
Uno de los logros técnicos más notables de este estudio es haber conseguido distinguir, en un único espectro, las contribuciones del azufre en estado gaseoso y en forma sólida. Para hacerlo, los investigadores compararon modelos de absorción espectral con y sin compuestos de polvo, y evaluaron los resultados usando criterios estadísticos rigurosos.
El modelo que combinaba azufre en gas (SII) con uno de los compuestos sólidos (como troilita o pirrotina) ofreció la mejor concordancia con los datos. El resultado permitió estimar una depleción del 40% ± 15% del azufre, es decir, ese porcentaje estaría fijado en granos de polvo y no en fase gaseosa. Esta proporción concuerda con las estimaciones indirectas previas, pero hasta ahora nunca se había medido de forma directa.
Además, los investigadores confirmaron que esta señal no es un efecto interno del sistema binario, sino que es genuinamente interestelar. La línea de absorción aparece en diferentes fases del sistema y también fue observada en un segundo objeto, 4U 1630−472, reforzando su origen más allá de las estrellas observadas.

Implicaciones para el estudio de la galaxia y del origen planetario
Comprender dónde está y cómo se distribuye el azufre en el espacio no es solo un asunto de inventario químico. Este elemento tiene un papel importante en la formación de planetas y cometas, y su presencia en forma sólida puede influir en los procesos de acreción que construyen cuerpos rocosos. De hecho, compuestos Fe-S como los detectados en este estudio son comunes en meteoritos y polvo cometario, lo que sugiere que parte del material primitivo del sistema solar ya contenía este tipo de estructuras.
Además, el hallazgo tiene valor desde el punto de vista metodológico. Es la primera vez que se logra una medición directa de depleción de azufre interestelar, abarcando tanto el gas como el polvo. Esto convierte al XRISM en una herramienta clave para futuros estudios de abundancias interestelares y abre una nueva ventana para analizar cómo los elementos esenciales para la vida viajan por el cosmos y se incorporan a sistemas planetarios.
Según indica el estudio, la detección “proporciona una medida directa de la depleción del azufre, que es del 40% ± 15%”, lo que podría representar una media razonable para la Vía Láctea en su conjunto, dada la ubicación de las fuentes estudiadas al otro lado del disco galáctico.
Un paso más hacia entender los ingredientes del universo
La misión XRISM ha demostrado que los rayos X pueden ofrecer información valiosa y detallada sobre la composición del medio interestelar. El análisis fino de las líneas de absorción permite descomponer lo que hasta ahora era un bloque invisible: el polvo interestelar.
Este tipo de investigaciones no solo ayudan a responder dónde está el azufre, sino que también permiten estudiar otros elementos clave, como el hierro o el oxígeno, con una precisión sin precedentes. A medida que se acumulen más observaciones con XRISM y otras misiones, será posible construir un mapa químico tridimensional de la galaxia, donde cada línea de visión aporte pistas sobre la evolución del material cósmico.
El estudio también pone en evidencia la necesidad de mejores datos de laboratorio sobre absorción de rayos X en sólidos, ya que muchos modelos dependen aún de cálculos teóricos. En palabras del equipo, “las mediciones de laboratorio para la absorción de la capa K del azufre en sólidos están en camino, y podrían ofrecer resultados distintos para la posición de la estructura de absorción”.
Referencias
- Corrales, Lía; Costantini, Elisa; Zeegers, Sascha; Gu, Liyi; Takahashi, Hiromitsu; Moutard, David; Shidatsu, Megumi; Miller, Jon M.; Mizumoto, Misaki; Smith, Randall K.; Ballhausen, Ralf; Chakraborty, Priyanka; Díaz Trigo, María; Ludlam, Renee; Nakagawa, Takao; Psaradaki, Ioanna; Yamada, Shinya; Kilbourne, Caroline A. XRISM insights for interstellar Sulfur. Publications of the Astronomical Society of Japan, 2024, 00, 1–10.
https://doi.org/10.1093/pasj/psaf068.
El Peugeot 408 marca un nuevo rumbo en el segmento C al unir la elegancia deportiva de un fastback con la versatilidad de un SUV. Con una longitud de 4,69 m y una batalla de 2,79 m, reúne presencia y funcionalidad gracias a un diseño atrevido inspirado en la silueta coupé superior y la robustez de un todocamino.
Fabricado en Mulhouse (Francia), el nuevo 408 destaca por una aerodinámica afinada—su coeficiente de arrastre es de apenas 0,28—y por su imagen identificable de inmediato: ópticas «colmillo», parrilla diamantada y llantas de hasta 20 pulgadas con diseño geométrico disruptivo. Bajo esta apariencia, ofrece tanto motores gasolina modernos como versiones híbridas enchufables de hasta 225 CV y una batería eléctrica que alcanza hasta 63 km WLTP de autonomía.
Su interior responde con amplitud: 188 mm para las rodillas en la segunda fila y un maletero desde 536 L hasta 1 611 L con los asientos abatidos, todo acompañado de acabados premium, asientos envolventes con Alcantara®, calefacción y masaje. Al volante, presume del puesto de conducción Peugeot i‑Cockpit® de última generación, con pantalla táctil, cuadro digital y asistencias como Night Vision o control adaptativo Stop & Go.
Este artículo explora por qué el 408 representa una propuesta original: un modelo que combina lo mejor de dos mundos, sin renunciar a eficiencia, confort ni sensaciones. Repasaremos su diseño, motorizaciones, tecnología y cómo Stellantis ha vuelto a apostar por un planteamiento rompedor con el León.
Diseño fastback con carácter SUV
La estética coupé emerge con fuerza en el perfil del 408: caída pronunciada del techo tras el pilar B, líneas fluidas y una zaga casi horizontal evocan dinamismo. A su vez, la mayor altura libre al suelo, los protectores laterales y las llantas de hasta 20" recuerdan a un SUV moderno.
Este enfoque dual se plasma también en el frontal, con una parrilla pintada del color de la carrocería y faros Full LED Matrix que proyectan la firma luminosa del León. Por la noche, las luces traseras crean efectos visuales con garras 3D que intensifican la proyección urbana del coche.

Plataformas modulares y eficiencia estructural
El 408 se basa en la plataforma EMP2‑V3, compartida con el 308 III y otros modelos del grupo Stellantis. Esta plataforma optimizada permite variantes gasolina, híbridas enchufables e incluso futuras versiones eléctricas.
Gracias al uso de aceros de alta resistencia, aluminio y compuestos ligeros, reduce el peso en unos 70 kg respecto a generaciones anteriores, mejorando la eficiencia sin sacrificar rigidez o confort.

Gama de motorizaciones: gasolina y PHEV
Peugeot continúa apostando por una nueva era de movilidad eléctrica con un precio imbatible, y el 408 híbrido enchufable es un claro exponente de esa filosofía de accesibilidad y eficiencia energética. Este modelo es ideal para quienes desean combinar rendimiento con conciencia medioambiental.
La oferta parte del motor PureTech 1.2 turbo de 130 CV, acompañado de versiones enchufables PHEV con combinaciones de 180 CV y 225 CV. La caja automática e‑EAT8 de 8 velocidades es común a todas.
Las versiones PHEV permiten recorrer entre 61 y 63 km en modo 100 % eléctrico (WLTP combinado) y hasta 69–71 km en ciudad, con recarga automática durante la conducción gracias al sistema de frenado regenerativo.

Espacio interior de diseño y confort
Con una longitud de 4,69 m y una batalla de 2,79 m, la habitabilidad es destacada: 188 mm para las rodillas traseras y un maletero desde 536 L hasta 1.611 L, ideal para viajes o uso familiar.
Los asientos envolventes ofrecen acabados en Alcantara®, calefacción y función masaje. El uso de aluminio en detalles como pedales y taloneras refuerza la deportividad del conjunto.

Peugeot i‑Cockpit® y tecnología de asistencia
El puesto de conducción combina cuadro digital, pantalla táctil HD de hasta 10" e i‑Toggles personalizables para control haptico rápido. La ergonomía, con volante compacto y comandos integrados, aporta dinamismo y claridad visual.
La seguridad se refuerza con hasta 6 cámaras y 9 radares que ofrecen sistemas como control de ángulo muerto de largo alcance (75 m), Night Vision, alerta de tráfico trasero y regulador adaptativo con función Stop & Go.

Conducción y comportamiento dinámico
La posición elevada mezcla visión propia de SUV con agilidad de fastback. La suspensión, ajustada para confort europeo, absorbe bien irregularidades y transmite estabilidad en curva y confort en autopista.
El bajo centro de gravedad y la respuesta precisa del volante hacen del 408 un vehículo equilibrado, fácil de conducir y con buen tacto deportivo.

Confort acústico y calidad percibida
Peugeot ha cuidado el aislamiento: el habitáculo es silencioso incluso a altas velocidades, gracias a materiales absorbentes y diseño aero optimizado. Los acabados interiores combinan superficies suaves, aluminio y elementos de calidad táctil superior. El nivel percibido es premium, con iluminación ambiental, sonido Hi‑Fi opcional y un ambiente elegante sin excesos.

Conectividad y servicios vinculados
El sistema i‑Connect Advanced permite funciones OTA, mirroring inalámbrico, conexión simultánea de dos móviles, cuatro puertos USB‑C delanteros y traseros y carga inductiva. La aplicación MyPeugeot y herramientas como Easy‑Charge simplifican la recarga y gestión del vehículo, especialmente en versiones enchufables.

Eficiencia y sostenibilidad real
El Peugeot 408 también figura entre los coches más eficientes que puedes comprar, gracias a sus motorizaciones híbridas enchufables, su aerodinámica optimizada y su tecnología de regeneración energética. Esto lo convierte en una opción especialmente competitiva en su categoría.
Los modelos PHEV reducen emisiones gracias a la conducción eléctrica en ciudad. La recarga regenerativa y la política de descarbonización de Stellantis contribuyen a una conducción más consciente y eficiente.
Planificación inteligente del motor, selección de modos eléctricos y uso moderado de recursos hacen al Peugeot 408 una alternativa responsable sin renunciar al rendimiento.

Posicionamiento y objetivo de mercado
Con un precio de partida en España desde unos 33 350 €, el 408 apunta al segmento premium del C. Ofrece una estética diferenciada, tecnología avanzada y sensaciones de conducción refinadas en un mercado competitivo.
Está pensado para conductores activos que quieren elegancia con practicidad, deseando un coche con estilo propio y enfocadas en la transición hacia la electrificación.

Peugeot 408: dos mundos unidos bajo un mismo León
El Peugeot 408 trae lo mejor de una berlina fastback y lo más atractivo de un SUV en un solo vehículo: diseño fresco, versatilidad real, tecnología de punta y motorizaciones eficientes. Es una propuesta original que se aleja de clichés y ofrece una visión coherente de futuro.

Para quienes buscan un coche con presencia, confort, amplitud y conciencia ecológica, este modelo marca un antes y un después en la oferta del León.
El crecimiento del streaming está en pleno crecimiento, cada vez más usuarios optan por transformar su televisor en un centro multimedia completo con la ayuda de un TV Box. Una solución práctica para acceder a plataformas, apps y contenido bajo demanda.
A las puertas de las vacaciones de agosto, Xiaomi sorprende con una bajada notable en el precio de su popular Mi Box S. Un movimiento estratégico que deja a la competencia descolocada y refuerza su posición en el mercado del streaming.

Su precio habitual supera los 49 euros en tiendas como MediaMarkt, Miravia o Amazon, pero Xiaomi, en colaboración con AliExpress y su cupón CDES05, lo baja hasta los 40,48 euros. Un nuevo mínimo histórico que refuerza su apuesta agresiva y lo posiciona como una de las mejores gangas del momento.
Este reproductor multimedia compacto y potente funciona con Android 8.1, lo que garantiza compatibilidad con una amplia variedad de apps a través de Google Play. Ofrece acceso directo a plataformas como Netflix, YouTube, Sling TV o Vudu, y permite reproducir contenido en resolución 4K a 60 fps, con 2 GB de RAM y 8 GB de almacenamiento interno.
Está impulsado por un procesador eficiente y cuenta con conectividad completa: Bluetooth, Wi-Fi, HDMI y puerto USB 2.0. Además, integra el Asistente de Google y Chromecast, facilitando el control por voz y la transmisión desde otros dispositivos para una experiencia multimedia más inteligente.
Apple entra de lleno en la guerra del streaming con una rebaja en su Apple TV 4K de 128 GB
La firma americana refuerza su presencia en el mercado de los TV Box con una rebaja notable en su Apple TV 4K de 128 GB. Actualmente puede encontrarse en Fnac por 179 euros, un precio competitivo si se compara con los 188€ habituales en tiendas como Amazon o MediaMarkt.

El Apple TV 4K 128GB Wi-Fi + Ethernet ofrece con compatibilidad total con Apple TV+, Netflix, DAZN o HBO Max. Su potente chip A15 Bionic permite un rendimiento fluido, ideal para juegos, música, entrenamientos y control domótico. Incluye mando Siri Remote con clickpad táctil y control por voz, y se integra a la perfección con el ecosistema Apple. La resolución 4K con HDR10+ y Dolby Vision garantiza una calidad de imagen espectacular.
Con Dolby Atmos y sonido envolvente 7.1, el Apple TV 4K transforma tu salón en un cine. Además, permite emparejar AirPods o altavoces HomePod para una experiencia personalizada. Es compatible con SharePlay, Apple Arcade y Apple Fitness+, y sirve como centro de domótica con soporte para HomeKit y Matter.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Los gigantes no son unos desconocidos en las fuentes históricas. Los encontramos en los textos bíblicos, las sagas nórdicas e incluso los mitos modernos, más próximos a la leyenda urbana que a la ciencia empírica. Sin embargo, de vez en cuando el registro arqueológico logra sorprendernos. Así, en las llanuras de Ceyranchol, al oeste de Azerbaiyán y muy cerca de las actuales fronteras con Georgia y Armenia, los arqueólogos han realizado un descubrimiento sorprendente Se trata de la tumba de un guerrero de hace unos 3 800 años, enterrado con un atuendo de combate singular y cuya estatura rondaba los dos metros. En una época donde la estatura media masculina era mucho menor, este individuo habría resultado imponente.
La tumba de un guerrero excepcional
El hallazgo se produjo en el corazón de la reserva histórico-cultural estatal de Keşikçidağ, una vasta zona protegida por su valor arqueológico y natural. El paraje se conoce por sus más de setenta cuevas, fortalezas excavadas en la roca y antiguos monasterios cristianos, enclavados en una geografía montañosa y agreste. Dentro de esta reserva se encuentran centenares de túmulos funerarios, conocidos como kurganes, que se construyeron desde la Edad del bronce hasta la Edad del hierro.
Los restos del guerrero se lhallaron bajo un túmulo circular de más de 28 metros de diámetro. En su interior, los arqueólogos descubrieron una cámara funeraria dividida en tres espacios distintos. El primero contenía el cuerpo y los elementos asociados a su vida y oficio, incluidos varios objetos personales y armas. En el segundo compartimento solo se encontraron recipientes cerámicos, mientras que el tercero estaba vacío. Esta distribución parece responder a una concepción simbólica del más allá: una separación simbólica entre el mundo de los vivos, las provisiones para la otra vida y un espacio destinado a lo desconocido.
El esqueleto del guerrero se encontraba en posición semiflexionada. En una de sus manos, sujetaba una lanza de bronce con una punta de cuatro dientes, una variante extremadamente poco común en la región. Este detalle se ha interpretado como una señal clara de su estatus. Se presupone que, en vida, no fue un combatiente ordinario, sino un posible líder militar o una figura de prestigio entre los suyos.

El ajuar funerario y los rituales para el más allá
Junto al cuerpo se encontraron también adornos de bronce en el tobillo derecho, cuentas de vidrio, herramientas talladas en obsidiana y doce jarras de cerámica finamente decoradas. Algunas de ellas conservaban los restos de huesos de animales cocinados, probablemente una ofrenda de comida para la otra vida.
Cada detalle de la disposición del cuerpo, las ofrendas y el ajuar parece haber sido cuidadosamente pensado. Este grado de planificación sugiere, según los investigadores, una estructura social jerarquizada, con roles definidos y una clara distinción entre individuos según su función socioeconómica o su linaje.

Un entorno sagrado
El lugar donde se encontró la tumba forma parte de una franja montañosa que discurre paralela a la frontera georgiana. A lo largo de esta línea, en altitudes que varían entre los 750 y los 950 metros sobre el nivel del mar, se extienden numerosas cavidades naturales y artificiales que se utilizaron, desde tiempos antiguos, como viviendas, refugios, santuarios y tumbas. Algunas de estas grutas se adaptaron incluso como iglesias rupestres durante la cristianización de la región. Así, el área se convierte en un punto de encuentro entre distintas religiones, épocas y usos del paisaje.
La fortaleza conocida como Keşikçi qala —“castillo del centinela”— domina visualmente el entorno y se sospecha que ejerció una función tanto defensiva como simbólica en el territorio. En este marco, los kurganes, además de operar como tumbas, también fueron hitos visibles desde lejos, marcadores de memoria colectiva y, probablemente, instrumentos para la afirmación del poder de una élite guerrera.

El guerrero en el marco de una cultura milenaria
El descubrimiento de esta tumba se enmarca en un extenso proyecto arqueológico que, desde hace años, trabaja en la recuperación, documentación y difusión del patrimonio funerario de la región. A lo largo de ese proceso, se han catalogado decenas de túmulos, algunos alineados en patrones que sugieren relaciones genealógicas o jerárquicas entre los enterramientos. Dentro de esta red, la tumba del guerrero "gigante" destaca por su monumentalidad, por la riqueza de los objetos encontrados y por la singularidad de la lanza que portaba.
Su estatura, muy superior a la media de la época, pudo contribuir también a potenciar su posición destacada dentro del grupo. Más allá de las implicaciones biológicas o genéticas de su tamaño, es probable que su presencia física le hubiese conferido un aura de autoridad o un carácter excepcional, asociado quizás a lo divino o a lo heroico.

El legado de un entierro monumental
El hallazgo de esta tumba no solo aporta datos sobre las prácticas funerarias del Bronce medio en el Cáucaso occidental, sino que invita a replantear la complejidad cultural y simbólica de estas comunidades. La combinación de elementos —la lanza de cuatro puntas, los adornos personales, los restos alimenticios, la disposición tripartita de la tumba— configura un retrato fascinante de un grupo humano que articulaba guerra, ritual, memoria y paisaje en un todo coherente.
El “gigante” de Keşikçidağ, como ya empieza a conocerse a este guerrero, ha vuelto a la luz para contarnos una historia que mezcla lo humano y lo sagrado. Su tumba nos habla de poder, prestigio y creencias, pero también de comunidad, transmisión de memoria y voluntad de perdurar.
Referencias
- 2025. Nota de prensa en Keshikchidagh Heritage. URL: https://keshikchidagh-heritage.az/en_US/content/13994#
- "Keshikchidagh". Ministry of Culture of the Republic of Azerbaijan. URL: http://irs.gov.az/en/index.php?p=location/keikcida-doevlt-tarix-memarlq-qoruu
- Metcalf, Tom. 2025. "3,800-year-old burial of tall warrior buried with 4-pronged spearhead unearthed in Azerbaijan". LiveScience. URL: https://www.livescience.com/archaeology/3-800-year-old-burial-of-tall-warrior-buried-with-4-pronged-spearhead-unearthed-in-azerbaijan
Egoístas, narcisistas, solitarios… No tener hermanos implica una larga lista de tópicos y sambenitos que los hijos únicos están cansados de escuchar. Y eso que cada vez es más frecuente que las familias decidan tener un único vástago. Según datos del Instituto Nacional de Estadística (INE), el número medio de hijos por mujer en 2019 en España fue de 1,23, la cifra más baja desde 2001. No obstante, el menor dato que recoge el INE si nos remontamos a los registros desde 1975 es de hace dos décadas, en 1998, cuando el número fue de solo 1,13.
Uno de los mitos más extendidos sobre estas personas es el de la personalidad narcisista, es decir, que se quieren en exceso a sí mismas. En las últimas décadas se han publicado varias investigaciones al respecto y una de las más recientes, realizada por científicos de Alemania, concluyó que no hay evidencias de que los hijos únicos sean más narcisistas que quienes tienen hermanos.
Soledad, creatividad y estructura cerebral: lo que dicen los estudios
La investigación, publicada en la revista Social Psychological and Personality Science, distingue entre las dos facetas de este rasgo de la personalidad: la búsqueda de admiración y la rivalidad. Como destacan los autores, si, como comúnmente se cree, el elogio y la atención excesivas de los padres refuerzan los niveles de este rasgo en los hijos únicos, esto debería repercutir en la dimensión de la admiración. Sin embargo, en cuanto a la rivalidad, podría ocurrir lo contrario, esto es, que se atenuara en los niños sin hermanos, ya que no tienen que competir con nadie para conseguir la atención de sus progenitores.
Para saber si el estereotipo seguía vigente en la actualidad, los investigadores enviaron una encuesta on line a medio centenar de personas, que, efectivamente, atribuyeron a los hijos únicos tanto una mayor búsqueda de admiración como una rivalidad superior, lo que perpetuaba el mito.
El siguiente paso fue demostrar si este se confirmaba como realidad o no, y, para ello, los científicos utilizaron datos de más de 1800 personas –alrededor de doscientas de ellas, hijos únicos– extraídos del macroestudio nacional germano SOEP-IS. “Hemos analizado un gran conjunto de datos que es representativo de la población alemana”, explica Michael Dufner, investigador de la Universidad de Leipzig (Alemania) y autor principal del trabajo.
Los científicos midieron en esta amplia muestra de individuos las dos facetas del narcisismo –la búsqueda de admiración y la rivalidad– y no encontraron que los hijos únicos presentaran diferencias en ninguna de las dos categorías en comparación con quienes tenían hermanos. Por tanto, según este trabajo, aunque el mito siga presente en la sociedad, no se apoya en evidencias científicas.

Más mito que realidad: el estigma del narcisismo
“Es el estudio más completo hasta la fecha que analiza si los hijos únicos son más narcisistas que los que tienen hermanos”, resalta William Chopik, profesor de Psicología en la Universidad Estatal de Míchigan (EE. UU.) que no ha participado en el estudio. En otro trabajo, Chopik y el resto de autores demostraron que algunas cualidades asociadas a este rasgo disminuyen con la edad, independientemente del número de hermanos que se tenga.
“Los niños interiorizan las opiniones infladas de sus padres sobre ellos, como por ejemplo que son especiales y merecen lo mejor”, apunta el psicólogo. Aunque es difícil saber qué parte del narcisismo se hereda de los progenitores y cuál es fruto del entorno –como la crianza–, los genes tendrían una influencia de aproximadamente la mitad del peso total en este rasgo, según Chopik.
Pero ¿De dónde procede la leyenda de que Los hijos únicos gozan de una excesiva autoestima? Dufner cita a dos psicólogos del siglo XIX: el estadounidense Stanley Hall, primer presidente de la Academia Estadounidense de Psicología, y el austriaco Alfred Adler, fundador de la llamada psicología individual.
Para Hall, ser hijo único era “una enfermedad en sí misma”, mientras que Adler publicó un libro en 1931 donde describía a los hijos sin hermanos como mimados y con padres “tímidos y pesimistas”, porque decidieron no tener más bebés, lo que provocaba una atmósfera de ansiedad en la que “el niño sufría mucho”.
Las creencias exageradas
Con estos precedentes que, según los expertos, influyeron en las generaciones posteriores, “se han exagerado las creencias más populares sobre las diferencias entre los hijos únicos y las personas con hermanos”, subraya Dufner, quien recuerda que muchos estudios no han hallado diferencias significativas entre los dos grupos de personas en múltiples rasgos de la personalidad.
En este sentido se manifiesta la psicóloga social estadounidense Toni Falbo, que lleva décadas estudiando los estereotipos de estos niños de uno y otro sexo y recuerda que, en su país, está muy extendido el mito de que son solitarios, egoístas e inadaptados. Las investigaciones no han mostrado que esto se cumpla, recuerda Falbo, que es profesora de Psicología Educativa de la Universidad de Texas (EE. UU.).
Pese a que algunos estudios chinos sí han concluido que los hijos únicos sienten una mayor soledad, otros han mostrado que no se sienten más solos que otros menores. “En general, esto sugiere que algo más que la ausencia de hermanos provoca que algunos niños sean propensos a la soledad”, puntualiza la experta.
El hijo único y la pandemia: menos compañía, más tiempo con adultos
En cuanto a los efectos de la pandemia por la covid-19, que obligó al confinamiento de las familias en sus casas durante varios meses, todavía no hay estudios que analicen de qué forma lo vivieron los pequeños que no tenían hermanos. Falbo sugiere que habrá que tener en cuenta si los padres podían trabajar desde casa durante ese periodo y si eran o no monoparentales.
“Me imagino que un hijo único sufrirá si lo dejan en casa solo durante horas y horas mientras su padre (monoparental) está trabajando”, alega Falbo. Sin embargo, según esta, investigaciones previas han demostrado que los hijos únicos están acostumbrados a pasar más tiempo solos y, al mismo tiempo, también están más con sus padres que quienes tienen hermanos –puesto que no tienen que compartir sus atenciones–.
Sobre las relaciones sociales de estas personas, hay investigaciones para todos los gustos. En 2004, Douglas Downey, del Departamento de Sociología de la Universidad Estatal de Ohio (EE. UU.), dirigió un estudio según el cual los maestros de jardines de infancia calificaron a los estudiantes con hermanos con mejores puntuaciones en sus habilidades sociales que los hijos únicos. Sin embargo, en otra investigación de 2013 en la que participó el mismo sociólogo, los autores descubrieron que los adolescentes sin hermanos no parecían presentar una desventaja en este aspecto.
Para ello analizaron a alrededor de 13500 jóvenes. “Nuestros resultados sugieren que el déficit de habilidades sociales observado anteriormente entre los hijos únicos en las guarderías parece superarse en la adolescencia”, apuntan los autores en dicho estudio.

¿Y qué ocurre a nivel cerebral?
Es lo que se preguntó un equipo de científicos de China, que midió el volumen de materia gris del cerebro en hijos únicos y lo compararon con quienes tenían hermanos. La materia gris está relacionada con el rendimiento cognitivo y con habilidades como la creatividad, la inteligencia y determinados rasgos de la personalidad.
“En este estudio, el volumen global de la materia gris no presenta diferencias significativas entre hijos únicos y niños con hermanos”, destaca Junyi Yang, investigadora del Laboratorio Key de Cognición y Personalidad (China) y autora principal de la investigación, que vio la luz en la revista Brain Imaging and Behavior en el año 2016.
Sin embargo, la investigación muestra que sí se observaron disparidades en algunas regiones relacionadas con la creatividad –esta fue mayor en los hijos únicos– y la amabilidad –que resultó más alta en los niños con hermanos–.
De esta forma, los descendientes únicos mostraron puntuaciones más elevadas relacionadas con la capacidad creativa, lo que se vinculó con cambios en el giro supramarginal, ubicado en la parte inferior del lóbulo parietal. También existían diferencias en la corteza prefrontal media, que se asoció con puntuaciones más bajas de amabilidad en los hijos sin hermanos. Asimismo, los científicos detectaron diferencias en el giro parahipocampal, localizado sobre la superficie inferior de cada hemisferio cerebral.
“Estos hallazgos pueden sugerir que el entorno familiar [donde haya hermanos o no] parece desempeñar un papel importante en el desarrollo del comportamiento y la estructura cerebral de las personas”, indican los autores en el estudio.
Desarrollo del comportamiento
En el caso de la creatividad, según Yang, la estructura familiar parece influir en su desarrollo, lo que estaría relacionado con que los padres de hijos únicos podrían dedicar más tiempo y esfuerzos al niño. En cuanto a la amabilidad y otras dimensiones de la personalidad, Falbo no comparte que haya diferencias entre tener o no hermanos, y afirma que los hijos únicos son “en gran medida” como quienes crecieron con la influencia de una relación fraternal.
No obstante, matiza: “Parecen tener una ventaja en los resultados educativos, y su salud mental está, en promedio, dentro del rango normal o incluso ligeramente por encima”. Varias investigaciones también han analizado si tener o no hermanos influye en el sobrepeso, uno de los problemas de salud pública más graves del siglo XXI –afecta a unos 41 millones de niños menores de cinco años en todo el mundo, según datos de la Organización Mundial de la Salud (OMS)–.
Un estudio llevado a cabo en ocho países europeos con más de 12700 niños concluyó que los hijos únicos presentaban un riesgo un 50 % mayor de sufrir sobrepeso u obesidad que los que tenían hermanos. La investigación, publicada en la revista Nutrition and Diabetes, incluyó a niños españoles y se realizó en el marco del proyecto europeo IDEFICS, en el que investigadores europeos analizan la dieta, el estilo de vida y la obesidad y sus efectos sobre la salud en niños de entre dos y nueve años.
“Nuestro estudio muestra que los hijos únicos juegan al aire libre con menor asiduidad, viven en hogares con niveles educativos más bajos con mayor frecuencia y tienen más probabilidades de tener televisión en sus habitaciones”, señala Monica Hunsberger, investigadora de la Academia Sahlgrenska de la Universidad de Gotemburgo (Suecia) y una de las autoras de la investigación. Los científicos explicaron que, incluso teniendo en cuenta estos factores, la correlación entre el sobrepeso y ser hijo único seguía siendo alta.
También incluyeron el género, su peso al nacer y el de los progenitores. “Ser hijo único parece ser un factor de riesgo para el sobrepeso, independientemente de los factores que pensamos que podrían explicar la diferencia”, añade la epidemióloga.
El sobrepeso y la salud mental
Otra investigación fue un paso más allá y analizó si estos menores con sobrepeso registraban más riesgo de sufrir un problema mental. El estudio se realizó con más de 1300 adolescentes chinos y concluyó que, aunque los hijos únicos tenían una mayor probabilidad de sufrir obesidad, cuando la padecían presentaban menos riesgo de experimentar síntomas de depresión en comparación con los niños obesos con hermanos.
Si hay un país en el que abundan los estudios sobre hijos únicos es China, que en 1979 implantó como medida de control de la población que las parejas solo pudieran tener un vástago. La medida, en vigor hasta 2015, fue muy polémica por coartar la libertad de las familias a la hora de decidir cuánta descendencia querían tener, y ha sido analizada desde múltiples prismas.
En el caso de la personalidad de esos niños, científicos de universidades australianas mostraban en un estudio publicado en la revista Science que estos pequeños emperadores eran jóvenes inseguros, pesimistas y nerviosos. Los investigadores reclutaron a 421 personas residentes en Pekín, de las que una parte habían nacido antes de la política de restricción de hijos –entre 1975 y 1978– y la otra lo había hecho en la etapa posterior –entre 1980 y 1983–, cuando la normativa ya estaba en vigor.
Menos competitivos
“Descubrimos que las personas que crecieron siendo hijos únicos como resultado de la política del Gobierno chino fueron significativamente menos confiados y confiables, más reacios al riesgo, menos competitivos, más pesimistas y menos concienzudos”, enumera Xin Meng, investigadora de la Facultad de Investigación en Economía de la Universidad Nacional Australiana y coautora del estudio.
Según la científica, los datos del estudio muestran cómo ser hijo único por culpa de esta política estaba asociado con correr menos riesgos en el mercado laboral. Aunque, en principio, la medida se tenía que aplicar en toda China, las autoridades fueron permisivas con las zonas rurales, donde era común que las familias tuvieran entre dos y tres hijos. Eso, sumado a las tradiciones del país asiático, provoca que no se pueda generalizar y decir que la población china, a raíz de la política del hijo único, sea hoy más insegura y pesimista.
“De hecho, su cultura tradicional es muy altruista y familiar. Siempre ha considerado el trabajo duro como una virtud. Estas tradiciones milenarias no se eliminan fácilmente”, recalca Meng.

Hermanos, divorcios y habilidades sociales: una cuestión de entrenamiento
Otro fenómeno que se ve influido por las relaciones fraternales son los divorcios. ¿Más hermanos significa tener menos posibilidades de separarte de tu pareja? Esa es la conclusión a la que llegó una investigación realizada por sociólogos de la Universidad Estatal de Ohio (EE. UU.) y que presentaron en la reunión anual de la Asociación Estadounidense de Sociología de 2013.
Según el estudio, crecer con hermanos puede dar cierta protección frente a la separación conyugal en la edad adulta, y cuantos más se tengan, mejor para el amor. “Descubrimos que cada hermano adicional está relacionado con una disminución del 2 % en la probabilidad de divorcio”, afirma Downey, coautor del trabajo. El límite de hermanos era siete: más allá de esa cifra, no se apreciaba una protección adicional frente a la separación.
La investigación utilizó datos de una macroencuesta estadounidense, la General Social Survey, con entrevistas a alrededor de 57000 adultos entre los años 1972 y 2012. El efecto protector de los hermanos se observó entre los estadounidenses de todas las generaciones estudiadas.
Además, según los investigadores, tuvieron en cuenta otros factores que podrían haber influido en los resultados, como si los encuestados tenían dos progenitores o solo uno, la educación, la situación socioeconómica, la etnia, la edad al casarse, las creencias religiosas o si tenían hijos.
Ventajas no tan visibles
Pero la relación que encontraron entre número de hermanos y divorcio siguió presente incluso teniendo en cuenta estos factores. ¿A qué se debe este efecto protector? Aunque la investigación no analiza las causas, los autores apuntan algunas: “Pensamos que crecer con hermanos es como un entrenamiento para las relaciones interpersonales”, sostiene Downey.
En opinión del sociólogo, al criarte en una familia con hermanos desarrollas un conjunto de habilidades para relacionarte y enfrentarte a situaciones tanto positivas como negativas.
Precisamente esas capacidades se entrenan más cuantos más hermanos tengas. Además, esta situación te obliga a escuchar los puntos de vista de otras personas y a hablar de los problemas en casa cuando eres pequeño, lo que, a la larga, parece una buena base a la hora de mantener futuras relaciones con adultos, entre ellas, el matrimonio.
Sin embargo, los investigadores no quieren que cunda el pánico ni entre los hijos únicos ni entre sus progenitores. El número de hermanos no es el motivo de que fracase o no una relación: influyen una gran cantidad de factores. Otro mito más de los hijos únicos.
Referencias
- Dufner, M., Back, M. D., Oehme, F. F., & Schmukle, S. C. (2019). The End of a Stereotype: Only Children Are Not More Narcissistic Than People With Siblings. Social Psychological and Personality Science, 11(3), 416-424. doi: 10.1177/1948550619870785
- Formisano, A., Hunsberger, M., Bammann, K., Vanaelst, B., Molnar, D., Moreno, L. A., ... & Siani, A. (2014). Family structure and childhood obesity: results of the IDEFICS Project. Public health nutrition, 17(10), 2307-2315. doi: 10.1017/S1368980013002474
La endometriosis afecta a millones de mujeres en todo el mundo, pero muchas esperan entre 8 y 12 años para obtener un diagnóstico. Los síntomas se confunden con menstruaciones dolorosas y no siempre se detectan en pruebas convencionales. En este contexto, un nuevo avance promete cambiar las reglas del juego.
Investigadores de la Universidad de Pensilvania han creado un test rápido que detecta la endometriosis a partir de sangre menstrual, en menos de 10 minutos y con altísima precisión. Este test se basa en un material revolucionario: el borofeno, una lámina de átomos de boro con propiedades únicas. La técnica emplea además luz ultravioleta para preparar los anticuerpos que detectan la enfermedad.
El resultado es una tira reactiva similar a un test de embarazo, pero mucho más sensible y pensada para integrarse incluso en productos de higiene femenina, como compresas. Un paso clave para facilitar el diagnóstico en casa, sin dolor, sin estigmas y sin laboratorios.

Borofeno: el material invisible que lo hace posible
La clave detrás de este test está en el borofeno, un nanomaterial de apenas un átomo de grosor. Aunque suene a ciencia ficción, se puede producir a partir de polvo de boro y agua, mediante un proceso de exfoliación líquida. El resultado: diminutas láminas estables y biocompatibles.
El borofeno ofrece una enorme superficie activa y una estructura ideal para fijar moléculas como anticuerpos. Su conductividad, flexibilidad y afinidad con ciertos grupos químicos lo convierten en un candidato perfecto para biosensores. En este estudio, los científicos lo usaron como plataforma para organizar anticuerpos de forma precisa.
Estas láminas fueron caracterizadas con técnicas avanzadas de microscopía electrónica y espectroscopía, confirmando su estructura ordenada y su baja toxicidad. Esto permitió integrarlas en tiras de nitrocelulosa como base del nuevo test diagnóstico.
"A pesar del potencial significativo del efluente menstrual como herramienta de diagnóstico para la salud de las mujeres, se enfrenta a desafíos sustanciales debido al estigma social y la falta de opciones de prueba asequibles", dijo el Dr. Dipanjan Pan, autor del estudio y profesor de ingeniería nuclear y ciencia e ingeniería de materiales en Penn State.
Luz ultravioleta para activar la detección
Fijar anticuerpos a una superficie puede ser complicado. Si se orientan al azar, su capacidad de reconocer antígenos disminuye. Para evitar esto, los científicos usaron una técnica llamada photoinduced immobilization, que expone los anticuerpos a luz ultravioleta durante solo 30 segundos.
La luz UV rompe enlaces específicos en los anticuerpos y libera grupos químicos que se unen con precisión al borofeno. Estos grupos tiol se enlazan a los átomos de boro y posicionan los anticuerpos de forma óptima: una de sus zonas activas queda fija y la otra queda libre para detectar el antígeno.
Este enfoque garantiza que los anticuerpos mantengan su funcionalidad, aumentando la sensibilidad del test y evitando interferencias. La unión borofeno-anticuerpo es fuerte, estable y sin necesidad de reactivos adicionales.

Detectar endometriosis en 10 minutos… desde casa
El equipo diseñó un test rápido basado en este sistema para detectar HMGB-1, un biomarcador clave de la endometriosis. A diferencia de otros métodos, este no requiere extracción de sangre ni un laboratorio: se aplica directamente sobre una muestra de sangre menstrual.
El nuevo test detecta concentraciones mínimas de HMGB-1 (40 pg/mL) en solo 10 minutos, cinco veces más sensible que los test convencionales. Y lo hace sin reacciones cruzadas con otras proteínas comunes, como albúmina o fibrina, presentes en la sangre.
"La evidencia clínica muestra que los niveles de HMGB1 en la sangre menstrual son significativamente más altos en individuos con endometriosis que en controles saludables. Sin embargo, los casos en etapa temprana o asintomáticos pueden mostrar solo aumentos modestos", dijo Pan
"Es por eso que la alta sensibilidad a las bajas concentraciones es esencial: la detección temprana permite una intervención oportuna".
Los investigadores plantean que este test podría integrarse en toallas sanitarias y otros productos menstruales, ofreciendo una alternativa discreta, económica y accesible para millones de mujeres en todo el mundo. Un paso clave para eliminar las barreras sociales, económicas y culturales que rodean a esta enfermedad.
Cómo se probó su eficacia
Para asegurar que el sistema funcionaba como se esperaba, el equipo realizó múltiples ensayos con microscopía, espectroscopía Raman, pruebas de fluorescencia y calorimetría. Compararon anticuerpos tratados con luz UV con otros sin tratar, y solo los primeros lograron unirse de forma funcional al borofeno.
Las imágenes electrónicas y moleculares mostraron que los anticuerpos se orientaban de forma correcta y formaban complejos con los antígenos. Las señales visuales en las tiras eran más intensas, rápidas y reproducibles en los test con borofeno y fotoactivación.
También se observó que el material cubría bien la superficie de la tira, aumentando la densidad de anticuerpos disponibles y permitiendo que las reacciones ocurran en la superficie visible, lo cual es fundamental para que el test funcione sin instrumentos de laboratorio.
"Nuestra investigación muestra que el borofeno es altamente biocompatible y biodegradable, lo que lo hace ideal para aplicaciones biomédicas", dijo Pan.

Hacia un futuro con diagnósticos más humanos
Más allá del avance técnico, este nuevo test representa un cambio de paradigma. No solo mejora la precisión del diagnóstico, sino que devuelve el control a las pacientes. Puede usarse en casa, sin dolor, sin esperas y sin estigmas. Y eso, en enfermedades como la endometriosis, marca la diferencia.
El uso de nanomateriales como el borofeno, combinado con técnicas de biofuncionalización innovadoras, abre la puerta a una nueva generación de tests rápidos. Este enfoque podría aplicarse a otras enfermedades donde se requieren biomarcadores, desde infecciones hasta trastornos inflamatorios.
"Al aprovechar las propiedades únicas del borofeno, nuestro enfoque ofrece la oportunidad de romper el estigma menstrual mientras avanza en la salud de la mujer", concluyó Pan.
El próximo paso será validar esta tecnología en estudios clínicos más amplios y explorar su uso en plataformas comerciales. Pero el camino está trazado: combinar ciencia de vanguardia con soluciones accesibles para mejorar la salud femenina y reducir las brechas en diagnóstico.
Referencias
- Natarajan, S., Dighe, K., Aditya, T., Saha, P., Skrodzki, D., Gupta, P., ... & Pan, D. (2025). Photoinduced Immobilization on Two-Dimensional Nano Borophene Spatially Orients Capture Antibody for Highly Sensitive Biological Interactions. ACS Central Science. doi: 10.1021/acscentsci.5c00474
En 1928, Paul Dirac predijo teóricamente la existencia de la antimateria. Años más tarde, el positrón —el electrón de antimateria— fue descubierto, y desde entonces, la idea de que cada partícula tiene su opuesta ha fascinado a generaciones de científicos. Pero más allá de las novelas de ciencia ficción o los aceleradores de partículas que recrean el Big Bang en miniatura, lo que realmente ha mantenido despierta a la física durante décadas es una pregunta esencial: si materia y antimateria se crearon en cantidades iguales durante el origen del universo, ¿por qué todo lo que vemos está hecho de materia?
Ahora, un experimento del CERN ha dado un paso gigantesco para acercarse a esa respuesta. Por primera vez, un equipo internacional ha conseguido manipular el espín de un antiprotón —la versión de antimateria del protón— como si fuera un cúbit, la unidad básica de información cuántica. El avance no solo representa un hito tecnológico sin precedentes, sino que también promete aportar datos cruciales para comprender las asimetrías fundamentales entre la materia y la antimateria que determinaron la existencia del universo tal y como lo conocemos.
La hazaña cuántica con una sola antipartícula
Lo más llamativo de este experimento es que se ha realizado con una sola antipartícula, aislada, controlada y mantenida estable durante un tiempo récord de 50 segundos. Ese dato es especialmente relevante porque los estados cuánticos, como el del espín de una partícula, son extremadamente sensibles al entorno. Cualquier interferencia —ya sea ruido térmico, fluctuaciones magnéticas o vibraciones— puede colapsar ese estado superpuesto que define la lógica de la mecánica cuántica.
Para lograrlo, el equipo de la colaboración BASE del CERN utilizó un sistema de trampas de Penning criogénicas de altísima precisión, capaces de mantener al antiprotón prácticamente inmóvil en un vacío ultracontrolado. Allí, en el corazón del dispositivo, se aplicaron pulsos de radiofrecuencia con el fin de inducir oscilaciones coherentes de espín, un fenómeno conocido como oscilaciones de Rabi. Según se describe literalmente en el artículo científico publicado en Nature, los investigadores “observaron, por primera vez, oscilaciones de Rabi del espín de un antiprotón almacenado en un sistema de trampa de Penning criogénica”.
Esto convierte al antiprotón en el primer cúbit de antimateria funcional, al menos en el contexto experimental.

Por qué importa medir el espín de un antiprotón
En la física de partículas, el espín es una propiedad fundamental que está relacionada con el momento magnético. Es decir, el espín convierte a las partículas subatómicas en pequeños imanes, sensibles a campos magnéticos externos. Si se logra medir con gran precisión cómo se comporta el espín de una partícula y se lo compara con su contraparte de antimateria, es posible identificar pequeñas diferencias que podrían explicar la asimetría del universo.
El problema es que, hasta ahora, las comparaciones entre protones y antiprotones no mostraban ninguna diferencia significativa. Las mediciones anteriores del momento magnético del antiprotón habían alcanzado una precisión de 1.5 partes por mil millones, pero aún así coincidían con las del protón. Eso representa una enorme frustración para la física de partículas, ya que, si no existen diferencias entre ambas entidades, se vuelve imposible explicar por qué sobrevivió la materia después del Big Bang.
El uso de técnicas coherentes, como las oscilaciones de Rabi, permite ahora mejorar la resolución espectral de estas mediciones hasta en un factor de 10 o incluso 100, gracias a una mayor relación señal-ruido y una menor anchura de línea. Como detalla el paper: “la anchura de línea de la resonancia de transición del espín fue más de diez veces menor que en nuestras mediciones anteriores”. Esto podría permitir estudios de precisión sin precedentes sobre la posible ruptura de la simetría CPT —la que garantiza que las leyes de la física son las mismas para materia y antimateria—.

Una coreografía precisa en tres trampas cuánticas
El experimento no consistió simplemente en encender un láser y mirar qué pasaba. El protocolo es una coreografía meticulosa que implica tres trampas distintas y dos antipartículas diferentes. Una actúa como “partícula Larmor”, encargada de las oscilaciones de espín, y otra como “partícula ciclotrón”, que ayuda a medir el campo magnético con precisión.
Primero se prepara el estado inicial de espín en la trampa de análisis, se transporta el antiprotón a la trampa de precisión para inducir la oscilación, y luego se lo regresa a la trampa inicial para verificar si el espín ha cambiado. Cada paso requiere transportar partículas individuales con voltajes cuidadosamente programados, evitar cualquier colisión con materia ordinaria y registrar desviaciones del orden de milésimas de hertz.
Según los resultados publicados, el equipo logró obtener una probabilidad de inversión de espín superior al 80% con tiempos de coherencia del espín de hasta 50 segundos. Estos datos permiten ajustar con extrema fineza la frecuencia de resonancia de la partícula, lo que mejora la estadística general del experimento de forma notable.
Más allá del laboratorio: las instalaciones del futuro
Uno de los mayores retos de este tipo de estudios es que el entorno en el que se crean las antipartículas —como los aceleradores del CERN— no es el más adecuado para hacer experimentos ultraprecisos. Las vibraciones, los cambios de temperatura y el funcionamiento de los imanes de la instalación introducen ruido magnético que acorta drásticamente los tiempos de coherencia. De hecho, cuando los aceleradores están activos, ese tiempo se reduce a menos de 6 segundos.
Por eso, el equipo de BASE ha diseñado un sistema llamado BASE-STEP, un conjunto de trampas transportables que permitirá mover los antiprotóns a instalaciones mucho más silenciosas, tanto dentro como fuera del CERN. En estas nuevas ubicaciones, será posible realizar experimentos con condiciones mucho más estables, lo que abriría la puerta a mediciones aún más precisas.
Como explica el artículo original, “una nueva trampa de Penning de precisión offline... podría permitirnos alcanzar tiempos de coherencia del espín incluso diez veces más largos que en los experimentos actuales”.

El verdadero potencial de un cúbit hecho de antimateria
Desde el punto de vista tecnológico, convertir una antipartícula en un cúbit operativo no es un simple ejercicio académico. Supone un paso hacia una física cuántica más universal, en la que también la antimateria pueda ser manipulada con la misma fineza que los átomos y electrones habituales.
Pero más allá de posibles aplicaciones en computación cuántica, este avance apunta directamente a uno de los mayores misterios del cosmos. Si se descubren diferencias reales entre las propiedades magnéticas del protón y el antiprotón, los modelos actuales del Big Bang deberán ser revisados, y podría abrirse una ventana hacia nuevas teorías físicas más allá del Modelo Estándar, incluyendo la posibilidad de interacciones ocultas con la materia oscura.
Por ahora, el experimento marca un antes y un después. No solo por lo que consigue, sino por lo que demuestra: que es posible hacer espectroscopía cuántica coherente con una única antipartícula, y hacerlo durante el tiempo suficiente como para extraer datos útiles. Y eso, en física experimental, es el tipo de proeza que redefine lo que es posible.
Referencias
- B.M. Latacz et al. Coherent spectroscopy with a single antiproton spin, Nature (2025). https://doi.org/10.1038/s41586-025-09323-1.
Hace unos 505 millones de años, el paisaje del Gran Cañón era muy diferente al que conocemos hoy. Donde ahora se precipitan acantilados rojizos y serpentea el Colorado, entonces se extendía un mar somero y cálido, cercano al ecuador, rebosante de vida. En ese entorno, diminutas criaturas marinas exploraban formas y estrategias que marcarían para siempre la historia de la vida en la Tierra.
Un reciente estudio publicado en Science Advances ha revelado una ventana excepcional a aquel mundo olvidado: más de 1.500 microfósiles orgánicos, increíblemente bien conservados, procedentes de la Formación Bright Angel, que permiten observar con un detalle inédito cómo la evolución experimentaba con nuevas anatomías y modos de alimentarse. Este hallazgo no solo amplía nuestro conocimiento del Cámbrico, sino que también cuestiona algunas ideas establecidas sobre dónde y cómo prosperó la vida compleja en sus primeros capítulos.
Un tesoro microscópico escondido en las rocas
El descubrimiento no fue fruto de casualidad. Un equipo internacional de paleontólogos recolectó decenas de rocas del tamaño de un puño en una expedición de 2023 por el Colorado. Estas rocas, de entre 502 y 507 millones de años, fueron sometidas a un proceso meticuloso: disolución con ácido y tamizado microscópico, en busca de diminutos fósiles carbonosos, restos orgánicos que preservan tejidos blandos con gran detalle.
La mayor parte de las muestras no ofreció nada. Pero dos de ellas resultaron ser auténticas cápsulas del tiempo: contenían diminutos fragmentos de crustáceos, moluscos y un sorprendente protagonista, un gusano priapúlido que los investigadores bautizaron Kraytdraco spectatus, en homenaje al dragón del universo Star Wars.
Estos fósiles no son los esqueletos mineralizados que solemos imaginar. Son restos carbonosos, oscuros y delicados, que preservan dientes, espinas y filamentos con un nivel de detalle tan preciso que incluso revelan texturas y ramificaciones de micras de grosor. Para la paleontología, es como pasar de una fotografía borrosa a una imagen en alta resolución del mundo del Cámbrico.

El rincón perfecto para que la vida innovara
Lo que hace especialmente fascinante a este hallazgo no es solo la calidad de los fósiles, sino el contexto en el que se formaron. A diferencia de yacimientos icónicos como el Burgess Shale canadiense o los esquistos de Chengjiang en China, que corresponden a entornos marginales y con baja oxigenación —condiciones ideales para preservar organismos blandos—, el ecosistema del Gran Cañón era un mar abierto, bien oxigenado y lleno de recursos.
Según los investigadores, esta combinación de abundancia y estabilidad permitió que la vida experimentara sin limitaciones energéticas. En un ambiente rico en nutrientes y oxígeno, los animales podían “invertir” en adaptaciones complejas: dientes filamentosos, apéndices especializados, bocas eversibles, sistemas de filtración de partículas… Era, en cierto modo, la economía de la evolución en un periodo de bonanza.
Los priapúlidos, por ejemplo, desplegaban fauces que se invertían como un guante, mostrando filas de dientes con ramificaciones delicadas para atrapar restos orgánicos del fondo marino. Algunos de estos dientes parecían diseñados para raspar el sedimento; otros, más finos, actuaban como filtros. Los moluscos contaban con cadenas de diminutas piezas dentadas para rascar algas y bacterias, mientras que los crustáceos utilizaban patas con filamentos y “muelas” para capturar y triturar plancton.
Este ecosistema bullía de actividad. Las huellas fósiles —pequeños túneles y arañazos en la roca— revelan que el fondo marino estaba densamente habitado y en constante movimiento. La escena que emerge es la de un laboratorio natural donde la vida experimentaba con estrategias que, en gran medida, siguen vigentes medio billón de años después.

Una instantánea de la escalada evolutiva
El estudio sugiere que este escenario fue clave para lo que los paleontólogos llaman “escalada evolutiva”: un proceso de competencia biológica en el que las especies van desarrollando mejoras sucesivas en alimentación, defensa y movilidad.
Mientras los ecosistemas más extremos del Cámbrico, pobres en oxígeno, eran refugios para unas pocas especies tolerantes, el mar del Gran Cañón representaba un “campo de pruebas” mucho más exigente. Allí, cada innovación de un depredador impulsaba a sus presas a responder, elevando de forma progresiva el nivel de sofisticación biológica.
El hecho de que estos fósiles provengan de un entorno tan “normal” para su época, y no de un ambiente extremo, ayuda a corregir una visión sesgada de la historia temprana de los animales. Durante décadas, gran parte de lo que sabíamos del Cámbrico procedía de ecosistemas marginales donde la preservación era más favorable pero la diversidad ecológica era limitada. Este hallazgo muestra que la verdadera vitalidad del periodo también latía en mares abiertos, ricos en recursos, donde la competencia modelaba ecosistemas más cercanos a los que conocemos en la actualidad.

Lo que estos fósiles nos cuentan del futuro
Más allá de la fascinación por los dientes en miniatura y los gusanos “alienígenas”, este estudio refuerza la idea de que los grandes saltos evolutivos no ocurren solo en crisis o extremos ambientales, sino también en épocas de estabilidad y abundancia. Es en esos momentos cuando la naturaleza se atreve a innovar, a diversificar estrategias, a jugar con nuevas formas.
El ecosistema del Cámbrico en el Gran Cañón podría verse como el primer ensayo general del mundo moderno: cadenas tróficas más complejas, organismos especializados, interacción constante entre depredadores y presas. En otras palabras, la partida de ajedrez de la vida comenzó aquí, y muchas de las jugadas siguen vigentes quinientos millones de años después.
El estudio ha sido publicado en Science Advances.
La arqueología tiene la capacidad de devolver a la historia fragmentos ignorados de nuestro pasado. Ahora, un estudio realizado en la región de Sunbury, al noroeste de Melbourne, explora los círculos de tierra levantados por los pueblos aborígenes. Esta investigación pionera dirigida por la comunidad Wurundjeri Woi-wurrung, en colaboración con arqueólogos de varias universidades australianas, ofrece nuevas perspectivas sobre el significado cultural, el uso y la antigüedad de uno de estos enigmáticos anillos a partir del conjunto conocido como Sunbury Ring G.
Un enfoque de conocimientos entrelazados
El estudio, publicado en Australian Archaeology, se ha desarrollado mediante un enfoque de “conocimientos entrelazados” o braided knowledge que, en este caso, combina los saberes tradicionales de los Wurundjeri Woi-wurrung con métodos arqueológicos y científicos. Este modelo metodológico ha permitido reconstruir de forma total el paisaje sagrado —el denominado biik wurrdha de Jacksons Creek—, así como las actividades que allí se realizaton. La investigación, además, constituye un ejemplo de estudio autogestionado por las propias comunidades indígenas, que han participado de forma activa en todas las etapas del estudio.
Un patrimonio ceremonial amenazado
Los anillos ceremoniales de tierra, conocidos en algunas lenguas aborígenes como bora, eran lugares sagrados utilizados para celebrar los rituales de iniciación masculina. Aunque se conocen otros ejemplos en Queensland, Nueva Gales del Sur y Victoria, muchos han desaparecido tras la colonización europea. De los más de 400 registrados en el pasado, hoy apenas se conserva una cuarta parte. En el territorio de los Wurundjeri Woi-wurrung —el pueblo custodio tradicional del centro-sur de Victoria— se han identificado hasta el momento cinco anillos de tierra y uno de piedra, todos ellos en el área de Sunbury.
Uno de los pocos que se ha excavado científicamente es el Sunbury Ring G, una estructura circular de 20 metros de diámetro y 0,4 metros de altura. Esta excavación la realizó el arqueólogo David Frankel en 1979. Sin embargo, hasta ahora no se había realizado un estudio en profundidad liderado por la propia comunidad indígena.

Un paisaje de significado ancestral
Para los Wurundjeri Woi-wurrung, el anillo forma parte de un paisaje sagrado mayor. Se trata del biik wurrdha, el valle de Jacksons Creek, un paraje salpicado de fuentes de sílex y otros minerales que se usaron para fabricar herramientas.
Los ancianos entrevistados en el estudio señalaron que el anillo, las cascadas de Jackson y la colina de Redstone son hitos fundamentales del territorio ancestral. Este paisaje, además, también alberga ciertos árboles a los que la tradición reconoce un significado simbólico. En esta red geográfica de significados, también se integran depósitos arqueológicos de hasta 15.000 años de antigüedad en zonas cercanas.
En la cosmovisión Wurundjeri Woi-wurrung, el bienestar del pueblo está ligado al cuidado del territorio. Por ello, el equipo de guardabosques Narrap, perteneciente a la comunidad, sigue recurriendo a prácticas tradicionales para preservar el equilibrio ecológico del entorno.

Nuevas dataciones y evidencias de actividad humana
Una de las aportaciones más significativas del estudio ha sido la datación del anillo mediante análisis de luminiscencia ópticamente estimulada. Los resultados indican que el Sunbury Ring G se construyó entre hace 590 y 1.400 años, lo que lo sitúa como un sitio de uso ceremonial en época precolonial.
Además, se llevó a cabo un reanálisis de los 166 artefactos líticos recuperados por Frankel en 1979. Estos objetos, en su mayoría de sílex fino (silcreta), incluyen núcleos, lascas y herramientas retocadas con signos de uso, como raspadores, cuchillas y hojas con muescas. El análisis de microdesgaste y la identificación de residuos reveló que estos instrumentos se habían usado en tareas de corte, raspado y procesado de materiales orgánicos.

Huellas de fuego y ritual
Una de las observaciones más significativas del estudio documenta la presencia de alteraciones térmicas en más del 27 % de los artefactos. La aparición de fragmentos curvados térmicamente indica que algunos objetosse expusieron a fuegos, durante breves períodos y al aire libre. Los estudiosos suponen que se trataron de fogatas rituales.
Los grupos de lascas identificados, por su parte, también muestran que se produjeron concentraciones para tallar herramientas en el interior del anillo, una actividad que podría vincularse a la celebración de actividades ceremoniales. Algunas piezas fracturadas sugieren el tránsito humano sobre el lugar, lo que refuerza la hipótesis de que se trata de un espacio muy usado durante varias generaciones.

Significados pasados y presentes
El Sunbury Ring G continúa siendo un marcador espiritual y territorial para los Wurundjeri Woi-wurrung. Durante los recorridos por el terreno realizados en el marco del estudio, varios participantes compartieron emociones profundas al escuchar el sonido del agua cayendo en las cascadas de Jacksons Creek, símbolo de un territorio vivo y sagrado.
Por otro lado, los investigadores identificaronRedstone Hill, otro punto clave del paisaje, como el lugar desde el cual John Batman y otros colonos avistaron las hogueras de los Woi-wurrung en 1835. Esta escena precedió a la firma forzada del llamado Tratado de Batman, considerado por muchos Wurundjeri como un episodio de despojo de su territorio.
De la destrucción a la revitalización
El estudio también documenta el impacto de la colonización a partir de 1835, cuando los pastores europeos comenzaron a ocupar los pastizales del área. Las comunidades indígenas se vieron desplazadas de forma rápida y violenta, aunque también lograron adaptarse a las nuevas circunstancias combinando la resistencia con la negociación y las prácticas de supervivencia. Algunos Woi-wurrung continuaron viviendo en sus tierras a través de acuerdos informales con colonos más “comprensivos”, con los que intercambiaron trabajo por alimentos o dinero.
Hoy, sin embargo, la comunidad Wurundjeri Woi-wurrung ejerce su derecho a gestionar su patrimonio. Las caminatas culturales, los proyectos educativos y las acciones de restauración ecológica son formas de intervención que les están permitiendo reafirmar su conexión con el territorio, transmitir saberes y sostener una identidad viva.

Una aportación fundamental para la arqueología australiana
Este estudio representa un hito en la arqueología indígena australiana por su enfoque participativo, decolonial y respetuoso con los saberes tradicionales. Aporta una nueva manera de comprender los paisajes culturales y sus múltiples capas de significado. Como afirman los representantes Wurundjeri Woi-wurrung, visitar Jacksons Creek es reencontrarse con los ancestros, un modo de comunicar al mundo la importancia de este lugar para las comunidades aborígenes.
Referencias
- Spry, Caroline, et al. 2025. "New braided knowledge understandings of an Aboriginal earth ring and biik wurrdha (Jacksons Creek, Sunbury) on Wurundjeri Woi-wurrung Country, southeastern Australia". Australian Archaeology: 1-24. DOI: https://doi.org/10.1080/03122417.2024.2428019
En el invierno de 1812, la Grande Armée (conocida también como Ejército Imperial Francés) de Napoleón Bonaparte se desangró en las heladas llanuras del Este europeo. Aquella retirada desde Moscú, envuelta en el mito de la épica y el desastre, acabó con la vida de más de 300.000 soldados. Durante más de dos siglos, los historiadores han debatido sobre qué mató realmente a estos hombres: ¿el frío, el hambre, la artillería rusa o las enfermedades? Un estudio reciente publicado en bioRxiv y liderado por Nicolás Rascovan del Institut Pasteur ha arrojado más luz sobre uno de los capítulos más oscuros de la historia militar europea.
El trabajo se centró en los restos hallados en un gigantesco enterramiento colectivo en Vilna (hoy Vilnius, Lituania), donde en 2001 se exhumaron más de 3.200 cuerpos de soldados napoleónicos. Durante años, la hipótesis dominante señalaba al tifus y la fiebre de las trincheras como los responsables principales, respaldada por antiguos análisis de ADN realizados mediante técnicas PCR. Sin embargo, la investigación reciente ha utilizado un enfoque radicalmente distinto: la secuenciación metagenómica de ADN antiguo extraído de dientes humanos, una herramienta capaz de identificar fragmentos genéticos de cualquier patógeno presente, incluso aquellos que nadie esperaba encontrar.
Los resultados son reveladores. Entre los restos de trece soldados analizados, no se encontró evidencia de Rickettsia prowazekii (agente del tifus) ni de Bartonella quintana (fiebre de las trincheras). En cambio, emergieron dos culpables inesperados: Salmonella enterica del linaje Paratyphi C, causante de la fiebre paratifoidea, y Borrelia recurrentis, la bacteria de la fiebre recurrente transmitida por piojos. Estas enfermedades, hoy poco frecuentes en Europa, tienen en común que debilitan rápidamente al organismo. No siempre son mortales por sí mismas, pero en hombres exhaustos, desnutridos y expuestos a temperaturas bajo cero, podían marcar la diferencia entre la supervivencia y la muerte.
El colapso de la campaña de Rusia
Cuando Napoleón emprendió la invasión de Rusia en junio de 1812, su ejército contaba con entre 500.000 y 600.000 hombres, la mayor fuerza militar europea hasta entonces. La campaña se desarrolló como un largo juego del gato y el ratón. Los rusos quemaron cosechas y evacuaron ciudades, incluida Moscú, dejando a los franceses sin recursos para afrontar el invierno. La retirada comenzó el 19 de octubre y, en apenas dos meses, la Grande Armée quedó reducida a una sombra de sí misma.
Las crónicas de la época hablan de diarreas persistentes, fiebres altas, ictericia y debilidad extrema. Hasta ahora, estas descripciones se asociaban a tifus epidémico. Sin embargo, los síntomas también coinciden con la fiebre paratifoidea, que se transmite por agua o alimentos contaminados. Un testimonio médico de 1812 menciona el consumo desesperado de “remolachas saladas” y su jugo en Lituania, lo que pudo provocar infecciones intestinales masivas. Por su parte, la fiebre recurrente transmitida por piojos provocaba accesos febriles intermitentes, debilitando a los soldados hasta el extremo.

La combinación de frío, inanición y múltiples infecciones creó el escenario perfecto para el desastre. Las bacterias no necesitaban matar rápidamente: bastaba con quebrar la resistencia física de hombres ya agotados, incapaces de continuar la marcha ni resistir las gélidas noches del Báltico.
La revolución del ADN antiguo
El estudio de Rascovan y su equipo demuestra cómo la paleogenómica puede reescribir la historia. Durante años, la investigación sobre epidemias históricas se basó en hipótesis clínicas y, ocasionalmente, en análisis limitados de ADN. Esta vez, los científicos aplicaron un enfoque más exhaustivo: primero, una identificación metagenómica para detectar cualquier microbio presente; después, una serie de filtros bioinformáticos para distinguir bacterias antiguas reales de contaminantes modernos; finalmente, la colocación de los fragmentos de ADN en árboles filogenéticos para determinar sus linajes.
Los resultados, aunque obtenidos a partir de fragmentos minúsculos y muy degradados, muestran que la Salmonella identificada pertenece al linaje Paratyphi C, ya documentado en Europa desde la Edad Media, mientras que la Borrelia hallada corresponde a una variante basal de B. recurrentis, emparentada con cepas medievales e incluso con genomas de la Edad del Hierro. Este hallazgo sugiere que ciertas enfermedades bacterianas persistieron en Europa durante milenios, emergiendo en episodios de crisis humanitaria y guerra.
Reescribiendo el mito napoleónico
El hallazgo no niega el papel del tifus u otras infecciones; simplemente, demuestra que no dejaron huella genética en los trece individuos estudiados. La muestra es pequeña en comparación con los miles de muertos de Vilna, por lo que el panorama completo aún requiere más análisis. Pero la conclusión es clara: la retirada de 1812 fue el resultado de un cóctel letal en el que la enfermedad desempeñó un papel central, y no necesariamente en la forma que la historia popular ha repetido durante dos siglos.

Los soldados no cayeron solo por las balas, ni siquiera únicamente por el frío. Murieron en buena parte por bacterias invisibles, transportadas en agua contaminada y en los piojos que infestaban sus uniformes. Su historia recuerda que las grandes derrotas militares, a menudo, se libran tanto contra ejércitos enemigos como contra microbios silenciosos.
El estudio no solo resuelve un viejo misterio histórico: abre la puerta a reexaminar otras catástrofes militares con las herramientas de la genómica moderna. Así como el Ártico preserva barcos y artefactos, las necrópolis de las guerras napoleónicas conservan, en el interior de los dientes, los secretos de la microbiología del pasado. Cada fragmento de ADN antiguo es una cápsula del tiempo capaz de cambiar la narrativa de la Historia.
El estudio ha sido publicado en bioRxiv.
La física cuántica, durante décadas confinada al terreno de lo abstracto y lo teórico, está entrando con fuerza en nuestra vida cotidiana. Esta revista escrita íntegramente por el físico y divulgador, Eugenio Manuel Fernández Aguilar, nace con la convicción de que el futuro ya no es solo un concepto: es un experimento en curso. En estas páginas exploramos cómo conceptos que parecían ciencia ficción —como los viajeros del futuro o el vidrio Bose— comienzan a cobrar forma en laboratorios, centros de innovación y aplicaciones tecnológicas reales. Vivimos en una era en la que la computación cuántica deja de ser una promesa para convertirse en una herramienta capaz de resolver problemas imposibles para la informática clásica. Las investigaciones sobre vórtices cuánticos, neuronas sin contacto o la sorprendente energía sin trayecto no solo abren nuevas fronteras científicas, sino que también anticipan cambios profundos en la medicina, la comunicación, la inteligencia artificial y la sostenibilidad ambiental. Desde la forma invisible de la luz hasta los secretos cuánticos del agua, esta edición revela cómo las piezas más enigmáticas del rompecabezas cuántico empiezan a encajar. Los metales cuánticos, la fase Mott-Meissner, o la idea de células con mente cuántica, desafían nuestras categorías y nos obligan a replantearnos lo que creíamos saber sobre la materia, la vida y el tiempo. Hoy más que nunca, la física cuántica no es un lenguaje esotérico reservado para físicos: es la gramática de un futuro tangible. Bienvenidos a este recorrido entre orden y caos, entre partículas que no eran ninguna, y entre tecnologías que ya están redefiniendo nuestro presente.
Viajeros del futuro
Desde que Albert Einstein formuló su teoría de la relatividad especial en 1905, la velocidad de la luz ha sido considerada un límite infranqueable en el universo físico. Nada, según dicha teoría, puede superar los 299 792 kilómetros por segundo que separan lo posible de lo prohibido. Sin embargo, existe una categoría de partículas hipotéticas que desde hace décadas desafía esta frontera: los taquiones. Propuestos por el físico Gerald Feinberg en los años 60, estos entes teóricos se moverían más rápido que la luz y, en consecuencia, alterarían radicalmente nuestra comprensión de la causalidad, el tiempo y la estructura misma del universo.
Sigue leyendo este artículo, escrito por Eugenio Manuel Fernández Aguilar, en la edición impresa o digital.

Contenido
- Viajeros del futuro
- El enigma cuántico del vidrio de bose
- Vórtices cuánticos
- La «forma» invisible de la luz
- Secretos cuánticos del corazón del protón
- Masa en movimiento
- Electrones rotos
- Los metales cuánticos
- El tiempo negativo
- Quarks top con magia cuántica
- Secretos cuánticos de la luz cotidiana
- El orden que brota del caos
- «Malversación cuántica»
- El eco cuántico de los agujeros negros
- Cuasipartículas
- El gato cuántico entra en el chip
- Parapartículas: la tercera vía de la materia
- El orden oculto del universo
- El universo en un falso vacío
- El sexto sentido y la biología cuántica
- Vórtices que susurran el futuro
- Supermecánica cuántica
- Cuántica en la clorofila
- Neuronas sin contacto
- Energía sin trayecto
- Células con «mente cuántica»
- Lluvia cuántica
- El agua, desvelada gota a gota
- La fase Mott-Meissner
- Bibliografía

A veces, lo que parece ciencia ficción resulta estar más cerca de lo que creemos. En pleno invierno, un oso puede pasar semanas sin moverse, sin comer, sin beber agua y sin sufrir daño alguno. Ni su masa muscular se deteriora ni su cerebro muestra señales de deterioro. Y al despertar, es como si nada hubiera pasado. Mientras tanto, los humanos necesitamos comida constante, temperaturas estables y cuidados médicos para evitar que enfermedades como la diabetes, el Alzheimer o el infarto nos pasen factura. Sin embargo, un nuevo hallazgo sugiere que las claves de esta increíble resistencia no son exclusivas de los animales que hibernan: algunas de ellas podrían estar inscritas en nuestro propio genoma.
Dos investigaciones publicadas en Science apuntan a que los "superpoderes" de los hibernadores —la capacidad de detener el envejecimiento, resistir enfermedades y entrar en estados de energía mínima durante largos periodos— podrían activarse en humanos. ¿La clave? Regiones no codificantes del ADN que actúan como interruptores. Estas secuencias, que no son genes en sí, controlan el encendido y apagado de otros genes relacionados con el metabolismo y la supervivencia en condiciones extremas. Y lo más sorprendente es que nosotros también las tenemos.
ADN compartido con criaturas que hibernan
Una de las pistas más reveladoras se encontró en torno al conocido locus FTO, una región del genoma humano que está asociada con la obesidad. En humanos, las variantes en este locus se relacionan con mayor riesgo de acumulación de grasa, pero en hibernadores, esta misma región parece actuar de forma diferente. Según los investigadores, los animales que hibernan no solo almacenan grasa de forma eficiente, sino que la utilizan durante largos periodos sin comer, evitando efectos negativos.
Los científicos identificaron elementos de regulación genética (CREs) específicos de hibernadores en torno al locus FTO que modifican la expresión de genes cercanos como Irx3 e Irx5, implicados en la regulación del metabolismo. En palabras del artículo científico: “Nuestros hallazgos muestran que los elementos cis asociados a la hibernación afectan a la expresión génica y modulan distintos aspectos del metabolismo”.
Este descubrimiento permitió a los investigadores crear ratones modificados genéticamente, eliminando algunas de estas secuencias en su ADN. El resultado fue llamativo: los ratones desarrollaron cambios sustanciales en su metabolismo, en su forma de ganar peso e incluso en su comportamiento alimentario. Algunos ratones ganaban más peso con una dieta rica en grasas; otros mostraban un metabolismo más lento o una respuesta alterada al ayuno y la realimentación.

Un reloj biológico más flexible
Uno de los aspectos más fascinantes del estudio es cómo los hibernadores parecen haber evolucionado perdiendo ciertas “restricciones” genéticas que limitan nuestra flexibilidad metabólica. En lugar de tener un ritmo de consumo energético fijo, como en los humanos, sus cuerpos pueden reducir la actividad metabólica casi al mínimo y reiniciarla cuando sea necesario. Los investigadores explican que la mayoría de los cambios genéticos encontrados en los hibernadores “no otorgan una nueva función, sino que rompen funciones anteriores”. Eso sugiere que la clave de su adaptación puede estar en eliminar frenos, más que en añadir capacidades nuevas.
Este principio es clave para imaginar futuros escenarios biomédicos. ¿Qué pasaría si se lograra silenciar temporalmente ciertas regiones del genoma humano que regulan el metabolismo activo? Podríamos entrar en estados de ahorro de energía similares a la hibernación, reduciendo la actividad del cuerpo y del cerebro sin daño celular. Esta idea no es solo una curiosidad científica: sería una herramienta útil para tratar enfermedades degenerativas, prevenir la atrofia muscular en periodos de inmovilidad y, a largo plazo, explorar viajes espaciales prolongados.

Una base genética para el futuro humano
La investigación fue más allá del análisis genético general. En un trabajo de precisión con múltiples técnicas genómicas, se identificaron miles de regiones del ADN altamente conservadas en mamíferos, que presentan cambios acelerados solo en especies hibernadoras. Estas regiones se superponen con los denominados "genes hub", nodos centrales en redes de coexpresión que coordinan grandes cambios moleculares durante estados como el ayuno o la realimentación.
En este contexto, el hipotálamo aparece como un centro de mando crítico, regulando funciones como el apetito, la temperatura corporal, la actividad y el gasto energético. En el estudio, se observó que, tras períodos de ayuno seguidos de reintroducción de comida, el hipotálamo de los ratones mostraba cambios masivos en la expresión de más de 10.000 genes. Muchas de estas regiones de control genético coincidían con las que han cambiado en la evolución de los hibernadores.

De la neuroprotección al envejecimiento saludable
Otro punto crucial es que los hibernadores no solo sobreviven al ayuno: lo hacen sin sufrir deterioro cognitivo, atrofia muscular ni daño en sus órganos. Vuelven a su estado normal con una rapidez y eficacia que, en humanos, sería impensable. De hecho, se ha observado que el proceso de hibernación puede revertir alteraciones neuronales comparables a las del Alzheimer. En palabras del estudio: “Los hibernadores muestran capacidades únicas para la longevidad, la neuroprotección, la regeneración sináptica y la resolución de tauopatías”.
Este hallazgo sitúa a los hibernadores como modelos biológicos para estudiar cómo resistir el envejecimiento, prevenir el deterioro neuronal y mejorar la recuperación tras lesiones o cirugías. Si estas capacidades están ligadas a elementos genéticos que también están presentes, aunque inactivos, en los humanos, el camino hacia terapias génicas o farmacológicas específicas se vuelve mucho más viable.
¿Y los viajes espaciales?
La hibernación es uno de los pilares teóricos para los viajes interestelares. En la ciencia ficción, las tripulaciones son colocadas en “sueño criogénico” para soportar años o décadas de viaje. Pero más allá de la ficción, una hibernación controlada reduciría las necesidades metabólicas, evitaría la atrofia muscular y minimizaría el impacto psicológico del encierro prolongado.
Aunque aún estamos lejos de aplicar estas técnicas en humanos, este estudio es un paso concreto: demuestra que las herramientas genéticas para lograrlo pueden estar ya en nuestro ADN. Solo necesitamos aprender a activarlas. Como afirman los autores, “los humanos ya tienen el marco genético; solo hay que identificar los interruptores de control para estos rasgos propios de hibernadores” .
Referencias
- Elliott Ferris et al. Genomic Convergence in Hibernating Mammals Elucidates the Genetics of Metabolic Regulation in the Hypothalamus. Science. https://doi.org/10.1101/2024.06.26.600891.
- Susan Steinwand et al. Conserved Noncoding Cis-Elements Associated with Hibernation Modulate Metabolic and Behavioral Adaptations in Mice. Science. https://doi.org/10.1101/2024.06.26.600851.
A veces, las células parecen tener sus propias reglas. Lo que en principio debería ser sencillo —una relación clara entre la estructura de la membrana celular y su comportamiento físico— ha dejado perplejos a los científicos durante años. En experimentos donde se modificaba la composición lipídica de las membranas, los resultados eran tan variables como frustrantes: unas se volvían más rígidas, otras no cambiaban en absoluto. ¿Cómo es posible que un cambio estructural tan evidente no tenga un efecto coherente?
Este rompecabezas ha empezado a resolverse gracias a un estudio publicado en Nature Communications, que revela una ley física subyacente en el comportamiento de las membranas. El equipo liderado por Rana Ashkar, de Virginia Tech, no solo ha identificado una regularidad física en lo que parecía caos, sino que ha logrado definir cómo la densidad de empaquetamiento lipídico determina la elasticidad de la membrana, independientemente del tipo de lípido o de la cantidad de colesterol presente. La clave estaba en mirar más de cerca, a escala mesoscópica, y utilizar herramientas como la espectroscopía de neutrones y la resonancia magnética nuclear.
Una ley unificadora que estaba oculta en los detalles
El hallazgo más sorprendente del estudio es que, en lugar de depender del tipo de lípido o del contenido de colesterol, la elasticidad de las membranas se rige por el espacio que ocupan los lípidos en la bicapa. Esta propiedad, conocida como área por lípido, se comporta como un regulador universal en las mediciones realizadas en la escala mesoscópica, es decir, entre las dimensiones moleculares y macroscópicas.
En palabras del estudio: “los módulos de flexión mesoscópicos siguen una dependencia universal con la densidad de empaquetamiento lipídico independientemente del contenido de colesterol, la insaturación lipídica o la temperatura”. Esta conclusión, lejos de ser anecdótica, se mantiene en una amplia variedad de composiciones membranosas y condiciones experimentales.
Las técnicas utilizadas por el equipo han sido esenciales. Mediante espectroscopía de dispersión de neutrones de eco de espín y resonancia magnética nuclear de estado sólido, se accedió a escalas de tiempo y espacio clave para detectar los cambios en la flexibilidad de las membranas. Además, los resultados fueron validados con simulaciones de dinámica molecular, lo que confiere al trabajo una gran solidez metodológica.

De los lípidos al diseño celular: implicaciones prácticas
Este principio físico recién confirmado tiene consecuencias más allá de la comprensión básica de las células. Permite predecir y controlar las propiedades mecánicas de membranas artificiales, una capacidad muy codiciada en campos como la medicina de precisión, la biotecnología y la creación de células sintéticas.
La relación identificada, que vincula la elasticidad con el empaquetamiento lipídico, puede aplicarse para diseñar vesículas lipídicas más estables para la entrega de fármacos o construir membranas que se comporten como las naturales en entornos biológicos. De hecho, una de las posibles aplicaciones del estudio está en el diseño de vacunas basadas en lípidos, como las de ARNm, cuya estabilidad depende en gran parte de las propiedades físicas de la membrana portadora.
Además, el descubrimiento permite reinterpretar estudios anteriores que ofrecían resultados contradictorios sobre el efecto del colesterol. Según el artículo, “los efectos elásticos inducidos por el colesterol son de hecho universales a escalas mesoscópicas”, lo que explica por qué otros experimentos, realizados en escalas temporales y espaciales más amplias, arrojaban conclusiones inconsistentes.

Una mirada nueva al caos aparente
Uno de los méritos del trabajo es haber logrado ordenar una serie de observaciones que durante años parecían inconexas o contradictorias. En lugar de desechar los datos “problemáticos” como ruido experimental, los investigadores buscaron un nuevo ángulo desde el cual observar el fenómeno: escalas de tiempo más cortas y medidas más precisas. Así, encontraron un patrón oculto: la elasticidad de la membrana se incrementa a medida que disminuye el área por lípido, en una relación que sigue una ley de potencia universal.
Esta conclusión, respaldada por datos experimentales y simulaciones, permite modelar la rigidez de una membrana celular solo con conocer su densidad lipídica, una información mucho más accesible que la que requieren otras técnicas. Esta accesibilidad abre la puerta a una nueva forma de estudiar la adaptabilidad celular, un fenómeno crucial en organismos que enfrentan condiciones extremas de temperatura o presión.
Además, el estudio muestra que la diversidad lipídica no implica necesariamente una complejidad inabarcable. A pesar de las muchas combinaciones posibles de lípidos en las membranas, es posible identificar un principio común que las gobierna a todas. Esto ofrece una forma de simplificar lo complejo sin perder rigor, una estrategia especialmente útil en biología sintética.

¿Por qué no lo vimos antes?
El artículo ofrece también una reflexión sobre la forma en que se han medido tradicionalmente las propiedades membranosas. Muchas de las técnicas empleadas hasta ahora trabajan a escalas macroscópicas, donde los efectos del empaquetamiento molecular quedan enmascarados por procesos más lentos y globales, como la difusión lateral o el “flip-flop” de lípidos entre capas.
Lo que el equipo de Ashkar ha demostrado es que la clave está en observar el sistema en su escala intermedia, donde los movimientos son suficientemente rápidos como para estar gobernados por las restricciones físicas locales, pero no tan rápidos como para perder la información estructural. Esa escala mesoscópica ha resultado ser el lugar donde reside la coherencia del sistema.
El siguiente paso: diseñar con conocimiento, no con ensayo y error
Uno de los grandes aportes del estudio es ofrecer un marco predictivo que podrá aplicarse directamente en el desarrollo de nuevos materiales y herramientas biomédicas. Desde membranas artificiales con funciones específicas hasta biosensores moleculares, las posibilidades de ingeniería biológica aumentan cuando se conocen las reglas físicas del sistema.
Además, el estudio permite reconsiderar otros procesos celulares en los que la elasticidad de la membrana juega un papel clave: desde la fusión de vesículas en las sinapsis neuronales hasta la penetración de virus en las células. En todos esos procesos, la capacidad de la membrana para deformarse sin romperse es un factor determinante.
La identificación de una ley física clara y comprobable también tiene impacto en el análisis de enfermedades. Algunas células cancerosas, por ejemplo, se caracterizan por tener membranas más rígidas o con distribuciones lipídicas alteradas. Con el conocimiento generado por este trabajo, podría ser posible desarrollar marcadores físicos de enfermedad o incluso intervenir terapéuticamente en la estructura de las membranas.
Referencias
- Teshani Kumarage, Sudipta Gupta, Nicholas B. Morris, Fathima T. Doole, Haden L. Scott, Laura-Roxana Stingaciu, Sai Venkatesh Pingali, John Katsaras, George Khelashvili, Milka Doktorova, Michael F. Brown, Rana Ashkar. Cholesterol modulates membrane elasticity via unified biophysical laws. Nature Communications, 31-Jul-2025. https://doi.org/10.1038/s41467-025-62106-0.
Es un episodio poco conocido de la colonización de Australia que una reciente investigación ha sacado a la luz. Durante la segunda mitad del siglo XIX, cientos de hombres musulmanes provenientes del oeste de la India británica, Afganistán y Baluchistán emigraron a Australia para trabajar en la incipiente industria del transporte camallero. Estos inmigrantes, conocidos popularmente en Australia como “afganos” —aunque en su mayoría no lo fuesen—, desempeñaron un papel clave las expediciones del territorio, el dessarrollo de las redes ferroviarias, la minería y el suministro de bienes a zonas remotas. Ahora, un estudio arqueológico pionero firmado por Roger Bateman analiza más de 170 tumbas dispersas por el país para reconstruir sus vidas, su religiosidad y la manera en que afrontaron la muerte lejos de su tierra natal.
Las tumbas como única huella material de una población nómada
Debido a su estilo de vida itinerante y a las limitaciones impuestas por el racismo institucional y social, las comunidades de camelleros musulmanes apenas dejaron estructuras permanentes, como casas o edificios religiosos, en el paisaje australiano. Sin embargo, sus enterramientos han resistido el paso del tiempo. En ausencia de mezquitas, viviendas u otros vestigios arquitectónicos, las tumbas se han convertido en los testimonios arqueológicos más fiables de su presencia en la isla oceánica.
Sus sepulturas presentan una gran riqueza tipológica, desde sencillos túmulos de tierra sin inscripción alguna hasta complejas estructuras con epitafios trilingües. Tales inhumaciones, por su número y variabilidad, han permitido tanto identificar la fe religiosa de sus ocupantes commo reconstruir aspectos clave de su vida social, espiritual y cultural.

Del corazón de Asia al outback australiano: continuidad y adaptación religiosa
El islam prescribe un conjunto de reglas funerarias que los camelleros intentaron seguir, incluso en condiciones extremas. Por ello, la mayoría de las tumbas estudiadas respetan la orientación hacia la qibla, es decir, la dirección de La Meca, además de presentar túmulos bajos de tierra cubiertos con guijarros, sin ataúd ni lápidas ostentosas.
Con todo, la investigación también ha identificado casos llamativos en los que los enterramientos se desviaron hasta 75° respecto al eje de orientación correcto, sobre todo en los cementerios de Broken Hill y Afghan Hut. Aunque algunos autores han atribuido estos errores a la ignorancia o a la intervención de enterradores cristianos poco familiarizados con las costumbres musulmanes, el estudio de Bateman propone una hipótesis más compleja. El autor sugiere que estas prácticas funerarias heterodoxas podrían asociarse a algunas minorías islámicas, como los ismaelitas del Asia Central.

Una diversidad religiosa más amplia de lo que se pensaba
Contrariamente a la idea de que todos los musulmanes inmigrantes eran suníes, las inscripciones funerarias revelan una notable diversidad doctrinal entre los camelleros. Algunas tumbas, por ejemplo, están asociadas a miembros de la secta Ahmadiyya, muy controvertida en el islam ortodoxo. Otras incluyen versos en persa darí o menciones críticas a los “adoradores del fuego”, lo que podría responder a polémicas presentes entre distintas facciones del islam o incluso el rechazo a las influencias zoroástricas o sincréticas.
Uno de los casos más reveladores lo proporciona el poeta Mohamad Ally, enterrado en la ciudad de Sir Samuel en 1904. Su epitafio en lengua darí declara:
“No soy ni cristiano, ni judío, ni adorador del fuego, ni brahmán. (…) Mi tumba seguirá diciendo a los transeúntes: venid y recitad la Fatiha, soy el lugar de descanso de un musulmán”. Este tipo de textos constituye, según el autor del estudio, la expresión más personal y elocuente de la fe islámica en el contexto colonial australiano.

Tumbas sin nombre, tumbas con manifiestos
La mayoría de las sepulturas analizadas por Bateman, sin embarho, carece de inscripción. Son túmulos anónimos, orientados al noreste, sin lápida ni ornamentos, pero con evidencias islámicas claras en su diseño. En contraste, algunas tumbas incluyen epitafios muy detallados, con el nombre del difunto, la fecha del fallecimiento y alguna opinión ideológica.
La lápida del imán Haji Mullah Mehrban, enterrado en Coolgardie en 1897, por ejemplo, lo define como “sumo sacerdote de la comunidad musulmana en Australia, residente en Australia del Sur durante más de 30 años”. Por su parte, la tumba del comerciante Tagh Mahomed, quien fue asesinado por otro musulmán en la mezquita local, registra lo siguiente: “Murió a manos de un asesino en Coolgardie. Su fin fue en paz”.
Musulmanes enterrados junto a cristianos (y viceversa)
En muchos cementerios compartidos, los musulmanes eligieron para sus tumbas el extremo noroeste, el más próximo a La Meca desde Australia. En algunos casos, sin embargo, los enterramientos se dispusieron entre tumbas cristianas o incluso muestran elementos híbridos.
Un ejemplo singular lo constituye una tumba orientada hacia la qibla pero coronada con una cruz cristiana. Se estima que pudo pertenecer a una mujer australiana o indígena casada con un camellero musulmán. Estos casos ilustran la convivencia religiosa y los vínculos afectivos que pudieron forjarse entre culturas aparentemente dispares.

El idioma de los epitafios revela un doble destinatario
Aunque el persa darí y el árabe están presentes en muchas lápidas, el idioma más habitual en los epitafios fue el inglés, incluso en aquellas tumbas que incluyen referencias coránicas. Esto sugiere que los mensajes funerarios también estaban pensados para interepelar a una audiencia no musulmana, quizás como una forma de integración social o de reivindicación cultural frente a una sociedad hostil.
Resulta significativo que, a pesar del racismo al que se enfrentaron estos trabajadores, el islam no fue objeto de rechazo explícito por parte de la sociedad australiana. En algunos entierros, incluso se documenta la presencia de hombres y mujeres cristianos rindiendo homenaje a los difuntos musulmanes.
La recuperación contemporánea de una memoria enterrada
Desde la década de 1990, organizaciones como Outback Graves Markers han llevado a cabo campañas de señalización y dignificación de estas tumbas olvidadas, muchas de las cuales se emplazan en zonas aisladas. Uno de los ejemplos más emotivos lo protagoniza Lila Shah, hija de un vendedor ambulante musulmán, muerta a los tres años en 1916. En 1993, su tumba se convirtió en símbolo de todos los niños sin nombre enterrados en la Australia colonial.
Tumbas que hablan
La investigación arqueológica de los enterramientos de los camelleros musulmanes en Australia revela una historia inédita de movilidad, fe y adaptación. Algunas sepulturas anónimas evocan la urgencia de un entierro digno en tierra extraña. Otras transmiten orgullo, valores culturales o esperanza. Todas ellas, en su conjunto, construyen un archivo material que recupera del olvido a quienes transitaron los desiertos australianos.
Referencias
- Bateman, Roger. 2024. "Islamic life and death in Australia, after 1890: The archaeology of cameleer burials". Australian Archaeology 91.1: 47-64. DOI: https://doi.org/10.1080/03122417.2024.2416737
“Ha venido a la tienda una mujer a comprar Peta Zetas. Me ha contado que se los lleva a su madre, que sufre de alzhéimer, y cuando se los pone en la boca ríe como una niña. Que se los compra siempre que puede para verla reír mientras ella, a escondidas, llora. Y he llorado yo”. Esta emocionante historia la contaba en Twitter hace unos meses Ze Pequeño (@Pequenho_Ze), que regenta una tienda de golosinas y caramelos de Barcelona. “Yo a mi padre le compro Conguitos, es lo que comían mi madre y él cuando de novios iban al cine”, confesaba otro tuitero en los comentarios. Puede que ellos lo ignoren, pero poniendo en manos de sus padres seniles esas bolsas de Conguitos y Peta Zetas están aplicando lo que los médicos llaman terapia de reminiscencia. Que no es más que mejorar los procesos cognitivos de los afectados por el alzhéimer a través de la evocación de momentos de su infancia y su juventud por medio de cualquiera de sus cinco sentidos.
Porque otra cosa no, pero la memoria de tiempos pasados permanece viva durante mucho tiempo en estos pacientes. Resulta que las primeras alteraciones neuropatológicas del alzhéimer afectan al hipocampo, una estructura fundamental para la formación de nuevos recuerdos. Sin embargo, los consolidados mucho tiempo atrás se ubican en otras áreas cerebrales, y al menos en las primeras fases de la dolencia neurodegenerativa se salvan de la quema.
Por eso, los enfermos olvidan los nombres de sus hijos, pero no los de sus padres. Por eso desconocen dónde viven, pero recuerdan la dirección de la casa donde pasaron su niñez. Por eso olvidan qué cenaron ayer, pero no el aroma de aquel delicioso puchero que preparaba su madre hace más de medio siglo.

Terapia de reminiscencia: el valor de evocar
En las terapias de reminiscencia todo vale. Olores, sabores, fotografías antiguas y películas del año de la polca. Cualquier cosa que permita a los pacientes hablar de sus recuerdos pasados y sentirse menos extraños en un mundo en el que, admitámoslo, el 99 % de nuestras conversaciones se centran en cosas que hemos hecho o vivido hace apenas unos instantes.
Desde la prestigiosa Clínica Mayo de Estados Unidos recomiendan a los familiares de estos enfermos crear una caja de recuerdos con viejos recortes de periódico, fotos de familia, postales añejas y juguetes, como antiguos trompos o canicas, que puedan revisar a diario para ayudarlos a reavivar sus recuerdos. Que tengan un baúl de la memoria tangible que los ayude a rememorar sus batallitas.
Aunque hay que reconocer que sí existe algo con un poder evocador imparable son las canciones que forman la banda sonora de nuestra vida. “Cada vez que interiorizamos la música se activan muchas zonas de nuestro cerebro de forma simultánea, y posiblemente por eso las canciones ayudan a recordar bastante mejor que los olores o las fotografías”, explica el psicólogo y músico Pepe Olmedo.

Música para despertar al cerebro
Sobre todo si esas composiciones las escuchamos entre los quince y los treinta, los años de nuestras primeras veces en casi todo, de las emociones fuertes. Así lo ha constatado con sus propios ojos este hombre de origen granadino, que desde hace varios años se halla al frente de la Asociación Música para Despertar.
La idea de aprovechar el poder terapéutico de la música fraguó en él desde su más tierna infancia, mientras acompañaba a su madre a los centros de mayores que ella dirigía, repletos de abuelos que en muchos casos malvivían por el deterioro de su memoria. La música era ya a los ocho años una pasión para Pepe. Y fue en las residencias de ancianos cuando comprobó que algunos de aquellos mayores a los que apenas entendía, incapaces de responder a preguntas sencillas de forma coherente, tarareaban canciones de sus años mozos cuando él las tocaba en el piano. La mayoría de sus recuerdos se los había llevado el viento del alzhéimer. Pero su memoria musical había resistido el vendaval. Seguía allí, imperturbable.
Años después, concluidos sus estudios de Psicología Clínica, dedicó todo su empeño a testar los efectos de la música sobre el cerebro enfermo. Lo que encontró fue asombroso. “El 89 % de las personas con demencia sufren cuadros de agitación, que se manifiesta en algunos enfermos en forma de deambulación errática –caminan todo el día sin saber a dónde van–, mientras que otros se vuelven sumamente agresivos”.
Lo increíble es que, cuando la música suena, todos estos síntomas se atenúan sin necesidad de recurrir a fármacos tranquilizantes. Y sin efectos secundarios indeseados.

La ciencia lo comprueba
“Echando mano de canciones con un significado vital para cada paciente concreto conseguimos que quienes antes no paraban de moverse se sienten, se relajen e incluso sean capaces de socializar”, cuenta Olmedo. Por eso, desde que puso en marcha su asociación se ha dedicado a enseñar esta herramienta a centenares de profesionales que trabajan con mayores, y también a los familiares que los cuidan en casa.
No es solo una apuesta personal. Cada vez hay más estudios científicos sólidos que confirman lo que Olmedo y sus compañeros de Música para Despertar experimentan día a día con los pacientes. Uno de los más recientes, una investigación de principios de 2019 publicada en The Journal of Prevention of Alzheimer’s Disease. Explorando con resonancia magnética el cerebro de diecisiete pacientes, investigadores de la Universidad de Utah (EE. UU.) descubrieron por qué los enfermos conservan hasta el final la memoria musical, identifican las canciones que les son familiares e incluso reviven las razones por las cuáles algunas les erizan la piel y los conmueven.
Parece que se debe a que la música que escuchamos se almacena en un circuito neuronal, la red de relevancia, que constituye una especie de isla de los recuerdos que se mantiene a salvo de las garras del alzhéimer hasta el final. Cuando alguna pieza de la banda sonora de nuestra vida suena, las neuronas de esta red se activan.
Y como si fueran fichas de dominó que caen en cadena, también entran en ebullición la red visual, la red ejecutiva y las redes corticales. Por unos instantes, el cerebro se espabila y toda su conectividad mejora. En otras palabras, las canciones actúan como un ancla que devuelve temporalmente al paciente a la realidad y contrarresta su deterioro cognitivo.
Canciones que sanan más que los fármacos
Si aterrizamos de nuevo en los centros de mayores que Olmedo ha recorrido en los últimos años, es fácil observar una relación directa entre sus vivencias y estos descubrimientos neurocientíficos. “Es muy habitual encontrarnos con enfermos que se niegan a levantarse para ir al baño. Pero basta ponerles música (no cualquiera, sus canciones, las que sonaban en momentos importantes de su vida) para que se pongan en pie al instante —explica Olmedo esbozando una sonrisa—. A veces incluso van bailando hasta el baño con los profesionales que los atienden”. Insiste en que lograr algo así no es algo baladí, porque “si no conservan una autonomía mínima, su deterioro físico y mental se acelera”.
Los gerontólogos confían cada vez más en plantar cara al alzhéimer con este tipo de terapias, y cada vez menos en recurrir a los fármacos. Tiene una explicación neurológica. Estudiando los cerebros post mortem de ancianos con demencia se ha observado que, en la mitad de los casos, no hay signos suficientes de deterioro cerebral que justifiquen el deterioro cognitivo que sufrían.
Simultáneamente, otras autopsias muestran que hay personas con cerebros afectados por el alzhéimer que, sin embargo, viven hasta sus últimos días sin síntomas de demencia.
¿Cómo es posible? Sencillamente porque el cerebro puede conservar la memoria y las funciones cognitivas pese a sufrir algunos daños físicos, siempre y cuando se mantenga una reserva cognitiva, una despensa de recursos encefálicos que se alimenta del contacto social, de mantener la actividad mental (sudokus, crucigramas...) y de recibir estímulos musicales. Pero no de tomar pastillas.

Cuando Sinatra ayuda a ducharse
Cuando le preguntamos a Olmedo por su experiencia más impactante, titubea un momento antes de decantarse por una: un caso de alzhéimer precoz que siguió muy de cerca durante un lustro.
“La mujer tenía solo setenta y dos años cuando la enfermedad se cebó en ella, y era durísimo, porque físicamente se sentía muy bien, pero a nivel cognitivo estaba destrozada —rememora el psicólogo clínico. Y añade—: Se pasaba el día andando, cogía cosas y no las soltaba, se enfadaba y se agobiaba cada cinco minutos, apenas aguantaba sentada para comer y se ponía muy nerviosa en la ducha. Tuvimos la gran suerte de que su hija era pianista profesional, y nos ayudó a rescatar las canciones más importantes de la vida de su madre”.
Cuenta Olmedo cómo le conmovió presenciar el cambio que experimentaba aquella paciente cada vez que escuchaba a Frank Sinatra cantar su famosa Strangers in the Night. “Pasaba de refunfuñar e insultarnos a echarnos piropos y reírse; incluso conseguimos asociar el momento de la ducha a la música de Sinatra y convertir lo que antes era un auténtico drama familiar en el mejor momento del día para aquella mujer —rememora—. También sacaba lo mejor de sí misma con My Way, pero ¿quién no se emociona escuchando a la Voz [como apodaban a Sinatra] cantarla?”.
Así concluye mi entrevista con Olmedo. Nada más colgar el teléfono, abro iTunes en mi ordenador, pongo My Way a todo volumen y noto cómo se me pone la piel de gallina. En la banda sonora de mi propia vida, la canción quedará asociada para siempre a estas esperanzadoras historias sobre el alzhéimer.
Dormimos cada noche, pero rara vez nos preguntamos por qué lo hacemos de esa manera. Algunos duermen de un tirón, otros en siestas repartidas, y muchos luchan por mantenerse despiertos en horarios poco convencionales. Desde hace más de 40 años, los científicos han explicado este comportamiento con el llamado "modelo de los dos procesos del sueño", una teoría que combina la acumulación de sueño con el reloj biológico. Ahora, un nuevo estudio publicado en npj Biological Timing and Sleep ofrece una perspectiva matemática que no solo confirma esta teoría, sino que la transforma en una herramienta cuantitativa.
El sueño se regula por dos fuerzas: una que crece cuanto más tiempo estamos despiertos, y otra que sigue el ciclo diario del cuerpo. Esa es la base del modelo desarrollado originalmente por Alexander Borbély en los años 80. Lo novedoso del nuevo estudio de Anne C. Skeldon y Derk-Jan Dijk es que explora con profundidad la estructura matemática de este modelo, revelando que comparte propiedades con otros sistemas biológicos como el corazón o la respiración.
Este enfoque permite entender por qué algunas personas tienen sueño en momentos distintos del día, por qué los niños duermen varias veces al día y cómo se altera el sueño cuando trabajamos de noche. Y, sobre todo, ofrece una forma concreta de predecir y adaptar esos patrones a nuestras necesidades reales.

Un sistema de presiones y relojes
Para los investigadores, el sueño no es solo una cuestión de cansancio: es un fenómeno rítmico y calculable. El estudio describe el sueño como el resultado de dos procesos que actúan como osciladores: uno homeostático, que mide cuánto tiempo hemos estado despiertos y acumula "presión de sueño", y otro circadiano, que sigue un ciclo de aproximadamente 24 horas guiado por la luz.
Cuando estos dos procesos se alinean, el sueño llega fácilmente; cuando se desincronizan, aparecen problemas como el insomnio o el jet lag. La presión de sueño sube mientras estamos despiertos y baja mientras dormimos, mientras que el reloj interno nos indica los momentos más probables para conciliar el sueño o mantenernos alerta.
Con ecuaciones específicas, el modelo permite calcular cuánto dormirá una persona, cuándo lo hará y cuáles son los efectos de alteraciones como dormir poco durante la semana o exponerse a luz intensa por la noche. Este conocimiento permite no solo describir el sueño, sino también predecirlo.
De niños con siestas a adultos que no paran
Uno de los hallazgos más llamativos es que el modelo matemático explica los cambios de patrones de sueño a lo largo de la vida. En la infancia, los niños duermen varias veces al día (sueño polifásico), y con el tiempo pasan a dormir una sola vez por noche. Según el estudio, esto no se debe tanto a cambios en el reloj biológico, sino a modificaciones en la presión del sueño.
La transición de las siestas a una noche continua se puede representar como una escalera matemática: un salto entre patrones ordenados por complejos cálculos. Esta estructura, conocida como "escalera del diablo", permite anticipar cuándo un niño dejará de dormir la siesta, o cómo cambian los patrones con la edad.
Este tipo de análisis también ayuda a entender por qué algunos adultos mayores duermen menos tiempo o se despiertan más temprano: no es solo por envejecimiento, sino por cambios en la sensibilidad del sistema a la luz y en la fuerza del reloj circadiano.
"Este trabajo muestra cómo las matemáticas pueden aportar claridad a algo tan complejo y personal como el sueño," dijo el profesor Derk-Jan Dijk, coautor del estudio y director del Centro de Investigación del Sueño de Surrey en la Universidad de Surrey.

La luz, un metrónomo invisible
Aunque el modelo original no incluía los efectos de la luz, el estudio reciente propone una versión extendida que lo incorpora. Sabemos que la luz regula el reloj biológico, y este, a su vez, regula el sueño.
Pero lo que este nuevo modelo demuestra es que también existe una retroalimentación: nuestras decisiones sobre cuándo exponernos a la luz modifican el sistema.
El acceso a luz artificial por la noche puede alterar el equilibrio y desplazar nuestro sueño hacia horarios más tardíos. En cambio, una exposición controlada a la luz puede servir para reajustar el ritmo interno y combatir el desfase horario o el insomnio.
Esta versión, conocida como modelo HCL (homeostasis-circadiano-luz), permite personalizar recomendaciones según el estilo de vida de cada persona. Por ejemplo, puede ayudar a planificar cambios de turno, adaptar horarios escolares o mejorar el sueño en personas con trastornos como la esquizofrenia o el Alzheimer.
Un modelo con base en el cerebro
El estudio también enlaza el modelo matemático con lo que ocurre en nuestro cerebro. Los autores explican que las neuronas responsables del sueño y la vigilia se inhiben mutuamente: cuando una está activa, la otra se apaga. Esta "guerra de neuronas" es lo que mantiene estables nuestros estados de dormir o despertar.
Pero lo que hace que una transición ocurra es la acción de las dos presiones: la homeostática y la circadiana. Cuando una supera cierto umbral, activa el cambio. Esta dinámica se asemeja a un interruptor que salta solo cuando la combinación de fuerzas lo empuja.
Este concepto se representa como un bucle llamado "estructura histérica" (histéresis), en el que no siempre hay una línea clara entre dormir y estar despierto. En condiciones críticas, un pequeño cambio puede llevar al cuerpo a un estado u otro, lo que ayuda a explicar por qué a veces, incluso con sueño, logramos mantenernos despiertos con esfuerzo.

Dormir es ciencia (y matemática también)
Lejos de ser una simple necesidad biológica, el sueño es un proceso complejo y predecible que puede entenderse desde la física y las matemáticas. Este nuevo estudio demuestra que el modelo de los dos procesos, lejos de ser solo una teoría gráfica, puede ser una herramienta con capacidad predictiva y aplicaciones concretas.
"Con los datos y modelos adecuados, podemos dar consejos más personalizados y desarrollar nuevas intervenciones para mejorar los patrones de sueño de aquellos cuyo descanso se ve afectado por las rutinas modernas, el envejecimiento o las condiciones de salud", dijo Dijk.
Gracias a estas simulaciones, podemos entender y anticipar alteraciones del sueño, personalizar tratamientos y diseñar entornos más compatibles con nuestro ritmo biológico. También sugiere que muchos problemas del sueño no vienen de una falla interna, sino de una falta de sincronización entre nuestras costumbres y nuestras necesidades fisiológicas.
Este enfoque abre la puerta a nuevas formas de abordar el sueño: desde apps que ajusten la luz para regular tu ritmo, hasta terapias que no solo te digan cuánto dormir, sino cuándo y por qué. Porque dormir bien, al fin y al cabo, podría ser cuestión de matemáticas.
Referencias
- Skeldon, A.C., Dijk, DJ. The complexity and commonness of the two-process model of sleep regulation from a mathematical perspective. npj Biol Timing Sleep. (2025). doi: 10.1038/s44323-025-00039-z
Con la evolución de las redes sociales, la demanda de cámaras deportivas ha alcanzado un nuevo pico este verano. Los usuarios ya no buscan únicamente grabar sus aventuras, sino capturarlas con una calidad cinematográfica, estabilización avanzada y la posibilidad de compartir el contenido al instante.
Y en plena temporada alta de viajes, deportes acuáticos y escapadas veraniegas, la batalla comercial se ha intensificado. Pues tras los últimos movimientos por parte de GoPro, Insta360 no ha querido ceder terreno reduciendo drásticamente el precio de su Insta360 Ace Pro 2.

Normalmente, el precio de esta cámara supera con holgura los 450€ en tiendas conocidas como Amazon, MediaMarkt y PcComponentes. Sin embargo, Insta360 responde a GoPro también por medio de AliExpress y su código descuento CDES30, para hundirla hasta los 325,55 euros.
Esta cámara de acción está equipada con un sensor de 1/1,3" capaz de capturar vídeo en resolución 8K a 30 fps y 4K a 60 fps con HDR Activo. Su óptica Leica y los perfiles de color propios de la marca garantizan una reproducción visual de alto nivel. Además, incorpora un innovador sistema de procesamiento con doble chip.
Destaca en condiciones de baja luz gracias a la tecnología PureVideo. Teniendo también estabilización FlowState y Horizon Lock 360°. Así mismo, cuenta con una pantalla táctil abatible de 2,5 pulgadas. Destacar que puede grabar hasta 50 MP en imagen fija con un ángulo de visión de 157°. Por último, dispone de conectividad Wi-Fi 5, Bluetooth 5.2, resistencia al agua hasta 12 metros y una batería de 1800 mAh.
GoPro sigue apostando por mantener el precio reducido de su cámara HERO13
Lejos de dar un paso atrás, GoPro continúa firme con su estrategia de mantener el precio ajustado de su HERO13 alcanzando ahora, con el cupón CDES30, los 275,69 euros. De nuevo una buena oportunidad, pues en webs como Amazon, MediaMarkt y Worten, su precio es de 349€.

Este modelo equipa un sensor CMOS de 27,6 MP (1/1.9") que permite capturar imágenes fijas de hasta 5599 x 4927 px y grabación de vídeo en resoluciones de hasta 5.3K a 60 fps. Además, integra un potente procesador GP2 y la codificación de vídeo en 10 bits. Así mismo, cuenta con tecnología de estabilización HyperSmooth 6.0, una pantalla táctil de 2,27", conectividad Wi-Fi 6, Bluetooth 5.3 y una batería Enduro de 1900 mAh.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Vivimos atrapados en un bucle de microestrés diario que asumimos con absoluta normalidad: notificaciones, llamadas, decisiones rápidas, multitareas... Pero ¿sabías que todo eso tiene un precio profundo en tu sistema nervioso? Esta revista, escrita por la neurocientífica Elena Gallardo, desvela con sensibilidad y claridad científica cómo el estrés sostenido inflama nuestro cuerpo y nuestro cerebro sin que lo notemos hasta que ya es demasiado evidente. Desde la misteriosa «energía oscura» del cerebro (esa enorme cantidad de recursos neuronales que seguimos sin comprender del todo, pero que podría estar operando en nuestra consciencia, inhibiendo estímulos, regulando funciones vitales o sosteniendo lo inconsciente) hasta la conexión entre intestino, piel, emociones y hábitos, esta guía ofrece una nueva mirada sobre lo que nos pasa por dentro. Nos muestra cómo la inflamación silenciosa altera la memoria, el ánimo, el descanso y el sistema inmunitario, y cómo el cuerpo grita con síntomas que ignoramos. Cada artículo combina ciencia rigurosa con ejemplos reales y herramientas prácticas que Gallardo, como experta en la materia, nos enseña para que vivamos mejor. No se trata pues de una simple lectura, sino más bien de toda una invitación al autoconocimiento profundo, porque entender cómo funciona nuestro sistema nervioso es el primer paso para cuidarnos de verdad y vivir más conscientemente. Disfruta de la lectura.
La energía oscura del cerebro: la gran desconocida
Un cerebro humano normal supone, aproximadamente, el 2 % del peso total del cuerpo. Sin embargo, consume alrededor de un 20 % de la energía del organismo. Y, de ese porcentaje, de apenas entre un 1 y un 2 % se sabe a ciencia cierta para qué, a qué se destina. ¿Por qué? ¿A qué se debe esa desproporción entre la magnitud física de este órgano y su consumo energético? Y, sobre todo, ¿cómo es posible que no sepamos, en pleno siglo xxi, en qué se invierte el 18 o 19 % de la energía que el cerebro utiliza, la llamada «energía oscura»? Diversas teorías científicas tratan de arrojar luz sobre estas cuestiones.
Sigue leyendo este artículo en la edición impresa o digital.
Contenidos
- La energía oscura del cerebro: la gran desconocida
- Todo es información para nuestro cerebro
- Dosis de microestrés y su impacto en la salud
- Estrés, inflamación y cerebro
- Funciones del cerebro
- La ciencia detrás de la relación cerebro-cuerpo
- Un nuevo concepto del sistema nervioso
- La teoría polivagal: los 3 estados de nuestro sistema nervioso
- ¿Cómo es un sistema nervioso bien regulado?
- Transitar entre los diferentes estados de nuestro sistema nervioso
- El sistema límbico
- Factores que afectan a nuestro sistema nervioso
- El poder de la automatización del cerebro para crear hábitos
- Abandona el piloto automático y trabaja la atención plena
- Nervios periféricos
- Desarrollar la atención corporal
- Ejercicios para desarrollar la atención corporal
- Recursos reguladores
- Aprende a mapear tu sistema nervioso
- Integra todas las prácticas
- Bibliografía

En el imaginario popular contemporáneo, la Medusa de terrible mirada suele representarse como una figura monstruosa y solitaria, condenada a convertir en piedra a quienes se atrevieran a mirarla. Sin embargo, en los orígenes de la mitología griega, Medusa no estaba sola. Junto a Esteno y Euríale, constituían el grupo de las tres gorgonas. Exploramos a esta tres hermanas en las primeras tradiciones míticas y artísticas del mundo heleno.
¿Quiénes eran realmente las gorgonas en el imaginario griego?
Según la versión más influyente que ha llegado hasta nuestros días, recogida por el poeta Hesíodo en su Teogonía, las gorgonas eran hijas de Forcis y Ceto, dos deidades marinas primitivas. Habitaban los confines del mundo conocido, en el lejano Occidente, más allá del océano, en el lugar donde el sol se pone. Ya desde su concepción mítica, las gorgonas eran seres liminales: vivían entre lo humano y lo monstruoso, entre la vida y la muerte, entre lo bello y lo terrible.
Con todo, las tres gorgonas mostraban diferencias entre sí. Mientras que Esteno y Euríale eran inmortales, Medusa podía morir: de hecho, lo hizo a manos del héroe Perseo. Este aspecto guarda una gran relevancia desde el punto de vista del mito. Es, justamente, su condición mortal lo que permite que la historia de Medusa adquiera un final dramático y heroico tan fascinante.

El trío gorgónico: similitudes, diferencias y evolución del mito
Aunque los nombres de las tres gorgonas aparecen mencionados en tríada desde la antigüedad, su desarrollo mítico fue desigual. Medusa se convirtió, con el tiempo, en la más popular y compleja de las tres, especialmente en versiones posteriores que humanizaban su figura. En cambio, Esteno y Euríale sobrevivieron como personajes más esquemáticos, fuertemente asociados con lo monstruoso y lo apotropaico —es decir, con la función de proteger mediante el terror.
En los primeros relatos, todas las gorgonas se describen como figuras monstruosas, con colmillos de jabalí, garras broncíneas y una masa de serpientes en lugar de cabellos. Su poder para petrificar a los humanos no era exclusivo de Medusa, aunque con el tiempo se le asignara solo a ella. Esta visión colectiva y aterradora del trío gorgónico se mantuvo durante siglos, especialmente en el arte arcaico griego.
Sin embargo, ya desde época clásica comenzó a gestarse una diferenciación. Medusa se reinterpretó en formas que la alejaban del arquetipo monstruoso. En su historia se introdujeron, así, elementos de compasión, violencia patriarcal y poder femenino. En cambio, sus hermanas no experimentaron una evolución simbólica tan rica y, en gran medida, se las relegó a un segundo plano en las narrativas mitológicas y representaciones artísticas.

Esteno y Euríale: las gorgonas inmortales de la mitología
¿Quiénes eran Esteno y Euríale? Esteno se consideraba la más feroz de las tres, una fuerza de destrucción imparable que, según algunas versiones, mató a más hombres que sus hermanas juntas. Euríale, por su parte, destacaba por su llanto desgarrador: se dice que resonó por todo el mundo tras la decapitación de Medusa. Esta reacción emocional la vincula, al igual que a Medusa, con una dimensión más humana y trágica de lo femenino.
Ambas gorgonas sobrevivieron al mito de Perseo. Su presencia fue relevante en los cultos locales, las representaciones apotropaicas y las genealogías míticas. No obstante, el silencio que rodea su destino posterior refleja la tendencia del mundo clásico a simplificar el mito, una simplificación que tiende a centrarse en un solo personaje y a oscurecer a los demás.
En el arte antiguo, sobre todo en los vasos cerámicos del siglo VI a. C., las tres gorgonas aparecen representadas como una unidad monstruosa. Tienen alas, rostros grotescos y una actitud amenazante. En escenas como las que representan la huida de Perseo tras decapitar a Medusa, Esteno y Euríale lo persiguen furiosas, en un gesto de venganza que revela la fuerza colectiva de estas tres figuras.

La función de las gorgonas en el arte y la religión griega
Desde sus primeras apariciones en el arte griego, las gorgonas desempeñaron una función apotropaica, es decir, servían para alejar el mal mediante su aspecto aterrador. Esta función se concretó en el motivo del gorgoneion. Así, la cabeza de Medusa —y a veces de sus hermanas— se representaba en templos, escudos, monedas y objetos cotidianos.
Una de las representaciones más antiguas y emblemáticas se encuentra en el Templo de Artemisa en Corfú (ca. 580 a. C.), donde una gorgona de grandes dimensiones aparece flanqueada por dos figuras más pequeñas. Esta disposición se ha interpretado como una referencia al trío gorgónico, aunque el arte arcaico no diferenciaba el carácter individual de Medusa, Esteno y Euríale. En esta etapa, todas las gorgonas compartían los mismos atributos visuales. Su identidad específica no era relevante: lo importante era su fuerza visual como protectoras simbólicas.

El gorgoneion aparece también en los escudos de guerreros como Heracles o Atenea, lo que revela su poder como talismán. En este contexto, el horror que provocaban se convirtió en un instrumento de defensa y control del caos. La imagen de la gorgona confrontaba al espectador con lo incontrolable y lo divino.
Del horror al símbolo: la transformación de Medusa eclipsa a sus hermanas
La evolución del mito de Medusa en la literatura y el arte griegos marcó un giro decisivo en la percepción del trío gorgónico. En la tradición arcaica, las tres hermanas eran monstruosas e indistintas. Con la aparición de nuevas narrativas —como el relato del poeta Píndaro o las Metamorfosis de Ovidio—, Medusa se convirtió en un personaje autónomo, con una historia propia.
Autores como Píndaro, por tanto, comenzaron a insinuar que Medusa no siempre había sido un monstruo, sino una joven mortal de gran belleza quien, violada por Poseidón en el templo de Atenea, fue castigada por esta. Tal reinterpretación añade una nueva dimensión a su figura: la convierte en una víctima, no solo en un monstruo, al plantear temas relacionados con el género, el castigo divino y la violencia estructural.
Este desarrollo no se aplica a Esteno ni a Euríale, que permanecieron al margen de esta reelaboración simbólica. En consecuencia, el imaginario colectivo se ha centrado cada vez más en Medusa, hasta el punto de que muchas versiones modernas del mito ignoran por completo la existencia de sus hermanas.
La historia de Medusa adquiere así una vida propia, que incluye su decapitación, el nacimiento de Pegaso y Crisaor de su cuello o de su sangre, y el uso de su cabeza como arma por parte de Perseo primero y de Atenea después. Estos episodios generan una riqueza narrativa que supera con creces el papel funcional de Esteno y Euríale como guardianas del mito original.

El legado de las gorgonas más allá de la antigüedad
La reivindicación de Medusa
Aunque la antigüedad clásica fue la matriz del mito gorgónico, el legado de Medusa y sus hermanas superó los confines del mundo griego, adaptándose a distintos contextos culturales. La cabeza de Medusa —el gorgoneion— siguió usándose como símbolo de poder y protección durante el Imperio romano. Más tarde inclsuo se incorporó en escudos heráldicos, obras renacentistas y creaciones contemporáneas.
La figura de Medusa se ha reivindicado en los siglos XX y XXI por parte de los movimientos feministas, que han visto en ella un símbolo del poder femenino reprimido, la violencia patriarcal y la posibilidad de subversión. En este contexto, la imagen de la mujer monstruosa que castiga con la mirada adquiere una nueva resonancia crítica, que resignifica el mito desde una perspectiva política y de género.
El silencio de Esteno y Euríale
Sin embargo, el resurgir de Medusa ha dejado en la sombra, una vez más, a Esteno y Euríale. Estas dos figuras han permanecido en el olvido incluso en las relecturas modernas más comprometidas, como si su existencia hubiera sido una mera nota al pie en la leyenda de Medusa. Pero esta omisión priva al mito de su dimensión colectiva, de su origen como trío femenino poderoso, ambiguo y fascinante.
Es relevante recordar que, en las versiones más antiguas, las tres gorgonas actuaban juntas, simbolizando tanto el horror como una forma de lo sagrado asociado a la muerte, la protección y el umbral entre mundos. Su vínculo con la sangre, el nacimiento (como en el caso del caballo Pegaso) y el poder liminal las conecta con otras figuras míticas femeninas como las Erinias, las Grayas o las Moiras. Recordar a Esteno y Euríale es también una forma de resistirse a la simplificación del mito, de reconocer que la mitología griega, lejos de ofrecer respuestas claras, planteaba preguntas complejas sobre la naturaleza humana, lo divino y lo monstruoso.
Referencias
- Felton, Debbie (ed.). 2024.The Oxford Handbook of Monsters in Classical Myth. Oxford University Press.
Durante décadas, la imagen popular de los neandertales se ha construido en torno a una escena casi cinematográfica: hombres robustos, envueltos en pieles, devorando carne de mamut recién cazada junto a un fuego crepitante. Sin embargo, la ciencia está revelando una historia muy distinta, una que desafía nuestro concepto de lo que significa comer “bien” en la Prehistoria. Sin embargo, un nuevo estudio publicado en Science Advances por Melanie Beasley, Julie Lesnik y John Speth está desmontando ese mito y ofreciendo una visión más compleja, e incluso inesperada, sobre lo que comían nuestros primos prehistóricos: los neandertales obtenían buena parte de su nutrición de carne almacenada durante semanas, repleta de larvas de mosca.
Esta revelación no es un simple detalle anecdótico. Supone reescribir nuestra comprensión de la vida diaria en el Pleistoceno y desmonta uno de los mitos más arraigados sobre esta especie: el de que eran depredadores hipercarnívoros, equivalentes humanos de leones o lobos. El hallazgo proviene de un cruce fascinante entre arqueología, biología y antropología forense, que ha utilizado los isótopos del nitrógeno como hilo conductor para desentrañar los secretos de su dieta.
La paradoja del nitrógeno que no cuadraba
Desde los años noventa, el análisis de restos fósiles de neandertales ha mostrado un patrón intrigante: sus huesos presentan concentraciones de nitrógeno-15 más altas incluso que las de los grandes depredadores con los que compartían territorio. En teoría, esto los situaba en la cima absoluta de la cadena alimenticia, comiendo carne en cantidades casi imposibles para un ser humano.
El problema es que, fisiológicamente, los humanos no podemos tolerar dietas extremadamente proteicas durante mucho tiempo. El hígado tiene un límite para metabolizar aminoácidos, y superar ese umbral provoca un síndrome conocido históricamente como “inanición por proteína”. Explorar este escenario obligaba a los investigadores a buscar una explicación alternativa. Si los neandertales no comían cantidades descomunales de carne magra, ¿cómo lograban esos valores tan altos de nitrógeno?
La respuesta estaba en algo que nuestra mentalidad moderna asocia con la repulsión: la descomposición. La carne que los neandertales almacenaban para sobrevivir al invierno inevitablemente era colonizada por larvas de mosca. Y esas larvas, ricas en proteínas y grasas, concentraban el nitrógeno-15 mucho más que la carne original. Al consumirlas, su firma isotópica quedaba registrada en los huesos, elevando los valores hasta niveles que antes parecían imposibles sin un consumo masivo de carne fresca.

Una estrategia de supervivencia que funcionaba
Lejos de ser un acto de desesperación, la incorporación de carne putrefacta y larvas a la dieta era, en realidad, una estrategia brillante. En los ambientes fríos y cambiantes del Pleistoceno europeo, la caza no garantizaba un suministro constante de alimento. Conservar las piezas completas, a veces sin abrirlas, era una forma de tener reservas energéticas para las semanas más duras.
La descomposición, que hoy asociamos al peligro, era entonces una aliada. La grasa y los nutrientes se concentraban en las larvas, fáciles de recolectar y digerir. Además, muchas poblaciones indígenas documentadas en tiempos históricos han practicado costumbres similares, consumiendo deliberadamente carne envejecida y larvas como un recurso habitual, no como un último recurso. Para los neandertales, este comportamiento no tenía la carga cultural de repulsión que nosotros sentimos hoy; era simplemente comida.
Los experimentos forenses modernos han respaldado esta hipótesis. Investigaciones recientes con tejidos humanos en descomposición, realizadas en instalaciones especializadas en Estados Unidos, han mostrado que las larvas alimentadas de carne en putrefacción pueden alcanzar niveles extraordinarios de nitrógeno pesado, suficientes para reproducir la huella isotópica que observamos en los fósiles de hace decenas de miles de años.
Una dieta que desafía los prejuicios modernos
Pensar en neandertales comiendo larvas puede parecer una imagen poco atractiva, pero obliga a repensar nuestros prejuicios. Hoy sabemos que más de dos mil millones de personas en el planeta consumen insectos como parte de su dieta habitual, y que estos aportan proteínas, grasas y micronutrientes esenciales. En la Edad de Hielo, donde la prioridad era sobrevivir, lo que hoy llamaríamos “asqueroso” era, en realidad, ingenioso.
Esta visión también transforma nuestra percepción de los neandertales. Lejos de ser torpes carniceros, eran planificadores cuidadosos. Sus hábitos alimenticios muestran un conocimiento fino de su entorno y una capacidad para explotar todos los recursos disponibles. Almacenaban, esperaban y consumían de forma estratégica. La putrefacción y los insectos no eran señales de fracaso, sino parte de un ciclo alimenticio optimizado para un mundo sin refrigeradores ni sal.
Además, esta nueva interpretación de su dieta aporta un matiz humano fascinante. Y es que nos obliga a imaginar escenas cotidianas radicalmente distintas a las películas y reconstrucciones de museos. No solo había hogueras y lanzas, sino también rocas levantadas, trozos de carne parcialmente congelada y nidos de larvas que, en manos expertas, eran alimento. La verdadera vida prehistórica estaba llena de contrastes entre ingenio y crudeza.

Reescribiendo la historia alimentaria del Pleistoceno
El descubrimiento de la importancia de las larvas en la dieta neandertal no solo explica un misterio isotópico, sino que también reconfigura nuestra comprensión de la alimentación prehistórica en general. Muchas interpretaciones anteriores de restos fósiles podrían necesitar una revisión, considerando la posibilidad de que la descomposición y los insectos desempeñaran un papel invisible pero crucial.
La historia de la humanidad está llena de estrategias de supervivencia que desafían los cánones modernos de higiene o gusto. Este hallazgo nos recuerda que la línea entre lo aceptable y lo repulsivo es cultural y mutable. Lo que para nosotros sería un tabú, para los neandertales era una herramienta de adaptación y un seguro de vida frente a los inviernos implacables de la Edad de Hielo.
En definitiva, estos nuevos estudios no solo reescriben un capítulo sobre lo que comían los neandertales, sino que también nos obligan a mirarlos con más respeto. Su supervivencia no dependía únicamente de la fuerza o la caza, sino también de su capacidad para entender los ritmos de la naturaleza y sacar partido de ellos. Y en ese ingenio, entre la carne que olía fuerte y los enjambres de larvas, está la verdadera clave de su resiliencia.
El estudio ha sido publicado en Science Advances.
Durante más de mil años, el emperador Wu de la dinastía Zhou del Norte permaneció oculto tras los muros de su tumba en la provincia de Shaanxi, al noroeste de China. Sus hazañas militares y su repentina muerte a los 36 años eran conocidas por las crónicas, pero su rostro y su historia genética seguían siendo un misterio. Hoy, la ciencia ha logrado lo que parecía imposible: reconstruir su apariencia y desvelar secretos de su salud y su linaje a partir de su ADN ancestral.
El estudio, publicado en la revista Current Biology por un equipo liderado por investigadores de la Universidad de Fudan y Xiamen, combina análisis genéticos de vanguardia con reconstrucciones faciales en 3D. Esta investigación no solo ofrece una imagen sorprendentemente realista del emperador, sino que también aporta claves sobre la diversidad étnica en la China del siglo VI y las posibles causas de su prematura muerte.
Un emperador de la “era oscura” de China
Yuwen Yong, conocido como Emperador Wu (543-578 d.C.), gobernó entre los años 560 y 578, en una época convulsa que los historiadores denominan a menudo “la edad oscura” de China. El país estaba dividido en múltiples reinos tras siglos de guerras, y el norte vivía un proceso de fusión cultural entre los pueblos nómadas de las estepas y las comunidades agrícolas de tradición han.
Wu fue un monarca estratégico y ambicioso. Lideró al efímero pero influyente reino Zhou del Norte, reformó los ejércitos regionales, consolidó su autoridad frente a las tribus turcas y sentó las bases para la posterior unificación de China bajo la dinastía Sui. Sin embargo, tras apenas 18 años en el trono, su reinado terminó abruptamente. Murió con solo 36 años, dejando a los cronistas de la época con más preguntas que respuestas.

Una tumba intacta y un hallazgo científico sin precedentes
El descubrimiento de la tumba de Wu se produjo en 1996 durante excavaciones en la zona de su mausoleo, conocido como Xiaoling. Lo más asombroso fue el excelente estado de conservación de su esqueleto, incluido un cráneo prácticamente completo. Para la arqueología, se abría una oportunidad única: unir el estudio histórico y antropológico con las nuevas tecnologías genéticas.
Casi tres décadas después, el equipo dirigido por Panxin Du y Shaoqing Wen logró recuperar más de un millón de marcadores genéticos de su ADN, conocidos como SNPs. Esta información permitió no solo inferir el color de su piel, cabello y ojos, sino también analizar predisposiciones genéticas a enfermedades que podrían explicar su muerte.
El resultado es una reconstrucción digital en 3D que muestra a un hombre de ojos marrones, cabello negro y piel de tono intermedio a oscuro, muy similar a la población actual del norte y noreste de Asia. Esta imagen desafía las viejas descripciones de algunos cronistas que hablaban de los Xianbei, el grupo étnico al que pertenecía Wu, como “exóticos” por supuestos rasgos europeos como narices prominentes o cabellos claros. La genética ha confirmado que, al menos en su caso, su aspecto era plenamente asiático.
ADN que cuenta historias: salud, linaje y mezcla cultural
Además de devolverle un rostro, el ADN del emperador ha servido para explorar su herencia biológica y su salud. El análisis revela que Wu tenía una predisposición genética a sufrir un ictus, una pista relevante si se tiene en cuenta que los cronistas mencionan síntomas compatibles con un derrame cerebral: caída de párpados, problemas del habla y dificultad para caminar.
Su muerte, por tanto, pudo deberse a causas naturales relacionadas con un accidente cerebrovascular, más que a envenenamiento político, una hipótesis que siempre ha alimentado la imaginación histórica.
En cuanto a su origen genético, el estudio aporta información clave sobre la formación de la élite del norte de China. Wu heredó aproximadamente un 61 % de su genoma de antiguos pueblos del noreste asiático y el resto de agricultores del valle del río Amarillo, es decir, población han. Esto confirma que los Xianbei, originalmente nómadas de Mongolia y Manchuria, se mezclaron con aristócratas locales han, dando lugar a una élite híbrida que sería crucial en la transición hacia la unificación de China.
Esta fusión de linajes, documentada ahora de forma científica, es un reflejo de la dinámica que vivió la región durante siglos: migraciones, alianzas matrimoniales y adaptaciones culturales que transformaron la identidad política de China.

El valor histórico de mirar al pasado con ojos de la ciencia
La investigación del genoma de Wu no es solo un hallazgo aislado, sino un ejemplo de cómo la genética está reescribiendo capítulos enteros de la historia. Hasta hace poco, conocer el aspecto o la salud de un personaje histórico dependía de pinturas, leyendas o interpretaciones médicas de textos antiguos.
Ahora, gracias a la secuenciación de ADN antiguo, se pueden reconstruir rostros, analizar predisposiciones genéticas y rastrear migraciones humanas. Para la historia de China, este estudio abre la puerta a entender mejor la relación entre pueblos nómadas y sedentarios, y cómo estas interacciones dieron forma a dinastías enteras.
El equipo científico ya ha anunciado que su próximo objetivo es analizar los restos de antiguos habitantes de Chang’an, la gran capital del noroeste chino y extremo oriental de la Ruta de la Seda. Con ello esperan revelar hasta qué punto la ciudad fue un crisol de culturas y un punto de encuentro biológico de Eurasia.
Más allá de los datos, lo que fascina de este estudio es su capacidad para humanizar la historia. El rostro digital del emperador Wu no es solo una imagen: es la conexión directa con un hombre que vivió, gobernó y murió hace 1.500 años, y que ahora vuelve a mirar al mundo gracias a la ciencia.
El estudio ha sido publicado en la revista Current Biology.
¿Sabías que uno de los mayores genios de la historia tuvo que “buscar trabajo” como cualquier persona común? Así es: Leonardo da Vinci escribió el primer currículum vitae del que se tenga registro, nada menos que en el año 1482. Con 30 años de edad y pese a su talento excepcional, Leonardo, creador del hombre de Vitruvio, necesitaba un empleo y decidió plasmar en una carta todas sus habilidades para captar la atención de un potencial mecenas. El resultado fue una carta dirigida a un poderoso noble de la época, tan pionera como persuasiva, que no solo le consiguió el puesto sino que asombra por su vigencia siglos más tarde. Y lo mejor de todo: Leonardo fue honesto y eficaz en su presentación, no tuvo que “dimitir” de nada ni enfrentar escándalos por el contenido de su currículum – al contrario, su ingeniosa "hoja de vida" le abrió las puertas a años de éxito profesional.
En pleno Renacimiento, “currículum vitae” no era un término común, pero existía el mismo concepto básico: demostrar tu valía para obtener el favor de un empleador. Por entonces la palabra de moda era mecenazgo: los artistas e inventores dependían del apoyo de nobles patrocinadores. Leonardo da Vinci, con sus múltiples talentos de pintor, ingeniero, arquitecto e inventor, buscaba prosperar fuera de su Florencia natal. Hacia 1482 decidió probar fortuna en la próspera ciudad de Milán, gobernada por Ludovico Sforza (apodado “El Moro”), que actuaba como regente y luego sería duque milanés. En aquellos años Italia estaba envuelta en conflictos, y Ludovico necesitaba ingenieros militares e inventores para reforzar su poder. Leonardo vio allí una oportunidad: redactó una carta formal ofreciéndose al servicio de Sforza, presentándose como experto en ingeniería militar e inventos bélicos. En esencia, Leonardo estaba haciendo lo que hoy llamaríamos “postular a un puesto de trabajo” – y para ello elaboró cuidadosamente el primer currículum de la historia.
La carta a Ludovico Sforza: el primer currículum vitae
Leonardo da Vinci escribió de puño y letra una misiva destinada a Ludovico Sforza en la que enumeró sus capacidades de forma organizada y convincente. La carta comienza con un saludo cortés y una frase intrigante: “Ilustrísimo señor mío... me esforzaré en hacerme entender, le abriré mis secretos y me pongo a disposición... para llevar a efecto y demostrar... las cosas que brevemente se anotan a continuación”. Con esta introducción, Leonardo captó de inmediato la atención de su lector prometiendo revelar sus “secretos” – una palabra muy poderosa para suscitar interés en la época (¡y aún hoy!). Acto seguido, procedió a listar en párrafos separados (como puntos de un currículum moderno) todas las hazañas y proyectos que podía realizar. En vez de hablar de su fama como artista, se enfocó en lo que podía hacer por el duque en ese momento. Estos son algunos de los puntos destacados que Leonardo incluyó en su currículum de 1482:
- Diseño de puentes ligeros y resistentes: propone construir puentes “ligerísimos y fuertes” que se transportan fácilmente, e incluso menciona métodos para quemar y destruir los puentes del enemigo. Esta idea demostraba su capacidad para mejorar la logística militar y frenar al adversario.
- Técnicas de asedio innovadoras: afirma “sé cómo sacar el agua de los fosos” en caso de sitio y construir “un número infinito de puentes, caminos cubiertos y escaleras” para tomar fortalezas. Con ello mostraba ingenio para superar defensas tradicionales y adaptarse a distintas situaciones en el campo de batalla.
- Armamento avanzado: describe cañones portátiles y morteros fáciles de mover que disparan piedras pequeñas “como una lluvia de granizo” sobre el enemigo. También habla de vehículos cubiertos y blindados (proto-tanques) capaces de abrir brecha entre las filas enemigas sin que ninguna tropa pueda detenerlos. Era una muestra de visión futurista aplicada a la guerra, anticipando conceptos que siglos después volverían a usarse.
- Ingenios para el combate naval: Leonardo no olvida la guerra en el agua. Detalla instrumentos para atacar y defenderse en el mar, incluyendo barcos recubiertos capaces de resistir el fuego de los cañones más potentessin hundirse. Esto hubiera sido muy útil en una época en que las ciudades-estado italianas combatían también por vía marítima.
- Obras civiles y arte en tiempos de paz: tras enumerar sus soluciones militares, Leonardo añade que en época de paz puede contribuir en arquitectura y obras de ingeniería civil, construyendo edificios públicos, canalizando aguas, etc. También se ofrece como escultor y pintor, capaz de realizar obras en mármol o bronce “comparables a las de cualquier otro”. Aquí es la única parte donde alude a su faceta artística, sabiamente colocada al final de la lista – porque sabía que primero debía impresionar al duque con lo que más necesitaba (armas e inventos) y dejar la pintura para el remate. De hecho, menciona un proyecto muy concreto pensado para halagar a Ludovico: ofrece crear un colosal caballo de bronce en honor al padre fallecido del duque, para darle “gloria inmortal y honor eterno” a su memoria. ¿Quién podría resistirse a tal gesto de lealtad y grandeza?
- Pruebas y demostraciones: por último, Leonardo cierra su currículum asegurando que, si algo de lo que propone pareciera imposible, está dispuesto a demostrarlo en la práctica, “en su parque o donde prefiera su Excelencia”. Este ofrecimiento de probar lo que dice elimina cualquier duda: Leonardo garantiza que no son solo palabras, sino planos que él mismo puede llevar a la realidad. ¡Una especie de “puedo mostrar resultados reales” cinco siglos antes de que existieran las entrevistas de trabajo técnicas!
En resumen, Leonardo da Vinci elaboró un currículum extraordinariamente completo y adelantado a su época. En lugar de listar cargos o títulos formales, presentó un catálogo de soluciones a medida para las necesidades de su potencial empleador. Cada “ítem” de su carta aportaba valor: ya fuera una máquina de guerra novedosa o una obra artística, todo estaba orientado a impresionar a Ludovico Sforza y convencerlo de contratarlo. La estrategia funcionó: Ludovico quedó tan impresionado que efectivamente acogió a Leonardo bajo su mecenazgo. Gracias a esa carta, el florentino se mudó a Milán y trabajó allí durante casi 20 años al servicio de los Sforza. Bajo ese patrocinio desarrolló obras tan famosas como La Virgen de las Rocas y La Última Cena, pintadas durante su estancia milanesa. Nada mal para un CV de una página escrito en 1482.

Ingenio y persuasión adelantados a su tiempo
Resulta fascinante analizar por qué el currículum de Leonardo da Vinci fue tan efectivo y qué lecciones ofrece incluso hoy. Primero, Leonardo supo adaptar su mensaje al “puesto” que buscaba. En ese momento, a Ludovico Sforza le interesaban los ingenieros militares más que los pintores, así que Leonardo priorizó sus habilidades técnicas y bélicas, dejando sus logros artísticos en segundo plano. A diferencia de muchos solicitantes modernos, no se limitó a enumerar logros pasados, sino que enfatizó lo que podía hacer en el futuro para su empleador. Ofreció soluciones concretas a problemas de ingeniería y defensa, mostrando que entendía las necesidades de su “cliente” (el duque) y cómo podía resolverlas. Esta capacidad de personalizar el currículum según el destinatario es una recomendación básica hoy día, y Leonardo la aplicó magistralmente en el siglo XV.
Además, su tono fue seguro pero humilde, persuasivo sin caer en mentiras. Leonardo utilizó un lenguaje potente con frases como “sé cómo hacer…”, “tengo proyectos…”, “puedo realizar…”, transmitiendo confianza en sí mismo. Al mismo tiempo, evitó la arrogancia vacía: no dijo “soy el mejor” directamente, sino que lo dio a entender ofreciendo “dar satisfacción tan bien como cualquier otro” en ciertos campos. Incluso introdujo términos positivos como “comodísimos”, “bellísimas y útiles”, o “una completa satisfacción”, lo cual podríamos considerar un marketing personal muy avanzado para su época. Y todo respaldado por su promesa de demostración práctica, que eliminaba cualquier sospecha de exageración. En conjunto, su carta transmite honestidad, confianza y valor.
Otro punto brillante es cómo estructuró la información de forma clara y llamativa. La carta está dividida en una decena de párrafos breves (esencialmente viñetas, como los bullets de un CV moderno), cada uno enfocado en una habilidad o proyecto distinto. Esto hacía la lectura ágil y resaltaba cada competencia por separado. Leonardo jerarquizó sus contenidos: comenzó con los puentes y las máquinas de guerra (lo más urgente para el duque) y terminó con la pintura y escultura (importantes, pero no prioritarias en ese contexto). De esta manera, se aseguró de captar la atención de Sforza desde el principio y luego mantener su interés hasta el final. Podemos decir que Leonardo entendió el principio de relevancia y el ordenamiento estratégico de un currículum muchos siglos antes de que los expertos en recursos humanos lo formularan en manuales.
A diferencia de tantos currículums que terminan en el olvido, el suyo se tradujo en proyectos reales y en obras inmortales que aún hoy admiramos. ¡Todo gracias a saber presentarse con ingenio y verdad!

Del Renacimiento a la actualidad: la vigencia del primer CV
Han pasado más de 500 años, y el currículum vitae sigue siendo una herramienta esencial para acceder a un empleo. Por supuesto, ha evolucionado en formato y estilo. De hecho, no fue hasta la década de 1930 que el CV “moderno” comenzó a estandarizarse, incorporando datos personales como dirección, fecha de nacimiento, contacto e incluso detalles curiosos como la altura o la religión del candidato. Con el tiempo, el currículum se ha vuelto más breve, directo y apoyado por tecnologías digitales; pero la esencia sigue siendo la misma que en tiempos de Leonardo: resumir de forma atractiva lo que sabes hacer, tus logros y cómo puedes aportar valor a quien te va a contratar.
Si comparamos las recomendaciones actuales con el ejemplo de Leonardo, veremos que Da Vinci se adelantó a muchos “gurús” del empleo. Los expertos hoy aconsejan: captar la atención desde el inicio, destacar tus habilidades clave, aportar pruebas o logros concretos, incluir una propuesta de valor y adaptar el CV al puesto. Sorprendentemente, el currículum de Leonardo en 1482 ya cumplía con todos esos puntos. Él abrió con una frase impactante (“le abriré mis secretos”), enumeró destrezas únicas (puentes, armas, arte), ofreció demostraciones como prueba de competencia, y claramente ajustó todo a lo que su reclutador buscaba. Por eso su carta resulta tan moderna al leerla con ojos del siglo XXI.
Existe también una lección ética en esta historia. La honestidad y la coherencia del currículum de Leonardo contrastan con ciertos casos que vemos en la actualidad, donde la tentación de “inflar” el CV con datos falsos ha llevado a más de uno al escándalo. Sin ir más lejos, en los últimos años hemos visto cómo varias figuras públicas tuvieron que renunciar a sus cargos tras revelarse mentiras o títulos inexistentes en sus documentos. Es decir, hoy un currículum engañoso puede costarte el puesto y la reputación. Leonardo, en cambio, no necesitó falsear nada: confiaba en su talento real y lo comunicó de forma efectiva. Su credibilidad quedó intacta – y eso le dio frutos. Esta diferencia subraya un hecho atemporal: un currículum brillante no solo impresiona por lo que dice, sino por sostenerse en la verdad.
La carta-curriculum de Leonardo da Vinci al completo, dirigida a Ludovico Sforza, "el Moro"
Habiendo visto y considerado ya con suficiente atención las pruebas de todos aquellos que se reputan maestros e inventores de instrumentos bélicos, y habiendo comprobado que las invenciones y operaciones de dichos instrumentos no se apartan en absoluto del uso común, me esforzaré, sin desmerecer a nadie, por darme a conocer ante Vuestra Excelencia, revelándole mis secretos y ofreciéndome a ponerlos en práctica cuando lo estime oportuno, operando con eficacia en todas las cosas que, aunque brevemente, se indican a continuación:
- Poseo métodos para construir puentes muy ligeros y resistentes, fácilmente transportables, que permiten avanzar o retirarse con rapidez. También puentes seguros, resistentes al fuego y al combate, fáciles de montar y desmontar. Sé además cómo incendiar y destruir los del enemigo.
- En caso de asedio, sé cómo desviar el agua de los fosos y construir numerosos puentes, torres de asalto y escaleras, así como otros instrumentos útiles para esa expedición.
- Si por la altura de los muros o la fortaleza del sitio no se pudiera utilizar artillería, dispongo de métodos para arruinar cualquier torre o fortaleza, incluso si estuviera construida sobre roca.
- He ideado bombardas muy cómodas y fáciles de transportar, que lanzan pequeñas piedras como una tormenta; con su humo provocan gran temor, confusión y daños al enemigo.
- Si se diera una batalla naval, dispongo de instrumentos muy eficaces para el ataque y la defensa, y sé construir naves que resistan los disparos de las bombardas más pesadas, así como el polvo y el humo.
- Sé construir túneles y caminos secretos, sin ruido alguno, que permiten llegar a un lugar preciso incluso atravesando bajo fosos o ríos.
- Construiré carros cubiertos, seguros e inexpugnables, equipados con artillería, que penetrarán entre las filas enemigas, sin que ni el ejército más numeroso pueda detenerlos. Tras ellos podrá avanzar la infantería sin obstáculos ni peligro.
- Si fuera necesario, fabricaré bombardas, morteros y cañones móviles de formas bellas y funcionales, distintas a las de uso común.
- En los casos en que no se puedan utilizar bombardas, construiré catapultas, manganeles, trabuquetes y otros instrumentos de eficacia sorprendente y diseño innovador. En resumen, según las circunstancias, puedo construir una infinita variedad de medios de ataque y defensa.
- En tiempos de paz, puedo contribuir de manera sobresaliente en arquitectura, tanto en construcciones públicas como privadas, y en el diseño de obras de canalización de aguas de un lugar a otro. Igualmente, puedo trabajar en escultura en mármol, bronce y arcilla, así como en pintura, ejecutando cualquier obra que se pueda comparar con las de cualquier otro maestro.
Además, puedo ejecutar la estatua ecuestre en bronce que celebrará eternamente la memoria de su señor padre y de la ilustre casa Sforza.
Y si alguna de las cosas antes mencionadas parecieran imposibles o irrealizables a alguien, me ofrezco gustosamente a hacer una demostración en vuestro parque o en el lugar que Vuestra Excelencia tenga a bien elegir, a quien humildemente me encomiendo.

El documento original: del códice atlántico a la pantalla
Aunque solemos hablar de la carta de Leonardo como si fuera un texto escrito por él y enviado directamente al duque de Milán, lo cierto es que el documento que ha llegado hasta nosotros no es el manuscrito original, sino una copia incluida en el llamado Códice Atlántico. Este códice es una monumental colección de escritos técnicos y dibujos de Leonardo da Vinci, recopilados entre los siglos XVI y XVII y conservados actualmente en la Biblioteca Ambrosiana de Milán. Contiene 1.119 páginas, muchas de ellas pegadas sobre hojas grandes (de ahí lo de “atlántico”, como los antiguos atlas), y en ellas se mezclan diseños de máquinas, bocetos, notas y textos como esta célebre carta.
La hoja concreta que contiene el contenido de la carta es el folio 2163 (cara frontal, número de catálogo técnico), y puede consultarse en versión digitalizada en la plataforma Leonardo//thek@ del Museo Galileo de Florencia, aunque en forma de imagen escaneada, no como texto editable. También se puede encontrar en el proyecto Codex Atlanticus, en la página 1082. La caligrafía no es la característica escritura especular de Leonardo (es decir, de derecha a izquierda), lo que hace pensar que la versión conservada es una copia hecha por algún colaborador o secretario, probablemente bajo la supervisión del propio Leonardo. De hecho, esta carta parece haber sido pensada como un borrador o una plantilla para enviarse o leerse en voz alta ante el duque.
En cuanto a la lengua original, el texto está escrito en italiano del siglo XV, con formas verbales y giros propios de la época. No está redactado en latín ni en el dialecto florentino puro, sino en una mezcla comprensible para una audiencia culta y cortesana. Existen múltiples traducciones al italiano moderno y al español, muchas de ellas adaptadas para facilitar la lectura. Sin embargo, algunas ediciones modernas —por ejemplo, en blogs o artículos divulgativos— tienden a simplificar o incluso alterar ligeramente el orden y el tono del texto. Las traducciones más fieles suelen conservar la estructura en diez bloques enumerativos, donde Leonardo desgrana sus propuestas sin adornos excesivos, con un estilo directo y funcional.
Un detalle importante: el documento no lleva fecha ni firma al uso, aunque por su contexto histórico se suele situar entre 1482 y 1483, cuando Leonardo dejó Florencia con destino a Milán. La autenticidad del contenido está ampliamente aceptada, ya que concuerda con el estilo y las preocupaciones técnicas del Leonardo de esos años, así como con otros escritos de esa misma etapa.
Por todo ello, hablar del “primer currículum de la historia” no es solo una metáfora eficaz: es también una forma de destacar la voluntad consciente de Leonardo de organizar, sintetizar y presentar su conocimiento técnico de manera clara y estratégica, con un fin muy concreto. El documento que hoy admiramos es, al mismo tiempo, testimonio de su genio y de su capacidad para comunicarlo con eficacia, aunque la versión que ha llegado a nosotros probablemente no esté escrita con su puño y letra.
En el centro de este descubrimiento se encuentran los materiales bidimensionales, que tienen apenas unos nanómetros de espesor. Cuando se superponen dos capas de este tipo de materiales con un pequeño ángulo de giro entre ellas, se forma una estructura conocida como superred de moiré. Esta disposición genera fenómenos físicos completamente nuevos, entre ellos, modos de vibración inusuales llamados "fasones" (phason en inglés), que no habían sido observados directamente hasta ahora.
Los "fasones" —también conocidos como modos ultrasuaves de cizalladura— son movimientos colectivos de los átomos en el plano del material, especialmente localizados en las regiones donde las capas están desalineadas. Estos modos vibracionales son clave para entender cómo se comportan estos materiales en aplicaciones como la computación cuántica, la superconductividad o la conducción térmica. Según explican los autores, "estos modos corresponden a deslizamientos intercapas localizados en los bordes de dominio del solitón y a traslaciones de la superred de moiré".
Hasta ahora, la existencia de estos modos había sido respaldada solo por simulaciones teóricas. La principal dificultad residía en que su frecuencia es tan baja que escapa a las técnicas tradicionales de espectroscopía. Lo que ha conseguido este equipo es abrir una nueva ventana experimental hacia ese universo vibracional oculto.
Ptychografía electrónica: la técnica que lo hizo posible
Para lograr este nivel de detalle, el equipo utilizó una técnica de imagen llamada ptychografía electrónica multisegmento (MEP, por sus siglas en inglés). Esta técnica consiste en escanear el material con un haz de electrones a escala atómica y reconstruir las imágenes a partir de los patrones de difracción obtenidos. La ventaja principal es su altísima resolución: según los autores, "obtuvimos imágenes excepcionalmente claras de cada sitio atómico" y lograron "resolver estructuras atómicas detalladas, incluso en pares de átomos que aparecen borrosos en las proyecciones convencionales".
Con esta metodología, fueron capaces de detectar cómo las vibraciones térmicas desenfocaban ligeramente las imágenes atómicas. Pero no se trataba de un desenfoque uniforme. En las regiones llamadas "solitones", donde se produce una transición entre diferentes tipos de apilamiento atómico, los átomos mostraban vibraciones más intensas y direccionalmente marcadas. Estas áreas se identificaron mediante análisis estadísticos de las formas elípticas de los perfiles atómicos individuales.
Según el paper, "la gran amplitud de las vibraciones, su fuerte elipticidad y su localización en los solitones son características inusuales que concuerdan con las predicciones para los fasones de moiré".

Un mapa térmico átomo por átomo
Uno de los logros más destacados del estudio fue construir un mapa térmico detallado a nivel atómico. Cada átomo de tungsteno (W) y selenio (Se) en el material WSe2 fue modelado mediante una función gaussiana anisotrópica, lo que permitió calcular su nivel de vibración en distintas direcciones. Este enfoque reveló que las vibraciones no solo cambian de intensidad según la zona del material, sino también de forma: algunas son más circulares, otras más alargadas o direccionales.
Para validar sus observaciones, los investigadores realizaron simulaciones de dinámica molecular a temperatura ambiente (300 K) y las compararon con los datos experimentales. El resultado fue una coincidencia notable en la distribución espacial de las vibraciones. Se observó que los átomos vibran con mayor intensidad en las regiones AA (donde las capas están perfectamente alineadas) que en las regiones AB o en los solitones. Además, las vibraciones en las regiones AA eran más isotrópicas, mientras que en los solitones mostraban una clara dirección preferente.
La precisión alcanzada es tal que incluso se pudieron medir variaciones de amplitud de apenas unas décimas de picómetro, lo que representa un salto cualitativo en la metrología de materiales a escala atómica. Esta capacidad podría ser decisiva para diseñar materiales con propiedades térmicas y electrónicas controladas a nivel atómico.

Cómo cambian los fasones con el ángulo de torsión
El estudio también analizó cómo evolucionan los fasones al variar el ángulo de giro entre las capas. Para ello, se compararon muestras con ángulos de 1,7°, 2,45° y 6,0°. Los resultados muestran que los fasones son más prominentes en los ángulos pequeños, donde la estructura de moiré está más desarrollada. A medida que el ángulo aumenta, las diferencias en las vibraciones térmicas entre las distintas regiones del material se atenúan, y la estructura se comporta como dos capas casi independientes.
Esta observación tiene implicaciones importantes. Indica que la ingeniería del ángulo de torsión es una herramienta poderosa para controlar los modos vibracionales y, por ende, las propiedades físicas del material. Como resumen el artículo: "los fasones dominan las vibraciones térmicas de las estructuras de moiré reconstruidas", aportando pruebas experimentales a una hipótesis que hasta ahora era puramente teórica.

¿Sabías que... los átomos nunca están quietos?
Incluso en los objetos más sólidos, los átomos vibran constantemente debido a la energía térmica. A temperatura ambiente, un solo átomo puede oscilar millones de veces por segundo. Pero hasta ahora, esas vibraciones eran invisibles. Este nuevo estudio ha logrado captarlas directamente por primera vez, abriendo una puerta a tecnologías que controlen el calor y la electricidad átomo por átomo.
Aplicaciones futuras y próximos pasos
El trabajo no solo representa un avance fundamental en la comprensión de los materiales 2D, sino que también abre nuevas líneas de investigación aplicadas. Poder observar cómo vibran los átomos permite, por ejemplo, estudiar cómo influyen los defectos estructurales o las interfaces en las propiedades térmicas y electrónicas de un dispositivo.
Los autores planean extender esta técnica para investigar cómo las vibraciones térmicas se ven afectadas por imperfecciones en la red atómica. Comprender estos efectos será esencial para diseñar dispositivos cuánticos más eficientes, sensores a nanoescala y nuevos materiales con propiedades térmicas optimizadas.
Además, el uso de la ptychografía electrónica podría ampliarse a otros campos, como la biología estructural o la ciencia de materiales complejos, donde también se necesitan imágenes precisas a escala atómica.
Glosario de términos técnicos
Átomo
La unidad básica de la materia. Está compuesto por un núcleo con protones y neutrones, y una nube de electrones. En el contexto del artículo, los investigadores lograron visualizar los movimientos individuales de los átomos en un material.
Material bidimensional (2D)
Un material extremadamente delgado, formado por una o pocas capas de átomos. Un ejemplo famoso es el grafeno. Estos materiales tienen propiedades eléctricas, ópticas y mecánicas únicas.
Superred de moiré
Estructura que aparece cuando se superponen dos capas de materiales 2D con un pequeño ángulo de giro entre ellas. Este patrón genera nuevas propiedades físicas que no existen en las capas individuales.
Solitón
Zona de transición en una superred de moiré donde cambia la alineación entre capas. Estas regiones afectan cómo se comporta el material a nivel atómico y son clave para los movimientos llamados fasones.
Fasones
Modos de vibración extremadamente suaves que ocurren en los solitones y regiones desalineadas de una superred de moiré. Son como un “deslizamiento” colectivo de átomos entre capas. Se llaman así por analogía con otros modos conocidos como fonones.
Vibraciones térmicas
Movimientos que realizan los átomos debido a la energía térmica, incluso a temperatura ambiente. Aunque no se ven a simple vista, están presentes en todos los materiales y afectan sus propiedades.
Ptychografía electrónica
Técnica de imagen que utiliza haces de electrones y patrones de difracción para reconstruir imágenes a escala atómica con altísima resolución (menos de 15 picómetros). Permite ver cómo “tiemblan” los átomos.
Resolución atómica
Capacidad de una técnica para distinguir detalles a escala de átomos individuales. En este estudio, la resolución fue tan alta que permitió detectar el desenfoque causado por la vibración de un solo átomo.
Función gaussiana anisotrópica
Modelo matemático que se usa para describir cómo se distribuye la posición de un átomo que vibra. “Anisotrópico” significa que la vibración no es igual en todas las direcciones.
Simulación de dinámica molecular
Método computacional que permite estudiar el movimiento de los átomos a lo largo del tiempo, basándose en las leyes de la física. Se utiliza para comparar con los datos reales obtenidos en el laboratorio.
Referencias
- Yichao Zhang, Ballal Ahammed, Sang Hyun Bae, Chia-Hao Lee, Jeffrey Huang, Mohammad Abir Hossain, Tawfiqur Rakib, Arend M. van der Zande, Elif Ertekin, Pinshane Y. Huang. Atom-by-atom imaging of moiré phasons using electron ptychography. Science, 24 julio 2025. https://doi.org/10.1126/science.adw7751.
Ocultas entre las colinas rocosas de Cerdeña, las “domus de janas” o “casas de las hadas” constituyen uno de los legados funerarios más extraordinarios del Neolítico europeo. Estas tumbas milenarias excavadas en la roca se diseñaron como complejas arquitecturas rituales capaces de encarnar visual y espacialmente el tránsito entre la vida y la muerte. Su reconocimiento como Patrimonio de la Humanidad, otorgado en 2025, no solo protege su legado, sino que pone en valor su profundo simbolismo histórico y religioso.
Un legado monumental del Neolítico sardo
Las domus de janas fueron excavadas a lo largo del Neolítico final y la Edad del cobre (aproximadamente entre 4400 y 2300 a. C.), en correspondencia con culturas como las de San Ciriaco, Ozieri, Sub-Ozieri, Filigosa y Abealzu. Según las estimaciones más recientes, existen al menos 3.500 tumbas de este tipo repartidas por toda la isla de Cerdeña, con cerca de 250 de ellas decoradas con relieves o pinturas. Esta concentración inusitada convierte a la isla en el mayor conjunto de tumbas neolíticas decoradas de Europa.
Estos mausoleos solían excavarse en pendientes de roca blanda o acantilados de arenisca, sobre todo en aquellas zonas que dominaban valles fluviales. Muchos de ellos incluso acababan por formar auténticas necrópolis compuestas por grupos de cámaras adyacentes.
A pesar de que algunas domus presentan una estructura sencilla de una sola cámara, el modelo más elaborado —y también el más frecuente entre las tumbas decoradas— consiste en una secuencia espacial que incluye un dromos o pasillo de entrada, una antecámara, una cámara principal y un conjunto de celdas secundarias.

Una arquitectura para el tránsito entre mundos
Además de servir como espacios funerarios, estas construcciones también se diseñaron para que funcionasen como escenarios de rituales complejos asociados a la muerte. El estudio de cómo se distribuyen las representaciones artísticas en su interior ha revelado una disposición muy estructurada, con una clara intención de guiar simbólicamente a los vivos y a los muertos a través de una progresión ritual.
Esta organización se establece a partir de un eje central, una línea imaginaria que atraviesa el conjunto desde el dromos hasta el fondo de la cámara principal, donde culmina en una suerte de puerta falsa esculpida dispuesta en la pared del fondo. Este eje permite distrìbuir las decoraciones, que siguen un patrón coherente para marcar la progresión del difunto hacia el más allá.
En contraste con esta organización lineal, las celdas secundarias, que suelen carecer de decoración, presentan una mayor variabilidad formal. Esto sugiere que su función era más flexible y de carácter práctico: servir como receptáculos para los restos funerarios durante el uso repetido del monumento.

El arte como agente ritual
El arte de las domus de janas se organiza en tres grandes categorías, según los investigadores: los motivos arquitectónicos, las representaciones de bóvidos (bucrania) y las figuras geométricas. Todos ellos contribuyen a crear un entorno cargado de significado.
Imitaciones de casas petrificadas
Los motivos arquitectónicos reproducen elementos constructivos como dinteles, pilares, vigas, hogares o falsas puertas. Esta recurrencia refuerza, según los expertos, la interpretación de que estas tumbas representaban “casas de los muertos” o espacios de tránsito entre el mundo de los vivos y el más allá. El vínculo de estos elementos con la arquitectura doméstica simbolizaba la continuidad entre la vida y la muerte. Así, las domus de janas dotaban a los difuntos de un lugar “habitable” en el otro mundo.

La omnipresencia del toro
Los bucrania, es decir, las representaciones de cabezas de bóvido con cuernos, son los motivos más frecuentes. Aparecen en más de un centenar de tumbas, a menudo asociados a puertas, tanto reales como simbólicas. Por ello, se han interpretado como guardianes rituales del umbral.
Su disposición varía según el tipo de estructura arquitectónica. En las cámaras con dos pilares, suelen tallarse en los lados internos de los mismos, uno frente al otro. En las que cuentan con un único pilar, se esculpen de cara a la entrada, como si custodiaran el acceso al corazón del monumento. Esta iconografía, asociada en algunas interpretaciones al culto de un dios toro protector de los muertos, dotaba al espacio de una fuerte carga simbólica, sobre todo en los puntos clave del tránsito funerario.
Geometría sagrada y colores simbólicos
Los motivos geométricos —zigzags, espirales, triángulos— aparecen en relación con los umbrales y los puntos de paso, reforzando su carácter liminal. También hay ejemplos notables de decoración pictórica, como en la tumba de Sa Pala Larga en Bonorva, donde las espirales rojas y un techo de cuadros negros y blancos transforman el espacio en un entorno casi teatral, pensado para impactar visualmente a los participantes.
El uso del color rojo en dinteles y paredes se ha interpretado como un símbolo de vida y regeneración y sangre. Su intensidad visual podría haber servido como señal de advertencia o marca de respeto en determinados rituales.

Arquitectura y arte: una coreografía de la muerte
Puesto que las domus de janas estaban diseñadas para guiar el proceso de morir como tránsito social y espiritual, cada espacio tenía una función: el dromos ponía en marcha el movimiento ritual, la antecámara preparaba el paso, la cámara central escenificaba la transformación y las celdas albergaban el destino final de los cuerpos o sus restos. En cada uno de esos espacios, el arte intervenía para estructurar el recorrido, advertir o acompañar.
Resulta de especial relevancia el uso de motivos duplicados en los muros, como los pares de cuernos o las espirales enfrentadas. Estos elementos dobles habrían enmarcado al visitante y lo habrían obligado a “atravesar” simbólicamente los espacios de paso. Esta narrativa arquitectónica, por tanto, refuerza el sentido ritual de todo el proceso.

Un patrimonio de piedra
La inscripción de las domus de janas como Patrimonio Mundial reconoce su valor excepcional como testimonios materiales de los complejos sistemas rituales del Neolítico europeo. Estas estructuras constituyen una fusión sin precedentes de arquitectura, escultura, pintura y simbolismo funerario.
El estudio sistemático de sus espacios y decoraciones demuestra que arte y arquitectura fueron los auténticos protagonistas del ritual de la muerte. Las domus de janas encarnan el tránsito entre mundos, con un lenguaje visual que permitía a los vivos relacionarse con los muertos, y a los muertos, encontrar su lugar en la eternidad.
Referencias
- Robin, Guillaume. 2016. "Art and Death in Late Neolithic Sardinia: The Role of Carvings and Paintings in Domus de Janas Rock-cut Tombs". Cambridge Archaeological Journal, 26.3: 429-469. DOI: https://doi.org/10.1017/S0959774316000196
Todos tenemos una idea aproximada de cuál es nuestro yo ideal, la persona que nos gustaría ser. Sin embargo, aquellos que nos rodean, especialmente nuestra pareja, influyen en la imagen que nos forjamos de nosotros mismos, por lo que esculpen nuestra personalidad igual que un artista armado con martillo y cincel talla una estatua.
La Piedad del arquitecto, escultor y pintor italiano Miguel Ángel está considerada una de las obras más importantes del Renacimiento italiano. Representa el dolor de la Virgen María al sostener en brazos el cuerpo sin vida de su hijo Jesús cuando desciende de la cruz. La perfección y la belleza de este conjunto escultórico es tal que no es de extrañar que se produzcan auténticos atascos de turistas nada más cruzar la puerta de entrada de la basílica papal de San Pedro, en el Vaticano, donde se encuentra.
Un escultor joven y un yo por descubrir
Quizá muchos no sepan que el genio florentino tenía veintipocos años cuando recibió este encargo. Precisamente por su juventud, en la época se llegó a dudar de que él fuera el verdadero autor. Y eso fue lo que provocó que, en un arrebato de ira, incluyese sobre el pecho de la Virgen una banda con la inscripción de su nombre en latín. Fue la primera y la última vez que firmó una obra.
Para el gran Michelangelo Buonarroti, la escultura era un proceso por el cual el artista libera, con su cincel, una figura ideal del bloque de piedra en el que duerme: “En cada bloque de mármol veo una estatua tan clara como si se pusiera delante de mí, en forma y acabado de actitud y acción. Solo tengo que labrar fuera de las paredes rugosas que aprisionan la aparición preciosa para revelar a los otros ojos como los veo con los míos”.
Los seres humanos también poseemos formas ideales. En psicología, el yo ideal describe los sueños y aspiraciones de un individuo, o el conjunto de valores y habilidades que le gustaría adquirir. Por ejemplo, el yo ideal de un estudiante de medicina podría incluir objetivos como terminar la carrera, convertirse en un reputado cardiólogo, viajar por el mundo o aprender varios idiomas.

Lo que somos y lo que queremos ser
El concepto que tenemos de nosotros mismos se va forjando desde que somos pequeños por la influencia de los padres, maestros, compañeros de clase y amigos. Esto tiene repercusiones tanto a nivel personal como en el ámbito laboral, escolar, social y familiar, pero aquellas pueden ser productivas o contraproducentes.
Así, la imagen o las expectativas que tienen los profesores acerca de sus alumnos influyen en la conducta del niño. Si son positivas, fortalecen su autoestima y mejoran su rendimiento académico. En cambio, si el docente enfatiza demasiado los errores de su discípulo y le cuelga un determinado sambenito, “aquel acabará cogiendo inseguridad y se sentirá cada vez más torpe –explica la psicóloga Emma Ribas, experta en terapia de pareja y sexología–. A partir de ahí se genera un efecto que hace que el pronóstico se acabe cumpliendo. Es lo que llamamos profecía autocumplida”.
Es cierto que a veces las personas alcanzan sus metas ideales únicamente a través de sus acciones. Pero la adquisición de nuevas habilidades y valores está determinada, en la mayoría de casos, por la experiencia interpersonal. Las relaciones, por tanto, moldean nuestra conducta y nuestro pensamiento, proceso que en el mundo de la pareja se conoce como efecto o fenómeno Miguel Ángel.
El término fue descrito por primera vez por los investigadores Stephen M. Drigotas, Caryl E. Rusbult, Jennifer Wieselquist y Sarah W. Whitton en un estudio publicado en el Journal of Personality and Social Psychology en 1999. Según los autores, al igual que Miguel Ángel esculpía el mármol para liberar la forma ideal que se escondía dentro de él, los compañeros románticos se cincelan mutuamente hasta conseguir sacar lo mejor el uno del otro. En opinión de Ribas, “nuestra pareja es la oportunidad que nos ha dado la vida para mejorarnos a nosotros mismos”.
El autoconcepto y cómo se forma
Algunos expertos señalan tres fases en este proceso de crecimiento personal. La primera es la afirmación perceptiva de cada uno de los miembros de la pareja. Por ejemplo, Luis piensa que María, su mujer, es divertida, y la diversión forma parte del yo ideal de María. En la segunda fase, la de la afirmación conductual, Luis se ríe de los chistes de María y la anima a contarlos delante de los demás.
Por último, se produce el movimiento hacia el yo ideal del otro miembro de la pareja. En el caso que nos atañe, María podría convertirse objetivamente en una persona más divertida, incluso cuando su esposo no está delante. Al igual que el escultor, no es que Luis cree algo de la nada, sino que saca a la luz cualidades que ya existían en su compañera.

¿Cómo nos esculpen los demás?
Una de las conclusiones más interesantes del estudio en el que se habla por primera vez del efecto Miguel Ángel es que los miembros de las parejas que se moldean en dirección a su yo ideal tienen una relación más estable y satisfactoria en comparación con los que no. Reafirmar a nuestro socio romántico parece que tiene beneficios directos sobre la salud psicológica de las personas, ya que promueve la confianza y el compromiso.
Por el contrario, una relación puede tener problemas cuando un individuo demanda aspectos que no forman parte del autoconcepto de su pareja. En este caso, se pueden dar dos posibilidades: ceder a las demandas para intentar alcanzar el yo ideal que la otra persona tiene en mente o bien no aceptarlas, lo cual puede conducir a un empeoramiento –e incluso al fin– de la relación.
En esta dicotomía se encontró durante aproximadamente tres años Paula, nombre ficticio de una profesora de Girona. Paula siempre había sido extravertida. Antes de conocer a su novio, pasaba casi todos los fines de semana haciendo planes con sus amigos. Pero cuando él, una persona extremadamente introvertida, llegó a su vida, tuvieron que adaptarse el uno al otro marcando algunas reglas que temporalmente funcionaron para ambos.
“Era una persona muy bonita, pero no tenía habilidades sociales y no le gustaban las multitudes ni relacionarse con gente que no conocía”, cuenta Paula. Él hizo verdaderos esfuerzos por participar en actividades sociales por ella; llevaba, incluso, un cálculo meticuloso del volumen de eventos para ganarse así su gratificación. Ella, por su parte, lo acompañaba a las cenas de la empresa para ayudarle a mantener conversaciones distendidas con sus compañeros.
Paula cree que, al principio de la relación, conocer a un modelo de persona antagónico la ayudó a tener un carácter menos impetuoso y avasallador y a dejar más espacio para la reflexión. Pero llegó un momento en el que pasaba muchas horas recluida en casa en contra de su voluntad. “A la larga, nos salió nuestro verdadero yo: él es cerrado y no quería salir; yo soy abierta y quería salir. Lo intentamos mucho hasta que no pudimos más y vimos que éramos como el aceite y el agua, no lo conseguiríamos nunca”.
Amor que transforma: el proceso del efecto Miguel Ángel
Al elegir un compañero de vida, consideramos muchos factores, pero a menudo nos olvidamos de pensar si la persona que esperamos ser en unos años es consistente con la persona que el otro quiere ser. Cuando iniciamos una relación de pareja, normalmente nos enamoramos y proyectamos en el otro nuestras necesidades. Pero a medida que va desapareciendo el enamoramiento nos encontramos con la persona real y ahí es cuando empezamos a ver los defectos del otro.
“Aquí es donde tenemos que vigilar para no entrar en una rueda de ‘esta persona no tiene lo que yo quiero’ en vez de valorar lo que sí nos está aportando”. Emma Ribas explica que en terapia con parejas muchas veces les pide que piensen en cómo les gustaría verse de aquí a cinco o diez años.
“Les hago trazar una línea de vida en una hoja desde el momento en el que empieza la relación y tienen que dividirla por etapas. En cada etapa ponen un título construido entre los dos y van visualizando cómo quieren verse en el futuro”.

Tallar el futuro juntos: el arte de una pareja sana
La psicóloga señala que es normal que haya diversidad de opiniones, pero que es importante que cada miembro de la pareja tenga una buena autoestima y una buena capacidad de comunicarse para gestionar los conflictos y aprender a negociar desde el pensamiento de equipo, no desde la lucha.
“Es un arte construir relaciones de pareja sanas y no nos enseñan. Si nos enseñaran, evitaríamos mucho sufrimiento y muchas rupturas”, concluye la especialista. Por no hablar de todos los problemas de salud, tanto físicos como psicológicos, que aparecen cuando se mantiene una relación tóxica y que acaban afectando a todas las facetas de la vida.
En definitiva, la lectura que sacamos del fenómeno Miguel Ángel es que las personas con las que convivimos o trabajamos influyen en nuestras creencias y en nuestro comportamiento. En el caso de los socios románticos, esta forma de esculpirse mutuamente reporta enormes beneficios siempre que vaya en la dirección del yo ideal de cada uno de ellos. De lo contrario, si se moldean en sentido opuesto, es decir, alejándose de lo que realmente les gustaría ser, es más que probable que se sientan insatisfechos en su relación.
Se trata, por tanto, de estar con alguien que nos apoye y comparta la misma visión de nuestro yo ideal, pero a la vez, impulsar a esa persona en la dirección correcta para que alcance el ideal de ella misma.
Una ráfaga de aire al abrir la ventana, el leve frescor de una camiseta recién puesta o ese escalofrío ligero al bajar la temperatura. El cuerpo reacciona de inmediato. Aunque no lo pensemos, lo que sentimos no es frío extremo ni calor, sino algo más sutil: la sensación de fresco. Durante mucho tiempo, se pensó que este tipo de percepción era solo una versión atenuada del frío, procesada por los mismos canales del sistema nervioso. Pero un reciente descubrimiento ha demostrado lo contrario: el cerebro cuenta con un circuito exclusivo para detectar lo que se siente como “fresquito”.
Un estudio publicado en Nature Communications por un equipo de neurocientíficos de la Universidad de Míchigan ha conseguido cartografiar, por primera vez, la ruta completa que sigue la señal del fresco desde la piel hasta el cerebro. No solo han identificado a los responsables moleculares del proceso, sino que también han descubierto un componente inesperado: un grupo de neuronas en la médula espinal que amplifican la señal del fresco para asegurar que llegue claramente al cerebro. El hallazgo no solo cambia lo que se sabía sobre la percepción térmica, sino que abre nuevas vías para tratar trastornos donde esta sensibilidad se altera.
Del mentol al aire acondicionado: cómo se percibe el fresco
La clave inicial del circuito se encuentra en la piel, donde se expresan unos canales moleculares llamados TRPM8, conocidos desde hace años por ser los sensores específicos de las temperaturas frescas, en torno a los 15–28 °C. Estos canales también son activados por sustancias como el mentol, lo que explica la sensación refrescante de algunos productos.
Estos sensores están ubicados en neuronas primarias del sistema nervioso periférico. Son las primeras en detectar el cambio de temperatura y enviar la señal al asta dorsal de la médula espinal, una región donde se integra la información sensorial. Sin embargo, lo que ocurre a partir de ahí no estaba del todo claro. El nuevo estudio ha descubierto que la señal no se transmite directamente al cerebro, sino que pasa antes por un grupo específico de interneuronas que actúan como amplificadoras.
Los autores explican que estas neuronas amplificadoras se encuentran en una región muy concreta de la médula espinal y están caracterizadas por expresar una combinación particular de genes. Según el estudio, “las interneuronas excitadoras del asta dorsal de la médula espinal que expresan el receptor de la hormona liberadora de tirotropina (Trhr⁺) actúan como un nodo central para la sensación de fresco”.

Un circuito exclusivo para el fresco, no para el frío ni el calor
Para confirmar la función específica de estas neuronas, los investigadores realizaron experimentos en ratones, eliminando selectivamente diferentes poblaciones neuronales. Lo más llamativo fue que, al eliminar solo las Trhr⁺, los animales perdían por completo la capacidad de detectar temperaturas frescas, pero mantenían intacta su respuesta al calor, al frío extremo y a otros tipos de estímulos.
En palabras del artículo: “la eliminación de las interneuronas Trhr⁺ elimina las respuestas conductuales al fresco, pero no al calor ni al frío” . Esto indica que el cerebro procesa el fresco como una modalidad sensorial distinta, con su propio canal de transmisión. Ya no se trata de un punto medio entre el calor y el frío, sino de una sensación con identidad neuronal propia.
Este hallazgo refuerza la teoría conocida como “líneas etiquetadas”, que defiende que cada tipo de sensación (dolor, calor, frescor, etc.) tiene vías neuronales separadas y especializadas. Esta perspectiva gana fuerza frente a la teoría de “patrones”, que sugiere que las sensaciones surgen de combinaciones complejas de señales no específicas.

La amplificación espinal: la clave para que el fresco se sienta
Uno de los aspectos más novedosos del estudio es la identificación del papel de las neuronas Trhr⁺ como amplificadoras de la señal sensorial. Estas células reciben la señal directa de los sensores TRPM8 en la piel, pero en lugar de limitarse a transmitirla, la refuerzan antes de enviarla a las neuronas de proyección que conectan con el cerebro.
Este refuerzo es esencial. En los experimentos, cuando estas neuronas se desactivaban, las señales de frescor eran tan débiles que no conseguían activar a las neuronas del siguiente nivel. En palabras de los autores, se trata de “un circuito de amplificación en avance (feedforward) para la sensación de fresco” . Esta arquitectura permite preservar la claridad del estímulo, algo crucial cuando la diferencia térmica con el entorno es mínima.
Además, los investigadores comprobaron que la activación artificial (mediante luz) de estas neuronas en ratones inducía respuestas físicas similares a las que provocan temperaturas frescas, como levantar la pata, pero sin generar comportamientos típicos del dolor, como el lamido. Esto confirma que el circuito amplifica específicamente el frescor no doloroso.
El último tramo: del amplificador al cerebro
Tras el paso por las interneuronas Trhr⁺, la señal llega a un tercer tipo de neuronas: las Calcrl⁺, que forman parte de las neuronas de proyección espinoparabranquiales (SPB). Estas son las encargadas de enviar la información al cerebro, concretamente al núcleo parabranquial lateral (lPBN), una región asociada al procesamiento de estímulos térmicos y a funciones de supervivencia como el control del equilibrio térmico.
Estas neuronas Calcrl⁺ también mostraron ser altamente selectivas: solo respondían a estímulos frescos, y no al calor ni al frío intenso. Además, se comprobó que reciben entradas tanto de los sensores TRPM8 como de las interneuronas Trhr⁺, lo que refuerza la idea de que forman parte del mismo circuito sensorial exclusivo para el fresco.
Implicaciones clínicas: separar el frescor del dolor por frío
Uno de los aspectos más relevantes del estudio es su posible aplicación médica. Muchas personas con neuropatías, especialmente tras quimioterapia, sufren un dolor intenso inducido por temperaturas bajas, incluso cuando estas no son extremas. El circuito descrito en este trabajo, sin embargo, no participa en ese tipo de dolor. Según los investigadores, esto demuestra que las vías del fresco no doloroso y del frío doloroso son distintas.
Este hallazgo abre la posibilidad de desarrollar terapias que alivien el dolor por frío sin interferir con la percepción normal del frescor ambiental, algo especialmente importante para preservar la calidad de vida de los pacientes.
Referencias
- Lee, H., Hor, C. C., Horwitz, L. R., Xiong, A., Su, X.-Y., Soden, D. R., Yang, S., Cai, W., Zhang, W., Li, C., Radcliff, C., Dinh, A., Fung, T. L. R., Rovcanin, I., Pipe, K. P., Xu, X. Z. S., & Duan, B. (2025). A dedicated skin-to-brain circuit for cool sensation in mice. Nature Communications, 16, 6731. https://doi.org/10.1038/s41467-025-61562-y.
Con la evolución de los smartphones de gama media, cada vez son más los modelos que integran prestaciones de gama alta sin disparar el precio. El mercado se encuentra en un punto clave, donde muchos usuarios buscan dispositivos potentes, con pantallas de calidad, cámaras solventes y autonomía duradera, pero sin necesidad de superar los 1.000€.
Y con la temporada veraniega en pleno auge, Xiaomi ha decidido seguir sacando músculo en la gama media, esta vez rebajando de forma significativa su modelo POCO F7 Pro.

Aunque su precio habitual suele superar los 455€ en plataformas como Amazon, Miravia, PcComponentes o la misma web oficial. La alianza entre la marca asiática y AliExpress sigue creciendo liquidando este modelo hasta los 377,64 euros.
Está impulsado por el procesador Snapdragon® 8 Gen 3 de 4 nm con arquitectura 1+5+2 y velocidad de hasta 3,3 GHz. En su interior también se encuentra una una batería de 6000 mAh con tecnología HyperCharge de 90 W y gestión avanzada con chips POCO Surge P3 y G1. Así como 12 GB de RAM y 256 GB de memoria.
Cuenta con una pantalla AMOLED Flow WQHD+ de 6,67 pulgadas alcanzando los 3200 nits, frecuencia de refresco de 120 Hz, muestreo táctil de hasta 2560 Hz y profundidad de 12 bits. Además, tiene un sistema de cámara principal de 50 + 8 MP con sensor Light Fusion 800, OIS, superpixel 4 en 1 y grabación hasta 8K. Sin olvidar la conectividad 5G, Wi-Fi 7 y Bluetooth 5.4.
Realme no quiere perder cuota de mercado y ajusta drásticamente el precio de su Realme 14 Pro Plus
Tras este movimiento por parte de Xiaomi, Realme no quiere esperar y responde rápidamente mediante una contundente bajada de precio de su smartphone Realme 14 Pro Plus, alcanzando los 250,99 euros. Toda una buena oportunidad, pues su precio actual en tiendas como Miravia, PcComponentes y Amazon supera los 350€.

Este teléfono móvil integra un procesador Snapdragon 7s Gen 3, acompañado de 8 GB de RAM y 256 GB de almacenamiento interno. Además, dispone de una pantalla IPS FHD+ de 6,83 pulgadas con resolución de 2800 x 1272. En el apartado fotográfico, integra un sistema de triple cámara trasera con sensor principal de 50 MP. Cuya batería es de 6000 mAh. Todo ello corriendo bajo Android 15.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.