
En un escenario donde los auriculares inalámbricos se han consolidado como el accesorio indispensable de millones de usuarios, la competencia por dominar el mercado nunca ha sido tan intensa.
Este final de mes de septiembre, Apple ha decidido reforzar su posición en el segmento premium mediante un importante recorte de precio en sus AirPods 3ª Gen. Un movimiento que los hace mucho más más atractivos frente a competidores directos como Samsung, Sony o incluso OnePlus.

Actualmente es difícil encontrar estos auriculares por debajo de los 139€ en varias tiendas como Pixmania, Miravia o Amazon. Sin embargo, Apple apuesta por PcComponentes para hundirlos bestialmente sin superar la barrera de los 100€, situándolos en 99,99 euros.
Cuentan con un sistema de ecualización adaptativa que ajusta automáticamente las frecuencias bajas y medias en tiempo real, en función de la forma de la oreja del usuario. También incorporan audio espacial con seguimiento dinámico de la cabeza, lo que crea una experiencia envolvente tanto en música como en películas o series compatibles con Dolby Atmos.

En el apartado de autonomía, ofrecen hasta 6 horas de reproducción continua con una sola carga, que se extienden hasta 30 horas en total gracias al estuche de carga MagSafe o Lightning. Además, cuentan con resistencia al agua y al sudor con certificación IPX4. E integran Bluetooth 5.0 y el chip Apple H1, que permite emparejamiento instantáneo.
Xiaomi sigue apostando por mantener rebajados sus Buds 5
Mientras Apple intensifica su ofensiva, Xiaomi no se queda de brazos cruzados. La marca continúa apostando fuerte por mantener a un precio super competitivo sus Xiaomi Buds 5, situándolos en 54,69 euros. Una alternativa más económico, y que habitualmente suele estar por encima de los 63€ en Amazon, PcComponentes o Fnac.

Los Xiaomi Buds 5 llegan equipados con True Wireless (TWS) de diseño semi in-ear, diseñados para ofrecer una experiencia auditiva de alta fidelidad gracias a la certificación Hi-Res. Además de soporte para audio lossless y ecualización personalizada mediante Harman Audio EFX. Incorporan Bluetooth 5.4 con un alcance de 10 metros. Permitiendo también conexión dual de dispositivos y emparejamiento instantáneo mediante Google Fast Pair.
Cada auricular pesa apenas 4,2 g e integra una batería de 35 mAh, mientras que el estuche de 480 mAh amplía la autonomía hasta 30 horas de uso. Todo ello se complementa con compatibilidad con la app Xiaomi Earbud para un control total de funciones y personalización.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Durante décadas, la escena fundacional del ser humano ha sido retratada de forma casi cinematográfica: un homínido de aspecto primitivo descendiendo con torpeza de un árbol, posando sus pies sobre la hierba reseca de la sabana africana, y echando a andar en vertical como quien se aventura en territorio desconocido. Esta imagen, grabada a fuego en documentales, libros de texto y museos, ha moldeado nuestra comprensión del origen del bipedismo. Sin embargo, una nueva investigación está desafiando de forma radical esa narrativa. ¿Y si, en lugar de caminar por necesidad al tocar el suelo, nuestros ancestros desarrollaron la marcha erguida precisamente entre ramas y troncos, como una adaptación arbórea y no terrestre?
En un rincón poco explorado del oeste de Tanzania, donde el paisaje alterna entre pastizales secos y árboles dispersos que apenas proyectan sombra, un grupo de chimpancés ha sorprendido a la ciencia. Este lugar, conocido como el valle de Issa, no se asemeja en nada a los típicos escenarios selváticos que solemos asociar con nuestros parientes más cercanos. Aquí no hay selvas exuberantes ni un dosel frondoso que los cobije. Sin embargo, contra todo pronóstico, estos primates no han abandonado las alturas.
A pesar del calor abrasador del suelo y la aparente escasez de cobertura vegetal, los investigadores del Instituto Max Planck han documentado un comportamiento inesperado: los chimpancés prefieren seguir en los árboles, incluso cuando el sentido común indicaría lo contrario.
Adaptarse sin descender: la paradoja del chimpancé
En lugar de adaptarse al suelo, como cabría esperar en un entorno tan abierto, los chimpancés del valle de Issa han duplicado su apuesta por la vida en las alturas. A lo largo de meses de trabajo de campo, los científicos siguieron cuidadosamente sus movimientos y rutinas alimenticias, registrando con detalle más de 300 momentos distintos en los que estos primates escogían las copas de los árboles como escenario para sus comidas. Lo interesante no fue solo lo que consumían, sino también cómo se desplazaban, se posicionaban y seleccionaban ciertas especies vegetales, revelando patrones de conducta sorprendentemente complejos y especializados para un hábitat tan poco arbóreo.
Los resultados, publicados recientemente, muestran que los chimpancés pasaban tanto tiempo en los árboles como sus primos que habitan bosques cerrados. Pero no solo eso: además, adoptaban comportamientos llamativos, como moverse de manera suspendida bajo las ramas o caminar erguidos mientras se sujetaban a ramitas laterales.
Lo que observaron los científicos no fue una caminata al estilo humano sobre la tierra firme, sino algo mucho más revelador. Muchos de estos chimpancés utilizaban sus brazos y piernas en complejas maniobras de equilibrio mientras se desplazaban entre ramas delgadas, aquellas que suelen colgar en los extremos y que ofrecen los frutos más valiosos. Este tipo de movimientos —que implican colgarse, balancearse y apoyarse parcialmente en dos patas— resulta fundamental para comprender cómo ciertos patrones de locomoción evolucionaron. En lugar de pisar suelo firme, estas criaturas perfeccionan su agilidad aérea, desafiando la lógica que asocia el bipedismo exclusivamente con la vida terrestre.

Una estrategia de supervivencia... y quizás de evolución
¿Qué sentido tiene mantenerse en las alturas cuando el paisaje invita a bajar? La clave está en lo que se come. En el valle de Issa, donde la escasez es la norma y la vegetación no abunda, cada árbol que produce alimento se convierte en un recurso crucial. Pero no hablamos de frutas jugosas al alcance de la mano. Muy al contrario: los chimpancés de esta región deben conformarse a menudo con lo que haya, y eso implica enfrentarse a frutos duros, semillas ocultas en cápsulas coriáceas o incluso pequeñas estructuras vegetales parasitarias que requieren mucha paciencia y habilidad para ser recolectadas. Permanecer en los árboles no es una elección caprichosa, sino una estrategia de supervivencia bien calculada.
Cuanto más complicado resulta acceder al alimento, más prolongada es la permanencia de los chimpancés en un mismo árbol. Y a medida que aumenta el esfuerzo necesario para recolectarlo, también crece la exigencia física: deben avanzar con cuidado entre ramas delgadas y poco firmes, ajustando cada movimiento a un entorno que cambia constantemente bajo sus pies. Este escenario propicia una mayor cantidad de desplazamientos en suspensión y, lo más interesante, fomenta el uso de posturas erguidas sostenidas por el apoyo simultáneo de las manos. Sin proponérselo, estos primates parecen estar ensayando una forma de moverse que, con el paso de millones de años, acabaría marcando un punto de inflexión en la evolución de nuestra propia especie.
Reescribiendo el origen del bipedismo
Durante mucho tiempo, la teoría dominante sobre el origen del bipedismo sugería que nuestros ancestros comenzaron a caminar erguidos cuando el paisaje boscoso dio paso a llanuras abiertas, y desplazarse de árbol en árbol exigía recorrer largas distancias a pie. Sin embargo, los hallazgos recientes introducen una variación crucial en esta hipótesis: es posible que la marcha sobre dos piernas no se gestara en el suelo, sino entre las ramas. En lugar de surgir como una respuesta a la vida terrestre, esta forma de locomoción podría haberse desarrollado primero como una ventaja evolutiva en los árboles, facilitando el movimiento en un entorno complejo y tridimensional mucho antes de convertirse en una herramienta útil para atravesar la sabana.
No obstante, eso no excluye el papel del paisaje. El valle de Issa representa un entorno intermedio, muy similar al que habitaron los primeros homínidos hace millones de años: una combinación única de sabana y bosque disperso. En este tipo de terreno, moverse entre árboles es costoso y arriesgado, lo que habría favorecido estrategias más eficientes, como permanecer más tiempo en un solo árbol y adaptarse a sus ramas delgadas… incluso desplazándose en posición erguida, con ayuda de los brazos.

El valor del estudio, tal y como avanzamos en este otro artículo, no solo reside en su planteamiento teórico. También proporciona un modelo viviente que ilustra cómo pudo haber sido la vida de nuestros ancestros. Observar a los chimpancés de Issa es, en cierto modo, mirar hacia atrás en el tiempo. Aunque los registros fósiles del tránsito entre el Mioceno y el Plioceno son escasos, su comportamiento ofrece pistas valiosas. Nos permite imaginar cómo un primate de gran tamaño, aún ligado a los árboles y dependiente de frutos, pudo adaptarse gradualmente a un entorno cambiante sin abandonar del todo la vida arbórea.
La propia arquitectura de los árboles juega un papel clave. Los que más frecuentan los chimpancés presentan copas abiertas y ramas delgadas, lo que les obliga a estirarse y adoptar posturas verticales para alcanzar el alimento. Este tipo de entorno fomenta movimientos con el torso erguido, como la suspensión o el desplazamiento apoyado en las manos. A largo plazo, estas conductas podrían haber moldeado el cuerpo hacia formas más aptas para caminar sobre dos piernas.
Una historia aún por completar
Por ahora, las observaciones se limitan a la estación seca. Queda por ver si estos comportamientos se mantienen cuando llegan las lluvias y cambia la distribución de alimentos. También será clave contrastar con otros grupos de chimpancés en entornos parecidos. Aun así, los datos apuntan en una dirección clara: la idea de que el bipedismo pudo originarse en los árboles ya no parece tan improbable.
La vieja idea de que el bipedismo surgió simplemente al abandonar los árboles se queda corta ante estos nuevos indicios. Es posible que caminar erguidos no naciera del impulso de avanzar por la sabana, sino del esfuerzo por permanecer entre las ramas el mayor tiempo posible, buscando alimento con precisión y equilibrio. Si es así, cada vez que un chimpancé se balancea en lo alto, podríamos estar presenciando un vestigio silencioso de cómo comenzó nuestro propio camino sobre dos piernas.
Durante años, un campo sin aparente importancia en el sur de Austria escondió uno de los secretos mejor guardados del Neolítico. Bajo una capa de tierra cultivada, invisibles a simple vista, yacían enterradas las huellas de una civilización que transformó para siempre la forma en la que los humanos habitaron el continente europeo. Ahora, un equipo de arqueólogos ha destapado tres enormes estructuras circulares que no solo desafían lo que creíamos saber sobre la prehistoria europea, sino que podrían representar uno de los centros rituales más antiguos jamás descubiertos en Europa Central.
Un hallazgo monumental en Rechnitz
El pequeño municipio de Rechnitz, en la región de Burgenland, cerca de la frontera con Hungría, ha sido el escenario de uno de los descubrimientos arqueológicos más impactantes de los últimos años. Dentro del marco del Masterplan Archäologie del gobierno de Burgenland, y en preparación para la construcción de un parque arqueológico y un poblado neolítico de exhibición, se llevaron a cabo excavaciones que revelaron tres grandes Kreisgrabenanlagen —es decir, recintos circulares rodeados por fosos y terraplenes— que datan de entre 4850 y 4500 a.C., lo que los convierte en más antiguos que Stonehenge o las pirámides de Giza.
Las estructuras tienen un diámetro de más de 100 metros y fueron identificadas por primera vez mediante estudios geomagnéticos y fotografías aéreas entre 2011 y 2017. Pero solo recientemente, con excavaciones sobre el terreno, han podido estudiarse de forma directa y confirmarse como monumentos prehistóricos construidos por comunidades agrícolas del Neolítico Medio. A diferencia de otros hallazgos aislados, lo verdaderamente extraordinario de Rechnitz es la concentración de tres recintos monumentales en un mismo lugar, lo que sugiere que esta zona funcionó como un centro ceremonial, económico y posiblemente astronómico de gran relevancia.

Un centro neurálgico del Neolítico
Los trabajos arqueológicos, dirigidos por Archaeologie Burgenland y en colaboración con la Universidad de Viena y la empresa especializada PANNARCH, han sacado a la luz no solo los recintos circulares, sino también restos de viviendas, postes estructurales y cerámicas que confirman la existencia de asentamientos humanos tanto del Neolítico temprano como del medio. Esto indica que el área estuvo habitada de forma continua durante varios siglos, coincidiendo con el momento en que las primeras sociedades agrícolas comenzaron a organizarse en comunidades sedentarias.
Este proceso, conocido como la Revolución Neolítica, supuso un punto de inflexión en la historia humana: el abandono del nomadismo y la adopción de la agricultura y la ganadería como base del sustento. En ese contexto, las estructuras monumentales de Rechnitz aparecen como símbolos físicos de un nuevo orden social, en el que el espacio común, las ceremonias y quizás también la observación astronómica adquirieron un valor central.
Lo más fascinante es que estas estructuras no eran fortalezas ni simples delimitaciones del terreno. La complejidad de sus accesos, la planificación geométrica y su alineación potencial con fenómenos solares como los solsticios —algo observado en otros recintos similares como el Círculo de Goseck en Alemania— apuntan a una función ritual o simbólica profundamente arraigada en las creencias de estas comunidades.

Una ventana abierta a la Edad de Piedra
Los arqueólogos que trabajan en Rechnitz han descrito este lugar como una verdadera “ventana a la Edad de Piedra”, una metáfora que cobra sentido cuando se considera la magnitud del hallazgo. Las estructuras descubiertas son de tal escala y sofisticación que suponen un reto directo al relato lineal del desarrollo cultural europeo, donde muchas veces se otorga un papel principal a las civilizaciones del Mediterráneo oriental o Mesopotamia.
Este rincón del sudeste austriaco demuestra que ya desde hace más de 6.500 años, las sociedades centroeuropeas eran capaces de coordinar grandes proyectos de ingeniería comunal, con implicaciones espirituales, sociales y científicas. A ello se suma la presencia de instrumentos cerámicos, pozos, y muestras de sedimentos agrícolas, cuya investigación permitirá comprender cómo evolucionaron los suelos y las prácticas agrícolas a lo largo del milenio.
Las muestras recogidas serán sometidas a análisis bioarqueológicos y geológicos en Viena, con el objetivo de reconstruir el entorno natural y las dinámicas agrícolas de estos primeros pobladores. Los resultados podrían ofrecer datos sin precedentes sobre la transición ecológica del Neolítico y su impacto en el paisaje actual de Burgenland.

El futuro parque arqueológico de Rechnitz
El hallazgo no solo tiene un valor científico: también está llamado a convertirse en un nuevo motor de turismo cultural en la región. El gobierno de Burgenland ya ha anunciado la creación de un centro de visitantes junto con un poblado neolítico recreado, donde los visitantes podrán experimentar la vida del 5º milenio a.C. y aprender sobre las técnicas, herramientas y modos de vida de los primeros agricultores del continente.
Este enfoque no solo busca atraer a estudiosos y turistas curiosos, sino también fomentar la educación histórica y medioambiental, en una era donde las raíces de nuestra relación con la tierra y la organización social cobran una nueva relevancia. El centro servirá como punto de partida para rutas temáticas, actividades escolares y eventos de divulgación, haciendo accesible al gran público una parte del pasado que, hasta ahora, permanecía enterrada y olvidada.
En definitiva, Rechnitz se perfila como uno de los yacimientos prehistóricos más prometedores de Europa, no solo por su antigüedad, sino por su capacidad para cambiar nuestra percepción de la historia y demostrar que hace más de seis mil años, en el corazón de Europa, los seres humanos ya estaban dejando huellas monumentales de su paso por el mundo.
Las nuevas Smart TV incorporan resolución 4K, mayor nivel de brillo y tecnología HDR para ofrecer imágenes más nítidas y realistas. Su gran pantalla y la fluidez en cada movimiento convierten ver fútbol en una experiencia totalmente inmersiva.
Hisense sorprende de nuevo al mercado con una rebaja inesperada en su Smart TV 58A6K de 58” LED 4K. Una estrategia con la que refuerza su posición frente a la competencia y ofrece a los usuarios una de sus televisiones más completas a un precio más accesible.

Con un precio habitual superior a los 480€ en tiendas como Amazon, Miravia o Pixmania, la Smart TV 4K de 58 pulgadas de Hisense se encuentra en PcComponentes por solo 299 euros. Se trata de su precio mínimo histórico y una de las mejores ofertas actuales en televisores.
Ofrece una experiencia visual de primer nivel gracias a su panel 4K Ultra HD con tecnología Direct Full Array, que asegura negros uniformes y gran nitidez en cada escena. Con HDR10+, Pixel Tuning e inteligencia artificial, la TV potencia los colores y la profundidad de imagen, ideal para disfrutar de películas, series o videojuegos.
En el apartado sonoro, combina DTS Virtual:X y Dolby Audio para un audio envolvente con diálogos claros y graves potentes. Además, integra Game Mode PLUS con baja latencia (ALLM) y VRR, pensado para gaming competitivo. Su sistema VIDAA U6 permite acceso fluido a apps como Netflix o Disney+, mientras que la conectividad avanzada con HDMI, USB y Bluetooth garantiza máxima versatilidad.
Xiaomi sacude el mercado con un recorte imbatible en su Smart TV S Mini 2025 de 65"
Xiaomi no se queda atrás y responde en el mercado europeo al rebajar su Smart TV S 2025 de 65 pulgadas hasta los 599 euros en MediaMarkt. Una oportunidad destacada si tenemos en cuenta que su precio habitual ronda los 744 € en tiendas como Pixmania, Amazon o PcComponentes, consolidándose como una de las mejores alternativas en televisores 4K.

Revoluciona la experiencia audiovisual con tecnología Mini LED de 308 zonas de atenuación, 1200 nits de brillo y resolución 4K UHD para un contraste nítido y colores vivos. Su tasa de refresco de 144 Hz con MEMC a 120 Hz elimina el desenfoque en escenas rápidas. Mientras que la certificación FreeSync Premium y VRR la hacen perfecta para videojuegos competitivos. Todo ello en un diseño unibody metálico con biseles ultrafinos.
Además, incorpora altavoces con 4 drivers compatibles con Dolby Atmos, Dolby Vision IQ e IMAX Enhanced. Su procesador Quad Cortex A73 con 3 GB de RAM y 32 GB de memoria interna asegura fluidez con Google TV y Chromecast integrado. Junto a conectividad avanzada con HDMI 2.1, USB 3.0, Wi-Fi 6 y Bluetooth 5.2.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En un tiempo en que la frontera entre ciencia y espiritualidad suele trazarse con mano dura, la pregunta que plantea el libro de Aubrey Houdeshell es provocadora: ¿y si la antigua intuición pitagórica de que el universo “suena” encontrara hoy eco en los datos de la NASA y en los cálculos de astrofísicos? La respuesta, como veremos, está en las vibraciones que laten en las estrellas, los planetas y hasta en la propia Tierra. Cuando se abre “Guía práctica de astrología” (Hestia 2025), de Houdeshell, lo primero que atrapa es la idea central: los planetas no son solo cuerpos celestes, sino notas vivas en una partitura cósmica.
La obra propone mirar la carta natal como un mapa sonoro, donde cada astro —del Sol a Lilith— aporta un timbre único a nuestra identidad. La propuesta conecta directamente con un concepto milenario, la musica universalis, y con un campo científico muy vivo: la sismología solar y estelar.
Más allá de la teoría, el libro se despliega como una guía práctica: cada capítulo combina contexto histórico, símbolos, ejercicios introspectivos y piezas musicales que acompañan la exploración de cada astro. El lector no solo se aproxima al trasfondo filosófico de la musica universalis, sino que también encuentra propuestas concretas para conectar con esa dimensión sonora del cosmos en su vida diaria.
Pitágoras y Kepler: cuando el cielo se pensaba como partitura
La idea de que los cuerpos celestes producen una música inaudible se remonta a la Grecia clásica. Para los pitagóricos, las proporciones que regían los intervalos musicales eran las mismas que gobernaban las órbitas. La música era, en su visión, el lenguaje secreto del cosmos. Platón heredó este planteamiento en su Timeo, y siglos más tarde Boecio lo reformuló en la Edad Media como una “música del mundo” paralela a la música humana y a la instrumental.
Johannes Kepler, en pleno siglo XVII, quiso poner números a esa intuición. En Harmonices Mundi calculó las relaciones entre las órbitas planetarias como si fueran intervalos musicales. No buscaba una melodía audible, sino un orden matemático capaz de reflejar la mente divina. En cierto modo, inauguró la transición de la musica universalis mística a la ciencia empírica.
El Sol canta con ondas que no oímos. Hoy sabemos que la idea de Kepler no era descabellada. El Sol, por ejemplo, vibra de forma constante. En su interior se producen ondas de presión que rebotan como si fueran ecos dentro de un gigantesco instrumento. Esas vibraciones —captadas por satélites como SOHO— no pueden oírse en el vacío, pero los científicos las transforman en sonido. El resultado son “notas” graves y continuas, producto de miles de modos acústicos simultáneos.
La helioseismología, disciplina que estudia estos temblores, ha permitido medir la estructura interna del Sol, calcular la profundidad de sus capas y seguir la dinámica de su rotación. En palabras simples: escuchar al Sol ofrece pistas de su esqueleto invisible. Lo que para Pitágoras era intuición hoy se convierte en una herramienta de diagnóstico astrofísico.

Estrellas que vibran como gigantescos instrumentos
El salto siguiente fue aplicar estas técnicas a otras estrellas. Con el telescopio espacial Kepler, los astrónomos comenzaron a detectar lo que llaman “starquakes”: temblores que hacen vibrar a los astros enteros. Cada patrón de vibración revela edad, masa y composición. La asterosismología se ha convertido en una de las ramas más fértiles de la astrofísica moderna.
Gracias a ella sabemos, por ejemplo, que algunas estrellas gigantes rojas laten con ritmos tan lentos que su “nota” equivaldría a una vibración por cada varios días. Aunque inaudibles para nosotros, esas frecuencias pueden transformarse en sonidos digitales. Escuchar las estrellas no es poesía: es ciencia de precisión.
Saturno y sus anillos: un diapasón cósmico
La música no viene solo de las estrellas. En Saturno, las oscilaciones internas del planeta generan ondas que se transmiten a sus anillos. Al analizarlas, los investigadores descubrieron que los anillos funcionan como un gigantesco diapasón que vibra al ritmo de su interior.
Esto abrió un nuevo campo, la “sismología de anillos”, que permite estudiar la estructura profunda de un planeta gaseoso a partir de su entorno inmediato.
De nuevo, una intuición antigua encuentra confirmación moderna: los planetas también tienen su voz, aunque para captarla sea necesario traducir vibraciones invisibles a gráficos y sonidos.

Un sistema planetario con cadencia musical
Si Pitágoras hubiera vivido hoy, seguramente se habría fascinado con el hallazgo del sistema TOI-178. Allí, seis exoplanetas orbitan en una cadena de resonancias que recuerdan a una partitura. Cada periodo orbital se relaciona con el siguiente mediante proporciones precisas, como las de las notas de una escala.
Los astrónomos transformaron esas órbitas en una secuencia musical, y el resultado es sorprendentemente armónico. No es música en sentido estricto, pero sí una metáfora poderosa de cómo la dinámica gravitatoria puede organizarse en patrones rítmicos. El eco de la musica universalis vuelve, esta vez con datos medidos por telescopios espaciales.
La Tierra también canta. No hace falta salir del planeta para encontrar vibraciones naturales. Entre la superficie y la ionosfera se forma una cavidad que resuena como una campana. Los rayos que caen en cualquier parte del mundo excitan esta cavidad y generan frecuencias muy bajas, en torno a 7,8 Hz y sus armónicos. Son las llamadas resonancias Schumann.
Estos latidos electromagnéticos rodean constantemente a la Tierra. Aunque imperceptibles para el oído, constituyen una especie de “nota base” de nuestro planeta. Algunos investigadores exploran su posible influencia en procesos biológicos, aunque la evidencia es todavía preliminar. Lo cierto es que, una vez más, la idea de que los cuerpos celestes vibran encuentra respaldo en fenómenos medibles.
De la ciencia a la experiencia personal
La ciencia ha logrado convertir vibraciones en datos y datos en sonido. La NASA ofrece grabaciones de las oscilaciones solares, de los campos de plasma detectados por las sondas Voyager o de los “sismos” estelares. Escucharlas no es solo un ejercicio de divulgación: es una invitación a percibir el cosmos de otra manera.
Aquí es donde la propuesta de “Guía práctica de astrología” cobra sentido. El libro no pretende explicar astrofísica, sino ofrecer un puente entre esa realidad vibrante y la vida cotidiana. A través de prácticas introspectivas y listas musicales, invita a experimentar a cada planeta como un arquetipo sonoro. En lugar de elegir entre ciencia y astrología, plantea un diálogo: usar la resonancia como metáfora para comprendernos mejor.
Descubriendo más sobre Guía práctica de astrología, de Aubrey Houdeshell
El libro de Aubrey Houdeshell, ilustrado por Rose Ides, se presenta como una herramienta moderna para redescubrir la carta natal. En lugar de centrarse únicamente en signos zodiacales, explora el papel de los planetas como voces que configuran nuestra experiencia. Cada capítulo dedica espacio a su contexto histórico, símbolos, correspondencias y, sobre todo, ejercicios prácticos y piezas musicales asociadas.
La obra bebe de la tradición pitagórica de la música de las esferas, pero la traduce a un lenguaje accesible. El lector encuentra propuestas para conectar con el Sol como fuente de vitalidad, con la Luna como reflejo de la intuición, o con Saturno como disciplina interior. Más que un manual técnico, es una invitación a escuchar la sinfonía personal que cada carta natal encierra.
Houdeshell, astróloga y lectora de tarot con experiencia en Astrología Evolutiva, busca ofrecer herramientas de transformación y empoderamiento. Rose Ides, con su estilo gráfico singular y místico, aporta un complemento visual que convierte la guía en un objeto atractivo. El resultado es un libro que dialoga con la tradición, la ciencia y la espiritualidad contemporánea.
La intuición pitagórica de que el cosmos es música no quedó enterrada en la filosofía antigua. Hoy, la helioseismología, la asterosismología, los estudios sobre Saturno y las resonancias de la Tierra muestran que el universo vibra de formas medibles. Convertir esas vibraciones en sonido es un gesto simbólico y científico a la vez: escuchar el eco de las estrellas nos recuerda que habitamos en una sinfonía mayor.
Y en esa intersección entre ciencia y espiritualidad, libros como Guía práctica de astrología ofrecen un mapa personal para interpretar esa música cósmica en la vida diaria.
Si quieres saber más, no te pierdas en exclusiva este extracto del libro.

Referencias
- Houdeshell, A., & Ides, R. (2025). Guía práctica de astrología. Editorial Hestia.
- Christensen-Dalsgaard, J. (2002). Helioseismology. Reviews of Modern Physics, 74 (4), 1073–1129. doi: 10.1103/RevModPhys.74.1073
- Chaplin, W. J., & Miglio, A. (2013). Asteroseismology of solar-type and red-giant stars. Annual Review of Astronomy and Astrophysics, 51, 353–392.
- Fuller, J. (2014). Saturn ring seismology: Evidence for stable stratification in the deep interior of Saturn. Nature, 510(7506), 7506. doi: https://doi.org/10.1016/j.icarus.2014.08.006
- Leleu, A., Alibert, Y., Hara, N. C., et al. (2021). Six transiting planets and a chain of Laplace resonances in TOI-178. Astronomy & Astrophysics, 649, A26.
- Nickolaenko, A. P., & Hayakawa, M. (2014). Schumann Resonance for Tyros: Essentials of Global Electromagnetic Resonance in the Earth-Ionosphere Cavity. Springer.
Desde hace más de dos milenios, la humanidad ha buscado escuchar la música secreta del cosmos. Pitágoras fue el primero en hablar de la musica universalis: la idea de que los planetas, al moverse en sus órbitas, generan sonidos que conforman una armonía perfecta, inaudible para nuestros oídos pero perceptible para el alma. Esa metáfora, que unía matemáticas, música y filosofía, marcó profundamente el pensamiento occidental y dio lugar a una tradición que inspiró a filósofos, astrónomos y artistas.
A lo largo de los siglos, este concepto se transformó en un puente entre ciencia y espiritualidad. Johannes Kepler, en el siglo XVII, intentó medir las proporciones orbitales como si fueran intervalos musicales, convencido de que la estructura matemática del universo era también una sinfonía divina. Hoy, la física moderna ofrece un eco sorprendente de esa antigua intuición: la helioseismología y la asterosismología han demostrado que estrellas y planetas vibran, y que esas oscilaciones pueden traducirse en frecuencias, casi como si fueran notas cósmicas.
El sonido, la religión y la astrología han estado siempre entrelazados. Desde desde los cánticos gregorianos hasta la música sufí de Marruecos, las culturas han entendido que la vibración conecta lo humano con lo divino. Incluso la teoría de cuerdas, uno de los pilares de la física contemporánea, describe el universo como hecho de diminutas cuerdas que vibran en distintas frecuencias. La metáfora musical nunca ha dejado de acompañar a nuestra búsqueda de sentido.
Hoy, cuando el lenguaje científico y el espiritual parecen hablar dialectos diferentes, algunos autores intentan devolver a la música de las esferas su lugar como puente entre mundos. La astrología, en particular, la retoma como metáfora central: los planetas como arquetipos, cada uno con su tono y energía, componiendo juntos la sinfonía de nuestra existencia.
En esa tradición se inscribe Guía práctica de astrología, un libro de Aubrey Houdeshell, con ilustraciones de Rose Ides, que convierte la carta natal en una partitura viva y propone ejercicios, música y reflexiones para experimentar las energías planetarias en lo cotidiano. A continuación, lo dejamos en exclusiva con un extracto de Guía práctica de astrología, publicado por la editorial Hestia.

Guía práctica de astrología, escrito por Aubrey Houdeshell
Guía práctica de astrología es un compendio astrológico que se sumerge en los cuerpos celestes que componen nuestras cartas natales —y que, por tanto, conforman lo que somos— y honra los diferentes arquetipos, temas y viajes de cada planeta. Cada uno de estos cuerpos astrales desempeña un papel igualmente importante, aunque distinto, en nuestras vidas. Los hilos únicos tejidos por cada planeta se funden en una orquesta cósmica para formar el complejo tejido de la experiencia humana.
Este libro es una oda al concepto filosófico de musica universalis, articulado por primera vez en la antigua Grecia por Pitágoras. Creía que, puesto que los objetos en movimiento producen sonido, los cuerpos planetarios en órbita también debían generar sus propios sonidos o, en este caso, música. Mediante su estudio de la distancia entre los planetas —que encontró concordante con los intervalos de la música— creyó que los sonidos individuales de cada cuerpo se combinarían armoniosamente: formando una música de las esferas. Esta teoría es la menos conocida —pero a menudo considerada la más sublime— de todos los conceptos pitagóricos. Y aunque pueda parecer muy alejada de nuestra comprensión actual de los cuerpos astrológicos, la musica universalis habla en última instancia de la armónica tropical o astrología tropical. También conocida como astrología occidental, es la versión de la astrología que más se practica hoy en día en Estados Unidos y Europa.
En la época en que expuso por primera vez la teoría de una musica universalis, se creía que solo el propio Pitágoras podía oír la música etérea de las esferas celestes. Sin embargo, según Manly P. Hall en su obra Las enseñanzas secretas de todos los tiempos, en realidad fueron los caldeos, una antigua cultura de habla aramea de los siglos ix y x, los primeros «en concebir que los cuerpos celestes se unían en un canto cósmico mientras se movían majestuosamente por el cielo». También se hace referencia a esta hermosa teoría —a veces abiertamente, a veces de forma más sutil— en muchas enseñanzas, escritos y obras de arte diferentes a lo largo de los siglos. Por ejemplo, Job, el protagonista bíblico del primero de los Libros Poéticos del Antiguo Testamento, describe célebremente un momento de la mañana en que las «estrellas» —la forma en que los antiguos se referían a los planetas en aquella época— cantaban juntas.
La musica universalis tiene sus raíces en la idea de Pitágoras de que el Universo entero es un monocordio colosal que se extiende desde lo más alto de los cielos hasta la Tierra, un interesante paralelismo con el Árbol de la Vida cabalístico, un método para trazar la estructura de la Divinidad que se encuentra en el misticismo judío. Pitágoras dividió el Universo en su propia escala diatónica, reflejando la convención musical de dividir una escala en siete partes, que se alineaban perfectamente con los entonces conocidos siete planetas. Las partes de la escala se asignaron según la masa y la velocidad de cada uno de los planetas. Al vagar por el espacio a sus velocidades individuales, se creía que las esferas creaban su propio tono único en el éter.
Pitágoras también postuló que existía una relación fundamental entre cada uno de los cuerpos celestes y las siete vocales sagradas, que también se correspondían con los siete cielos sagrados, una creencia muy extendida entre los antiguos griegos. El primer cielo cantaba el sonido de alfa o A; el segundo era épsilon o E; el tercero era eta, H; el cuarto era iota, I; el quinto era ómicron, O; el sexto era ípsilon, Y, y el séptimo y último cielo era omega o Ω. «Cuando estos siete cielos cantan juntos, producen una armonía perfecta, que asciende como una alabanza eterna al trono del Creador», escribe Hall. Se creía que los numerosos nombres de Dios se formaban a partir de innumerables combinaciones de las siete esferas planetarias.
De hecho, el sonido, la música, la religión y la espiritualidad tienen una relación profundamente entrelazada. El sonido, por ejemplo, desempeña un papel importante en muchos grupos religiosos y culturales. Un ejemplo es la famosa sílaba semilla del Om en el hinduismo. En esa tradición, se considera la más sagrada de todas las entonaciones, el sonido primordial de la creación que contiene la esencia de todo el Universo. Por tanto, representa el sonido de toda la existencia. En la filosofía budista, las sílabas semilla se utilizan para centrar la mente e invocar distintas cualidades espirituales mediante la meditación. También se cree que los siete chakras o centros de energía del cuerpo —¡de nuevo vemos ese número sagrado y una correlación con cada planeta!— se activan según sonidos específicos. Por último, podemos encontrar la práctica de utilizar el sonido para unirse con lo Divino mediante el nada yoga, con nada que significa «sonido» o «vibración» y yoga que significa «integración » o «unión». Esta forma de yoga sugiere que el sonido es la fuerza creativa fundamental del Universo, y que mediante el uso del sonido podemos unirnos con la conciencia Divina de la creación. Recuerda también que en la Biblia cristiana, Dios habla a las cosas para que existan.
Cuando nos fijamos en los grupos religiosos o espirituales, a menudo se considera que la música es un ritual que promueve la ascensión y la unión con la divinidad. A lo largo de la mayor parte de la historia de la humanidad, los textos religiosos se han cantado, en lugar de escribirse. Un gran ejemplo de ello son los grupos sufíes de Marruecos, que tienen cantores místicos especiales y un conjunto de letanías algo enclaustrado conocido como dhikr. Abd al-Qadir, uno de los más influyentes de estos cantores místicos, «desarrolló la concepción de los siete grados dentro del corazón humano y luego propuso siete dhikrs diferentes para corresponder a las necesidades y requisitos espirituales de cada nivel», según describe Earle H. Waugh en Memory, Music, and Religion: Morocco’s Mystical Chanters. Una vez más, ese número especial, el 7, hace su aparición.

Los cantos gregorianos de la Iglesia católica romana también ejemplifican este vínculo esencial entre música y espiritualidad. Estos cantos, una forma de música litúrgica desarrollada en la época medieval y bautizada con el nombre del papa Gregorio I (también conocido como Gregorio el Grande), se transmitían oralmente de generación en generación dentro de las instituciones monásticas y religiosas. Los cantos no se escribieron hasta mucho más tarde, en un esfuerzo por preservar su integridad. Para los católicos, los cantos gregorianos realzan la atmósfera espiritual de la misa. Gracias a su estructura monofónica —lo que significa que constan de una sola línea melódica—, su naturaleza profundamente meditativa inspira la oración, la contemplación, la introspección y la adoración a Dios.
Podemos ver otros ejemplos de música mística en prácticas como el kirtan gurbani, la música devocional del sijismo, los cantos taoístas, los bhajans del hinduismo, las entonaciones específicas realizadas en rituales como la Cruz cabalística y el honkyoku, que son piezas musicales interpretadas por monjes zen errantes japoneses conocidos como komuso. La espiritualidad y la música siempre se han inspirado e influido mutuamente. En el misticismo judío, los cabalistas creen que lo que hacemos aquí en la Tierra afecta a lo que ocurre en el mundo de lo Divino y viceversa, y han descrito esta correspondencia como la resonancia entre dos violines.
El Árbol de la Vida cabalístico representa la estructura tanto de la Divinidad como del Universo. Funciona como un mapa y una potente herramienta para la ascensión espiritual y la conexión con la divinidad. El Árbol de la Vida consta de diez esferas interconectadas, conocidas como sefirot, cada una de las cuales representa diferentes aspectos de la naturaleza y los atributos de Dios. Se cree que la energía Divina emana del Ein Sof —un lugar de infinitud que existe antes de la manifestación— a través de las sefirot, descendiendo en cascada por el Árbol de la Vida en una serie de emanaciones Divinas. Este proceso se compara a menudo con la vibración de las notas musicales, actuando cada sefira como un conducto para la energía y la conciencia Divinas.
La música también es una poderosa herramienta espiritual en la práctica cabalística. Los cabalistas emplean cánticos, cantos e instrumentos musicales para sintonizar con las energías de las sefirot y acercarse a la Divinidad. Entonar los diversos nombres de Dios es una práctica integral de la Cábala, como el ritual cabalístico de la Cruz de autoconsagración, que se emplea antes y después de los rituales y se cree que purifica el espíritu y alinea al practicante con la energía de la Divinidad. Ciertas melodías o patrones musicales se asocian a sefirot específicas y potencian la conexión del practicante con sus atributos correspondientes y le ayudan en su deseo de traspasar el umbral y unirse a la Divinidad. El Zohar, texto cabalístico fundacional, habla a menudo metafóricamente de la armonía de la sinfonía Divina, describiendo la música celestial creada por las sefirot y el canto de alabanzas de los ángeles a Dios. Como exploraremos, existe una correlación directa entre los cuerpos celestes y las esferas místicas del Árbol de la Vida.
Es interesante que la centralidad de la vibración y el sonido se extienda a los campos científicos de vanguardia de la física cuántica y teórica. Por supuesto, la música está fundamentalmente enraizada en la física del sonido. Los científicos estudian las propiedades de las ondas sonoras, como la frecuencia, la amplitud y la longitud de onda, para comprender cómo se producen las notas musicales y cómo las percibe el oído humano. La acústica es otra rama de la física que se ocupa específicamente del estudio del sonido y su comportamiento. Pero en la teoría de cuerdas, como explica el físico teórico y autor de varios libros sobre el tema Dr. Michio Kaku, las partículas subatómicas como los quarks y los neutrinos están formadas por diminutas cuerdas que vibran. Las distintas formas en que vibran estas cuerdas determinan qué tipo de partículas son. Las partículas son las que componen todo el Universo. «No son más que notas musicales en una diminuta goma elástica», afirma. «La física son las armonías, las armonías de las cuerdas que vibran». Las matemáticas y la música comparten un vínculo fundamental, como ya hemos visto a través de los conceptos de Pitágoras. Los intervalos, las octavas, las escalas y las armonías se rigen por proporciones. Las matemáticas desempeñan un papel fundamental en la composición de la música y, por tanto, también están vinculadas a la teoría musical. Obsérvese también que quienes destacan o tienen una afinidad natural por la música son también, a menudo, magníficos matemáticos, debido al vínculo inextricable entre ambos campos.
Así pues, encontramos a lo largo de la historia que la musica universalis representa la intersección de las matemáticas, la ciencia, la astrología, la espiritualidad y la religión. La música, en su esencia, no es más que la mezcla de diferentes sonidos para crear un todo nuevo, más complejo y bello. Estos sonidos, en su esencia, no son más que el producto de vibraciones. Pitágoras estableció la conexión entre los distintos tipos de vibraciones —y, por tanto, de sonidos— que produce cada cuerpo planetario según sus proporciones únicas u órbitas. Al fin y al cabo, fue el propio Pitágoras quien descubrió que el tono de una nota musical se corresponde directamente con la longitud de la cuerda que la produce. Las interrelaciones de estas melodías astrales se entrelazan para componer su propia música, que se cree que afecta directamente a la calidad de la vida en el plano físico aquí en la Tierra.

En el siglo xvi, el eminente astrónomo Johannes Kepler amplió este concepto intentando encontrar las medidas reales de la orquesta celeste. Especialmente fascinado por los armónicos, trató de explorar cómo se relacionaban estas armonías con el movimiento físico de los planetas. Quería vincular las órbitas individuales a las consonancias y disonancias musicales, mediante patrones y correspondencias tangibles entre las proporciones musicales y las posiciones planetarias. En su libro Harmonices Mundi (La armonía del mundo), publicado en 1619, Kepler exploró la idea de la musica universalis con gran detalle. Propuso que las relaciones entre los periodos orbitales de los planetas estaban relacionadas con intervalos musicales, lo que sugería una armonía divina en el cosmos. Al final, sin embargo, Kepler llegó a la conclusión de que la armonía de las esferas no era música que pudiera oírse, aunque sí un lenguaje que el alma sentía y comprendía de forma innata.
La astrología afirma lo mismo.
Al igual que la musica universalis y las prácticas espirituales musicales trascienden fronteras y culturas, la práctica de la astrología está muy extendida y es persistente. Sus raíces se remontan a miles de años. Los primeros indicios de ella proceden de la antigua Mesopotamia, en torno al tercer milenio a. C. Los babilonios fueron de los primeros en desarrollar un enfoque sistemático de la astrología, registrando observaciones celestes y creando el zodiaco basado en las doce constelaciones a lo largo de la eclíptica, la trayectoria lineal que sigue el Sol a través del cielo. También encontramos pruebas de prácticas astrológicas en el antiguo Egipto, China y la India, así como en las antiguas Grecia y Roma, de donde procede la práctica de la astrología helenística.
Durante la época medieval, se produjo un resurgimiento de la astrología. Entre los siglos v y xv, la astrología estuvo estrechamente vinculada a las creencias religiosas y a menudo se consideró una ciencia divina. Los astrólogos seguían los acontecimientos celestes y las posiciones planetarias como mensajes de la divinidad, y el estudio de los cielos se consideraba una forma de conocer el plan de Dios. Muchos de los textos de la época grecorromana fueron traducidos por eruditos durante la Edad de Oro islámica y luego constituyeron recursos para los astrólogos de la Europa medieval. Durante esta época, también asistimos a la aparición de la astrología médica.
En última instancia, experimentamos la astrología a través de los planetas y la música de las esferas. Como todos navegamos por las influencias celestes de los mismos planetas, todos nos enfrentamos a los mismos arquetipos. Los signos zodiacales —donde residen los planetas dentro de nuestras cartas natales individuales— solo influyen en las notas y partituras que cada planeta ha decidido encarnar por el momento. Gracias sobre todo a la influencia del signo ascendente, que determina la forma en que se dispone la partitura musical de los planetas para cada individuo, existen innumerables formas de interpretar la sinfonía única de una persona. No hay dos interpretaciones musicales iguales, aunque estén compuestas por los mismos elementos: los planetas.
La intención de este libro es venerar a cada planeta y sus maravillas únicas, permitiendo que cada una de sus melodías arquetípicas individuales se despliegue en su totalidad, al tiempo que se ilustra el papel que desempeñan en la obra magna cósmica. Comprender los temas y las funciones de cada planeta en nuestra vida nos permite entender la compleja experiencia de ser humano. Aprendiendo los tonos y frecuencias en los que vibra nuestra composición astrológica personal, podemos empezar a reconstruir nuestra propia resonancia orbital, nuestra propia musica universalis.
En mi propia práctica espiritual y astrológica, creo en tomar los conceptos abstractos y nebulosos del mundo esotérico y aplicarlos a mi vida de forma práctica y tangible. El conocimiento y la espiritualidad son elementos cruciales de la existencia humana que deberían estar al alcance de cualquiera que desee enriquecerse. Espero contribuir a facilitar tanto la accesibilidad como la aplicación práctica de la astrología, un tema que ha fascinado e influido en un número increíble de personas, culturas y sectas a lo largo del tiempo.
Los capítulos de este libro profundizarán en los arquetipos astrológicos y los temas respectivos de cada planeta, incluyendo su contexto histórico y sus símbolos. Cada capítulo incluirá también una sección sobre las asociaciones de cada planeta (días de la semana, colores, flora y fauna, etc.) y un pequeño tutorial para trabajar con el planeta: un poco de magia astrológica, por así decirlo. Los capítulos concluirán con algunos ejercicios e interrogantes reflexivos o creativos, además de ofrecer varias piezas musicales, para dotar a este libro de su propia musica universalis. Espero que dediques tiempo a escucharlas cuando explores los distintos planetas y sus energías para aprovechar el poder sagrado del sonido en tu propio viaje. Si escuchas y te comprometes realmente con la música incluida en este libro, podrás cultivar una experiencia tangible y directa de la naturaleza de cada planeta y del libro en su conjunto. No hay nada más esencial para comprender la astrología y cómo se manifiesta en nuestras vidas individuales que las experiencias de primera mano. A medida que avances por la lista de reproducción del libro, observa dónde sientes la música en tu cuerpo. ¿Cómo te hace sentir? ¿Hay determinadas canciones que te gusten más? Quizá ese planeta desempeñe o pueda desempeñar un papel importante en tu viaje.
Espero sinceramente que, al familiarizarte con el timbre único de cada planeta, puedas comprender mejor la canción compuesta de forma única que representa tu alma individual.

Los arqueólogos del Parque Arqueológico de Pompeya han descubierto algo tan mundano como profundamente revelador: un banco. Pero no cualquier banco. Se trata de una panca de espera de hace dos milenios, situada frente a la entrada principal de la icónica Villa dei Misteri (Villa de los Misterios), una de las residencias más célebres de la antigua ciudad romana. Este hallazgo, aparentemente humilde, abre una ventana insospechada al funcionamiento cotidiano de la sociedad romana y a las jerarquías sociales que estructuraban su vida diaria.
La Villa de los Misterios, famosa por sus enigmáticos frescos dionisíacos, fue redescubierta en el siglo XX, y desde entonces ha sido objeto de fascinación. Pero ahora, gracias a las excavaciones más recientes —activadas tras la demolición de construcciones ilegales en la zona— se han desvelado elementos inéditos del complejo residencial, incluido su acceso monumental y, justo enfrente, una estructura de cocciopesto que funcionaba como banco de espera.
Este banco no estaba pensado para el descanso de caminantes o turistas, sino para quienes acudían con la esperanza de ser recibidos por el dueño de la casa. En el mundo romano, ese encuentro no era una cuestión menor: implicaba posicionarse dentro de una red de dependencia política, económica y social. Lo que hoy llamaríamos “hacer lobby”, entonces era parte de un ritual cotidiano, conocido como salutatio, mediante el cual los ciudadanos de clase inferior acudían a la domus de un personaje influyente para pedir favores, recomendaciones o ayudas.
Una fila de hace 2.000 años
La escena es fácil de imaginar: al amanecer, hombres de distintos orígenes sociales se agrupaban frente a la puerta de la villa, esperando su turno para presentar una solicitud al dominus. Algunos eran clientes, otros simplemente jornaleros, mendigos o viajeros. A veces eran atendidos, otras no. La decisión era del patrón, que podía no presentarse o alegar cualquier motivo para no recibir a nadie ese día. Y mientras tanto, la espera. Larga, incierta, a la intemperie.
Es en este contexto donde adquiere pleno sentido la existencia de esta panca, excavada en la vía pública, justo frente al portón arqueado que marcaba la entrada principal a la Villa de los Misterios. Un elemento funcional, pero también cargado de simbolismo: cuanto más gente se sentaba fuera esperando, mayor era el prestigio del propietario. La fila era un espectáculo de poder.

El banco no estaba solo. En el muro que lo acompañaba han aparecido inscripciones hechas probablemente con carbón o algún objeto punzante. Entre ellas, una fecha (aunque sin año) y lo que parece ser un nombre. Vestigios de aburrimiento, de espera, de humanidad. Una especie de “aquí estuve” de otro tiempo. El equivalente romano de los garabatos en las paredes del metro o los baños públicos actuales, que nos recuerdan que la impaciencia y la necesidad de dejar huella no son fenómenos modernos.
Lo que no se ve desde los frescos
La Villa dei Misteri, construida en las afueras de Pompeya, no sufrió graves daños durante la erupción del Vesubio en el año 79 d.C. Su conservación excepcional ha permitido disfrutar de espacios únicos, como las salas decoradas con frescos del llamado segundo estilo pompeyano. Sin embargo, el banco de espera hallado recientemente nos muestra el otro lado de esta arquitectura de élite: el lugar desde donde la mayoría jamás pasaría al interior.
Es fácil dejarse deslumbrar por las pinturas que adornaban los espacios internos, pero resulta más complejo detenerse a pensar en quienes jamás accedieron a ellos. Este banco representa a esa otra Pompeya invisible: la que no dejó mansiones, sino trazos anónimos en los muros exteriores.
Además del banco, los recientes trabajos arqueológicos han revelado un sistema hidráulico con cisterna, nuevos ambientes decorados y, quizás lo más prometedor, restos aún por excavar del llamado quartiere servile, es decir, los espacios destinados al servicio y a los esclavos. La arqueología se acerca así a una visión más completa y menos idealizada de la vida en la villa romana: no solo sus lujos, sino también sus tensiones sociales y laborales.
Este descubrimiento ha sido posible gracias a un proyecto de recuperación que va mucho más allá de la investigación histórica. Durante años, edificaciones ilegales —incluso una estructura dedicada a la restauración— se erigieron sobre o junto a los restos de la Villa dei Misteri, dificultando no solo la investigación arqueológica, sino también la correcta conservación y fruición del sitio.

Gracias a un acuerdo entre el Parque Arqueológico de Pompeya y la Fiscalía de Torre Annunziata, dichas construcciones han sido demolidas y la zona ha vuelto a ser accesible. El proyecto tiene un doble objetivo: continuar con la excavación científica de la villa y colaborar con la justicia en la documentación de los daños provocados por actividades ilícitas, incluyendo excavaciones clandestinas.
Este modelo de “arqueología circular”, como lo denomina el parque, busca integrar conservación, legalidad, investigación y acceso público. Porque excavar Pompeya hoy no es solo una cuestión de interés científico, sino también una herramienta de protección del patrimonio ante amenazas modernas.
Pompeya, entre el turismo y la historia social
Que este hallazgo se haya producido en la Villa de los Misterios no es casual. Esta domus, célebre por sus pinturas de iniciación dionisíaca, ha sido durante décadas una de las más visitadas de Pompeya. Pero el banco descubierto nos lleva a un terreno menos conocido: el de la espera, el anonimato, el sistema de clientelismo que organizaba la sociedad romana.
La arqueología de lo cotidiano, de lo marginal, está cobrando cada vez más fuerza. Y Pompeya, con su excepcional nivel de conservación, se ha convertido en el mejor laboratorio para explorar esas otras narrativas que complementan —y a veces contradicen— la visión tradicional del mundo clásico.
Con este banco, podemos imaginar a quienes llegaban desde Boscoreale, la ciudad vecina, caminando por la Via Superior, sin saber si ese día tendrían suerte o no. Podemos verlos sentados, cansados, quizás desanimados, quizás esperanzados. Y podemos leer en esos graffiti no solo palabras, sino emociones.

Lo que viene: más excavaciones, más preguntas
Los trabajos arqueológicos continúan. El objetivo es llegar al fondo del complejo y revelar las partes aún ocultas, en especial aquellas vinculadas al servicio doméstico. Y mientras tanto, el Parque Arqueológico de Pompeya ha abierto una convocatoria de patrocinio para atraer financiación privada que permita proseguir con el proyecto.
Pompeya sigue hablando. Ya no solo a través de sus grandes frescos o de sus estructuras imponentes, sino también con gestos mínimos: una panca de espera, un nombre garabateado en la pared, una historia que, dos mil años después, aún resuena.
La historia comienza en un campo recién arado en la campiña de Dorset, al suroeste de Inglaterra. Un lugar aparentemente anodino, sin monumentos conocidos, sin yacimientos señalados y, según los mapas históricos, alejado de las grandes vías romanas que vertebraban la provincia de Britannia. Sin embargo, fue allí donde Martin Williams —un detectorista amateur con apenas cuatro años de experiencia— tropezó con lo que en un principio creyó que era un juguete infantil de metal.
Lo curioso es que no era una suposición descabellada: en la misma zona había encontrado recientemente coches de juguete de mediados del siglo XX. Pero lo que acababa de sacar de la tierra no era ni mucho menos un objeto moderno. A simple vista, parecía una chapita sin valor. Tenía una bisagra en la parte trasera y un diseño tan sencillo que no invitaba al entusiasmo. Williams, sin pensárselo dos veces, lo arrojó a su bolsa de restos metálicos, la misma en la que terminan clavos oxidados, grapas y otros descartes sin aparente interés.
No fue hasta que llegó a casa y limpió con cuidado aquella pieza que el brillo del bronce y los detalles grabados en la superficie revelaron una realidad muy distinta. Lo que tenía entre manos era un broche romano de entre 1.800 y 2.000 años de antigüedad. Un objeto que, probablemente, fue usado para sujetar una capa o una túnica en los siglos en que Roma dominaba las islas británicas. Un fragmento olvidado del pasado que, por poco, termina entre la basura.
Un diseño poco común para una región periférica
Lo que hace especialmente interesante este broche no es solo su datación, sino su rareza. En la región de Dorset no se suelen encontrar objetos de este tipo. Aunque el sur de Inglaterra vivió una romanización intensa tras la conquista iniciada en el año 43 d.C., los tipos de broches más comunes allí eran más toscos y funcionales. El hallado por Williams posee detalles ornamentales que lo acercan más a modelos utilizados en zonas más romanizadas, como la Galia o la propia Roma.
Esta diferencia en el estilo plantea interrogantes sobre su origen. ¿Fue traído por un viajero desde tierras lejanas? ¿Perteneció a un ciudadano romano acomodado que se desplazó hasta esta zona más remota del imperio? ¿O quizá se trataba de un objeto de lujo adquirido a través del comercio o el pillaje? A falta de respuestas definitivas, lo que está claro es que este broche arroja nueva luz sobre la diversidad de influencias culturales que podían encontrarse incluso en regiones aparentemente marginales del Imperio Romano.
La hipótesis más sugerente es que podría haber sido propiedad de un individuo en tránsito, tal vez un militar, un funcionario o incluso un comerciante que se desplazaba entre distintas villas romanas o centros de culto. De hecho, en las cercanías del campo donde fue hallado se sospecha que pudo existir una pequeña iglesia medieval erigida sobre un asentamiento más antiguo, lo que refuerza la idea de un uso continuado del territorio desde la Antigüedad.

Una afición que conecta con la Historia
Lo extraordinario del caso es que este tipo de descubrimientos ya no son tan raros en Reino Unido, donde el detectorismo se ha convertido en una actividad en auge. Lejos de la imagen romántica del aventurero solitario, hoy existen comunidades enteras de detectoristas organizados, con formación en arqueología básica y protocolos de actuación bien definidos. Gracias a ellos, cada año se reportan más de mil hallazgos que entran en la categoría legal de "tesoro", una clasificación reservada para objetos antiguos que contengan metales preciosos o que superen los 300 años de antigüedad.
El broche hallado en Dorset no está hecho de oro ni plata, pero sí de bronce y, por su datación y rareza, podría ser considerado un objeto de interés histórico. De momento, se encuentra en proceso de evaluación por parte de los especialistas, que determinarán si debe ser adquirido por un museo o devuelto al descubridor.
Para Williams, que ya ha encontrado más de 30 cofres repletos de objetos antiguos en apenas cuatro años, lo más valioso del hallazgo no es su posible valor económico, sino la conexión con la historia que proporciona. En un país donde las capas del pasado se superponen unas sobre otras en casi cada metro cuadrado de tierra cultivada, cada descubrimiento, por pequeño que sea, ayuda a recomponer el puzzle de la historia británica.
Tesoros escondidos bajo nuestros pies
El caso del broche romano vuelve a poner sobre la mesa el enorme potencial arqueológico que permanece oculto en los campos británicos. No hablamos únicamente de grandes villas romanas o enterramientos monumentales, sino de objetos cotidianos, muchas veces modestos, que ofrecen una mirada directa al día a día de quienes habitaron estas tierras siglos atrás.

Entre los hallazgos más notables de los últimos años se encuentran tesoros como el conjunto de 2.584 monedas de plata de época normanda valorado en más de cinco millones de dólares, o los espectaculares cascos y espadas romanas descubiertos en Leicestershire. Estos descubrimientos, casi siempre realizados por aficionados, han contribuido de forma decisiva a ampliar el conocimiento histórico del país y a nutrir colecciones de museos como el British Museum.
La legislación británica, relativamente flexible en comparación con otros países europeos, fomenta esta colaboración entre particulares y arqueólogos. A cambio de seguir unas normas básicas y notificar los hallazgos, los detectoristas pueden incluso recibir compensaciones económicas cuando los objetos son adquiridos por instituciones públicas.
El objeto que casi se pierde para siempre
Lo más sorprendente de esta historia no es tanto el valor del broche como el hecho de que, de no haber sido por un golpe de suerte, habría acabado olvidado entre un montón de residuos metálicos. Una ironía cruel para un objeto que ha sobrevivido dos milenios bajo tierra.
Ese pequeño trozo de bronce, testigo de otra época, nos recuerda que el pasado está mucho más cerca de lo que pensamos. Puede dormir bajo nuestros pies, camuflado entre raíces y piedras, esperando a que alguien —con paciencia, suerte y una pizca de intuición— lo devuelva a la luz.
En la confluencia entre la biología, la arqueología y la historia cultural, un descubrimiento reciente ha situado a una especie de buitre en el centro de una investigación sin precedentes. El quebrantahuesos (Gypaetus barbatus) ha demostrado ser mucho más que un simple carroñero. Un equipo interdisciplinar de investigadores españoles ha documentado que, a lo largo de los siglos, estas aves han acumulado en sus nidos no solo los restos óseos propios de su dieta, sino también objetos fabricados por el ser humano. Así, los nidos del quebrantahuesos han demostrado ser verdaderas cápsulas del tiempo, auténticos museos naturales capaces de conservar piezas de valor arqueológico durante centenares de años.
El quebrantahuesos, una especie en riesgo
El quebrantahuesos es la especie de buitre más amenazada de Europa. Cuenta con apenas 309 parejas reproductoras censadas en 2025, de las cuales 144 se concentran en los Pirineos. Durante el siglo XIX, su distribución geográfica era mucho más amplia, pues su presencia se extendía por todas las cordilleras de la península ibérica.
La particular biología del quebrantahuesos, caracterizada por el anidamiento en las cuevas y oquedades de los acantilados, ha favorecido que sus nidos se conserven durante siglos. Allí, tanto los huesos acumulados para alimentar a las crías como los materiales utilizados en la construcción de los nidos han permanecido protegidos por las condiciones microclimáticas estables de baja humedad y temperatura moderada.
Este hábito ha transformado los nidos en depósitos excepcionales para los investigadores. De este modo, lo que parecía un simple refugio aviar se ha convertido en un archivo ecológico y cultural capaz de conectar pasado y presente.

La investigación: un "museo" arqueológico en los nidos
Entre 2008 y 2014, un equipo liderado por Antoni Margalida y Ana B. Marín-Arroyo examinó 12 nidos antiguos de quebrantahuesos en Andalucía y Castilla-La Mancha, dos regiones donde la especie se extinguió hace décadas. Aplicando métodos estratigráficos propios de la arqueología y el análisis de radiocarbono (C-14), los científicos recuperaron un total de 2483 restos. De ellos, 2117 correspondían a huesos de ungulados y otros animales, un reflejo directo de la dieta del ave, mientras que 226 piezas eran de origen humano, confeccionadas con esparto, cuero, fibras vegetales o tela.
El hallazgo de objetos manufacturados confirma que los quebrantahuesos también recogían y reutilizaban materiales fabricados por humanos, quizá para cubrir los nidos o reforzarlos. En algunos casos, las aves incluso incorporaron elementos militares, como una punta de ballesta hallada en uno de los nidos, que quizás se utilizó en sustitución de una rama.

Objetos medievales y modernos entre los restos
Entre los objetos más llamativos encontrados en los nidos, destacan las sandalias de esparto conocidas como agovías, similares a las alpargatas. El ejemplar de este calzado, de uso popular en la península ibérica durante la Edad Media, se ha datado en 674 ± 22 años antes del presente, es decir, hacia finales del siglo XIII. Otro fragmento de cuero ovino pintado con ocre se fechó en torno al mismo periodo, 651 ± 22 años antes del presente.
En contraste, otros restos eran mucho más recientes, como un fragmento de cestería datado en 151 ± 22 años antes del presente, lo que lo sitúa en el tránsito del siglo XVIII al XIX. Estas dataciones ponen de manifiesto que algunos nidos se utilizaron durante varios siglos. Por tanto, acumularon capas de materiales que hoy permiten reconstruir la historia tanto natural como humana de estas montañas.

Los nidos como museos naturales
El valor científico de este descubrimiento radica en que los nidos de quebrantahuesos funcionan como museos naturales, donde se preservan restos arqueológicos en condiciones excepcionales. Los objetos recuperados hasta el momento han aportado información relevante sobre la vida cotidiana, las técnicas artesanales y la economía de las comunidades rurales que habitaron las sierras del sur de España desde la Edad Media.
Del mismo modo, el análisis de los huesos de animales presentes en los nidos ha proporcionado nuevos datos sobre la fauna salvaje y doméstica que coexistía en estos entornos. Cabras, ovejas y otros ungulados aparecen representados de forma abundante, lo que permite rastrear cambios en la ganadería y en la caza a lo largo de los siglos.
Una nueva herramienta para la arqueología y la ecología
Los autores del estudio destacan que los quebrantahuesos deben considerarse agentes tafonómicos de gran relevancia, capaces de acumular huesos y objetos humanos de forma comparable a otros procesos naturales o culturales que generan depósitos arqueológicos. Esto abre nuevas vías de investigación, ya que estudiar los nidos puede ofrecer perspectivas renovadas sobre la interacción entre humanos, animales y medio ambiente en épocas pasadas.
En términos ecológicos, los nidos antiguos permiten analizar la dieta de la especie a lo largo del tiempo y, en consecuencia, reconstruir los cambios en los ecosistemas de montaña. También se convierten en un recurso clave para los programas de conservación, que buscan comprender las causas de la desaparición del quebrantahuesos en buena parte de Europa y orientar los proyectos de reintroducción de la especie.
Un cruce entre biología y cultura
El estudio muestra hasta qué punto las aves pueden convertirse en guardianas involuntarias de la memoria humana. El hecho de que un buitre acumule calzado, cestos o fragmentos de cuero durante siglos ilustra la profunda imbricación entre la vida silvestre y las actividades humanas. Los investigadores han señalado que, en el futuro, sería útil aplicar esta metodología de estudio a otras especies acumuladoras, como el alimoche (Neophron percnopterus), para comprobar en qué medida los nidos de rapaces pueden funcionar como archivos históricos.

El quebrantahuesos, un testimonio de la cultura material del pasado
Los nidos de quebrantahuesos del sur de España revelan un sorprendente legado arqueológico que une la biología de una especie amenazada con la historia cultural de las comunidades humanas que habitaron las montañas ibéricas durante siglos. Estos nidos se han convertido en involuntarias cápsulas del tiempo que guardan fragmentos de la vida cotidiana, la tecnología artesanal y las huellas del medio ambiente medieval y moderno.
Este hallazgo redefine la manera en que comprendemos la relación entre humanos y fauna salvaje. En la figura del quebrantahuesos se encarna un arqueólogo de la naturaleza, capaz de preservar en lo alto de los riscos un registro material que hoy resulta de gran significado para la ciencia.
Referencias
- Margalida, Antoni, et al. 2025. "The Bearded Vulture as an accumulator of historical remains: Insights for future ecological and biocultural studies". Ecology, 106.9: e70191. DOI: https://doi.org/10.1002/ecy.70191
Era una mañana cualquiera de finales de septiembre de 1928 cuando Alexander Fleming regresó a su laboratorio del Hospital St. Mary’s, en Londres, tras unas vacaciones. Su pequeño espacio de trabajo, apenas mayor que un cuarto de escobas, estaba desordenado como de costumbre. Las placas de cultivo, utilizadas para estudiar bacterias comunes como Staphylococcus aureus, se apilaban por decenas sobre la mesa. En medio del caos, una en particular llamó su atención: un círculo de moho había crecido sobre una de las placas, y en torno a él, sorprendentemente, no había rastro de bacterias vivas.
Lo que para otros habría sido motivo de limpieza inmediata, para Fleming fue una anomalía interesante. El moho, que luego sería identificado como Penicillium notatum, parecía tener la capacidad de eliminar bacterias. No estaba buscando una medicina, ni mucho menos una revolución terapéutica. Simplemente observó algo curioso, y decidió investigarlo. Sin saberlo, acababa de abrir la puerta a una nueva era: la de los antibióticos.
La ciencia del accidente
Fleming no fue un químico, ni un especialista en síntesis de medicamentos. Su papel fue esencialmente el de un observador perspicaz que no descartó lo inesperado. Pero tras su hallazgo inicial, su descubrimiento quedó prácticamente olvidado durante una década. La comunidad médica, poco impresionada, no supo ver el potencial de esa “sustancia antibacteriana” que salía del moho.
Fue en 1939 cuando un grupo de investigadores de la Universidad de Oxford retomó la investigación. Liderados por Howard Florey y Ernst Chain, y con el trabajo técnico del bioquímico Norman Heatley, lograron algo que Fleming no había conseguido: aislar, purificar y producir el compuesto en cantidades suficientes para probarlo en seres humanos. El resultado fue inmediato y asombroso: las infecciones bacterianas que antes llevaban inevitablemente a la amputación o la muerte comenzaron a ceder ante una pequeña dosis de penicilina.
En ese momento, se confirmó que no se trataba simplemente de un compuesto curioso. Era una herramienta terapéutica con un potencial inmenso.

De los ratones al campo de batalla
Los primeros ensayos con animales, realizados durante la Segunda Guerra Mundial, demostraron que la penicilina podía detener infecciones que hasta entonces eran letales. Sin embargo, la producción era un desafío titánico. Obtener una cantidad suficiente de penicilina requería miles de litros de caldo de cultivo. El hongo original, P. notatum, no era lo suficientemente eficiente para producir el antibiótico en grandes cantidades.
La situación cambió gracias a una anécdota que parece sacada de una novela: una asistente de laboratorio llevó una cantalupa cubierta de moho al laboratorio de Peoria, Illinois, donde científicos americanos trabajaban para mejorar la producción. Aquel hongo, Penicillium chrysogenum, resultó ser cientos de veces más productivo que el original. Con ayuda de rayos X y técnicas de mutación, los investigadores lograron cepas capaces de generar penicilina en cantidades suficientes para iniciar una producción industrial. Era el inicio de la farmacología moderna.
En los hospitales de campaña de la Segunda Guerra Mundial, la penicilina salvó miles de vidas. Ya no era necesario amputar brazos o piernas ante una simple infección. Las tasas de mortalidad por heridas de guerra se redujeron drásticamente. En los años siguientes, las industrias farmacéuticas expandieron su producción a escala mundial. Lo que nació por accidente acabó siendo la base de un nuevo arsenal médico.
El auge… y las primeras señales de alarma
Para 1945, la penicilina ya se distribuía masivamente en Estados Unidos y Europa. Fleming, Florey y Chain compartieron ese mismo año el Premio Nobel de Medicina por su contribución conjunta. Sin embargo, la historia tenía una cara menos visible: el propio Fleming comenzó a advertir sobre un fenómeno inquietante. El uso indiscriminado del antibiótico podría llevar a la aparición de bacterias resistentes.
Y así fue. La penicilina, que en un principio parecía una “bala mágica”, empezó a perder eficacia en algunos casos. Las bacterias, en su incansable capacidad de adaptación, comenzaron a desarrollar mecanismos de defensa. El fenómeno, conocido hoy como resistencia antimicrobiana, se convirtió con el tiempo en uno de los mayores desafíos de la medicina moderna.
Lejos de ser un fracaso, el declive parcial de la penicilina obligó a los científicos a buscar nuevas moléculas, inaugurando una época de oro en la investigación de antibióticos. Durante las décadas siguientes se desarrollaron decenas de variantes y nuevas clases de fármacos: tetraciclinas, estreptomicina, eritromicina y más. Muchas de ellas provenían de un origen natural similar: hongos, bacterias del suelo y microorganismos que llevaban millones de años luchando entre sí mediante armas químicas.

Un legado más allá del laboratorio
Hoy, a casi un siglo del descubrimiento de la penicilina, su legado sigue vivo. Estimaciones conservadoras calculan que este antibiótico y sus derivados han salvado más de 500 millones de vidas. Pero su impacto va más allá de la medicina: transformó la forma en que las sociedades entienden la salud, aceleró el desarrollo de la cirugía moderna, hizo posible el tratamiento de enfermedades infecciosas que antes eran mortales, y consolidó la investigación científica como una herramienta directa de progreso humano.
Paradójicamente, el descubrimiento de Fleming también fue el inicio de una carrera contra el tiempo. A medida que la resistencia bacteriana avanza, la ciencia debe reinventarse para mantener la ventaja. Hoy, investigadores recurren a tecnologías genéticas como CRISPR, o incluso a virus bacteriófagos, para encontrar nuevas formas de lucha contra los microorganismos. La penicilina abrió esa puerta. Y aunque su eficacia ya no es universal, su papel en la historia de la humanidad permanece incuestionable.
Lo que comenzó como un descuido, una placa olvidada en un rincón de un laboratorio, terminó reescribiendo las reglas del juego. El 28 de septiembre de 1928 no fue solo un día más para Alexander Fleming. Fue el día en que, sin saberlo, cambió el destino de la medicina moderna.
Referencias
- Clardy J, Fischbach MA, Currie CR. The natural history of antibiotics. Curr Biol. 2009;19(11):R437-R441. doi:10.1016/j.cub.2009.04.001
En un rincón remoto de la Patagonia argentina, un equipo de paleontólogos ha encontrado algo extraordinario: los restos fósiles de un dinosaurio carnívoro desconocido hasta ahora, con el hueso de un cocodrilo aún atrapado entre sus mandíbulas. El hallazgo, publicado recientemente en la revista Nature Communications, no solo revela una nueva especie de megaraptor sino también uno de los pocos ejemplos documentados de un dinosaurio fosilizado en pleno acto de alimentación.
Bautizado Joaquinraptor casali, este nuevo dinosaurio vivió hace aproximadamente 67 millones de años, en los últimos compases del Cretácico, justo antes del impacto que acabó con los dinosaurios no avianos. El ejemplar, excavado en la Formación Lago Colhué Huapi de la provincia de Chubut, en el corazón de la Patagonia, representa una de las especies más recientes y mejor conservadas de este grupo de depredadores.
El "rey del sur"
Mientras Tyrannosaurus rex dominaba el hemisferio norte, en Sudamérica el trono del depredador alfa lo ocupaban los megaraptores. Pero hasta ahora, la mayoría de los fósiles conocidos eran fragmentarios, escasos y difíciles de interpretar. Joaquinraptor casali cambia radicalmente ese panorama.
Los restos, que incluyen buena parte del cráneo, las mandíbulas, brazos, costillas, vértebras y extremidades, ofrecen una imagen mucho más completa de cómo era este carnívoro. Medía unos siete metros de largo y pesaba más de una tonelada. A diferencia del icónico T. rex, sus brazos eran largos, musculosos y terminaban en garras curvadas y afiladas como cuchillas. Un arma letal para cazar, desgarrar y manipular presas.
La forma del cráneo era alargada y ligera, y sus dientes, aunque pequeños para su tamaño, estaban adaptados para realizar cortes precisos más que para triturar huesos. Una adaptación evolutiva que le permitía cazar de forma veloz y letal, más como un cirujano que como un demoledor.

Un fósil congelado en acción
Lo que convierte a este fósil en una pieza única es lo que se encontró entre sus mandíbulas: el hueso del brazo de un cocodrilo prehistórico. Literalmente, el depredador murió con su comida aún en la boca.
Este tipo de evidencia directa de comportamiento es extremadamente rara en el registro fósil. Aunque los dientes afilados de los megaraptores ya sugerían una dieta carnívora, encontrar restos de una presa exactamente en el lugar donde estarían en vida es un golpe de suerte inusual. El hueso, un húmero de un cocodrilo primitivo, se encontraba encajado entre los dentarios del Joaquinraptor. Todo indica que estaba en plena comida cuando murió, quizá de forma repentina.
Los investigadores han considerado diversas posibilidades: ¿fue un atragantamiento?, ¿murió cazando?, ¿fue una lucha entre depredadores? Aunque no pueden descartarse otras explicaciones, el hecho de que el hueso esté marcado por los dientes y no se hayan hallado otros restos de cocodrilo en el entorno sugiere una escena congelada de una interacción depredador-presa. Un instante de hace 67 millones de años inmortalizado en piedra.

Un depredador ágil
Una de las lecciones más fascinantes del Joaquinraptor es cómo este animal representa una alternativa evolutiva radical al Tyrannosaurus rex. Donde el tiranosaurio era robusto, con un cráneo macizo y dientes capaces de romper huesos, el megaraptor era esbelto, rápido, con un cráneo más aerodinámico y brazos dominantes. Dos caminos distintos hacia el mismo objetivo: dominar la cima de la cadena alimenticia.
La estructura ósea del Joaquinraptor muestra adaptaciones para la velocidad y la agilidad. Sus brazos, tan poderosos como largos, servían no solo para sujetar a sus presas, sino probablemente también para desgarrarlas con precisión. Las enormes garras —algunas de hasta 35 centímetros— recuerdan a herramientas de jardinería gigantes: más tijeras de podar que puños demoledores.
Esta forma de caza habría permitido a los megaraptores ocupar un nicho ecológico diferente, incluso cuando convivían con otros grandes depredadores como cocodrilos gigantes y titanosaurios juveniles, que probablemente formaban parte de su dieta habitual.
Por otro lado, el paisaje que Joaquinraptor habitó era radicalmente distinto al de la Patagonia actual. Hace 67 millones de años, la región era una llanura cálida y húmeda, salpicada por ríos, lagunas y bosques frondosos. En este entorno costero, el megaraptor cazaba a sus presas, incluyendo pequeños dinosaurios herbívoros, aves primitivas, y reptiles semiacuáticos como el desafortunado cocodrilo que terminó como su última cena.
El equipo de investigación utilizó técnicas de histología para analizar el crecimiento óseo del ejemplar. Los resultados indican que el animal tenía al menos 19 años cuando murió. Era sexualmente maduro, pero es posible que aún tuviera algo de crecimiento por delante. Esto sugiere que los megaraptores podían tener una vida relativamente larga, algo no muy común entre los grandes terópodos.

El enigma de los megaraptores
Pese al nombre, los megaraptores no están directamente relacionados con los velociraptores que el cine ha hecho populares. De hecho, su posición en el árbol evolutivo sigue siendo debatida. Algunos paleontólogos los vinculan con los tiranosaurios, mientras que otros los consideran una rama separada de carnívoros coelurosaurios.
Sea cual sea su linaje, lo que sí es seguro es que eran los reyes de su ecosistema. El hallazgo de Joaquinraptor casali, además de ampliar el catálogo de dinosaurios carnívoros sudamericanos, nos muestra que estos depredadores prosperaron hasta el mismísimo final del Cretácico. Un recordatorio de que cuando la historia se detuvo de golpe hace 66 millones de años, no lo hizo solo para T. rex.
Hoy, sus huesos emergen desde las entrañas de la Patagonia como una cápsula del tiempo. No solo traen el testimonio de un depredador implacable, sino también el eco de una escena brutal: una caza interrumpida por la muerte, y preservada durante milenios en la roca.
Referencias
- Ibiricu, L.M., Lamanna, M.C., Alvarez, B.N. et al. Latest Cretaceous megaraptorid theropod dinosaur sheds light on megaraptoran evolution and palaeobiology. Nat Commun 16, 8298 (2025). DOI:10.1038/s41467-025-63793-5
Un tipo de vidrio natural que nadie esperaba encontrar ha aparecido en colecciones olvidadas del sur de Australia. Ahora, los científicos creen que estas piezas podrían ser las huellas de un impacto colosal de un asteroide del que hasta hoy no sabíamos nada.
La historia comienza en un museo. Durante décadas, una serie de pequeños fragmentos de vidrio negro, apenas del tamaño de una moneda, descansaban en las vitrinas del South Australian Museum en Adelaide. Clasificados como una forma de tectita asociada a un conocido impacto ocurrido hace unos 780.000 años, nunca llamaron demasiado la atención. Hasta que alguien decidió mirar más de cerca.
Lo que los investigadores descubrieron desafía lo que creíamos saber sobre los grandes impactos cósmicos en la historia reciente de la Tierra.
Un vidrio distinto a todos los demás
Las tectitas son fragmentos de vidrio natural que se forman cuando un meteorito impacta la superficie terrestre con tal violencia que funde las rocas del suelo. Ese material fundido es lanzado a cientos o incluso miles de kilómetros de distancia, enfriándose rápidamente en el aire antes de caer al suelo en lo que se conoce como “campos de dispersión”.
Las más conocidas son las encontradas por millones en zonas que van desde el sudeste asiático hasta Australia. Pero los fragmentos que acaban de ser estudiados no encajan con esta categoría. Tienen una composición química distinta, una densidad más alta, niveles inusuales de ciertos metales como níquel y cromo, y sobre todo, una edad mucho más antigua: unos 10,76 millones de años.

Este hallazgo no solo implica un nuevo evento de impacto desconocido hasta ahora. También sugiere la existencia de un sexto campo de tectitas a nivel global, completamente diferente del resto.
Una investigación que comenzó con una sospecha
La pista inicial provino de un trabajo de 1969 que ya había señalado la existencia de algunos fragmentos de composición extraña en colecciones australianas. Aquellos objetos, apenas ocho, fueron descartados durante años como rarezas sin mayor importancia.
Más de medio siglo después, un equipo internacional liderado por la geóloga Anna Musolino, con participación de científicos de la Universidad Aix-Marseille en Francia y de la Curtin University en Australia, decidió investigar a fondo. Revisaron más de 5.000 muestras, seleccionando aquellas con densidad y propiedades magnéticas atípicas.
De ese filtrado salieron 417 tectitas sospechosas. Finalmente, seis de ellas destacaron como químicamente distintas de todo lo conocido. Su datación, basada en la técnica de argón-argón, confirmó una edad de 11 millones de años. Un impacto muy anterior y con origen claramente diferente.
Los investigadores propusieron entonces crear una nueva categoría: las “ananguitas”, en honor al pueblo aborigen Anangu, cuya tierra ancestral alberga muchos de estos hallazgos. La propuesta fue aceptada y publicada recientemente en la revista Earth and Planetary Science Letters.
¿Dónde está el cráter?
Si hubo un impacto colosal capaz de generar un campo de tectitas de casi 900 kilómetros de longitud, debió dejar un cráter. Pero hasta ahora, nadie lo ha encontrado.
Los científicos han analizado la composición geoquímica de las ananguitas y han comparado sus elementos traza con rocas volcánicas de diferentes regiones del Pacífico. Los resultados apuntan a zonas de intensa actividad volcánica como Luzón (Filipinas), Sulawesi (Indonesia) y Papúa Nueva Guinea. Todas ellas regiones que, por su geología compleja y su dinamismo tectónico, podrían haber ocultado o destruido cualquier cráter en millones de años.
La hipótesis más plausible es que el impacto tuvo lugar en una zona de arco volcánico activo. El calor y los materiales que forman las ananguitas indican que las rocas fundidas provenían del manto terrestre, lo cual refuerza esta idea. Pero sin una estructura circular visible, todo son conjeturas.
El tiempo, la erosión, la actividad tectónica o incluso la lava de posteriores erupciones pueden haber borrado por completo el rastro físico del cráter.

Una cápsula del tiempo en forma de vidrio
A pesar de que el cráter aún es un misterio, las ananguitas nos hablan de un momento preciso del pasado geológico de la Tierra. Son fragmentos que capturaron en su interior las huellas químicas y físicas de una explosión tan poderosa que transformó rocas sólidas en vidrio fundido en segundos.
Contienen inclusiones de lechatelierita, un tipo de sílice amorfa que solo se forma a temperaturas extremadamente altas. Su bajo contenido en agua descarta un origen volcánico, y su composición isotópica es distinta de cualquier otra tectita conocida.
Además, los niveles elevados de metales como el níquel y el cobalto apuntan a una clara contaminación extraterrestre: restos del meteorito que chocó contra la Tierra hace más de 10 millones de años.
¿Cuántas más esperan ser descubiertas?
Una de las conclusiones más fascinantes del estudio es que estos objetos estaban allí todo el tiempo. Ocultos, etiquetados erróneamente, o simplemente ignorados. Esto abre la puerta a un sinfín de posibilidades.
Es muy probable que existan más ananguitas en otras colecciones de museos, universidades o incluso entre las posesiones de coleccionistas privados. Fragmentos que podrían ayudar a reconstruir un evento cósmico olvidado por la historia, pero impreso en el vidrio de estos pequeños testigos.
El descubrimiento también nos recuerda lo poco que aún sabemos sobre los grandes impactos del pasado. Y lo fácil que es perder de vista lo extraordinario cuando lo clasificamos mal.
A veces, lo que parece un resultado vacío puede esconder algo profundo. Sumar una lista interminable de ceros suena como el camino más directo hacia la nada, pero en física cuántica, las apariencias engañan. Esta idea, en principio absurda, ha servido de clave para revelar comportamientos ocultos en ciertos materiales exóticos, donde las leyes clásicas de la física dejan de aplicarse. Si tu incredulidad no te permite aceptarlo, sigue leyendo.
Un nuevo estudio publicado en Physical Review X plantea que, en contextos fuera del equilibrio, una técnica matemática aparentemente trivial —la suma de ceros— puede tener consecuencias físicas reales. Lo han demostrado los investigadores Lucila Peralta Gavensky, Nathan Goldman y Gonzalo Usaj, al extender una fórmula clásica de la física de materiales a un terreno cuántico aún poco explorado. El hallazgo no solo resuelve una paradoja conceptual, sino que abre una vía para entender mejor cómo se comporta la materia cuando es impulsada por campos externos en condiciones no convencionales.
Una suma infinita que no da cero
En sistemas cuánticos impulsados periódicamente —llamados sistemas de Floquet— la energía no se conserva de la manera habitual. Esto los convierte en escenarios especialmente ricos para explorar nuevos estados de la materia. Lo curioso es que, al aplicar un campo magnético en estos sistemas, el resultado que deberían obtener los físicos parece insignificante: cada contribución individual se anula. Como si todos los caminos condujeran a cero.
Sin embargo, al aplicar una herramienta matemática conocida como sumación de Cesàro, los investigadores descubrieron que la suma total de esas contribuciones "nulas" da lugar a un resultado finito, cuantizado y físicamente significativo. Esta técnica, usada en matemáticas para asignar valor a series infinitas que no convergen, permitió a los autores interpretar correctamente una respuesta magnética que parecía invisible.
Lo interesante es que ese resultado final no solo tiene sentido matemático, sino que corresponde a una magnetización del sistema, un fenómeno físico medible. Es decir, lo que parecía una suma vacía escondía una propiedad cuántica topológica. Como se explica en el estudio, la respuesta obtenida a través de la sumación de Cesàro “corresponde a una magnetización en el volumen, cuantizada, que refleja un flujo de cuasienergía a lo largo del borde”.

Un símil para entender que la suma de ceros da algo distinto de cero
En los sistemas cuánticos estudiados, cada nivel de energía individual —lo que los físicos llaman "modo de Floquet"— parece no contribuir al magnetismo cuando se analiza de forma aislada. Es decir, cada término da cero si se calcula su respuesta al campo magnético. Pero cuando se consideran todos los modos a la vez, de forma global y ordenada, aparece un resultado físico real. El truco no es sumar ceros como si fueran números normales, sino interpretar correctamente el comportamiento del conjunto completo con una técnica matemática válida: la sumación de Cesàro.
Una comparación simple: si uno ve una película cuadro por cuadro, cada imagen parece estática. Pero cuando se reproducen todas juntas, en orden, aparece el movimiento. Aquí ocurre algo parecido: aunque cada “cuadro” individual del sistema da cero, la secuencia entera revela un patrón. Ese patrón no es visible en los elementos por separado, pero sí aparece al analizarlos como un todo. El resultado es una magnetización cuantizada, real y medible, que no estaba en ningún punto aislado, sino en la estructura completa del sistema.

Topología cuántica en acción
La palabra “topología” se ha vuelto familiar gracias a materiales como los aislantes topológicos. En física, esta rama describe propiedades que no cambian aunque se deforme el sistema, como sucede con un dónut y una taza, que comparten una característica topológica: ambos tienen un agujero. En materiales cuánticos, la topología está relacionada con cómo se comportan los bordes del material en relación con su interior.
En condiciones de equilibrio, esta relación queda descrita por la llamada fórmula de Středa, que conecta el número de modos de borde protegidos con la respuesta magnética del sistema. Pero los sistemas de Floquet, que están fuera del equilibrio, exigían una nueva herramienta para hacer ese mismo tipo de conexión.
Lo que lograron los autores del estudio fue extender esta fórmula clásica al ámbito dinámico, creando una versión de la fórmula de Středa para sistemas impulsados periódicamente. Esto les permitió establecer una nueva conexión entre topología y magnetismo en un régimen antes inaccesible. Según el artículo, “este replanteamiento no solo resuelve una paradoja conceptual, sino que también ofrece una hoja de ruta para experimentos futuros”.

De lo abstracto a lo observable
Uno de los mayores logros del trabajo es que las ideas abstractas que propone no se quedan en el papel. Los investigadores delinean cómo este fenómeno podría observarse en la práctica, incluso en sistemas cuánticos desordenados. La clave está en medir la densidad de partículas en presencia de un campo magnético, lo que permitiría detectar la respuesta magnética obtenida mediante la sumación de Cesàro.
Además, se identificó un fenómeno adicional inesperado: un intercambio constante de energía entre el sistema y su entorno, inducido por el campo magnético. Esta especie de “bomba de energía” representa una firma distintiva de los sistemas de Floquet, que no puede observarse en materiales convencionales. En este sentido, el estudio abre la puerta a investigar posibles conexiones con materia cuántica en cavidades, donde incluso el campo de conducción es un objeto cuántico.
Este enfoque tiene el potencial de influir en el diseño de nuevas plataformas experimentales para estudiar fases exóticas de la materia, así como el desarrollo de dispositivos que funcionen bajo condiciones dinámicas extremas, donde los conceptos clásicos ya no bastan.
Un truco matemático con consecuencias físicas
La verdadera sorpresa del artículo reside en cómo una herramienta matemática, empleada desde hace tiempo en contextos puramente teóricos, se convierte en la clave para entender un fenómeno físico real. La sumación de Cesàro no es una invención nueva, pero su aplicación a este problema específico en física de materiales representa un avance conceptual.
El trabajo demuestra que incluso los modelos más abstractos pueden arrojar resultados tangibles cuando se aplican con rigor. En palabras del propio artículo: “Lo que parece nada —una suma de ceros— se convierte en algo profundo”. Esta frase resume bien el espíritu de la investigación, que desafía intuiciones comunes y muestra cómo la física teórica sigue teniendo un papel esencial en la exploración de nuevas realidades físicas.
Este resultado no solo tiene relevancia académica, sino que propone una nueva perspectiva para explorar estados cuánticos aún no clasificados, abriendo un camino hacia la comprensión de fases fuera del equilibrio y su posible utilidad tecnológica en el futuro.
Referencias
- Lucila Peralta Gavensky, Nathan Goldman y Gonzalo Usaj, Středa Formula for Floquet Systems: Topological Invariants and Quantized Anomalies from Cesàro Summation, Physical Review X (2025). DOI: 10.1103/b3pw-my97.
En los últimos años, las tablets han encontrado un equilibrio perfecto entre portabilidad y versatilidad, convirtiéndose en una opción cada vez más atractiva para usuarios que buscan un dispositivo asequible pero funcional.
Y justo en pleno cierre de mes, Xiaomi vuelve a demostrar su estrategia agresiva en la gama baja al rebajar al mínimo histórico su Redmi Pad 2. Una decisión con la que la compañía quiere mantener su liderazgo.

Actualmente, Xiaomi sigue apostando por AliExpress, donde se encuentra por apenas 112,22 euros. Una diferencia notable para quienes buscan una tablet sencilla pero fiable, sabiendo que en tiendas como Miravia, Amazon, PcComponentes o Pixmania supera los 140€.
En cuanto a especificaciones, la Redmi Pad 2 equipa una pantalla LCD de 11 pulgadas con resolución 2,5K y tasa de refresco de 90 Hz. En su interior integra el procesador MediaTek G100-Ultra (6 nm), acompañado de 4 GB de RAM y 128 GB de almacenamiento.
Para el sonido, monta cuatro altavoces con Dolby Atmos, mientras que sus cámaras de 8 MP trasera y 5 MP frontal cumplen perfectamente para videollamadas o tareas básicas. Su batería de 8.000 mAh con carga rápida de 18W garantiza autonomía de sobra para jornadas completas de estudio, trabajo o consumo multimedia.
Sin embargo Apple dirige su atención en la gama alta con la rebaja de su iPad mini 2024
Mientras Xiaomi se centra en conquistar la gama baja con precios ultra competitivos, Apple ha decidido mover ficha en el segmento premium, rebajando su iPad mini 2024 hasta los 655,71 euros. Una alternativa de gama alta cuyo precio habitual es más de 800€ en webs como MediaMarkt y Miravia.

Esta tablet dispone de una pantalla Liquid Retina de 8,3 pulgadas, con True Tone y amplia gama cromática, ideal tanto para ocio como para uso profesional. En su interior late el chip A17 Pro, acompañado de 6 GB de RAM y hasta 256 GB de almacenamiento.
Su apartado multimedia está reforzado con altavoces estéreo en modo horizontal y una cámara frontal ultra gran angular de 12 MP con Center Stage. La batería alcanza hasta 10 horas de autonomía. Y como siempre, el ecosistema iPadOS amplía las posibilidades de productividad, creatividad y compatibilidad con accesorios como el Apple Pencil (2ª generación).
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El hallazgo arqueológico de la tumba de Murong Zhi, miembro destacado de la realeza Tuyuhun durante la dinastía Tang (618-907 d.C.), constituye un acontecimiento de primer orden para la historia de la cultura material china. Emplazada en el área de Gansu, esta sepultura ha proporcionado un conjunto funerario sin precedentes en el que destacan piezas de oro y plata, tejidos de seda, objetos de laca y, de manera especialmente significativa, un completo estuche de escritura con pinceles, tinta, papel y una piedra de entintar. En definitiva, todo el material de escritura de su tiempo. La importancia del hallazgo radica en que se trata de una de las pruebas más tempranas y mejor conservadas de los instrumentos que, siglos más tarde, se canonizarían como los célebres “cuatro tesoros del estudio”.
La tumba de Murong Zhi y su contexto histórico
Murong Zhi, integrante de la casa real Tuyuhun, fue enterrado en un momento de transición en que esta comunidad de origen xianbei se encontraba en pleno proceso de integración con la civilización Tang. Su tumba, considerada la más antigua y mejor preservada de la realeza Tuyuhun durante la dinastía Tang, se ha convertido, así, en un documento excepcional para estudiar las dinámicas de asimilación cultural en la frontera noroeste del imperio.
La inclusión de útiles de escritura en el ajuar funerario debe entenderse como una muestra del prestigio cultural que la escritura y la caligrafía habían adquirido. Así, el enterramiento refuerza la imagen de un linaje que, aun conservando rasgos de su identidad tribal nómada, buscaba inscribirse en la tradición letrada y administrativa del mundo Tang.

El estuche de madera pintada: diseño y simbolismo
En el interior de la tumba, cerca del hombro derecho de Murong Zhi, se depositó el cofre rectangular de madera pintada que contenía los útiles de caligrafía. El cofre, que mide unos 31,82 cm de largo por 17,37 cm de ancho y 7,81 cm de alto, estaba cuidadosamente reforzado con bisagras, clavos de cobre y esquinas recubiertas de plata.
El interior del estuche mostraba compartimentos para alojar los diferentes instrumentos. En la parte derecha, un soporte de pinceles y dos brochas; y en la izquierda, una mesa con superficie cóncava que servía como piedra de entintado. La zona central estaba reservada para el papel y el lingote de tinta.
El diseño integral del estuche refleja una concepción sofisticada del acto de escribir, que se convierte en una práctica ordenada y ritualizada. Este estuche ya anticipa lo que en siglos posteriores se consolidaría como el escritorio letrado del mundo Song.

Los pinceles, un ejemplo de artesanía
Los análisis microscópicos revelaron que los dos pinceles encontrados tenían mangos de bambú joven (bambú Hu Ma) y estaban confeccionados con pelo de oveja. A diferencia de otros ejemplares de la época, que incluían un núcleo de papel, los pinceles de Murong Zhi carecían de él. Esta evidencia, por tanto, confirma la coexistencia de diferentes técnicas para fabricar pinceles en la época.
Las fibras capilares presentan escamas longitudinales y signos de degradación por haber permanecido bajo tierra durante siglos. Sin embargo, los restos químicos identificados mediante espectroscopía infrarroja y pirólisis confirman la presencia de colágeno, prueba inequívoca de su origen animal. Estos pinceles constituyen una rareza por su excepcional estado de conservación.

El lingote de tinta: un producto a base de pino
Según constataron los arqueólogos, el lingote de tinta procedente del estuche tenía un peso aproximado de 18,3 g. Moldeado en un bloque de forma alargada, porta una inscripción en relieve con los caracteres Jin Gu Shang Guang.
Los análisis químicos determinaron que se trata de tinta elaborada con hollín de pino aglutinado con cola animal, un procedimiento característico de la tradición china desde el periodo Han (206 a. C.-220 d. C.). Los compuestos identificados incluyen hidrocarburos aromáticos policíclicos como el fenantreno y el pireno, además de biomarcadores de resina de pino. La inscripción, al igual que otras halladas en objetos similares de la época, constituye un elogio a la calidad de la tinta.

El papel de bambú
En la parte inferior del estuche, además, se hallaron dos paquetes de papel de color amarillento, cada uno de 25 cm por 6,5 cm. Aunque la fragilidad del material impidió desplegar las hojas, los análisis de fibras identificaron claramente la presencia de celulosa de bambú, un material apreciado en la época por su resistencia, su textura fina y su idoneidad para absorber la tinta sin emborronarse.
El hallazgo resulta de gran importancia porque muestra la transición hacia el uso generalizado del papel en sustitución de las tablillas de bambú y otros soportes más arcaicos. La agrupación de papel, pincel, tinta y piedra hallada en esta tumba, por tanto, es una de las evidencias más antiguas del “conjunto de los cuatro tesoros del estudio” en el contexto Tang.

Sinización y prestigio letrado
La presencia de este ajuar caligráfico en una tumba Tuyuhun del siglo VII d.C. demuestra que la escritura, además de ser una herramienta administrativa, también funcionó como un símbolo de prestigio cultural y de integración con la civilización china central. Los Tuyuhun, de origen xianbei, habían mantenido intensas relaciones diplomáticas y matrimoniales con las dinastías del norte y con la corte Tang. Su asimilación, por tanto, fue un proceso tanto político como cultural.
Según los investigadores, la presencia de los objetos caligráficos como parte del ajuar funerario refuerza esta interpretación. Se trataba de un signo tangible de pertenencia a la élite sinizada, que reconocía en la escritura un atributo fundamental de su identidad
El hallazgo del “material de oficina” de Murong Zhi constituye una aportación de primer orden al conocimiento de la historia cultural china. Los pinceles de pelo de oveja, la tinta de pino, el papel de bambú y el estuche de madera documentan tanto la tecnología de la escritura en la Tang temprana como el complejo proceso de sinización de los Tuyuhun.
Referencias
- Chen, Guoke, et al. 2025. "Exploration of stationery items unearthed from the Tomb of Murong Zhi of Tuyuhun in the Tang Dynasty". npj Heritage Science, 13.1: 458. DOI: https://doi.org/10.1038/s40494-025-01989-0
La palabra «espín» significa giro (spin) en inglés. Por ello, mucha gente imagina que el electrón es una pequeña esfera que gira sobre sí misma cuando piensa en su espín. Esta imagen es incorrecta por muchas razones. Una de ellas es que al aplicar una rotación completa de 360 grados a un electrón no se recupera su estado original; se necesita una doble rotación completa de 720 grados para lograrlo. Para entenderlo, Dirac propuso imaginar el electrón como dos esferas concéntricas conectadas por un cinturón. El electrón sería la esfera interior y la esfera exterior representa el infinito. Al rotar la esfera interior 360 grados, el cinturón se torsiona y se necesita una segunda rotación de 360 grados para deshacer dicha torsión, cuando al mismo tiempo el cinturón de Dirac da una vuelta alrededor de la esfera interior durante el proceso.
El comportamiento del electrón bajo rotaciones es contraintuitivo. Algunos físicos han propuesto imaginar el electrón como líneas de flujo de un campo con la forma de una cinta de Moebius, una superficie que tiene una sola cara. El estado del electrón sería un punto en la superficie de la cinta. Al girar 360 grados se recorre la mitad de la superficie de la cinta y se acaba en un punto en la otra «cara» de la cinta; para retornar al punto inicial hay que seguir recorriendo la superficie hasta dar otra vuelta completa y alcanzar los 720 grados. Esta analogía no agrada a muchos físicos, pues la realidad es mucho más sencilla de entender.
El espín es una propiedad física de los campos cuánticos, que heredan sus partículas. El campo del electrón tiene dos componentes (llamadas izquierda y derecha); el electrón es una excitación cuántica en cada una estas dos componentes. Aplicar una rotación espacial de 360 al electrón requiere aplicarla a las dos componentes de su campo; en dicho proceso se intercambian entre sí las excitaciones en las componentes izquierda y derecha. Por ello, para recuperar el estado inicial del campo del electrón hay que aplicar una segunda rotación de 360 grados, acompañada de un nuevo intercambio entre las componentes.
La historia del espín del electrón
La física atómica nació al intentar entender los espectros de los átomos. Los gases emiten luz cuando se calientan y dicha luz es una mezcla de unos pocos colores bien definidos, llamados líneas espectrales. En 1896, Zeeman observó que un campo magnético externo desdoblaba las líneas espectrales en el sodio; para explicarlo, Lorentz propuso que los átomos contenían partículas cargadas (más tarde llamadas electrones) que se movían en órbitas cerradas y se comportaban como pequeños imanes con un momento magnético; ambos acabaron recibiendo el Premio Nobel de Física en 1902.
El efecto Zeeman no tenía explicación en los primeros modelos atómicos de Bohr y Sommerfeld. En ellos, los electrones están ligados al núcleo en estados llamados orbitales que tienen un energía discretizada (cuantizada). Los espectros atómicos son debidos a transiciones (saltos) de los electrones entre orbitales. En 1922, Stern y Gerlach lograron medir el momento magnético del electrón, que resultó ser la mitad del magnetón de Bohr (su valor para un átomo según su modelo atómico). Sommerfeld, Landé y Pauli intentaron explicar el efecto Zeeman como una rotación de los orbitales de los electrones más externos respecto a los más internos. Pero esta idea no casaba con la medida de Stern y Gerlach. Todo apuntaba a una nueva propiedad intrínseca del electrón.

En 1925, Uhlenbeck y Goudsmit, y Kronig explicaron el efecto Zeeman suponiendo que el electrón era una carga puntual que giraba sobre sí misma, con lo que tendría un momento angular intrínseco; además, al ser una carga eléctrica en rotación se comportaría como un pequeño imán. Así nació el espín del electrón, que inspiró el principio de exclusión de Pauli con el que se logró entender la tabla periódica de los elementos. Físicos como Lorentz tenían serias dudas, porque la velocidad de giro del electrón superaría la velocidad de la luz en el vacío. Para evitarlo, en 1926, Pauli matematizó el espín recurriendo a un giro en un espacio abstracto interno, descrito mediante matrices de dos componentes. Thomas observó que el espín tenía unidades de momento angular induciendo un efecto de precesión relativista en el electrón.
La naturaleza del espín fue aclarada por Dirac, que introdujo en 1928 su ecuación cuántica relativista para el electrón, que generalizaba las matrices de Pauli a matrices de cuatro componentes, dos de ellas para el electrón y otras dos para una hipotética partícula idéntica al electrón pero con carga positiva. En 1932, Anderson la descubrió en los rayos cósmicos y la bautizó como positrón, la primera partícula de antimateria. El espín se había logrado explicar como un efecto cuántico relativista que desaparecía en el límite clásico, pero su origen último aún era una incógnita.
El campo cuántico del electrón
La función de onda solución de la ecuación no relativista de Schrödinger se interpreta como la probabilidad de localizar la posición de un electrón en un átomo. Pero dicha idea no se puede aplicar a la ecuación relativista de Dirac; la función de onda con cuatro componentes no es una distribución de probabilidad, pues conduce a probabilidades negativas. En 1932, Dirac propuso interpretarla como un campo cuántico; las soluciones de su ecuación serían operadores cuánticos de creación y aniquilación de electrones y positrones. Fock, en 1933, y Furry y Oppenheimer, en 1934, desarrollaron esta idea en analogía con la cuantización del campo electromagnético. La interpretación probabilística se asignaba a un operador cuántico que cuenta el número de partículas, la diferencia entre el número de electrones y el número de positrones (de ahí que pueda ser un número negativo, aunque su probabilidad esté bien definida).

Durante décadas, el campo cuántico del electrón fue considerado un objeto matemático que ayudaba a realizar cálculos; se pensaba que solo las partículas tenían realidad física. Pero tras el nacimiento de la electrodinámica cuántica (QED), en 1949, que describía las interacciones entre electrones, positrones y fotones mediante sendos campos cuánticos, nació la idea de que el objeto físico fundamental no eran las partículas, sino los campos. Esta idea no fue aceptada hasta que nació el modelo estándar de la física de partículas en 1973, que describe todas las interacciones fundamentales, salvo la gravitación, con teorías cuánticas de campos con espines diferentes: espín cero (Higgs), espín un medio (electrones, neutrinos y quarks) y espín unidad (fotones, bosones débiles y gluones).
El irreductible espín
El origen último del espín es la relación entre los campos cuánticos y el espaciotiempo. La formulación matemática de esta idea fue desarrollada por Wigner en 1939 en el marco de la teoría de representaciones de grupos. Un conjunto de transformaciones geométricas forma un grupo de simetría cuando se pueden aplicar dos consecutivas para obtener una nueva y todas se pueden invertir para deshacerlas. En la teoría especial de la relatividad, las transformaciones del espacio- tiempo son rotaciones y reflexiones especulares en el espacio, y cambios en la velocidad relativa llamados boosts (que son análogos a «rotaciones» en el tiempo), que constituyen el grupo de Lorentz; cuando se añaden las traslaciones en el espacio se obtiene el grupo de Poincaré. Wigner demostró que el origen del espín son las representaciones irreducibles del grupo de Poincaré (donde irreducible significa que la representación no se puede descomponer en otras más sencillas).
Las partículas no son objetos puntuales, sino excitaciones de un campo cuántico localizadas en cierto volumen del espacio (con un tamaño dado por su longitud de onda de De Broglie). Por ello, al rotar el espacio dichas excitaciones rotan con él. Además, el campo cuántico de una partícula puede tener varios componentes: el campo de Higgs tiene una, pero el campo del electrón y de un quark tiene dos, y el campo de los bosones débiles W y Z, tres. Cuando se aplica una rotación en el espacio al campo cuántico de una partícula rotarán todos sus componentes de forma simultánea como una entidad única.
La propiedad más característica de la física cuántica es la linealidad; los estados de un sistema cuántico se pueden combinar mediante sumas ponderadas para dar lugar a nuevos estados físicos, las superposiciones cuánticas. Para los campos cuánticos hay que usar representaciones lineales en forma de vectores y para las transformaciones geométricas matrices que multiplican («transforman») dichos vectores. En las representaciones del grupo de Lorentz, el número de componentes de estos vectores viene determinado por el espín s del campo mediante la sencilla fórmula 2 s + 1. Un campo con una sola componente tiene espín cero (s = 0); uno con dos componentes, espín un medio (s = 1/2); uno con tres componentes, espín unidad (s = 1), y así de forma sucesiva.

Las representaciones irreducibles del grupo de Lorentz se caracterizan por dos parámetros de Casimir. Uno discreto, el espín del campo, y otro continuo, la masa del campo. Este último parámetro se interpreta como la energía mínima necesaria para excitar el estado de tipo partícula del campo (si la energía usada es mayor, el resto de la energía será cinética). Este parámetro es importante porque los campos cuánticos sin masa solo pueden tener dos componentes, sin importar su espín, en un espacio con tres dimensiones; dichas dos componentes son transversales al movimiento de la partícula a la velocidad de luz en el vacío. Así el fotón y los gluones, con espín uno, tienen dos componentes, igual que el hipotético gravitón, que tiene espín dos, o un teórico neutrino sin masa que tiene espín un medio.
Las partículas de los campos con espín entero se llaman bosones y las de los campos con espín semientero, fermiones. Las componentes de los campos de bosones se llaman polarizaciones; este nombre está inspirado en la polarización de la luz, que es debida a nivel cuántico a que el fotón tiene dos componentes. En los campos de fermiones se prefiere el término quiralidades. El electrón y los quarks de espín s = 1/2 tienen dos quiralidades, levógira y dextrógira (o izquierda y derecha, o −1/2 y +1/2). El hipotético gravitino con espín s = 3/2 tiene cuatro quiralidades, que se suelen denominar como −3/2, −1/2, +1/2 y +3/2. El modelo estándar es quiral porque la interacción débil solo afecta a las componentes izquierdas de los fermiones y a las derechas de los antifermiones.
Por tanto, en esencia, el espín es solo un número que nos permite contar el número de componentes de un campo cuántico relativista. Un número que tiene una asociada una magnitud física con unidades de momento angular y que permite asociar un momento magnético al electrón.
Las tecnologías basadas en el espín
El espín es responsable del magnetismo de la materia, por lo que está en la base de muchas aplicaciones tecnológicas. Como las modernas unidades de disco duro de alta capacidad de almacenamiento. Fueron posibles gracias a nuevos sensores magnéticos basados en la magnetorresistencia gigante descubierta en 1988 por Grünberg y Fert (premio Nobel de Física en 2007). Este efecto cuántico se observa en películas delgadas que alternan capas ferromagnéticas y no magnéticas. La resistencia eléctrica es baja cuando los espines apuntan en la misma dirección y alta cuando apuntan en direcciones opuestas. Una tecnología emergente es la espintrónica, que usa el espín del electrón para desarrollar nuevos dispositivos electrónicos.
Esta tecnología promete más eficiencia energética y más densidad de almacenamiento de información. Además, tiene aplicaciones en los futuros ordenadores cuánticos. Todavía no ha llegado al mercado masivo, pero se espera que en las próximas décadas todos los teléfonos móviles incluyan dispositivos espintrónicos.
La importancia de la salud bucodental está creciendo en nuestro país impulsado por una mayor conciencia sobre el tema. El mercado de los cepillos de dientes eléctricos está experimentando un auge y la pelea por sacar las mejores innovaciones tecnológicas para dar soluciones de higiene más eficaces está que arde.
Philips no quiere quedarse atrás en esta lucha y lo demuestra bajando el precio en su cepillo de dientes Sonicare 6100 que alcanza su precio mínimo histórico.

Es un gran momento para hacerse con este cepillo de dientes eléctrico ya que su precio habitual suele rondar los 130-140€ como se puede comprobar en la página oficial de Philips o en la web de Carrefour. Sin embargo, ahora Amazon lo ofrece por sólo 83,99 euros durante esta oferta flash.
Este cepillo de dientes ofrece 2 modos de cepillado, limpieza y cepillado suave, y 3 niveles de intensidad para adaptar la experiencia a distintas necesidades. Funciona con 62000 movimientos por minuto, su tecnología sónica combina potencia y precisión para alcanzar zonas de difícil acceso. Integra también un sensor óptico de presión que, al detectar una fuerza excesiva, reduce la vibración y emite un aviso visual.
Destacar además su sistema BrushSync que sincroniza el cabezal con el mango y recuerda cuándo debe reemplazarse para garantizar un rendimiento óptimo. La autonomía que ofrece es de hasta 3 semanas con una carga completa. Hay que reseñar igualmente su temporizador SmarTimer y el sistema BrushPacer que ayudan a respetar los dos minutos recomendados y a distribuir el tiempo homogéneamente por toda la boca.
También Oclean baja drásticamente el precio de su cepillo de dientes Flow
Hay muchas otras ofertas en el sector de los cepillos de dientes eléctricos, pero ninguna tan barata como la que ofrece Amazon mediante el Oclean Flow, dejándolo en 19,90 euros. Mientras que otras tiendas como Worten o Fnac lo tienen con un precio de superior a 50€.

Destaca por su motor Maglev, capaz de generar hasta 76000 movimientos por minuto, lo que le confiere una limpieza potente y muy eficiente. Cuenta con 5 modos de cepillado (mañana, noche, estándar, blanqueamiento y suave) para adaptarse a diferentes estados bucales o rutinas. Además, incorpora un temporizador inteligente de 2 minutos con señales cada 30 segundos para guiar el cepillado por zonas.
En el apartado autonomía, puede funcionar hasta 180 días bajo uso estándar. Destacar también su resistencia al agua con certificado IPX7 o sus cerdas fabricadas por DuPont, con diseño en forma de “W” que mejora el contacto con la superficie dental sin dañar el esmalte o las encías.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En un laboratorio de Okinawa, Japón, un microscopio especializado observa fenómenos que duran menos que un parpadeo. En realidad, menos que un cuatrillón de segundo. Allí, un equipo de científicos ha logrado lo que hasta ahora parecía imposible: seguir el rastro de partículas que no emiten luz, no se pueden ver con técnicas convencionales y, sin embargo, podrían estar en el centro de la próxima revolución tecnológica.
Se trata de los excitones oscuros, unas entidades cuánticas que se forman en materiales delgados como una sola capa de átomos. La novedad, publicada en Nature Communications, es que por primera vez se ha obtenido una imagen clara y directa de cómo estas partículas se forman, evolucionan y podrían usarse como unidades de información cuántica. Un paso decisivo hacia la llamada "valleytrónica oscura".
Qué son los excitones oscuros y por qué cuesta tanto detectarlos
Para entender el hallazgo, primero hay que entender qué es un excitón. En materiales semiconductores, como los que se usan en electrónica, los electrones pueden absorber luz y saltar a niveles de energía más altos, dejando vacantes llamadas “huecos”. Cuando un electrón y un hueco se atraen entre sí, se unen formando un excitón, una especie de pareja energética que puede transportar información.
Si este par tiene las características cuánticas correctas —como el mismo espín y estar en el mismo estado de momento (o “valle”)—, puede recombinarse rápidamente y emitir luz. Son los excitones brillantes. Pero cuando esas condiciones no se cumplen, el par no emite luz. Son los excitones oscuros, invisibles a las técnicas ópticas normales. A pesar de su nombre, estos últimos podrían ser más útiles que los brillantes.
Lo complicado es que, al no emitir luz, los excitones oscuros no se pueden observar con las herramientas ópticas habituales. Y sin observarlos directamente, es difícil aprovecharlos para la computación cuántica. De ahí la importancia de esta investigación: por fin se ha logrado verlos y medirlos en acción.

Tecnología ultrarrápida para observar partículas que duran picosegundos
El equipo liderado por Keshav Dani, en el Instituto de Ciencia y Tecnología de Okinawa (OIST), utilizó un microscopio de fotoemisión angular y temporal (TR-ARPES, por sus siglas en inglés) junto con una fuente de luz ultravioleta extrema (XUV) desarrollada especialmente para el experimento. Este conjunto permitió capturar imágenes de los excitones con una resolución temporal de femtosegundos, es decir, una millonésima de una milmillonésima de segundo.
Gracias a esta tecnología, lograron ver cómo los excitones brillantes generados por un pulso de luz se transformaban rápidamente en excitones oscuros. Los primeros en aparecer fueron los llamados momentum-dark excitons, en los que el electrón y el hueco están en diferentes valles de la estructura del material. Poco después, emergieron los spin-dark excitons, en los que la diferencia está en la orientación del espín.
Lo sorprendente fue que algunos de estos excitones oscuros conservaban su polarización de valle —una propiedad cuántica que puede codificar información— durante varios picosegundos, mientras que los excitones brillantes la perdían casi de inmediato. Esta resistencia a la despolarización es clave para usarlos en computación cuántica, donde conservar la información sin que se degrade es uno de los grandes desafíos.

De la electrónica a la valleytrónica: una nueva manera de codificar información
En electrónica convencional, se manipula la carga de los electrones. En espintrónica, se aprovecha el espín, una propiedad cuántica relacionada con el magnetismo. Pero en los materiales bidimensionales como el disulfuro de tungsteno (WS₂), aparece una nueva posibilidad: la valleytrónica.
Los electrones en estos materiales pueden encontrarse en dos mínimos de energía diferentes, llamados valles K y K’, que funcionan como estados binarios. Usar estos valles para almacenar y manipular información es el principio de la valleytrónica. Lo que mostró el nuevo estudio es que ciertos excitones oscuros pueden mantener esta codificación por más tiempo que los excitones brillantes, lo que los convierte en candidatos ideales para tecnologías cuánticas.
La investigación demostró que, bajo ciertas condiciones experimentales (baja temperatura, baja intensidad de excitación y luz polarizada circularmente), se pueden generar y seguir excitones oscuros que conservan su identidad de valle durante más de 10 picosegundos. Según el artículo, “la población de excitones oscuros con polarización de valle dominó en un 85 % tras 1 ps, con un grado de polarización del 40 % durante al menos 10 ps”.
La valleytrónica es una disciplina que propone usar los “valles” de la energía de los electrones —mínimos en el paisaje cuántico de un material donde estos tienden a acumularse— como una nueva forma de codificar y procesar información, del mismo modo que la electrónica usa la carga y la espintrónica el giro del electrón
Un modelo matemático para entender su evolución
Para explicar cómo evolucionaban los diferentes tipos de excitones con el tiempo, los autores construyeron un modelo basado en ecuaciones de tasas. Este modelo les permitió estimar los tiempos característicos de los procesos clave: la dispersión por fonones, el intercambio entre valles y la relajación del espín.
Los resultados mostraron que los momentum-dark excitons se formaban en menos de un picosegundo, mientras que los spin-dark excitons tardaban algunos picosegundos más. Aunque estos últimos representaban una fracción menor de la población inicial, también mostraban una notable selectividad de valle, lo que abre nuevas posibilidades de uso a largo plazo.
Además, el estudio confirma que la despolarización rápida observada en estudios anteriores se debe a condiciones experimentales distintas: mayor temperatura o intensidades más altas de luz hacen que los excitones se comporten de manera más caótica y pierdan información más rápido. En contraste, al reducir la energía y enfriar el sistema, se pueden controlar mejor los procesos de dispersión y mantener la coherencia cuántica.

Excitones oscuros como unidad cuántica
Este trabajo no solo aclara cómo funcionan los excitones oscuros, sino que también abre nuevas vías para la tecnología cuántica. Una de las ideas más prometedoras es crear dispositivos que usen estos excitones como unidades de información cuántica resistentes a la decoherencia.
Además, el estudio sugiere que, con técnicas como la aplicación de tensión mecánica o campos magnéticos, podría ser posible "iluminar" estos excitones oscuros temporalmente, haciendo que emitan luz y permitiendo leer su estado cuántico. Esto sería un paso decisivo hacia memorias cuánticas más estables, o incluso hacia nuevos tipos de sensores ultraprecisos.
Como explican los autores, “nuestro trabajo demuestra que, dependiendo de las condiciones experimentales, se puede pasar de una rápida despolarización a la formación de excitones oscuros con polarización de valle de larga duración”. Este control, hasta ahora inalcanzable, es fundamental si se quiere utilizar estas partículas en computación o telecomunicaciones cuánticas.
Una plataforma experimental con patente propia
La hazaña no habría sido posible sin el desarrollo de un sistema experimental altamente especializado. El microscopio TR-ARPES utilizado en el estudio incluye una fuente de luz XUV construida a medida y un sistema de detección de electrones que funciona en una cámara de ultra alto vacío.
El equipo detrás del experimento ya ha registrado una patente en EE.UU. sobre esta tecnología. Esto subraya no solo el valor científico del trabajo, sino también su potencial de transferencia tecnológica a la industria cuántica emergente.
En resumen, este avance coloca a los excitones oscuros —y a los materiales 2D como el WS₂— en el centro de una nueva frontera científica. Una donde lo invisible se convierte en herramienta, y lo efímero, en futuro.
Referencias
- Xing Zhu, David R. Bacon, Vivek Pareek, Julien Madéo, Takashi Taniguchi, Kenji Watanabe, Michael K. L. Man, Keshav M. Dani. A holistic view of the dynamics of long-lived valley polarized dark excitonic states in monolayer WS₂. Nature Communications. https://doi.org/10.1038/s41467-025-61677-2.
En un contexto donde los auriculares inalámbricos se han convertido en una extensión natural del smartphone, cada vez más usuarios buscan dispositivos que ofrezcan la mejor combinación entre calidad de sonido, autonomía y conectividad.
OnePlus ha decidido tomar la delantera este final de mes de septiembre liquidando sus nuevos OnePlus Buds Pro 3. Un movimiento con el que mostrar a la competencia su clara apuesta por este segmento.

Si se bucea por las tiendas como Miravia, Pixmania, PcComponentes o Amazon, su precio no baja de los 115€. Sin embargo, la fuerte unión con AliExpress, además del uso del código descuento IFPUDG1, ha hecho que OnePlus los hunda hasta los 80,60 euros.
Estos auriculares inalámbricos integran un doble diafragma con altavoz de graves de 11 mm y altavoz de agudos de 6 mm, cada uno con su propio DAC dedicado, lo que permite una respuesta de frecuencia de 10 Hz a 40 kHz. Además, soportan audio Hi-Res LHDC 5.0 con transmisión a 1 Mbps y calidad de 24 bits/192 kHz, junto con ecualización optimizada por Dynaudio y el sistema Golden Sound.
También incorporan cancelación adaptativa de ruido de hasta 50 dB, doble supresión de voz, tres micrófonos por auricular más micrófono de conducción ósea (VPU) con algoritmos de IA para llamadas claras. Y funcionan con Bluetooth 5.4, batería de 58 mAh que brinda hasta 43 horas con estuche y clasificación IP55.
Xiaomi no tarda en reaccionar mediante la rebaja de sus Buds 5
La respuesta de Xiaomi no se ha hecho esperar. La compañía refuerza su estrategia con los Xiaomi Buds 5, que bajan de precio hasta los 54,69 euros para competir frontalmente con los nuevos OnePlus. Una alternativa a tener en cuenta sabiendo que su precio habitual es de 64€ en PcComponentes y Amazon.

Se trata de unos auriculares inalámbricos TWS de diseño semi in-ear que destacan por ofrecer audio de alta fidelidad con certificación Hi-Res. Teniendo además soporte para tecnología lossless, optimizados con el sistema Harman Audio EFX. Funcionan con Bluetooth 5.4, e integra una batería de 35 mAh, mientras que el estuche de 480 mAh amplía la autonomía hasta 30 horas de reproducción total.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
La escena parece cotidiana: un dueño pide “¡Tráeme la cuerda!”, y su perro corre entre un montón de juguetes. Pero aquí hay truco: la cuerda no es un objeto que el perro haya oído nombrar antes, sino uno nuevo que solo conoce por la manera de jugar. El hallazgo es sencillo de contar y profundo de entender. Un equipo internacional liderado por Claudia Fugazza, Andrea Sommese y Ádám Miklósi documentó que algunos perros capaces de aprender decenas de nombres pueden clasificar objetos por su función y generalizar etiquetas verbales a novatos del cajón de juguetes.
La promesa del estudio es tan concreta como su metodología casera: juegos de tirar y juegos de lanzar en salones y cocinas, cámaras encendidas y una consigna clara para los dueños: nombrar cuando corresponde y callar cuando toca. El resultado apunta a una forma de pensamiento más abstracta de lo que creíamos en una especie no lingüística.
Y lo hace sin laboratorios futuristas: bastó con observar, estandarizar y medir con reglas estrictas lo que pasa en el día a día de familias con perros fuera de serie.
El giro de tuerca: función, no forma
Durante décadas se pensó que, fuera de los humanos, la categorización animal se anclaba sobre todo en lo perceptivo: color, tamaño, textura. Este trabajo pone el foco en el uso. Los autores se apoyaron en perros “Gifted Word Learners” (GWL) —o perros dotados en vocabulario—, una minoría capaz de aprender nombres de muchos juguetes en juegos naturales con sus humanos.
Primero, los investigadores crearon dos “familias” funcionales: juguetes de tira y afloja y juguetes de lanzar. Los objetos no compartían un patrón de forma, material o color. Cada perro recibió combinaciones distintas para impedir que la apariencia diera pistas; así, la única brújula posible era la manera de usarlos junto al dueño.
El entrenamiento inicial duró varias semanas con etiquetas verbales (lanzar o tira y afloja) pronunciadas al jugar, y luego llegó el momento clave: introducir nuevos juguetes con las mismas funciones, pero sin decir sus nombres. Más tarde, ya en prueba, el dueño pedía “tira y afloja” o “lanzar” y el perro debía elegir el correcto entre al menos ocho opciones.

Cómo lo probaron en casa… con precisión científica
Once perros dotados fueron reclutados; uno se descartó por falta de interés en el juego de tirar y diez iniciaron el protocolo. No era un casting abierto: se buscaba un fenotipo cognitivo raro. Tras la fase de aprendizaje, ocho demostraron reconocer con solvencia las etiquetas funcionales y siete completaron todo el recorrido experimental.
El diseño tuvo cuatro fases: exposición con etiquetas y función; evaluación del aprendizaje; exposición a función sin etiquetas con juguetes nuevos; y test de clasificación por palabra.
Cada paso quitaba muletas y afinaba la pregunta. Además, las sesiones se hicieron en hogares, con control de cámaras y consignas para evitar señales involuntarias del dueño.
Un detalle importante: en los tests siempre había al menos ocho juguetes disponibles (los dos nuevos y otros conocidos de la casa). El azar no jugaba a favor. Cuando el dueño pedía uno, el perro podía errar por muchas razones, pero si acertaba sistemáticamente con los correctos, la conclusión era nítida: estaba extendiendo la etiqueta por función.
Lo que encontraron: palabras que viajan con la acción
Los perros eligieron el juguete correcto muy por encima del azar, con una media de 31 aciertos en 48 ensayos por perro, pese a que nunca habían oído esas etiquetas asociadas a esos juguetes. La estadística fue contundente, incluso con un criterio conservador (probabilidad de 1/8), los resultados se sostuvieron.
Cuando se equivocaban, no elegían de manera consistente el otro juguete nuevo de la pareja; más a menudo cogían uno viejo de la colección. No fue una simple estrategia de exclusión.
Esto sugiere que no decidían “por descarte” entre dos, sino que navegaban una escena con múltiples tentaciones, tirando de la memoria funcional de los juegos recientes.
La asignación aleatoria de formas y materiales a cada función en cada perro eliminó la coartada perceptiva. La apariencia no explicaba nada. En ese escenario, lo que define al juguete es cómo se usa con mi humano.

¿Por qué importa? Pistas sobre lenguaje, categorías y desarrollo
En niños, lo habitual es que primero agrupen por rasgos visibles y, más tarde, aprendan a extender palabras apoyándose en la función. Aquí vemos un eco de esa transición en perros dotados. No es que “hablen”, pero sí que sus palabras aprendidas parecen anclarse a una representación de acción.
La discusión de fondo es vieja: ¿el lenguaje crea categorías o las categorías permiten el lenguaje? Este estudio añade un ladrillo comparativo valioso.
Muestra que el aprendizaje natural de vocabulario puede ir de la mano de clasificaciones no perceptivas en una especie no lingüística, algo que solo se había visto tras entrenamientos intensivos en unos pocos individuos de otras especies.
Importa, además, la forma del aprendizaje: los perros adquirieron las etiquetas en juego cotidiano, no en mil ensayos de laboratorio. El contexto hace la diferencia. Y eso acerca estas observaciones al modo en que los niños incorporan palabras en casa: con ritmo, afecto y regularidad más que con instrucción formal.
Lo que aún no sabemos: alcance, jerarquías y mecanismos
La muestra es pequeña y muy selecta: los GWL son raros, así que no debemos generalizar al “perro medio”. El talento no es la norma. Falta probar si perros sin ese don pueden formar categorías funcionales con otros métodos y si el fenómeno aparece en más contextos y acciones.
Tampoco sabemos si construyen categorías jerárquicas (“juguetes de tirar” dentro de “juguetes de fuerza”, por ejemplo) o si su extensión de etiquetas se limita a pares concretos de acciones.
La arquitectura mental queda abierta. Y conviene separar qué hay de asociación reforzada y qué de representación conceptual de “para qué sirve”.
Cuando fallaron, a veces escogieron juguetes viejos quizá por recuerdos difusos de cómo solían jugar con ellos. Eso invita a explorar cuánto influye el historial de refuerzos, las preferencias individuales y lo social (el entusiasmo del dueño) en la toma de decisiones.

Hacia dónde apunta: ciencia comparada y vida cotidiana
A nivel científico, el trabajo abre un modelo comparativo potente: estudiar cómo el aprendizaje de etiquetas puede facilitar la categorización funcional en especies no lingüísticas. La pregunta ya no es si clasifican, sino cómo y bajo qué condiciones lo hacen.
Para la vida diaria, el mensaje no es “enseñe 200 nombres a su perro”, sino valorar que los rituales de juego construyen expectativas sobre lo que es un objeto. Si siempre tiramos de una cuerda, la cuerda pide tirar; si siempre lanzamos una pelota, la pelota pide correr tras ella.
La nota final es humilde y prometedora a la vez: con una mezcla de método y hogar, este estudio mostró que algunas palabras caninas se anclan en lo que se hace y no solo en lo que se ve. Y en ese cruce entre verbo y objeto hay una pista sobre cómo emergen las categorías, también fuera de nuestra especie.
Referencias
- Fugazza, C., Sommese, A., & Miklósi, Á. (2025). Dogs extend verbal labels for functional classification of objects. Current Biology. doi: 10.1016/j.cub.2025.08.013
La tumba de Tutankamón fue descubierta en 1922, pero un siglo después su figura sigue tan viva como entonces. No se trata solo del misterio que rodeó al “faraón niño”, sino del modo en que la ciencia, los mitos y los museos han mantenido encendida su llama. El joven monarca se convirtió en un icono mundial mucho más allá de su breve reinado.
Hoy sabemos que Tutankamón no fue un faraón especialmente poderoso en su tiempo, pero el hallazgo de su tumba intacta cambió la historia de la arqueología. A través de radiografías, análisis genéticos y restauraciones artísticas, los investigadores han descifrado fragmentos de su vida y su muerte, al tiempo que los medios construyeron relatos inolvidables sobre su figura. Y entre esas dos esferas —la ciencia y la ficción— se forjó un legado que aún atrapa al público.
La ciencia que desveló al faraón
Cuando Howard Carter encontró la tumba KV62, el cuerpo de Tutankamón estaba envuelto en misterio. Décadas más tarde, los avances médicos permitieron observar lo que los antiguos embalsamadores habían dejado atrás. Las tomografías y análisis de ADN revelaron que el faraón sufría enfermedades y deformidades físicas.
Los estudios identificaron malaria, una malformación en el pie izquierdo y problemas óseos que habrían limitado su movilidad. Se cree incluso que necesitaba bastones para caminar, varios de los cuales fueron hallados en su tumba.
Estas evidencias desmienten la imagen de un joven guerrero saludable y muestran un reinado marcado por la fragilidad corporal.
Además, los investigadores han debatido sobre las causas de su muerte. Algunas teorías apuntan a una infección tras una fractura, mientras que otras sugieren complicaciones de salud crónicas. Lo que parece seguro es que no murió en batalla, como se pensó durante décadas. La ciencia desmontó mitos tempranos y permitió construir una biografía más realista.

El mito que no quiso morir
A pesar de los datos médicos, la narrativa popular no tardó en generar su propia versión. La llamada “maldición del faraón” saltó a los titulares tras la muerte de varios miembros del equipo de Carter en circunstancias llamativas. Los periódicos alimentaron la idea de que Tutankamón vengaba la profanación de su tumba.
En realidad, los investigadores descartan hoy cualquier explicación sobrenatural. La mayoría de fallecimientos tuvieron causas médicas identificables, y no hay evidencia de toxinas o trampas mortales en la tumba. Sin embargo, el mito caló en la imaginación colectiva y convirtió a Tutankamón en una figura rodeada de misterio.
Ese cruce entre arqueología y cultura popular explica por qué un faraón poco destacado en su época alcanzó un estatus mítico. Su historia fue adoptada por el cine, la literatura y la prensa como un relato de aventuras, maldiciones y tesoros ocultos. La mezcla de ciencia y mito resultó imparable.
Tutankamón en los museos del mundo
El descubrimiento de 1922 no solo revolucionó la egiptología, también transformó la museología. El tesoro de Tutankamón, con más de 5.000 objetos, es uno de los conjuntos arqueológicos más famosos del planeta. Exposiciones itinerantes han llevado su ajuar funerario a millones de visitantes en todo el mundo.
Máscaras, joyas, carros, camas rituales y utensilios cotidianos revelan cómo el Antiguo Egipto combinaba lo sagrado con lo práctico.
Pero también reflejan cómo la modernidad consume el pasado: las piezas han sido presentadas en museos como iconos culturales, con tecnologías inmersivas y recreaciones digitales que buscan atraer a nuevas audiencias.
Hoy, el Gran Museo Egipcio de Giza prepara salas especiales para albergar el ajuar completo por primera vez. Allí, la ciencia de la conservación se mezcla con la espectacularidad museográfica. Tutankamón se ha convertido en un puente entre la historia antigua y la cultura global contemporánea.
Un legado inesperado
El joven faraón reinó apenas una década y murió en torno a los 19 años, pero su memoria sobrevivió al tiempo gracias a un hallazgo arqueológico único. La paradoja es clara: un monarca menor en su época se convirtió en el más célebre del Antiguo Egipto.
Su caso refleja cómo la ciencia puede desentrañar enigmas de miles de años, mientras el mito alimenta la fascinación popular. Entre el microscopio y la vitrina del museo, Tutankamón ha mantenido un lugar privilegiado en el imaginario colectivo. El legado del faraón niño no reside tanto en sus actos de gobierno, sino en lo que su tumba reveló al mundo. Ciencia, mito y cultura se entrelazan en una historia que sigue vigente un siglo después. Tutankamón no fue olvidado: se reinventó como símbolo eterno.

El hechizo eterno, Muy Historia 188
Tras días de expectación en el Valle de los Reyes, el 26 de noviembre de 1922, Howard Carter se asomó por el agujero practicado en la puerta sellada que conducía a la antecámara de la tumba de Tutankamón y contempló un tesoro de oro, madera y telas que no se había visto en más de tres milenios. Lord Carnarvon, el aristócrata mecenas de la excavación, preguntó: «¿Ve usted algo?», y el arqueólogo respondió con una frase que entraría en la leyenda: «Sí, cosas maravillosas». Aquel día no solo se abría el sepulcro del joven faraón, sino también un siglo de fascinación que aún hoy sigue deslumbrando al mundo.
Pero por potente que sea el hechizo de Tutankamón —aniversario, memoria, asombro—, esta revista multitemática navega también por otras épocas y fronteras. Cabalgamos con los comanches, superpotencia ecuestre que rehizo el mapa del suroeste de Estados Unidos. Aprendemos que la mafia no nació en el cine, sino en la desprotección, en códigos de clan y silencios convertidos en «Estado dentro del Estado». Escuchamos a Malinalli—la Malinche—pieza clave en la conquista y madre de una cultura nueva. Viajamos a París, cuando «libertad, igualdad, fraternidad» dejó de ser proclama para hacerse ley, entre clubes, tumultos y una Constitución que inauguró otro tiempo. Cruzamos el Ebro con el barro hasta la cintura y sintiendo el desgaste que anunció el fin de la resistencia republicana en la guerra civil española. Entramos en las casas y templos de Roma para comprender un mundo que pedía permiso a los dioses antes de segar, legislar o guerrear.
Y todavía nos queda viaje: Elcano circunnavegando, Tartessos refulgiendo, bárbaros sacudiendo fronteras y expedientes sobre Hitler. Que disfrutes cada página y no olvides que la Historia no se lee, se revive.
La tumba de la maldición
Tras siete años excavando en el Valle de los Reyes, la larga y hasta entonces estéril expedición de Howard Carter estaba a punto de colmar la paciencia de su mecenas, Lord Carnarvon. Pero el milagro sucedió y esa asociación de talento y dinero que comenzara en 1908 dio fruto el 4 de noviembre de 1922, cuando el arqueólogo británico descubrió la tumba de Tutankamón (designada como KV62), el mausoleo faraónico mejor conservado e intacto jamás encontrado allí. El hallazgo provocó la fiebre por la egiptología a comienzos del siglo xx e hizo correr ríos de tinta. Y por esas aguas negras de la prensa navegó también la sensacionalista noticia de que la tumba cargaba con una terrible maldición que caería sobre quien osara profanarla.
Por mucho que Howard Carter quisiera que el descubrimiento permaneciese en el ámbito de lo arqueológico, se convirtió en un enorme espectáculo mediático. El público, inmerso en una auténtica «tutmanía», demandaba su dosis diaria de faraón y, mientras el Times de Londres se alimentaba con noticias frescas a pie de tumba (tenía la exclusiva), el resto de la prensa tuvo que buscarse la vida o directamente «inventársela».
Sigue leyendo este artículo en la edición impresa o digital.
Reportajes
- La tumba, la maldición, la prensa, por Cristina Enríquez
- Una tumba repleta de misterios, por Ángel Fuentes Ortiz
- El « Imperio» comanche, por Guillermo Soto
- Expediente Hitler, por Cristina Enríquez
- Malinche, por Alberto Porlan
- Juan Sebastián Elcano, por Javier Diéguez
- Ebro: El combate que había que ganar, por Roberto Piorno
- Tartessos, el enigma ibérico, por Alberto Porlan
- La religión en Roma, por Alberto Fernández Ordóñez
- Orígenes de la mafia, por Manuel Cortés
- Germanos. ¡Al ataque!, por Juan Carlos Losada
- Libertad, igualdad, fraternidad, por Sandra Pedrera
Secciones
- Historias de la filosofía, por Jorge De Los Santos
- Entrevista: Paloma Sánchez-Garnica, por Carmen Castellanos
- Mujeres: Henele von Druskowitz, por Sandra Ferrer
- Biblioteca

En el corazón de Moravia, en la actual República Checa, un hallazgo arqueológico singular ha permitido reconstruir la vida cotidiana de un individuo que vivió hace unos 30.000 años, en pleno Paleolítico superior. En el yacimiento de Milovice IV, un equipo internacional de especialistas ha localizado un pequeño conjunto de herramientas líticas cuidadosamente agrupadas. Estas piezas, fechadas entre 30.250 y 29.550 años calibrados antes del presente, se han interpretado como el equipamiento personal utilizado por un cazador-recolector del periodo Gravetiense.
El estudio, publicado en 2025 en el Journal of Paleolithic Archaeology, constituye un avance extraordinario en la arqueología paleolítica. Además de permitir vislumbrar la tecnología de estos grupos, también ha proporcionado datos de primera mano sobre las estrategias de movilidad, subsistencia y economía empleadas por un individuo concreto.

El hallazgo de Milovice IV
El yacimiento de Milovice IV se ubica en el sur de Moravia, cerca de las colinas de Pavlovské vrchy. Forma parte de un complejo de enclaves gravetienses célebres por su riqueza arqueológica, como Dolní Věstonice o Pavlov. Durante la campaña de excavación de 2021, los arqueólogos identificaron una estratigrafía compleja con tres horizontes arqueológicos, de los cuales el segundo (AH II) ofreció los materiales analizados.
Dentro de este horizonte, los arqueólogos identificaron un conjunto de 29 hojas y laminitas de sílex y radiolarita, algunas retocadas y otras no, que se encontraban dispuestas juntas y alineadas. La disposición sugiere que, en origen, se guardaron en un contenedor confeccionado con un material perecedero, quizás una bolsa o carcaj de cuero o fibras vegetales.
El análisis del contexto estratigráfico y las dataciones por radiocarbono permitieron confirmar que este equipo se había depositado en un lapso temporal de corta duración. Esto convierte el conjunto en un testimonio fiel de las actividades realizadas por un único individuo.

Los materiales y su procedencia
La determinación del origen geológico de las materias primas constituye uno de los aspectos más reveladores del estudio. La mayoría de los artefactos se elaboraron con sílex glaciar transportado desde más de 130 km al norte, en las regiones de Moravia y Silesia. Otros estaban hechos con radiolaritas del cinturón de Pieniny, en la actual Eslovaquia occidental. Se identificaron también ejemplares aislados de ópalo y sílex local procedente de gravas carpatinas.
Esta diversidad demuestra que el cazador-recolector bien lograba conseguir objetos gracias a su amplio radio de movilidad, bien accedía a ellos mediante el intercambio y las redes de contacto. El “kit”, por tanto, refleja tanto la autonomía individual como la integración en un sistema social más amplio de circulación de materiales y saberes.
Una tecnología eficiente para la supervivencia
El conjunto está formado por hojas completas, fragmentos y microlitos retocados, entre ellos microlitos, puntas bilaterales y laminillas con retoques marginales. Se trata, pues, de formas típicas del Gravetiense medio y tardío en Europa central, empleadas, sobre todo, como armaduras de proyectiles o elementos de herramientas compuestas.
Curiosamente, el kit no estaba compuesto por piezas nuevas, sino por elementos reutilizados, fracturados y reciclados, lo que sugiere una gestión cuidadosa de los recursos. Incluso se conservaron y reaprovecharon pequeños fragmentos y esquirlas que pudieron haberse insertado en mangos de madera o hueso. Esta tendencia a economizar al máximo los materiales se ha interpretado como una estrategia de supervivencia durante expediciones en territorios donde escaseaban las rocas aptas para la talla.
Funciones y usos: un kit polivalente
El análisis traceológico realizado en laboratorio reveló huellas de uso en 25 de los 29 artefactos. Algunos presentaban fracturas típicas de proyectiles, con microestrías y signos de impacto compatibles con su empleo como armas arrojadizas. Otros exhibían pulimentos y desgastes asociados a las actividades de corte, raspado, perforación y descarnado.
Las herramientas se utilizaron sobre materiales blandos, medios y duros, desde pieles y madera hasta hueso. Todo ello parece confirmar que este “kit” acompañaba al cazador en tareas esenciales para la supervivencia: la caza, el despiece de las presas y la preparación de los recursos vegetales. Se trata, por tanto, de un equipamiento personal diseñado para hacer frente a una amplia gama de necesidades prácticas.

Economía de recursos y movilidad
El pequeño tamaño de las piezas, así como su naturaleza fragmentaria o incluso las huellas de fuego, indican que el cazador practicaba una estrategia económica consciente de conservación y reciclaje. Se trataba, pues, de un conjunto de instrumentos y herramientas usadas regularmente durante los desplazamientos.
Este detalle sugiere que las piezas del kit se reunieron y renovaron durante los recorridos de caza o las migraciones, cuando el acceso a nuevas materias primas podía resultar dificultoso. Una vez de regreso a un gran campamento como Milovice IV, bien abastecido de sílex, el cazador probablemente descartó el kit junto con su contenedor.
Un testimonio de la vida individual
El hallazgo de Milovice IV resulta excepcional porque, a diferencia de los grandes asentamientos gravetienses que han proporcionado cientos de herramientas, aquí se conserva el equipo de una sola persona, casi como si se hubiera congelado en el tiempo. Esto permite estudiar las decisiones técnicas personales, la movilidad y la vida cotidiana de un individuo del Paleolítico superior. El kit ilustra una concepción práctica del mundo en la que cada herramienta se aprovechaba al máximo.

La flexibilidad y la portabilidad como claves
El “kit de supervivencia” hallado en Milovice IV revela las actividades de un cazador-recolector gravetiense que, hace 30.000 años, recorrió los paisajes europeos en busca de caza y materias primas. Su equipo personal, compuesto por fragmentos de piedra, puntas y hojas reutilizadas, muestrta una estrategia de adaptación ingeniosa y pragmática.
Este descubrimiento confirma que la vida paleolítica también puede comprenderse gracias a los hallazgos más modestos. Milovice IV nos recuerda que, hace decenas de miles de años, cada cazador llevaba consigo un conjunto versátil de herramientas que le aseguraban la supervivencia en un mundo impredecible.
Referencias
- Chlachula, Dominik, et al. 2025. "Tracking the Hunter: A Study of the Personal Gear of a Gravettian Hunter-Gatherer from Milovice IV". Journal of Paleolithic Archaeology, 8.1: 1-21. DOI: https://doi.org/10.1007/s41982-025-00228-z
Con motivo del lanzamiento del libro Editando genes: recorta, pega y colorea. Las maravillosas herramientas CRISPR (Pinolia, 2025, de Lluís Montoliu, se va a compartir íntegramente uno de sus capítulos más representativos. Esta obra ofrece una guía clara y accesible sobre la revolución que han supuesto las herramientas CRISPR en biología, medicina y biotecnología. Montoliu, investigador del CSIC y pionero en la aplicación de estas técnicas en España, combina en sus páginas la explicación de los avances científicos con un análisis de sus limitaciones y de los dilemas éticos que plantean
El capítulo compartido refleja el espíritu divulgativo del libro, que aborda con rigor y equilibrio tanto las extraordinarias posibilidades de la edición genética como los retos que aún quedan por resolver. Con 416 páginas y el aval de una trayectoria investigadora reconocida internacionalmente —premiada recientemente con el COSCE (2022), el Fundación Muy Interesante (2024) y el CSIC-Fundación BBVA (2024)—, Montoliu invita al lector a comprender de forma realista qué podemos esperar de esta revolución científica. Una oportunidad única para acceder a un fragmento de referencia de una obra esencial para el debate sobre el futuro de la manipulación genética
El capítulo completo
Las bacterias (y las arqueas, los procariotas en general) han evolucionado durante mucho tiempo, inventando y optimizando sistemas para zafarse de la infección por virus o de la entrada de plásmidos inoportunos provenientes de otras bacterias. Los sistemas CRISPR son parte de un mecanismo extraordinariamente sofisticado del cual apenas empezamos a comprender algunas funciones. Su elevado grado de presencia y conservación en prácticamente todos los grupos de procariotas (parecía que las clamidias eran las únicas bacterias sin sistemas CRISPR, pero finalmente en 2016 se identificaron también en ellas) hace pensar que son funcionalmente relevantes, con mucha probabilidad indispensables para otras tareas, todavía muchas por descubrir.
En efecto, nos equivocaríamos si pensáramos que estos sistemas CRISPR solo sirven en los procariotas como parte de un sistema inmunitario adaptativo. Sabemos ya que cumplen otras funciones dentro de las bacterias relacionadas con la estructura del ADN, la regulación de la expresión de genes, la regulación de genes de virulencia, la remodelación del genoma, la reparación del ADN, la regulación de la latencia celular, la formación de cuerpos fructíferos, etc. Por ello no deberíamos desdeñar ni menospreciar a las bacterias y su característica capacidad de adaptarse a casi cualquier medio ambiente. Gran parte de lo que sabemos de biología molecular y una buena parte de los trucos y tretas genéticas que aplicamos en ingeniería genética se los debemos a las bacterias.
Por ejemplo, algunas bacterias patógenas usan sus sistemas CRISPR para inhibir la formación de biofilms (tapetes, biopelículas o ecosistemas bacterianos organizados) o el desplazamiento en grupo que acontece en algunas especies de Pseudomonas cuando son infectadas por un fago determinado, tal y como Heussler y sus colaboradores publicaron en 2015.
La evolución tampoco funciona en las bacterias de forma aislada. La bacteria captura un fragmento del virus o del plásmido y se lo guarda en su genoma, como carné de identidad del atacante, para reconocerlos cuando intenten volver a acceder a la célula y recibir los sin contemplaciones (cortando el genoma invasor en pedacitos, gracias a la endonucleasa Cas9). Pero el virus (o el plásmido) también tiene interés en evolucionar, en cambiar algo su secuencia, para no ser reconocido exactamente por los ARN de pequeño tamaño que derivan de las copias de los espaciadores que lleva la bacteria. Cada espaciador reconoce un virus o un fragmento del genoma de un virus o un plásmido diferente. Por eso, si la secuencia genética del virus cambia, no hay reconocimiento y el viruslogra evitar la andanada de defensa, en parte, dado que rápidamente el sistema CRISPR detectará que se trata de un nuevo invasor y lo troceará, reservando fragmentos seleccionados como recordatorio para posteriores visitas. Así pues, las bacterias y los virus coevolucionan, las unas desarrollando sistemas de defensa cada vez más sensibles y los otros desarrollando maneras de evitarlos.
Ahora entendemos por qué los sistemas CRISPR-Cas9 no pueden ser biológicamente perfectos y permiten cierta indeterminación en la detección de las secuencias de genomas invasores (variable según la posición de la secuencia de reconocimiento, que debe ser exquisita cerca de la zona de corte pero que puede relajarse un poco más en zonas más distales). Con esta detección de secuencias de ADN que permite una cierta flexibilidad, las bacterias se anticipan a que el virus mute y cambie su secuencia. Si los cambios no son demasiado importantes ni ocurren en las secuencias de reconocimiento clave, la bacteria los seguirá reconociendo. Evidentemente, los virus tienen especial interés en que, si mutan, las bacterias dejen de reconocerlos. Y esta batalla continúa desde el origen de los tiempos, sin final.

Se calcula que en nuestro planeta hay 1030 bacterias. Eso son muchas bacterias. Es un 1 seguido de 30 ceros, algo así como un billón de trillones de bacterias. Esta cifra parece imbatible. Pues bien, de bacteriófagos o fagos, los virus de las bacterias, todavía hay más, por lo menos diez veces más. Son la entidad biológica más numerosa sobre la faz de la Tierra. Por eso, si necesitamos variedad y diversidad, busquémosla entre los bacteriófagos. Allí, entre ellos, encontraremos de todo. Cualquier sistema que la evolución haya podido inventar y probar, por raro que parezca, lo hallaremos seguro entre esos virus.
Por eso no sorprende darse cuenta de que existen virus con talento. Fagosque han capturado todo un sistema CRISPR de alguna de las bacterias que han infectado, lo han incorporado en su genoma y lo han convertido en su arma de defensa específica, que ahora ataca a los sistemas de defensa bacterianos hasta evadirlos. ¡El sistema CRISPR se vuelve contra su creador! Este sorprendente hallazgo se reportó en febrero de 2013 en la revista Nature. En julio de 2020, el laboratorio de Jennifer Doudna reportó un ejemplo todavía más sorprendente. Un sistema CRISPR presente en unos virus bacterianos enormes que había evolucionado para atacar a otros virus competidores que también infectaban a la misma bacteria. La proteína Cas que usan estos virus (Cas-Phi) es mucho más pequeña que las Cas9 habituales y, por ello, resulta potencialmente interesante para su uso en terapia génica, donde siempre es difícil encajar genes de gran tamaño en los vectores virales habituales.
Otro caso de fagos sorprendentes que logran controlar un sistema CRISPR es el que descubrió a principios de 2017 en la bacteria Lysteria monocytogenes un equipo de investigadores de la Universidad de California en San Francisco. Localizaron cepas de esta bacteria que tenían integrado un profago (el genoma del fago entero insertado en el genoma de la bacteria) e incluían un gen cuyo producto codificado inhibía la funcionalidad de la endonucleasa Cas endógena. Los investigadores dieron con estos casos imaginando su existencia e intentando buscar en aquellas bacterias con sistemas Cas activos y espaciadores con secuencias homólogas al propio genoma, que normalmente deberían propiciar la autodigestión y desaparición de la bacteria pero que, si se mantenían, razonaron, debía de ser por la existencia de algún sistema inhibidor que impidiera la actividad de la proteína Cas, como así descubrieron. Además, comprobaron que estos inhibidores podían usarse para bloquear la actividad de otras proteínas Cas, como la proteína Cas9 de Streptococcus pyogenes, utilizada en la mayoría de los experimentosde edición genética. Este hallazgo, posteriormente confirmado por investigadores chinos, abre la puerta a la regulación fina del proceso de edición genética, combinando diferentes cantidades de nucleasa Cas y del inhibidor anti-Cas.
Y los campeones de todos los virus son los mimivirus, unos virus gigantes que infectan a protozoos como las amebas (pueden llegar a tener 500 nanómetros de diámetro, mientras que un bacteriófago tipo mide unos 20 nanómetros, 25 veces menos) que, a su vez, pueden ser infectados por otros virus, llamados virófagos, de los que se tienen que defender y, para ello, usan una estrategia de capturar secuencias de ADN de estos elementos invasores que incorporan en una zona de su genoma, reminiscente pues del sistema CRISPR bacteriano, aunque sin serlo. Sensu stricto no tiene una agrupación característica CRISPR, pero sí repeticiones, aunque lo que se repite es la secuencia diana del virófago. Lo conocimos en 2016.
Hay muchos tipos de sistemas CRISPR en procariotas, aunque pueden agruparse en dos clases principales. Los sistemas CRISPR de clase 1 cortan todos ADN. Algunos, además, cortan ARN como prerrequisito para cortar ADN y todos necesitan múltiples proteínas Cas para realizar su función y una guía de ARN. Por el contrario, los sistemas CRISPR de clase 2 esencialmente cortan ADN (aunque algunos tipos cortan en cambio ARN) y solo requieren una proteína (la prototípica es Cas9) para realizar las funciones de reconocimiento de diana y corte, en combinación con pequeñas moléculas de ARN que actúan como guías. Para las otras etapas del proceso en bacteriassiguen requiriendo otras proteínas Cas. A su vez, cada clase está subdividida en varios tipos, cuyo número va en aumento, como va reportándose en sucesivas revisiones de los mayores expertos microbiólogos en el campo, que publican sus propuestas de clasificación de los sistemas CRISPR de forma conjunta. La última revisión disponible, de 2019, detalla dos clases de sistemas CRISPR (clase 1 y clase 2) y tres categorías en cada una de ellas. Sistemas CRISPR de tipo I, III y IV , dentro de la clase 1, y sistemas CRISPR de tipo II, V y VI dentro de la clase 2. Naturalmente, los sistemas CRISPR de clase 2 son los más interesantes como herramientas de edición genética en el resto de los organismos, en eucariotas, fuera del contexto de la bacteria, pues tan solo necesitamos una proteína (Cas9 o su equivalente en cada especie) y una guía de ARN para acometer las actividades de reconocimiento de diana y corte.

Que sean los más interesantes para nosotros no quiere decir que también lo sean para las bacterias. Una de las bacterias más conocidas y famosas, Escherichia coli, que vive en el tracto instestinal de los animales, parece que solo tiene sistemas CRISPR de clase I, que no está presente en todas las cepas. Además, todas las cepas silvestres analizadas de esta bacteria portadoras de sistemas CRISPR los tienen inhibidos, en condiciones de crecimiento de laboratorio.
¿Para qué otras aplicaciones han servido los sistemas CRISPR en bacterias? Pues durante muchos años sirvieron para spoligotyping (espoligotipaje), para identificar especies y cepas dentro de cada especie de bacteria, simplemente contabilizando el número de espaciadores (variable, se han observado hasta casi 600 espaciadores en una misma cepa de bacterias) y las secuencias que contenían. El espoligotipaje ha seguido utilizándose hasta fecha reciente, aplicándose para muchas bacterias que pueden convertirse en un problema por su potencial patogenicidad (Escherichia coli, Shigella spp., Salmonella spp., Campylobacter jejuni, Legionella pneumophila, Streptococcus spp., Yersinia pestis, Erwinia carotovora, etc.), como atestigua una revisión publicada por Shariat y Dudley en 2014.
La confirmación experimental de que podía manipularse la sensibilidad o infectividad de bacterias frente a determinados fagos, realizada por Rodolphe Barrangou y colaboradores en 2007 y repor tada en Science un par de años después de que Mojica propusiera la implicación de los sistemas CRISPR en la inmunidad bacteriana frente a fagos, destapó nuevas aplicaciones en el sector alimentario. Puede ser interesante proteger los fermentos bacterianos que se usan en procesos industriales de fermentación de alimentos, introduciendo en esas bacterias resistencias a ser infectadas por determinados fagos mediante CRISPR (introduciendo espaciadores con fragmentos del genoma del fago cuya infección queremos evitar). De esta manera se garantiza que el proceso de fermentación seguirá sin riesgos para las bacterias, que ya no podrán ser atacadas por esos virus.
También se han utilizado los sistemas CRISPR en bacterias para clonar, para utilizarlas como herramientas de ingeniería genética que permitan obtener complejas construcciones génicas y, por supuesto, también para editar genes del propio genoma bacteriano, promoviendo cambios específicos en determinados genes de la bacteria, como demostró Luciano Marraffini, uno de los pioneros de este campo, ya en 2013.
Si pensamos en una utilidad de los sistemas CRISPR que tuviera gran impacto en biotecnología microbiana y en salud (humana y animal), probablemente la más relevante tendría que ver con la capacidad de alterar y controlar la resistencia de las bacterias a los antibióticos, un enorme problema sanitario en expansión para el que se nos acaban las soluciones y las armas para contrarrestarlo.
La mayor parte de las resistencias conocidas a antibióticos se localizan en plásmidos, moléculas de ADN circulares episomales (independientes del genoma principal) que las bacterias pueden adquirir de otras y compartir fácilmente. El uso inadecuado (cuando no corresponde, por ejemplo, en infecciones causadas por virus, no por bacterias) y excesivo (administrando o consumiendo más dosis y durante más tiempo del estrictamente necesario) de los antibióticos favorece la aparición de individuos resistentes entre los millones que forman cualquier colonia bacteriana. Y estas bacterias superresistentes pueden llegar a acumular plásmidos o resistencia a casi todos, o a todos, los antibióticos conocidos. Llegados a este punto, una infección por una de estas superbacterias podría tener consecuencias fatales, al carecer de armas efectivas con las que luchar para eliminarla.
Sin embargo, podríamos desarrollar una estrategia CRISPR dirigida a cortar y eliminar secuencias de ADN específicas presentes en esos plásmidos de resistencia, para que la bacteria resultante, ya sin el plásmido, volviera a ser sensible al antibiótico cuya resistencia venía codificada en el plásmido. Este tipo de abordajes se engloban dentro del campo de la inmunidad programable, que es uno de los temas que siempre le interesó a Francis Mojica y el que pensó que sería la aplicación fundamental de las CRISPR (antes de que acabara convirtiéndose en una herramienta de edición genética). Dentro de este campo también tiene cabida modificar la capacidad de infectividad de bacterias por virus, incluyendo o eliminando espaciadores con secuencias de ADN de bacteriófagos según quiera promoverse su resistencia o sensibilidad a la infección. O incluso interfiriendo con la estabilidad de transposones, dirigiendo una estrategia CRISPR a secuencias específicas del elemento transponible o del gen de la transposasa encargada de todo ello.
Uno de los primeros ejemplos de sistemas antimicrobianos basados en estrategias CRISPR lo desarrolló el grupo de Marraffini, demostrando en 2014 que era posible vehicular un sistema CRISPR completo dentro de un bacteriófago para que eliminara específicamente los genes de virulencia de una cepa de Staphylococcus aureus, dejando intactos a los individuos de la colonia bacteriana que no los tenían.
Rodolphe Barrangou acaba de revisar las diversas posibilidades de estos sistemas de edición en las propias bacterias, dirigiendo los cortes específicos a genes presentes en plásmidos o en el genoma principal de la célula. Efectivamente, existen bacterias en las que se han identificado espaciadores CRISPR con secuencias homólogas a otros genes endógenos de la propia bacteria, lo cual las llevaría al suicidio al promover el corte de su propio cromosoma. Sin embargo, en todos estos casos, se observa que el sistema CRISPR ha quedado inactivado por alguna mutación, frecuentemente en los genes de las proteínas Cas, que impide completar el proceso de digestión y per mite a la bacteria convivir con esta bomba de relojería desactivada. Se cree que las bacterias a veces «se equivocan» y obtienen fragmentos de ADN de su propio genoma por error para incorporarlos como nuevos espaciadores en el locus CRISPR. En estos casos, la única posibilidad que tiene la bacteria de sobrevivir es que aparezca algún mutante en el sistema CRISPR que lo inhabilite e impida su autodigestión. En otros casos se fuerza una selección de mutacionesen la secuencia diana. CRISPR actuaría entonces como un mecanismo para acelerar la evolución, forzando una selección de mutantes en secuencias propias para las que hubiera adquirido algún espaciador, para evitar autodigerirse.
Todo esto nos podría parecer algo raro y un problema, con nuestra mentalidad de eucariotas, de mamíferos, pero como me suele recordar Francis, «las bacterias, Lluís, siempre ganan; el individuo no importa, lo que importa es la comunidad». En cualquier colonia bacteriana hay decenas o centenares de millones de células, acumulando variaciones genéticas, mutaciones espontáneas, al azar, muchas letales y no productivas, otras interesantes, listas para ser seleccionadas cuando haga falta, en la dirección que haga falta, cuando el entorno así lo requiera.
Por lo tanto, el trasiego de espaciadores homólogos a ADN cromosomales de una bacteria, incorporados por ejemplo a través de un bacteriófago, puede promover su eliminación efectiva y selectiva en poblaciones bacterianas complejas. Los sistemas CRISPR-Cas de tipo I son especialmente útiles para ello, pues incorporan proteínas como la Cas3, con actividad exonucleasa, capaz de digerir y eliminar miles de nucleótidos a partir del corte de doble cadena inicialmente inducido por el sistema en la secuencia diana, lo cual lleva también a la muerte de la célula.
En los próximos años veremos una evolución de todas estas estrategias antimicrobianas en las que se explorará cuáles son mejores y más robustas. A pesar de que podríamos pensar que solo necesitamos introducir espaciadores contra las secuencias que queramos eliminar, contando con las proteínasCas endógenas que se encargarían de completar el proceso, no siempre es posible usar los sistemas propios, que pueden estar inactivos o inactivados. Las mejores propuestas pasan por introducir en la bacteria que se quiere modificar un sistema completo CRISPR, con sus repeticiones, sus espaciadores específicos y sus genes Cas necesarios para completar el reconocimiento y digestión específica de secuencias. Y los mejores vectores para transferir sistemas CRISPR completos son los bacteriófagos, cuya limitación principal es el rango de bacterias que pueden infectar. No todos los fagos infectan a todas las bacterias.
El uso de los sistemas CRISPR como antimicrobianos tiene la ventaja de la especificidad de la secuencia de ADN a la que se dirige. Al ser más selectivo, permite identificar con precisión qué bacterias eliminar (las que llevan genes de virulencia o las que portan un plásmido de resistencia a un determinado antibiótico) y dejar las demás, que pueden ser beneficiosas, intactas. Esto último tiene otros beneficios desde el punto de vista de la ecología bacteriana, pues al no eliminar todas las bacterias de una colonia permite al sistema reorganizarse. Uno de los errores que frecuentemente cometemos al luchar contra infecciones bacterianas es usar antibióticos inespecíficos o de amplio espectro, que eliminan la práctica totalidad de bacterias del cuerpo, por ejemplo de nuestros intestinos, y que deben ser reemplazadas por otras, con lo que se corre el riesgo de que las que se incorporen posteriormente no realicen la misma función beneficiosa que las primeras y nuestra microbiota (el conjunto de bacterias que conviven en nuestro cuerpo) resulte alterada y esto conlleve consecuencias patológicas de variada índole, como alteraciones en nuestro metabolismo, en nuestro estado de salud general o incluso en nuestro comportamiento.
En un futuro no muy lejano, es probable que podamos usar estrategias CRISPR para cambiar algunas características de nuestra microbiota y mejorar la digestibilidad de determinados productos alimentarios, favorecer la absorción de nutrientes beneficiosos o impedir la absorción de metabolitos problemáticos empaquetando en fagos sistemas CRISPR completos junto con las secuencias de genes que confieren todas esas nuevas características para integrarlos de forma estable en el genoma principal de la bacteria o en alguno de sus plásmidos. Las posibilidades son infinitas, como infinita es la imaginación de los investigadores para desarrollar aplicaciones basadas en los sistemas CRISPR que vayan encaminadas directamente a interaccionar, eliminar, modificar o cambiar las propiedades de las bacterias que nos acompañan, y con quienes estamos obligados a convivir, para lo bueno y para lo malo.

En 1936, un grupo de investigadores descubrió en la cueva Rampart, cerca del lago Mead (Estados Unidos), una pila de más de seis metros de excrementos fosilizados, junto con restos de guano de murciélago y nidos de roedores. Aquel insólito cúmulo de desechos pertenecía a un antiguo perezoso terrestre. Lo que parecía solo un hallazgo curioso, décadas después resultaría crucial para reconstruir la historia evolutiva de estos animales desaparecidos.
Un estudio publicado en Science revela que esa montaña de heces es solo uno de los muchos fragmentos de un rompecabezas que científicos han reunido para comprender cómo, cuándo y por qué los perezosos gigantes alcanzaron tamaños descomunales y terminaron extinguiéndose. Combinando ADN antiguo, fósiles de 17 museos y modelos evolutivos, el equipo trazó la historia de estas criaturas desde sus orígenes hasta su ocaso. La clave de su éxito y caída está estrechamente ligada a los cambios ambientales, al clima y a su sorprendente capacidad para adaptarse… hasta que ya no pudieron hacerlo más.
Gigantes que dominaron América
Hoy en día, los perezosos son animales pequeños y lentos que pasan su vida colgados de los árboles. Pero su pasado fue muy distinto. Algunas especies extinguidas, como el Megatherium, alcanzaban tamaños comparables a los de un elefante asiático, con una masa de más de 3 toneladas. Lejos de trepar árboles, estos colosos recorrían sabanas, montañas y desiertos a paso firme, y eran capaces de alcanzar las hojas más altas con sus enormes lenguas, del mismo modo que lo hacen las jirafas.
No todos los perezosos antiguos eran gigantes. Mientras los más pequeños vivían en el dosel de los bosques, los medianos y grandes adoptaron estilos de vida terrestres o mixtos. Las diferencias de tamaño entre los perezosos han estado influenciadas principalmente por los hábitats en los que vivieron y, por extensión, por el cambio climático. Esto sugiere que el entorno no solo moldeó su cuerpo, sino también su modo de vida y sus posibilidades de supervivencia.
Rachel Narducci, del Museo de Historia Natural de Florida, lo resume así: "Incluyendo todos estos factores y ejecutando modelos evolutivos con múltiples escenarios diferentes, fue una tarea importante que no se había hecho antes". Esa combinación de datos permitió establecer una cronología detallada de cómo cambiaron estos animales a lo largo de más de 35 millones de años.

Una evolución marcada por el clima
El equipo identificó al Pseudoglyptodon como el primer ancestro reconocible de los perezosos, que vivió hace 37 millones de años en lo que hoy es Argentina. Desde entonces, su historia ha estado marcada por las oscilaciones del clima terrestre. Durante más de 20 millones de años, los perezosos mantuvieron tamaños relativamente estables, sin importar si eran trepadores o caminadores. Pero eso cambió drásticamente con un evento geológico de enormes proporciones.
Una gran erupción volcánica, que liberó magma durante 750.000 años, cubrió de lava una vasta extensión del actual noroeste de Estados Unidos y provocó un periodo de calentamiento global conocido como Óptimo Climático del Mioceno Medio. Este episodio dejó una huella visible aún hoy: columnas hexagonales de basalto en las orillas del río Columbia. Según los investigadores, el aumento de la temperatura y las lluvias expandió los bosques y favoreció la aparición de perezosos más pequeños, mejor adaptados a la vida arbórea.
Sin embargo, el enfriamiento que siguió produjo el efecto contrario. A medida que descendían las temperaturas, los perezosos aumentaban de tamaño, probablemente para conservar el calor corporal y adaptarse a entornos más duros. Esta relación directa entre clima y tamaño corporal ha sido documentada en otros animales, pero en los perezosos resulta especialmente evidente a lo largo de su evolución.
Cazadores lentos, excavadores poderosos
Uno de los hallazgos más llamativos del estudio es el uso que hacían estos animales de su entorno. Lejos de ser torpes o inadaptados, los perezosos terrestres sabían aprovechar los recursos naturales y modificar el paisaje a su favor. El Nothrotheriops shastensis, por ejemplo, utilizaba pequeñas cuevas naturales en el Gran Cañón no solo como refugio, sino también como letrina comunitaria. Por otro lado, las especies más grandes excavaban sus propias cuevas usando garras tan grandes que aún hoy se conservan marcas visibles en las paredes interiores de algunas de ellas.
Este comportamiento revela que la fuerza y el tamaño tenían una función más allá de la defensa. Les permitía acceder a recursos, evitar depredadores y soportar mejor condiciones extremas. Además, algunas especies desarrollaron adaptaciones sorprendentes: los perezosos marinos del género Thalassocnus tenían costillas densas para regular la flotación y hocicos alargados para alimentarse de hierbas marinas, características similares a las de los manatíes.
La flexibilidad ecológica fue clave para su supervivencia durante millones de años. Habitaron desde bosques tropicales hasta zonas áridas costeras, pasando por montañas andinas y regiones boreales. En palabras de Narducci, "esto les habría permitido conservar energía y agua, y desplazarse con más eficiencia por hábitats con recursos limitados".

ADN, fósiles y una montaña de heces
Para responder a las incógnitas sobre la evolución del tamaño en los perezosos, los autores del estudio utilizaron una combinación poco habitual: más de 400 fósiles procedentes de 17 museos, análisis de ADN antiguo y modernos modelos evolutivos. A esta enorme base de datos se sumaron estudios previos sobre dieta, locomoción y distribución geográfica.
El papel del Museo de Historia Natural de Florida fue decisivo. Su colección de perezosos norteamericanos y caribeños es la más grande del mundo. Narducci midió 117 huesos de extremidades para estimar el peso de diferentes especies y establecer patrones comparativos. Gracias a esa información, fue posible crear un “árbol genealógico” que reconstruye más de 35 millones de años de evolución.
Todo ese esfuerzo científico parte, en parte, de un detalle tan inesperado como revelador: una enorme acumulación de heces fosilizadas. Aquella montaña en la cueva Rampart no solo conserva restos de excrementos, sino también de guano y materiales vegetales, lo que permite estudiar la alimentación y el ambiente de aquellos animales. Lo que una vez fue solo desecho, hoy es una fuente insustituible de conocimiento científico.
La caída de los titanes
A pesar de su adaptabilidad, los perezosos gigantes no sobrevivieron al último gran cambio: la llegada de los humanos. Hace unos 15.000 años, coincidiendo con la expansión de Homo sapiens en América del Norte, muchas especies de perezosos comenzaron a desaparecer en masa. Su gran tamaño, que antes les daba ventaja, se convirtió en un punto débil: no eran rápidos ni estaban bien armados para defenderse de cazadores coordinados.
El estudio señala que "alrededor de hace 15.000 años es cuando realmente empieza la desaparición". Los pocos que sobrevivieron, como los perezosos arborícolas del Caribe, desaparecieron unos 10.000 años después, justo cuando en Egipto comenzaban a construirse las pirámides.
Este desenlace plantea preguntas incómodas sobre el papel de los humanos en la extinción de especies y sobre cómo los cambios climáticos aceleran procesos de desaparición. Pero también ofrece una advertencia para el presente: adaptarse no siempre es suficiente cuando las transformaciones del entorno son demasiado rápidas o intensas.
Referencias
- Alberto Boscaini, Daniel M. Casali, Néstor Toledo, Juan L. Cantalapiedra, M. Susana Bargo, Gerardo De Iuliis, Timothy J. Gaudin, Max C. Langer, Rachel Narducci, François Pujos, Eduardo M. Soto, Sergio F. Vizcaíno, Ignacio M. Soto. The emergence and demise of giant sloths, Science, 22 de mayo de 2025. DOI: 10.1126/science.adu0704.
En un momento en que la industria automotriz se debate entre lo puramente tecnológico y lo experiencial, CUPRA ha decidido emprender “un nuevo viaje a lo desconocido” con su showcar Tindaya, revelado en la IAA de Múnich 2025. Este enfoque no es un simple ejercicio de estilo: es una declaración de intenciones que sitúa al conductor en el epicentro de una interacción más visceral y sensorial con el coche. Lo que comenzó como un experimento creativo, hoy apunta a marcar el rumbo de la marca para los próximos años.
Durante 15 meses de trabajo —entre experimentación, prototipado, exploración de texturas y tecnologías emergentes— los equipos de diseño de CUPRA han perseguido una ambición: trascender la división digital‑analógica y reconectar con lo físico, lo táctil, lo emocional. Tal como explican sus responsables de diseño, el Tindaya es una reafirmación del lema “no drivers, no CUPRA”: sin conductor, no hay marca. Por ello, cada elemento interior y exterior ha sido concebido para estar alineado con ese propósito, eliminando distracciones y enfatizando la experiencia directa.
Así es el prototipo volcánico que CUPRA acaba de presentar, y que marca una nueva era para el diseño emocional en la movilidad eléctrica.
Este viaje hacia lo desconocido no habla solo de estética. La marca introduce tres grandes conceptos que definen el carácter del Tindaya: Origen, Vivo y Transformación. Porque más allá de exhibir superficies futuristas, este showcar quiere “respirar”, responder al tacto, mutar en su apariencia y transmitir vida incluso cuando está parado. No es un capricho visual: es un manifiesto de cómo entiende CUPRA la evolución del automóvil del mañana.
Pero no basta con soñar: detrás del Tindaya hay decisiones técnicas, desafíos materiales, innovación aplicada y visión de mercado. En este artículo desglosaremos esas claves: cómo integran diseño y tecnología, cuál es el papel de los materiales y de las superficies parametrizadas, qué retos implica fusionar colores artesanales, cómo se estructura el interior orientado al conductor, y qué mensaje envía este prototipo al segmento premium eléctrico. También reflexionaremos sobre los riesgos de apostar por lo imprevisible en un entorno tan competitivo, y cómo este tipo de apuestas puede perfilar el rumbo no solo de CUPRA, sino del automóvil como experiencia simbiótica.

El origen del concepto: “No drivers, no CUPRA”
Desde los primeros bocetos del Tindaya, el equipo de diseño adoptó como mantra la frase “No drivers, no CUPRA”, porque consideran que sin conductor no existiría la marca. Ese principio orientó todas las decisiones: exteriores, interiores y digitales debían confluir en torno al conductor como centro absoluto. Para lograrlo, los departamentos de diseño exterior, interior, Colour & Trim y digital trabajaron integrados, como un único organismo creativo.
Este concepto de “origen” pretende reconectar con la esencia del automóvil: no solo un vehículo para transportar, sino un compañero de emociones. En ese sentido, el Tindaya apuesta por recuperar sensaciones sensoriales, físicas, frente a una digitalización desbordada. Así, el diseño interior evita distracciones colaterales para que la experiencia del manejo recupere protagonismo.

Diseño exterior: formas con alma y mirada humana
El Tindaya no se conforma con líneas agresivas o volúmenes aerodinámicos: su exterior busca evocar un ser vivo. Los diseñadores reproducen —de modo simbólico— formas inspiradas en el cuerpo humano, con superficies que sugieren respiración, pulsaciones y presencia.
Sus “pupilas triangulares” destacan como faros con mirada fija, otorgando personalidad al frontal. Estas formas no solo son decorativas: participan de un lenguaje visual que convierte el coche en “algo con carácter”.
Además, la carrocería integra efectos de transformación: el color frontal funde gradualmente con tonos posteriores, las texturas mutan según la perspectiva y las llantas parecen cambiar su forma con el ángulo de visión. Todo esto busca que el coche parezca en movimiento incluso cuando está detenido.

Interior orientado al conductor: limpieza y funcionalidad emocional
Dentro del Tindaya reina el minimalismo funcional. Las puertas se abren lateralmente dejando el espacio libre, sin marcos invasivos ni obstáculos visuales. Todos los elementos se orientan hacia el conductor, enfatizando una experiencia envolvente. El volante, asientos, salpicadero: todo converge hacia una zona de pilotaje íntima, sin distracciones periféricas. La idea es que nada compita con el vínculo entre el conductor y el coche. Pero esa pureza no renuncia a la tecnología: hay componentes hápticos que responden al tacto con luz y sonido, piezas que interactúan con el usuario. Ello permite un diálogo entre conductor y automóvil que va más allá de pantallas.

Materiales que mutan: lo mate, lo brillante, lo transparente
Uno de los grandes retos del Tindaya ha sido la evolución dinámica de sus materiales. El equipo ha explorado cómo lo mate puede volverse brillante, cómo lo sólido puede disolverse en transparencias, qué pasaría si lo suave se torna duro al tacto.
El interior incorpora texturas paramétricas (underskin) que reaccionan al tacto, combinadas con materiales que cambian su apariencia según el estímulo físico. Esa “materialidad viva” es parte de la ambición de que el coche “respire”.
No es solo estética: cada material debe cumplir criterios de durabilidad, ergonomía y manufactura viable. Lograr esa armonía entre lo visual y lo funcional ha sido uno de los grandes desafíos del proyecto.

El prisma de cristal: el corazón sensorial del coche
Dentro del habitáculo destaca un prisma de cristal: elemento arquitectónico y simbólico que actúa como el “corazón” del Tindaya. Interactúa con luz y sonido para generar tres experiencias distintas.
Cuando el conductor lo toca, desencadena transformaciones sensoriales: variaciones lumínicas, tonos acústicos, efectos visuales que refuerzan la idea de “vida interior”.

Esta pieza no es aislada: su concepto se alinea con el discurso del coche como ente con alma. Funciona como punto focal del diseño UX/UI, donde el conductor puede establecer una conexión emocional con el vehículo.

Transformación dinámica: el coche que muta parado
Una de las afirmaciones más poéticas del Tindaya es que “percibimos el coche como un ser en continuo movimiento, aun estando parado”. Esa paradoja es posible gracias al uso de superficies dinámicas, cambios de color y texturas en evolución.
El color del frontal se funde con el trasero, las texturas paramétricas varían con la luz ambiente, las llantas reaccionan según el ángulo visual. Todo esto aporta un sentido de fluidez constante.
Cada destello o transición se gestiona con precisión: los diseñadores comentan que fusionar los tonos ha sido un proceso totalmente artesanal, buscado para lograr armonía absoluta.

El reto del desarrollo: tiempo, riesgo y coherencia
Crear un showcar como el Tindaya ha requerido 15 meses de trabajo intensivo. Cada fase implicó experimentación, prototipos, iteraciones y ajustes constantes.
El riesgo creativo fue elevado: apostar por tecnologías emergentes, materiales sensibles y estética radical puede llevar al fracaso si no hay coherencia técnica. Pero CUPRA decidió asumir esos riesgos como parte del acto de renovación.
Durante ese proceso, el equipo hizo un camino de exploración, “tomar riesgos”, aprendizaje profundo. Esa experiencia no solo sirve para el showcar, sino que nutrirá los futuros modelos de la marca.

Conexión analógica‑digital: equilibrio emocional
Aunque el Tindaya busca rescatar experiencias físicas, no renuncia a lo digital. La clave está en el equilibrio: momentos donde la tecnología se hace presente, pero sin restar protagonismo al tacto, al contacto directo. Según los diseñadores, vinieron de “una vuelta de lo digital a lo físico”, pero sin negar que lo digital aún puede aportar valor: en UX, en iluminación, en interacción. Esa dialéctica entre lo tangible y lo virtual es uno de los aspectos más interesantes del proyecto: cómo hacer que el automóvil del futuro hable tanto al corazón como al algoritmo.

Reflejo para futuros modelos: tres conceptos en el foco
El Tindaya no es un capricho aislado: es una hoja de ruta para los próximos vehículos de CUPRA. Tres conceptos —Origen, Vivo y Transformación— serán ejes de diseño en los modelos que están por venir. Así es el concept car que anticipa el futuro radical de CUPRA y que sirve como faro conceptual para el desarrollo de los futuros lanzamientos de la marca.
Lo que hoy se experimenta en un showcar deberá traducirse a la producción: cómo adaptar materiales dinámicos, efectos lumínicos, ergonomía emocional. Esa transición será clave.

Impacto emocional frente a la eficiencia técnica
En una era donde muchos prototipos enfatizan la autonomía, la eficiencia energética, la conectividad, el Tindaya hace una apuesta audaz: enfatizar la emocionalidad como valor competitivo. Esa apuesta puede chocar con los imperativos extremos de eficiencia: cada material, cada textura, cada superficie debe respetar pesos, costes y factibilidad. Equilibrar emoción técnica fue uno de los mayores retos. Pero precisamente esa tensión —entre lo visceral y lo racional— es lo que puede diferenciar a CUPRA de otros competidores del segmento premium eléctrico.

Cultura del riesgo: innovación como motor de marca
Para que un proyecto como el Tindaya salga adelante, se requiere una cultura de marca que valore la experimentación, la tolerancia al error y la visión audaz. En CUPRA, los diseñadores destacan que el camino fue de “exploración y de tomar riesgos”.
No solo es un eslogan: es un enfoque operativo. Cada equipo debió asumir incertidumbres, prototipos que fallaban, soluciones que se descartaban. Pero ese dinamismo es precisamente lo que genera avance. Esa mentalidad arriesgada es clave si la marca quiere distinguirse no como mera tecnología, sino como creadora de experiencias.

Retos de viabilidad productiva: del showcar al coche real
Toda innovación de showcar debe enfrentarse luego al mundo real: costes, procesos industriales, homologaciones, escalabilidad. Adaptar materiales dinámicos, superficies sensibles o colores que se funden exige ingeniería avanzada. No todos los recursos del prototipo podrán trasladarse directamente. Algunos efectos deben ser reinterpretados para producción en serie. Ese salto es clave para que la visión del Tindaya tenga impacto real.
La capacidad de asumir esa transición será el verdadero indicador de éxito: si los futuros modelos reflejan (aunque sea parcialmente) los conceptos del showcar, habremos visto algo más que un diseño provocador.

El Tindaya como faro del nuevo rumbo CUPRA
El CUPRA Tindaya no es solo un ejercicio estético, es una propuesta de diseño filosófica. En él convergen emoción, innovación, riesgo y un nuevo equilibrio entre lo digital y lo físico.
Con sus conceptos de Origen, Vivo y Transformación, redefine qué puede aspirar a ser un automóvil premium. No basta ofrecer velocidad, conectividad o autonomía: debe conectar con el conductor desde el primer contacto.
El verdadero desafío para CUPRA será traducir esas ideas en modelos reales. Si lo logran, no solo marcarán diferencia en su catálogo: pondrán una nueva señal en el camino del diseño automotriz.

Y en esa ruta hacia lo desconocido, el viaje —y lo que nos hace sentir en él— puede ser más valioso que el destino.
En los últimos años, las inteligencias artificiales generativas han sorprendido al mundo con respuestas creativas, textos fluidos y hasta diagnósticos que parecen salir de un especialista. Pero un fenómeno inquietante acompaña a este despegue tecnológico: las llamadas alucinaciones, respuestas que no corresponden a hechos verificables y que, sin embargo, son expresadas con total confianza. El problema es que la máquina no distingue entre lo cierto y lo plausible.
Los estudios más recientes apuntan a una explicación sencilla pero potente. Los modelos de lenguaje no fueron diseñados para decir la verdad, sino para predecir la palabra siguiente en una secuencia. Es decir, se entrenan para sonar convincentes, no necesariamente para ser precisos. Investigadores como Ziwei Ji lo definen como un desajuste entre el objetivo del entrenamiento y la expectativa del usuario: buscamos información confiable y recibimos algo que suena bien, aunque sea erróneo.
Así, cuando un modelo se enfrenta a preguntas muy específicas, poco comunes o que requieren datos actualizados, es más probable que complete el vacío con invenciones. Para el usuario desprevenido, la diferencia entre un hecho y una ilusión puede ser invisible. La IA no miente a propósito, simplemente completa huecos como lo haría un narrador improvisado.
Cómo se mide la mentira digital
Ante la magnitud del problema, la comunidad científica ha diseñado experimentos para poner a prueba la veracidad de las respuestas. Uno de los más citados es TruthfulQA, un conjunto de preguntas que detecta si la IA cae en mitos populares o repite errores comunes en internet. La prueba muestra que, cuanto más confiado suena un modelo, más fácil es que el usuario crea en un error.
Otros métodos, como SelfCheckGPT, proponen que el propio modelo se audite: se le piden varias respuestas a la misma pregunta y luego se comparan entre sí. Si aparecen contradicciones internas, es probable que se trate de una alucinación. Este enfoque no necesita acceso a bases externas, lo que lo hace atractivo para sistemas que deben dar respuestas en tiempo real.
Además, estudios recientes han clasificado las alucinaciones en diferentes tipos: desde las puramente inventadas hasta aquellas que mezclan datos ciertos con falsedades sutiles. La ciencia ya no se limita a denunciar el problema, ahora lo disecciona como un fenómeno complejo y medible.

Estrategias para aterrizar la imaginación
Para reducir las alucinaciones, investigadores proponen conectar los modelos con fuentes externas verificables, como bases de datos o buscadores. Este método, conocido como Retrieval-Augmented Generation (RAG), obliga a la IA a fundamentar su respuesta en documentos concretos en lugar de inventar. El reto ya no es solo generar palabras, sino citarlas con evidencia.
Un ejemplo avanzado es RA-DIT, un sistema que entrena simultáneamente al modelo y al motor de búsqueda interno, mejorando la precisión de las citas. Según los resultados, esta técnica reduce la invención en áreas especializadas como la medicina o el derecho, donde un error puede ser costoso.
Pero no todo depende de bases de datos. Otro enfoque prometedor es la Chain-of-Verification (CoVe): la IA primero redacta una respuesta, luego planifica preguntas de verificación y finalmente reescribe el texto con esas comprobaciones. Este proceso de autocorrección demuestra que incluso los sistemas automatizados necesitan “leer dos veces” antes de publicar.
Herramientas, filtros y límites necesarios
Más allá de verificar, algunos experimentos enseñan a las IA a usar herramientas externas, como calculadoras o traductores, para no inventar resultados. El proyecto Toolformer demostró que un modelo puede aprender a invocar estos recursos cuando detecta una necesidad puntual.
El mensaje es claro: una IA sin herramientas puede ser creativa, pero con herramientas se vuelve más confiable.
Otros equipos exploran la detección en tiempo real. Si el sistema identifica que sus respuestas cambian según la muestra o carecen de respaldo, puede abstenerse de contestar o advertir al usuario. La idea es sencilla: más vale un “no sé” honesto que una invención elegante.
Finalmente, el diseño de las preguntas importa. Instrucciones claras que exijan referencias, que limiten el campo de respuesta y que premien la honestidad del “no tengo información” disminuyen la frecuencia de alucinaciones. La interacción humana sigue siendo clave para domar la imaginación artificial.
El papel de los usuarios
Aunque las soluciones tecnológicas avanzan rápido, el otro lado de la ecuación somos nosotros. Para el público, entender que la IA “completa” más que “responde” es un paso esencial. La confianza ciega en un texto fluido puede ser peligrosa.
Los expertos recomiendan adoptar hábitos de verificación similares a los del periodismo: desconfiar de lo demasiado perfecto, pedir fuentes, comparar con otras referencias y, cuando sea posible, corroborar en documentos oficiales. La IA puede ser un punto de partida, pero no el destino final de una búsqueda. De fondo, este debate refleja algo más grande: la forma en que convivimos con tecnologías que parecen humanas, pero no lo son. Igual que aprendimos a detectar bulos en redes sociales, ahora toca entrenar nuestro ojo crítico frente a las máquinas. La clave no es dejar de usarlas, sino aprender a desconfiar en el momento justo.

De Atapuerca a la inteligencia artificial: la edición de Muy Interesante número 533 explora el fenómeno de las alucinaciones en la inteligencia artificial
Las máquinas no sueñan, pero a veces lo parece. Los sistemas de inteligencia artificial, que la mayoría de nosotros ya usamos a diario, generan respuestas que no esperamos y que rozan lo absurdo o la mentira. Son errores, sí, pero también espejos de la complejidad de los algoritmos que los sostienen. Las llamamos «alucinaciones», un término que evoca locura y fantasía, pero que en realidad nos habla de un reto científico concreto: comprender cómo piensan las máquinas. ¿Son esas ocurrencias producto de una mente propia, de una conciencia? En Burgos, una exposición sobre la niñez en Atapuerca nos muestra cómo cooperación, ternura y violencia se entretejían ya en las primeras etapas de nuestra especie. Y frente al misterio del origen, el del final: ¿qué ocurre en el cerebro cuando morimos? Y cuando miramos al presente del planeta nos encontramos con que pronto podríamos habitar un mundo con menos humanos, que hay discapacidades que siguen esperando ser reconocidas, que en las aguas del océano la huella humana ahoga ecosistemas enteros, y que en los laboratorios de matemáticas, nuevas fórmulas permiten diseñar estructuras más ligeras y sostenibles. Te invitamos a un viaje por lo que somos y lo que podríamos llegar a ser. Porque el verdadero desafío no está solo en las máquinas que alucinan, sino en nuestra capacidad de mirar el mundo con curiosidad, sin miedo a las preguntas que todavía no sabemos contestar. La aventura del saber continúa.
Alucinaciones de la IA
¿Cuántas historias de ciencia ficción se habrían quedado sin escribirse jamás si siempre hubiéramos asumido que la inteligencia artificial era infalible? Casi todas ellas parten de la misma premisa: la de que las IA son lógicas, objetivas, fiables… hasta que dejan de serlo. Y es que, sin inteligencias artificiales que muestren comportamientos impredecibles los escritores no tendrían prácticamente nada que contar. Sin embargo, lo que es un recurso magnífico para escribir historias podría convertirse en un quebradero de cabeza considerable si sucediera en el mundo real. ¿O deberíamos decir que ya se ha convertido en un quebradero de cabeza considerable? Porque, en realidad, ya está sucediendo.
Sigue leyendo este artículo de Gisela Baños en la edición impresa o digital.
Reportajes
- Sueños rotos. Una exposición en el Museo de la Evolución de Burgos nos adentra en el mundo de la niñez en Atapuerca, por Juan Luis Arsuaga y Raquel Asiain.
- ¿Qué sucede en nuestro cerebro cuando morimos? Los científicos se preguntan si la mente puede sobrevivir más allá del cerebro, porque morir es un proceso tan misterioso como complejo, por Miguel Ángel Sabadell.
- Hacia un planeta con menos humanos. A finales de este siglo, la población humana, tras alcanzar su techo, empezará a menguar debido a la caída general de la natalidad en todo el mundo, por Javier Rada.
- Alucinaciones de la IA. En ocasiones, la inteligencia artificial parece que tiene conciencia propia. ¿Puede llegar a pensar sola?, por Gisela Baños.
- ¿Dónde hay que poner los agujeros? Las matemáticas, la física y la computación se alían para diseñar estructuras más ligeras, eficaces y sostenibles, por Alberto Donoso, José Carlos Bellido, Ernesto Aranda y David Ruiz.
- Discapacidades invisibles. Muchas enfermedades, por la dificultad de su diagnóstico, están entre las grandes olvidadas del sistema de salud, por Laura G. Rivera.
- La zona muerta. El número de desiertos oceánicos, donde la vida marina perece asfixiada, no deja de crecer, por Laura G. Rivera.
- Infancia, adolescencia y educación en el antiguo Egipto. A diferencia de otras civilizaciones, en Egipto la infancia era venerada y respetada como un regalo de los dioses, por María Isabel Alcántara Moreno.
Entrevistas
- Antonio Turiel. El físico y divulgador científico nos explica los retos del cambio a una sociedad sostenible y la necesidad de una transición energética real, por Carmen Castellanos.
- Jonathan Benito. El neurocientífico nos habla de la amabilidad, una herramienta que nos ayuda a ser más felices y a vivir mejor, por Gema Boiza.
Firmas
- Gran Angular. Abrocharse la casaca, por Jorge de los Santos.
- Hablando de ciencia. «La guerra del talento» o cómo vender pseudociencia a las grandes compañías, por Miguel Ángel Sabadell.
- Palabras cruzadas. Científicamente no probado, por Lucía Sesma.
- Pensamiento crítico. Qué significa «Conócete a ti mismo», por David Pastor Vico.
- Tecnocultura. Mirando a la gente mirar, por Javier Moreno.
- Neurociencia. La mente de un mosquito, por Manuel Martín-Loeches.
- Pinceladas de meteorólogo. Paisajes otoñales en la pintura, por José Miguel Viñas.

En un modesto rincón de la ciudad de Chilliwack, en la Columbia Británica, ocurrió algo que parece sacado de una novela de misterio arqueológico. Una tienda de segunda mano, gestionada por una organización benéfica local, recibió una donación tan insólita como desconcertante: once anillos y dos medallones antiguos, vendidos inicialmente por apenas 30 dólares canadienses la pieza. Nadie sabía su origen, ni quién los entregó, ni su verdadero valor. Pero alguien, con buen ojo y formación en arqueología, lo intuyó.
Gracias a esa intervención providencial, los objetos no terminaron perdidos en el mercado de segunda mano o, peor aún, revendidos sin control. En su lugar, fueron entregados al Museo de Arqueología y Etnología de la Universidad Simon Fraser (SFU), donde hoy están siendo estudiados como parte de un proyecto académico que mezcla ciencia forense, historia antigua y profundas reflexiones sobre la ética del patrimonio cultural.
Un hallazgo que nadie esperaba en un lugar improbable
El descubrimiento se produjo en la primavera de 2024, cuando un cliente anónimo observó que ciertas joyas puestas a la venta por Thrifty Boutique no eran simples adornos antiguos. Reconoció patrones en su diseño, formas y acabados que sugerían una manufactura milenaria, y alertó a los voluntarios del local. El gesto cambió el destino de las piezas, que pasaron de estar a punto de ser vendidas por unos pocos billetes a convertirse en objeto de investigación universitaria.
Las piezas —que incluyen medallones decorados con símbolos religiosos y anillos con motivos florales— podrían datar del siglo IV o V de nuestra era, según las primeras observaciones. Eso las situaría justo en el ocaso del Imperio Romano Occidental o en los albores de la Edad Media. Algunas pistas apuntan a que podrían proceder de algún rincón del antiguo imperio, pero no se descarta que formen parte de contextos diferentes y hayan llegado al mismo lugar por azares todavía imposibles de rastrear.

Los investigadores de la SFU, liderados por especialistas en arqueología y humanidades globales, han comenzado a analizarlas con técnicas avanzadas de microscopía, espectrometría de masas y comparación estilística, en un curso universitario diseñado específicamente en torno a esta colección tan atípica. Pero el enigma no es solo cronológico o estilístico: es también profundamente ético.
La Universidad Simon Fraser no suele incorporar a sus colecciones objetos sin procedencia clara o documentación legal que garantice su adquisición legítima. Este tipo de donaciones entraña un riesgo: el de aceptar piezas saqueadas, traficadas o incluso falsificadas. Y sin conocer el contexto arqueológico del hallazgo —lugar, estrato, cultura, historia— la información científica pierde valor.
Por eso, antes de aceptar oficialmente las piezas, el museo mantuvo una prolongada deliberación interna. ¿Qué debía hacerse con unos objetos que, aunque potencialmente valiosos desde el punto de vista histórico, podrían haber llegado allí por vías ilegítimas? ¿Era mejor dejarlos al margen de la investigación y exponerlos a desaparecer en el mercado negro? ¿O acogerlos, darles un espacio de estudio y convertirlos en una oportunidad educativa sin precedentes?
Finalmente, se optó por lo segundo. No se trata de canonizar sin pruebas unos objetos de valor incierto, sino de tomarlos como punto de partida para una reflexión profunda. Los estudiantes que participarán en el curso no solo estudiarán las piezas desde el punto de vista técnico y material, sino que explorarán las implicaciones legales, políticas y morales de tratar con objetos sin contexto.

¿Tesoro auténtico o elaborada falsificación?
Uno de los aspectos más fascinantes del hallazgo es que, en realidad, todavía no se sabe con certeza si las piezas son auténticas. Y eso no les resta valor: incluso si se tratara de falsificaciones, su estudio permitiría analizar cómo circulan los objetos falsos en el mercado de antigüedades, qué técnicas se emplean para su elaboración y por qué siguen teniendo tanto poder simbólico y comercial.
Algunas pistas, sin embargo, sugieren autenticidad. Uno de los medallones, por ejemplo, parece mostrar un símbolo cristiano primitivo, el crismón, lo que indicaría una datación muy precisa. Los anillos, por su parte, presentan acabados que no suelen encontrarse en réplicas modernas, aunque aún falta someterlos a pruebas metalúrgicas y de carbono para obtener conclusiones más firmes.
Otra complicación es que las piezas podrían no formar parte de un único conjunto original. Es posible que provengan de distintas épocas y lugares, reunidas con el tiempo por alguna colección privada que, por razones desconocidas, terminó donada de forma anónima. Este detalle complica el análisis, pero también lo enriquece.

Cuando la historia antigua se encuentra con la vida cotidiana
Más allá de su origen y autenticidad, lo que hace de este hallazgo algo verdaderamente fascinante es la forma en que conecta dos mundos aparentemente opuestos: el de los objetos milenarios y el de la vida cotidiana contemporánea. Que un medallón posiblemente romano haya estado a punto de ser vendido como una curiosidad barata en una tienda de segunda mano revela lo frágil que es el hilo que conecta el pasado con el presente.
También plantea preguntas incómodas sobre la gestión del patrimonio cultural. En un mundo donde los objetos antiguos circulan con frecuencia fuera de los canales legales, muchas veces impulsados por la ignorancia, la codicia o la falta de control, este caso ofrece una rara oportunidad de hacer las cosas bien: estudiar, comprender, documentar y, eventualmente, devolver si corresponde.
Porque si se llegara a identificar la región exacta de donde provienen las piezas —algo que aún está por verse— y se demostrara que fueron extraídas de forma ilegal, Canadá, como firmante de los acuerdos internacionales sobre repatriación de bienes culturales, podría verse obligada a devolverlas a su país de origen.
El curso que se lanzará en otoño de 2026 en la SFU no será uno más en el catálogo académico. A través de estas trece piezas misteriosas, los alumnos se sumergirán en las complejidades de la arqueología moderna: desde las técnicas analíticas de laboratorio hasta los dilemas éticos del coleccionismo y la procedencia. La culminación del programa será una exposición en el propio museo de la universidad, donde no solo se mostrará lo aprendido sobre los objetos, sino también todo aquello que no se puede saber con certeza.
Porque, al final, este caso es menos una historia de certezas que de preguntas: ¿quién las hizo?, ¿para quién?, ¿cómo llegaron a Canadá?, ¿quién las donó?, ¿por qué? Y, sobre todo, ¿qué otros tesoros olvidados podrían estar escondidos en rincones igualmente insospechados?
Aunque Pompeya figura en el imaginario popular como la ciudad por excelencia que se ha preservado gracias a la erupción del Vesubio, no es la única localidad engullida por las ardientes lavas volcánicas. Así, también Herculano, la antigua Herculaneum romana, quedó sellada por la erupción del año 79 d.C. Atrapado bajo un manto piroclástico que detuvo la vida cotidiana de sus habitantes en un instante eterno, el yacimiento permite acercarnos de primera mano al mundo romano. Entre sus estructuras, destaca, en especial, un edificio singular: las Termas Suburbanas, el complejo termal mejor conservado de todo el Imperio romano.
Herculano: una cápsula del tiempo
Aunque más pequeña que Pompeya, Herculano contaba con una población próspera y un tejido urbano caracterizado por residencias elegantes, jardines, comercios y espacios públicos bien planificados. Su situación costera, así como la fertilidad de las tierras campanas, le otorgaban un lugar privilegiado dentro de la red de asentamientos que orbitaban en torno a la bahía de Nápoles.
La diferencia esencial entre Pompeya y Herculano radica en la manera en que fueron alcanzadas por la erupción. Mientras que Pompeya se vio cubierta principalmente por cenizas y lapilli, Herculano quedó enterrada bajo una gruesa capa de barro volcánico y flujos piroclásticos que, al solidificarse, crearon un ambiente sellado y sin oxígeno.
Gracias a ello, en Herculano se preservaron no solo las paredes de los edificios y los mosaicos, sino también los objetos de madera, los textiles e incluso algunos restos de alimentos. El visitante contemporáneo, por tanto, puede contemplar las casas con las estructuras aún en pie, decoraciones de estuco con sus colores originales y un mobiliario que ha resistido el paso de casi dos milenios.
En ese contexto urbano, se levantaron edificios de ocio, culto y vida cívica. Entre ellos, las termas desempeñaban un papel central en la vida social. Más allá del aspecto higiénico, ir a los baños de la Roma antigua era casi un ritual colectivo, un espacio de convivencia, negocio y placer. Aunque Herculano contaba con varios conjuntos termales, ninguno resultaba comparable a las Termas Suburbanas.

El origen de las Termas Suburbanas
Situadas junto a la antigua playa y pegadas a la muralla que defendía la ciudad, las Termas Suburbanas se concibieron, en principio, como un baño privado vinculado a la poderosa familia de los Nonii Balbi, benefactores de la ciudad en época augustea. Con el tiempo, aquel lujo particular se transformó en un espacio abierto a la comunidad, ejemplo del modo en que las élites romanas consolidaban su prestigio compartiendo sus recursos con la colectividad. El visitante que accedía a las termas desde la zona portuaria se encontraba con un edificio perfectamente integrado en el paisaje urbano, con vistas privilegiadas hacia el litoral, un microcosmos de mármol, mosaicos y frescos.

Una arquitectura y una decoración excepcionales
El recorrido por el edificio permite entender por qué este complejo se considera el mejor conservado de todo el mundo romano. El frigidarium, destinado a los baños fríos, conserva pavimentos de mármol de extraordinaria calidad. El tepidarium, la sala templada, muestra aún sus decoraciones en estuco con figuras de guerreros, delicadas y dinámicas. El calidarium, por su parte, mantiene el sistema de calefacción original. Empleaba una técnica de circulación de aire caliente bajo el suelo y a través de las paredes que ejemplifica la sofisticación tecnológica alcanzada por los ingenieros romanos.
Lo más asombroso del complejo, sin embargo, se encuentra en la supervivencia de elementos normalmente perdidos en otros yacimientos. Así, en las Termas Suburbanas se conservan puertas de madera originales, ventanas y hasta fragmentos de mobiliario. Estos detalles, rarísimos en el registro arqueológico, transforman la visita en una experiencia única, pues permiten vivir los ambientes tal como lo hicieron los ciudadanos de la época.
La decoración, además, refuerza esa impresión. Los mármoles importados, los mosaicos geométricos, los frescos coloridos y los estucos figurativos evocan un universo de refinamiento estético, diseñado para el deleite sensorial.

El uso social de las termas
En otros complejos termales, era habitual separar por sexo a los usuarios, quienes accedían a alas diferenciadas. En Herculano, sin embargo, parece que el acceso se regulaba por horarios, lo que indica una organización distinta y, posiblemente, más flexible. Esto hecho demuestra que cada ciudad podía adaptar los reglamentos de la institución termal a sus necesidades particulares.
Más allá de estas especificidades, lo que se mantenía constante era el carácter social del baño. Las termas ejercían de lugar de encuentro, conversación, ejercicio físico y ostentación cultural. También servían como escenarios de intercambio político y económico, donde se tejían alianzas y se consolidaban jerarquías. Las Termas Suburbanas de Herculano condensaban todo esto, enmarcado en el lujo arquitectónico que reflejaba tanto la riqueza local como la influencia del modelo imperial.

Conservación y restauración de las termas
Durante muchos años, las Termas Suburbanas permanecieron cerradas al público por motivos de seguridad y conservación. No obstante, su excepcional estado de preservación exigía un proyecto de restauración cuidadoso y sostenido, capaz de garantizar a las generaciones futuras el acceso a este patrimonio.
Así, en 2025 se puso en marcha un ambicioso programa que permite a los visitantes no solo contemplar el edificio, sino también conocer los procesos de restauración en marcha. Cada fin de semana, los accesos a los espacios de restauración muestran al público cómo se trabaja en la consolidación de las paredes, la limpieza de superficies, el tratamiento de los materiales más frágiles y la recuperación de la decoración original. Se trata de un ejemplo pionero de arqueología abierta, donde la restauración misma se convierte en una experiencia cultural y pedagógica.
Referencias
- 2025. "Il Parco Archeologico di Ercolano apre al pubblico il cantiere di restauro delle Terme Suburbane. Dal 14 settembre ogni sabato e domenica". Parco Archeologico di Ercolano. URL: https://ercolano.cultura.gov.it/il-parco-archeologico-di-ercolano-apre-al-pubblico-il-cantiere-di-restauro-delle-terme-suburbane-dal-14-settembre-ogni-sabato-e-domenica/?utm_source=chatgpt.com
Durante décadas, los manuales de historia situaron el origen de la momificación en las arenas del desierto egipcio o en las áridas costas de Chile, donde los chinchorro desarrollaron técnicas rituales de preservación hace unos 7.000 años. Sin embargo, un estudio recién publicado en Proceedings of the National Academy of Sciences (PNAS) acaba de dar un vuelco inesperado: las momias más antiguas jamás registradas no proceden de esas tierras secas, sino de los húmedos paisajes del sur de China y el sudeste asiático, donde comunidades de cazadores-recolectores comenzaron la momificación por secado con humo hace más de 10.000 años.
El hallazgo no solo cuestiona lo que creíamos saber sobre los primeros rituales funerarios, sino que revela una sorprendente conexión cultural entre aquellos grupos prehistóricos y pueblos indígenas de Oceanía, que aún hoy mantienen prácticas similares.
Más antiguas que Egipto y Chile
El equipo internacional dirigido por la arqueóloga Hsiao-chun Hung (Universidad Nacional de Australia) analizó 54 enterramientos pre-neolíticos procedentes de once yacimientos en Vietnam, China e Indonesia. Las tumbas, datadas entre 12.000 y 4.000 años de antigüedad, presentan cuerpos en posiciones inusuales: encogidos en cuclillas, con las extremidades plegadas hasta lo imposible, o en posturas que recuerdan a un fardo humano.
A diferencia de las sepulturas neolíticas posteriores, donde los muertos reposaban estirados y rodeados de objetos de prestigio, estos enterramientos carecen de ajuar funerario. Los restos no muestran el deterioro esperado tras la descomposición natural. Las articulaciones están demasiado compactas, como si los cadáveres hubieran perdido la carne y los órganos antes de ser enterrados.
La explicación más plausible es que pasaron semanas expuestos al humo de hogueras controladas, un proceso que los investigadores describen como “ahumado” o “secado por humo”. Los análisis de laboratorio, mediante difracción de rayos X y espectroscopía infrarroja, confirmaron que los huesos habían sido sometidos a temperaturas bajas y constantes durante largos periodos, exactamente lo que se esperaría de un tratamiento de momificación por humo.
Esto significa que en el corazón de un entorno húmedo, donde la desecación natural es prácticamente imposible, los grupos humanos idearon una forma de preservar a sus difuntos miles de años antes de que lo hicieran los egipcios o los chinchorro.

Un ritual que duraba meses
El proceso no era improvisado. Los cuerpos, atados y comprimidos inmediatamente después de la muerte, se colocaban sobre estructuras de madera bajo las que ardían fuegos pequeños pero persistentes. Durante aproximadamente tres meses, el humo y el calor suave secaban la piel y los tejidos, oscureciendo la superficie hasta dejarla rígida y resistente a la descomposición.
En algunos esqueletos se observan huellas de quemaduras parciales en cráneos, fémures o costillas, probablemente producidas cuando las llamas se descontrolaban. Sin embargo, la mayoría de las pruebas apuntan a un procedimiento cuidadoso, diseñado no para destruir, sino para conservar.
Lo fascinante es que este ritual encuentra paralelos directos en comunidades actuales de Papúa y Nueva Guinea. Entre los dani, por ejemplo, se han documentado cuerpos ahumados hasta volverse negros, mantenidos después en chozas especiales y exhibidos en ceremonias. Los angas, en las montañas de Papúa Nueva Guinea, hacen lo propio con líderes y guerreros, sentándolos durante meses sobre fuegos bajos hasta que la carne se endurece y la piel queda impregnada de humo.
La semejanza con lo observado en los yacimientos de hace más de 10.000 años sugiere una continuidad cultural de una profundidad asombrosa.
El vínculo con los primeros humanos de Oceanía
El estudio no solo describe un hallazgo arqueológico; también reabre el debate sobre los orígenes de las poblaciones que poblaron el sudeste asiático y Oceanía. Los investigadores señalan que los individuos analizados presentan afinidades genéticas y rasgos craneales similares a los de los pueblos indígenas de Nueva Guinea y Australia.
En otras palabras, las comunidades que practicaban la momificación por humo podrían ser descendientes de las primeras oleadas de Homo sapiens que salieron de África y se asentaron en Asia oriental y Oceanía hace decenas de miles de años. Su legado cultural habría sobrevivido en forma de ritos funerarios que aún persisten en pueblos aislados de las montañas y selvas de Oceanía.
Que un mismo ritual pueda rastrearse en un arco tan amplio —desde el sur de China hasta las montañas de Papúa— refuerza la idea de una tradición compartida que se transmitió durante milenios, incluso en un mundo sin escritura y con enormes distancias geográficas.

Una tradición que obliga a reescribir la historia
El hallazgo obliga a repensar la narrativa clásica sobre la momificación. Egipto y Chile, hasta ahora considerados pioneros, ya no ocupan el primer lugar en la cronología. En realidad, fueron sociedades cazadoras-recolectoras del sudeste asiático, sin agricultura ni grandes monumentos, quienes desarrollaron el primer sistema artificial de preservación de cadáveres.
La paradoja es que lo hicieron en un entorno hostil para la conservación, húmedo y caluroso, lo que hace aún más sorprendente su ingenio. Al mismo tiempo, estos hallazgos evidencian que los ritos funerarios, más allá de su espectacularidad, eran un mecanismo de cohesión social, memoria colectiva y transmisión cultural.
Estas momias del sudeste asiático no se exhibían en templos fastuosos ni en pirámides, pero representaban lo mismo: un esfuerzo por mantener a los ancestros presentes en la vida de la comunidad, incluso más allá de la muerte.
Los investigadores creen que todavía hay mucho por descubrir. Algunas momias datadas en Vietnam alcanzan los 14.000 años, aunque aún no han sido analizadas con las técnicas aplicadas en este estudio. Es posible, por tanto, que la práctica sea incluso más antigua de lo que hoy sabemos.
El estudio ha sido publicado en Proceedings of the National Academy of Sciences (PNAS).
Las personas que nos dedicamos a la física tenemos amigos de todo tipo y, como es natural, la mayoría son ajenos a nuestra disciplina. Sin embargo, esto no nos impide conversar en ocasiones sobre cuestiones relacionadas con la física o que se nos escape a los especialistas, apasionados como somos por las maravillas de nuestro trabajo, algún tecnicismo. Y si algo suelen decirme a menudo es que los físicos nos pasamos el día hablando de simetrías. Simetrías por aquí y simetrías por allá. Parece que todo tiene que ver con ellas, desde la física más elemental hasta la más avanzada. Y, efectivamente, así es. Nuestra obsesión está plenamente justificada: la física moderna no podría entenderse sin el concepto de simetría. Es más, incluso hemos sido capaces de ver la física clásica con nuevos ojos una vez hemos apreciado plenamente el poder de las simetrías para dar forma al mundo que nos rodea.
El concepto de simetría
Empecemos aclarando qué queremos decir en el mundillo de la física cuando usamos la palabra «simetría». Para ello, conviene recurrir a un par de situaciones familiares. La primera de ellas tiene que ver con el cuerpo humano. Si nos olvidamos de posibles detalles y nos fijamos solamente en la apariencia exterior, el lado izquierdo del cuerpo de una persona es igual al lado derecho. Por esta razón, cuando nos ponemos frente al espejo observamos una imagen idéntica (de nuevo, salvando posibles detalles) a nosotros mismos. De hecho, si se coloca una cámara fotográfica con cuidado y evitamos que se vea el borde del espejo, sería imposible distinguir una foto hecha apuntando al espejo de una foto hecha directamente a nosotros. Consideremos ahora un segundo ejemplo. Coge una copa, de las que utilizarías para degustar un buen vino. Si la apoyas sobre la mesa y la haces girar sobre su eje, la copa tiene el mismo aspecto independientemente del ángulo de rotación que elijas. Es más, si la copa fuera perfecta y sin imperfecciones y tuvieras que salir de la habitación por un instante, alguien podría hacerla girar un cierto ángulo y tú serías incapaz de notar dicha rotación a tu regreso.

De forma general, decimos que una simetría es una operación que, al ser aplicada sobre un determinado sistema, lo deja exactamente igual que antes de aplicarla. En el primero de los ejemplos antes comentados, la simetría se llama «paridad» y consiste en intercambiar izquierda con derecha. Esta es justamente la operación que realiza un espejo. Vemos que dicha operación no tiene ningún efecto sobre ciertos sistemas, como el aspecto exterior del cuerpo humano. En cuanto al segundo ejemplo, la simetría involucrada se conoce como «simetría cilíndrica». Es propia de sistemas que, como los cilindros, se quedan exactamente igual si los hacemos girar alrededor de un cierto eje. Es lo que le sucede a nuestra copa de vino, pero también a otros objetos de uso cotidiano, como un rollo de papel higiénico. En resumen, y tal y como hemos visto en estos ejemplos, detectar las simetrías de un cierto sistema es equivalente a determinar qué operaciones podemos realizar sobre él que no lo alteren en lo más mínimo.
Hay muchos tipos de simetría, algunos más visuales, como los antes mencionados, y otros más abstractos. Por ejemplo, podríamos hablar de la simetría de una expresión matemática si tras realizar una determinada operación sobre ella la expresión obtenida coincide con la que teníamos inicialmente. De hecho, existen numerosas ramas de las matemáticas en las que el concepto de simetría resulta tremendamente útil para entender ciertos resultados de una manera más sencilla. Además, las simetrías que son de interés en física están muy bien descritas por las matemáticas modernas.
Las simetrías en la física moderna
A estas alturas, el lector ya está familiarizado con la idea de simetría, ese término con el que parecemos casi obsesionados. Sin embargo, es probable que se pregunte por qué este concepto resulta tan apreciado por la física moderna. Por lo dicho hasta ahora, las simetrías pueden parecer más bien una curiosidad. Algo que podemos apreciar en una imagen, un objeto o un cierto sistema complejo, pero que no nos aporta nada especial. ¿Por qué le damos tanta importancia a las simetrías en física? ¿Por qué nos obsesionan tanto? Debido a sus dos grandes utilidades: sirven de guía para construir nuevas teorías y nos desvelan algunos de sus misterios más ocultos.
Imaginemos que queremos describir las leyes de la física en un mundo que fuera una esfera perfecta. Resulta evidente que este sistema presenta una simetría, puesto que cualquier rotación aplicada a una esfera da como resultado otra esfera idéntica a la original. Las leyes de la física deben reflejar este hecho. En particular, no pueden depender del punto de la esfera en el que nos encontremos. En caso contrario, si alguna predicción de dichas leyes variara al pasar de un punto a otro, podríamos distinguir entre ellos y ya no habría tal simetría, lo cual nos parecería inaceptable. En cierto modo, las simetrías nos dicen que «no todo vale ». Esta forma de ver las simetrías como guías que delimitan la forma de nuestras teorías impregna toda la física moderna. Por ejemplo, la física de partículas actual está construida sobre simetrías que relacionan unas partículas con otras y que determinan de qué forma pueden interaccionar entre sí. Del mismo modo, nuestra teoría gravitatoria más sofisticada, la relatividad general de Einstein, también descansa sobre sólidos principios de simetría.
Ya hemos visto que una de las grandes utilidades de las simetrías es guiar la construcción de nuevas teorías. Esto, por sí solo, ya es tremendamente potente. Pero hay más. Las simetrías nos cuentan algunos de sus secretos. Esto lo descubrió la matemática alemana Emmy Noether en la segunda década del siglo xx. El famoso teorema de Noether, uno de los resultados de la física matemática más profundos de la historia, establece una relación entre simetrías y cantidades conservadas. Las cantidades conservadas de un sistema son las que no varían con el tiempo. El ejemplo más famoso es la energía («que se transforma pero no se destruye»), pero también contamos con muchos otros, como la cantidad de movimiento, el momento angular o la carga eléctrica. Noether descubrió que el origen profundo de todas estas cantidades conservadas es una simetría. De forma más general, los sistemas con simetrías de un determinado tipo inevitablemente cuentan con ciertas cantidades conservadas. Este fantástico resultado permite descubrir cosas de una teoría simplemente buscando sus simetrías, lo cual suele ser más sencillo, y se aplica a toda la física, tanto clásica como cuántica. Por su generalidad y tremendo alcance, no hay estudiante que se encuentre con el teorema de Noether y no quede fascinado, sintiendo que está tocando una «verdad de nuestro universo».

Bosones y fermiones
Tras unas cuantas líneas hablando de simetrías espero haberos convencido de su relevancia para entender mejor el mundo que nos rodea. Ahora, sin embargo, debo cambiar de tercio y hablaros de bosones y fermiones.
Cuando usamos la mecánica cuántica para estudiar sistemas compuestos por varias partículas nos encontramos con dos tipos de partículas muy diferentes. Por un lado tenemos los fermiones, así llamados en honor del gran físico italiano Enrico Fermi. Estas partículas se caracterizan por tener espín semientero (1/2, 3/2, 5/2…) y por obedecer el principio de exclusión de Pauli. Hablar del espín requeriría un artículo entero, así que concentrémonos en la segunda cuestión, el famoso principio de Pauli. En esencia, este importante ingrediente de la mecánica cuántica nos dice que dos fermiones no pueden tener el mismo estado cuántico. En otras palabras, no pueden encontrarse en el mismo lugar y tener todas sus propiedades idénticas, lo que en la práctica implica que los fermiones presentan cierta resistencia a juntarse. Ejemplos de fermiones son el electrón, el protón o el neutrón. Por su parte, los bosones deben su nombre al gran físico indio Satyendra Nath Bose y se caracterizan por tener espín entero (0, 1, 2…). Al contrario que los fermiones, los bosones no tienen problema alguno en juntarse y adoptar el mismo estado cuántico. De hecho, se conocen algunos sistemas compuestos por bosones en los que todos los componentes se encuentran en el mismo estado, como el láser o los condensados de Bose-Einstein. Ejemplos de bosones son el fotón (la partícula que forma la luz), los piones o el bosón de Higgs.
Como vemos, fermiones y bosones son partículas muy diferentes. La forma en que se comportan cuando tenemos sistemas compuestos con varios de ellos es muy diferente en un caso u otro. Por lo tanto, no cabría esperar una relación evidente entre ellos. Pero ¿y si fueran dos caras de la misma moneda?

De simetría... a supersimestría
Tras este breve paseo por el mundo de los fermiones y los bosones, volvamos al tema que nos ocupa, las simetrías.
La física de los años 70 del siglo pasado se planteó un problema interesante a la vez que muy ambicioso. Dada la potencia que las simetrías habían demostrado tener ya por aquel entonces, era natural investigar la posible existencia de nuevos tipos de simetría, las cuales a su vez podrían dar lugar a nuevas teorías todavía por imaginar. Tras algunos pasos en falso, diversos investigadores descubrieron un nuevo tipo de simetría, finalmente bautizada con el nombre de supersimetría. En las teorías supersimétricas existe una simetría entre bosones y fermiones, de modo que a cada bosón le corresponde un fermión y viceversa. Se dice que estas partículas son compañeros supersimétricos. Por ejemplo, al electrón le acompañaría el selectrón, una partícula idéntica en todos los aspectos excepto por ser un bosón en lugar de fermión. De manera similar, el gluon, el bosón que hace de pegamento y mantiene los núcleos atómicos unidos, estaría acompañado de un fermión llamado gluino, y lo mismo sucedería con todas las partículas conocidas.
Al principio, la supersimetría apareció como la respuesta a un reto matemático, la búsqueda de nuevos tipos de simetría. Sin embargo, muy pronto se apreció que las teorías supersimétricas tienen algunas propiedades muy interesantes. La supersimetría explica por qué la interacción débil es mucho más intensa que la gravedad, algo sorprendente y difícil de entender en los marcos teóricos que no la incorporan. Esta cuestión sigue abierta en la actualidad y se conoce como problema de la jerarquía. Las teorías supersimétricas también suelen contar con nuevas partículas candidatas a ser la materia oscura del universo, por lo que resolverían uno de los mayores problemas de la física actual, además de facilitar la unificación de las interacciones fundamentales. Finalmente, la supersimetría es crucial en las teorías de cuerdas (o de supercuerdas, para ser más precisos) que aspiran a describir la gravedad de acuerdo a las leyes de la física cuántica.
La supersimetría es una idea fascinante, sustentada sobre un marco matemático muy elegante y capaz de dar respuesta a multitud de problemas abiertos en la física actual. El tiempo dirá si esta simetría es «solamente» una elegante idea matemática o si es un ingrediente fundamental del mundo en el que vivimos.
En los fondos marinos, un pulpo explora, caza y se camufla con una destreza que ningún otro animal logra. Sus brazos, más que simples extremidades, son herramientas multifuncionales capaces de retorcerse, alargarse, acortarse y doblarse al servicio de comportamientos tan variados como cazar un cangrejo, mover piedras o esconderse entre corales. Un solo organismo despliega una flexibilidad que la robótica aún sueña alcanzar.
Un equipo internacional de investigadores ha analizado cientos de horas de vídeo de pulpos en hábitats naturales del Caribe y España para entender cómo logran esta coordinación. Lejos de un espectáculo caótico de tentáculos en movimiento, los científicos descubrieron un sistema jerárquico sorprendentemente eficiente: de cuatro deformaciones básicas surgen doce acciones de los brazos, y de esas combinaciones, un amplio repertorio de conductas complejas.
Este hallazgo no solo desvela secretos de la biología marina. Los brazos de los pulpos se han convertido en modelo vivo para el diseño de robots blandos, una tecnología que podría revolucionar campos tan distintos como la medicina, la exploración submarina o las operaciones de rescate.

Cuatro movimientos para todo un repertorio
Los investigadores clasificaron los gestos de los brazos en cuatro deformaciones: acortar, alargar, doblar y torsionar. Aunque parezcan simples, estas “primitivas” pueden combinarse en infinitas variaciones. De movimientos elementales emergen conductas extraordinarias.
Durante la observación de 25 pulpos en seis localizaciones distintas, los científicos registraron casi 4.000 acciones de brazos y más de 6.800 deformaciones. Cada tentáculo, independientemente de su posición, fue capaz de ejecutar cualquiera de las deformaciones, pero con cierta especialización.
Las partes distales —las más cercanas a las ventosas— eran maestras del doblado, mientras que las zonas proximales, cerca del cuerpo, se especializaban en el alargamiento.
Esta organización funcional permite a los pulpos realizar tareas simultáneas con varios brazos: mientras unos exploran, otros sostienen el cuerpo o preparan un ataque. El secreto no está en la fuerza, sino en la coordinación.
Inteligencia distribuida bajo el agua
A diferencia de los humanos, los pulpos no dependen de un cerebro central que controle cada movimiento. Gran parte de sus neuronas se distribuye en los brazos y las ventosas, lo que les permite reaccionar de forma autónoma y rápida al entorno. Cada brazo piensa por sí mismo, pero trabaja en conjunto.
El estudio mostró que las acciones no se reparten de manera aleatoria: los brazos delanteros se emplean más para explorar y alcanzar, mientras que los traseros se encargan de tareas de soporte o locomoción. Esta división parcial del trabajo sugiere que los pulpos optimizan energía y tiempo al mover su cuerpo.
Para los ingenieros, este modelo resulta fascinante. Imagina un robot quirúrgico capaz de que cada brazo responda con autonomía, ajustándose en tiempo real a la presión o textura de los tejidos. El control distribuido reduce la necesidad de cálculos centrales complejos, lo que podría simplificar el diseño de máquinas flexibles y eficientes.

Un laboratorio en el arrecife
Una de las claves de este trabajo es que las observaciones se hicieron en hábitats naturales: arrecifes, praderas marinas, fondos arenosos y zonas de coral.
A diferencia de los experimentos en acuarios, los pulpos fueron grabados en plena acción, enfrentándose a la diversidad y el caos del mar. El campo reveló lo que el laboratorio no podía mostrar.
Los animales no solo se movían para cazar, sino también para construir refugios, camuflarse con algas o defenderse de depredadores. Cada acción exigía una combinación diferente de deformaciones y brazos, lo que permitió a los científicos construir un “etograma” detallado, una especie de mapa de comportamientos.
Este registro exhaustivo mostró que la flexibilidad no es un truco ocasional, sino una estrategia constante. La naturaleza ha perfeccionado durante millones de años un sistema de adaptabilidad extrema.
Del mar a los robots blandos
Los ingenieros de robótica blanda llevan tiempo inspirándose en los pulpos. Su capacidad de moverse sin huesos rígidos ofrece pistas para diseñar brazos artificiales que puedan operar en espacios reducidos, manipular objetos delicados o moverse entre escombros tras un desastre. El pulpo es un manual viviente para la robótica del futuro.
La nueva investigación aporta una ventaja clave: ahora se sabe qué combinaciones básicas dan lugar a conductas complejas. Esto podría traducirse en algoritmos más simples y eficientes para controlar robots blandos.
En lugar de programar cada movimiento, bastaría con definir reglas de combinación entre deformaciones básicas.
Así, robots médicos podrían intervenir en cirugías mínimamente invasivas con la misma destreza con la que un pulpo extrae un cangrejo de su guarida. Y en el océano, dispositivos inspirados en tentáculos podrían inspeccionar arrecifes frágiles sin dañarlos. La ingeniería empieza a hablar el lenguaje del pulpo.

Una revolución flexible por delante
El estudio, publicado en Scientific Reports, demuestra que incluso un animal aparentemente enigmático puede ofrecer lecciones prácticas para la tecnología. Los brazos del pulpo nos recuerdan que la simplicidad bien organizada puede superar a la complejidad artificial.
Aunque aún queda camino por recorrer —desde materiales capaces de imitar la textura muscular hasta sistemas energéticos que permitan movimientos sostenidos—, el potencial es enorme.
Los investigadores sugieren que futuros estudios comparen distintas especies de pulpos, incluidas las de brazos largos y delgados, para ampliar el repertorio de inspiración.
La próxima generación de robots podría nacer de la misma lógica que guía a un pulpo en los arrecifes: adaptarse, improvisar y sobrevivir gracias a la flexibilidad. En un futuro no muy lejano, los tentáculos del mar podrían estar operando en quirófanos, explorando planetas o rescatando vidas.
Referencias
- Bennice, C.O., Buresch, K.C., Grossman, J.H. et al. Octopus arm flexibility facilitates complex behaviors in diverse natural environments. Sci Rep. (2025). doi: 10.1038/s41598-025-10674-y
En un momento en el que el mercado de las consolas está más activo que nunca, las grandes compañías buscan nuevas formas de atraer a jugadores que demandan potencia, catálogo y versatilidad.
Con este panorama, Sony ha decidido no perder terreno frente a Nintendo y Logitech rebajando tímidamente el precio de su PS5 Slim Digital. Se trata de un paso estratégico para mantener su atractivo en plena guerra de precios, aunque todavía sin llegar a la agresividad de sus principales rivales.

Normalmente, la PS5 Slim Digital se sitúa en precios que rondan los 400€ en la mayoría de grandes superficies como Amazon, MediaMarkt, PcComponentes o Fnac. Sin embargo, actualmente puede encontrarse por 374,99 euros en AliExpress usando el código descuento BSES25.
Este modelo sigue manteniendo su diseño más compacto y eficiente. Cuenta con un procesador AMD Ryzen Zen 2 de 8 núcleos, una GPU RDNA 2 personalizada y 16 GB de RAM GDDR6, capaces de ofrecer resolución 4K nativa con trazado de rayos (Ray Tracing). Además de tasas de refresco de hasta 120 Hz y una SSD de 1 TB.
En cuanto a la conectividad y el audio, la PS5 Slim Digital integra Wi-Fi 6, Bluetooth 5.1, puertos USB tipo A y tipo C, y soporte para Tempest 3D AudioTech. Además, es totalmente compatible con los mandos DualSense, que incorporan retroalimentación háptica avanzada y gatillos adaptativos.
Nintendo por su parte termina de rebajar también su Switch Lite
Mientras Sony defiende su terreno con pequeños ajustes de precio, Nintendo sigue presionando con más fuerza en el segmento portátil ajustando el precio de su Nintendo Switch Lite hasta los 129,32 euros aplicando el cupón BSES16. Un precio que contrasta con los 165€ como mínimo que se encuentra en Miravia, Pixmania y Amazon.

Esta versión completamente portátil cuenta con una pantalla LCD táctil de 5,5 pulgadas y resolución de 720p. Incorpora controles integrados, batería de hasta 7 horas de autonomía y almacenamiento interno de 32 GB, ampliable mediante tarjetas microSD. Además de ser compatible con Wi-Fi 5 y conectividad local para partidas multijugador, conservando funciones esenciales como a vibración HD Rumble.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En un rincón remoto de la costa este de Canadá, un puñado de pequeñas cuentas de concha ha desenterrado una historia mucho mayor que su tamaño. Siete diminutos cilindros blancos y púrpuras han emergido de las capas de tierra de un asentamiento colonial en Ferryland, en la provincia de Terranova y Labrador, y su hallazgo podría transformar nuestra comprensión sobre las redes comerciales, los contactos interculturales y la vida cotidiana en las primeras colonias europeas en América del Norte.
Un hallazgo inesperado en un rincón olvidado
El descubrimiento tuvo lugar este verano, durante una campaña de excavación arqueológica en el histórico sitio de la Colonia de Avalon, un asentamiento fundado por colonos ingleses en el siglo XVII. En medio de herramientas oxidadas, fragmentos de loza europea y restos de estructuras en ruinas, un estudiante de arqueología encontró lo que a simple vista parecían fragmentos de concha sin valor. Pero tras un examen más detallado, se reveló que eran cuentas de wampum, un tipo de abalorio ceremonial elaborado por pueblos indígenas a partir de conchas marinas.
Que aparezcan estas cuentas en un contexto colonial ya sería de por sí fascinante. Pero lo realmente extraordinario es que, hasta ahora, nunca se habían encontrado wampum en esta región de Canadá. Este descubrimiento representa la primera evidencia material de estas cuentas en toda la provincia, lo que sugiere que los vínculos entre los pueblos indígenas y los colonos europeos fueron más profundos —y más geográficamente amplios— de lo que se creía.

Wampum: mucho más que "moneda indígena"
Durante siglos, las cuentas de wampum han sido malinterpretadas como una suerte de moneda primitiva. Sin embargo, su verdadero significado es mucho más complejo. Para muchas naciones indígenas del noreste de América, como los iroqueses y los wampanoag, estas cuentas servían como elementos rituales cargados de simbolismo. Se utilizaban en cinturones ceremoniales que registraban tratados, alianzas, historias orales y hasta declaraciones de guerra.
Las cuentas eran elaboradas con conchas de quahog (una almeja de agua salada) y de whelk (un caracol marino), talladas y perforadas a mano, con una destreza que no cualquiera dominaba. El color púrpura, más raro, era especialmente valioso. El proceso de manufactura podía tardar horas o incluso días para producir una sola cuenta, lo que las hacía objetos preciados tanto espiritual como socialmente.
Con la llegada de los colonos europeos, el wampum adquirió un nuevo rol como objeto de intercambio. Comerciantes ingleses y neerlandeses adoptaron estas cuentas en sus transacciones con los pueblos originarios, otorgándoles un valor económico que antes no tenían. Esta transformación del wampum de artefacto ceremonial a bien de consumo es uno de los ejemplos más reveladores de cómo el contacto colonial alteró prácticas ancestrales.
Ferryland: un cruce de mundos en el Atlántico Norte
El enclave donde se hallaron las cuentas, conocido como la Colonia de Avalon, no es un lugar cualquiera. Fundado oficialmente en 1621 bajo patrocinio inglés, el asentamiento tenía como objetivo ser un refugio para católicos perseguidos y, más tarde, un núcleo comercial en una región clave para la pesca del bacalao. Aunque en su momento fue una de las colonias más ambiciosas del Atlántico Norte, su historia fue breve y marcada por el abandono, conflictos con pueblos indígenas y las duras condiciones climáticas.
Desde los años 80, las excavaciones en el lugar han sacado a la luz miles de objetos que retratan la vida cotidiana de sus habitantes: desde herramientas de hierro hasta monedas, pipas de arcilla, restos de estructuras de piedra y hasta joyas coloniales. Pero nunca, en más de tres décadas de investigación, habían aparecido cuentas de wampum. Su repentina presencia desentierra una historia oculta de interacciones con comunidades indígenas o, al menos, con comerciantes que previamente habían entablado esos lazos.
Las cuentas fueron halladas en una capa de desechos domésticos, lo que sugiere que no se trataba de un depósito ceremonial, sino de un objeto utilitario o incluso decorativo que fue perdido o desechado por sus propietarios colonos. Esto nos plantea preguntas fascinantes: ¿quién trajo las cuentas a la colonia? ¿Fueron adquiridas por comercio directo con pueblos indígenas locales como los Mi’kmaq? ¿O llegaron desde más lejos, a través de redes de intercambio con comerciantes de Nueva Inglaterra o de los Países Bajos?

Un objeto, múltiples historias
Aunque las cuentas son minúsculas —de apenas unos milímetros—, contienen capas de significados. No solo son evidencia de contacto intercultural, sino también testimonio del modo en que los objetos cambian de función y de valor al cruzar fronteras culturales. Un objeto sagrado para una comunidad puede convertirse en adorno para otra. Un bien de intercambio puede, con el tiempo, terminar olvidado entre restos de basura colonial.
También nos recuerdan que el mundo del siglo XVII estaba mucho más conectado de lo que solemos imaginar. Lejos de ser una colonia aislada en los confines del Atlántico Norte, Ferryland formaba parte de una red compleja de comercio, migraciones y conflictos que involucraba a pueblos originarios, colonos europeos, comerciantes transatlánticos y autoridades imperiales. Las cuentas de wampum halladas este verano son, en cierto modo, pequeños fragmentos de esa vasta red global.
Por último, su descubrimiento ofrece una oportunidad única para repensar cómo se enseña y entiende la historia colonial en América del Norte. Una historia que no solo trata de imperios y fundadores, sino también de objetos olvidados, de contactos no documentados y de una realidad cotidiana tejida entre culturas distintas que se encontraron, negociaron, y en ocasiones, chocaron.
¿Y ahora qué?
Las cuentas serán ahora sometidas a estudios detallados que intentarán determinar con mayor precisión su origen geográfico, el tipo exacto de concha y la técnica utilizada para su perforación, tal y como cuentan desde CBC News. Estos datos podrían ayudar a trazar un mapa más exacto de las rutas por las que circularon estos objetos, y por ende, de los vínculos entre diferentes culturas en el siglo XVII.
Mientras tanto, el hallazgo ya ha despertado el interés de historiadores, arqueólogos y comunidades indígenas, que ven en estas piezas no solo un objeto arqueológico, sino un símbolo de una historia compartida, compleja y, a menudo, olvidada.
En el siglo XVII, la comunidad judía vivía tiempos convulsos. Las persecuciones que padecía, las expectativas mesiánicas que hacían esperar la llegada de un salvador y la crisis espiritual se entrelazaban dentro de una diáspora en busca de salvación. Fue en ese contexto en el que surgió Shabtai Tzvi. Miembro de una familia de comerciantes de Esmirna (Turquía), a finales de la década de 1660, Tzvi se proclamó el Mesías de los judíos, un hecho que conmocionó a comunidades enteras en Europa y Oriente Medio.
Orígenes y primeros indicios
Shabtai Tzvi nació en Esmirna. Hijo de un próspero mercader, en su juventud asistió a la yeshivá (escuela donde se estudian las escrituras judías), donde demostró ser un alumno mediocre. Según las fuentes, no destacó ni por su erudición ni por su piedad. Su gran interés fue la cábala y el misticismo judío. Sin embargo, nada apuntaba a que estuviera destinado a protagonizar ninguna hazaña extraordinaria.
Con todo, los tiempos eran extraños. Se sucedían las persecuciones, los judíos de la diáspora estaban amenazados y proliferaban las teorías milenaristas. La matanza de más de cien mil judíos durante la rebelión de Jmelnitski, que azotó, sobre todo, la región de la actual Ucrania, había provocado una oleada de desesperación y esperanza por igual. Muchos judíos deseaban un cambio radical y esperaban la llegada de un Mesías que los reuniera y liberara.
Un punto decisivo, tan legendario como fundamental en su biografía, determina que, en 1648, Shabtai Tzvi afirmó haber escuchado una voz mientras meditaba en soledad. La voz se dirigía a él como el salvador de Israel, destinado a reunir a la comunidad judía dispersa por todos los rincones del mundo para conducirla a Jerusalén.
A partir de ese momento, su comportamiento cambió. Tzvi empezó a proclamar el nombre de Dios, incluso cuando esa invocación se reservaba en exclusiva al sumo sacerdote. Incluso se decía que ordenaba al sol que se detuviera.

De agitador social a figura mesiánica
Entre los años 1651 y 1654, aproximadamente, fue exiliado de Esmirna por las autoridades rabínicas, que no aceptaban su carácter excéntrico y sus afirmaciones audaces. Por ello, Shabtai Tzvi emprendió largos viajes por Asia Menor, Grecia, Salónica, Estambul, Egipto y Palestina. Fue en Palestina, especialmente, donde ganó seguidores. Su carisma, ascetismo y capacidad de intercesión le otorgaron gran prestigio.
En 1662, mientras estaba en Egipto intentando curarse de las extravagancias del pasado, conoció a Sarah, una mujer de origen judío de Galicia (Polonia moderna), cuya biografía estaba poblada de tragedias. Había sido objeto de una presunta conversión infantil al cristianismo, se había prostituido en Ámsterdam y estaba poseída por el delirio mesiánico de casarse con el Mesías. Shabtai la llamó para que se uniera a él: su casamiento se percibió como el cumplimiento de una profecía.
Fue el personaje de Nathan de Gaza, sin embargo, quien marcó el verdadero antes y después en la biografía de Shabtai Tzvi. En febrero o marzo de 1665, Nathan, que provenía de una familia rabínica instruida en la cábala, tuvo una visión. Esa visión no solo lo mostraba a él mismo como profeta, sino que afirmaba que Shabtai Tzvi, a quien Nathan no conocía, era el Mesías prometido. Cuando Nathan y Shabtai se encontraron en Gaza tiempo después, el profeta lo proclamó públicamente como Mesías. Shabtai, aunque renuente al principio, aceptó ese rol.

El estallido mesiánico y su apogeo
En mayo de 1665, Shabtai Zevi se presentó como Mesías durante un servicio de oración en Jerusalén, acompañado por Nathan de Gaza. Fue entonces cuando muchos empezaron a aceptarlo como “AMIRAH” —un acrónimo hebreo que significa “nuestro Señor y Rey, Su Majestad” —, símbolo del liderazgo mesiánico. En poco tiempo, su fama creció de manera exponencial. Se enviaron cartas con la buena nueva por toda Europa y muchas comunidades judías de ciudades como Verona, Mantua y Turín aceptaron su doctrina.
Sin embargo, no faltaron los escépticos. Algunos rabinos importantes lo denunciaron como hereje. En Jerusalén fue excomulgado, mientras que en su Esmirna natal logró desplazar al rabino principal y empezó a lanzar profecías apocalípticas.

Conversión, apostasía y caída del supuesto Mesías
La tensión entre Tzvi y las autoridades otomanas creció. En 1666, Shabtai partió hacia Estambul, convencido del apoyo mesiánico que, según Nathan de Gaza, conseguiría. El profeta predijo que Shabtai derrocaría al sultán y asumiría el poder. Las autoridades, sin embargo, reaccionaron con dureza. Lo arrestaron el 16 de septiembre de 1666, lo llevaron ante el sultán y le ofrecieron elegir entre convertirse al islam o morir. Shabtai eligió la conversión. Se bautizó con el nombre de Mehmed Effendi, recibió una renta y un puesto en el palacio.
El impacto de tal decisión fue inmenso. La apostasía del autoproclamado Mesías asestó un golpe brutal al movimiento. En las comunidades europeas, muchos creyentes se negaban a aceptar que Shabtai se hubiera convertido. Otros insistían en que todo había sido un engaño. Aunque Nathan de Gaza viajó para restaurar la fe, no obtuvo éxito.
Después de ello, Shabtai vivió entre continuas oscilaciones entre el judaísmo y el islam. En 1672, fue arrestado de nuevo y exiliado a Ulcinj, en Albania, donde murió en 1676.

El legado de Shabtai Tzvi
Aunque murió marginado, el movimiento creado por Shabtai Tzvi no desapareció. El grupo de los Dönme, esto es, los judíos que se habían convertido al islam junto con Tzvi, pero que seguían practicando en privado ritos judíos, sobrevivió. Es más: en la Polonia del siglo XVIII, por ejemplo, aparecieron líderes como Jacob Frank, quienes afirmaban ser continuadores de la tradición sabateana. Hoy, en partes de Estambul aún persisten algunos descendientes o creyentes en esa corriente. En el contexto de una crisis espiritual, con comunidades angustiadas por la opresión, el miedo y la esperanza de una liberación divina, Shabtai Tzvi canalizó las expectativas de gran parte de la comunidad judía.
Referencias
- Halperin, David J. 2011. Sabbatai Zevi: Testimonies to a Fallen Messiah. Liverpool University Press.
- Lee, Alexander. 2024. "Sabbatai Zevi: The Lost Messiah". History Today. URL: https://www.historytoday.com/archive/missing-pieces/sabbatai-zevi-lost-messiah
En el panorama actual de las consolas, donde la competencia entre Sony, Microsoft y Nintendo no da tregua, los jugadores buscan cada vez más un equilibrio entre innovación, catálogo de juegos y accesibilidad en el precio.
Entre esta competencia y con el objetivo de reforzar su liderazgo, Nintendo ha decidido dar un golpe maestro en la recta final del mes a través de la fuerte rebaja de su nueva Nintendo Switch 2 junto con Mario Kart World.

Actualmente, este pack se sitúa sobre los 509€ en varias plataformas como Amazon, PcComponentes, MediaMarkt, Pixmania y Miravia. Sin embargo, la fuerte complicidad en el mercado español de la empresa nipona con AliExpress ha hecho bajarla de precio, usando el cupón BSES25, hasta los 439,60 euros.
Este nuevo dispositivo integra una pantalla LCD táctil de 7,9 pulgadas Full HD (1920×1080) con HDR10 y refresco variable hasta 120 Hz, junto con un procesador personalizado NVIDIA CPU/GPU de nueva generación. Incorpora también 256 GB de memoria UFS interna, sonido espacial 3D y salida PCM lineal 5.1.
Su nuevo sistema GameChat permite chat de voz para hasta 12 jugadores. Además de tener una batería de 5220 mAh. Sin olvidar los Joy-Con 2, con conexión magnética, vibración HD 2, sensores de movimiento mejorados y hasta 20 h de autonomía. En este pack se incluye Mario Kart World, una nueva entrega exclusiva con 24 corredores simultáneos y circuitos interconectados en escenarios variados.
También baja el precio significativamente de su Nintendo Switch OLED
Nintendo no se conforma únicamente con impulsar la Switch 2, sino que también ha recortado el precio de su modelo Switch OLED, situándola en los 201,06 euros gracias al código descuento BSES25. Un precio por debajo de los 310€ que habitualmente se encuentra en tiendas como Pixmania, Amazon y PcComponentes.

Esta consola equipa una pantalla OLED de 7 pulgadas y 64 GB de almacenamiento interno ampliables con microSD. Además de un soporte trasero ancho y ajustable para un modo sobremesa más cómodo, y un dock renovado con puerto LAN integrado. Además, incorpora altavoces optimizados ofreciendo una autonomía de entre 4,5 y 9 horas según el uso.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
El 13 de febrero de 2023, a plena luz del día y ante la mirada de quienes ni siquiera sabían lo que ocurría sobre sus cabezas, un visitante inesperado cruzó el cielo de Normandía para desintegrarse con una violencia tan extrema que todavía hoy sigue desconcertando a la comunidad científica. Se trataba del asteroide 2023 CX1, una roca espacial de apenas 72 centímetros de diámetro, pero cuya destrucción ha marcado un antes y un después en el estudio de los impactos meteóricos.
Dos años y medio después, los científicos han publicado en la revista Nature Astronomy los resultados de una investigación sin precedentes que ha seguido al asteroide desde el espacio hasta los laboratorios. Lo que parecía un evento menor —un cuerpo celeste que se quema al entrar en la atmósfera— ha resultado ser un caso único que plantea nuevas preguntas y alerta sobre escenarios potencialmente peligrosos para la Tierra.
Un asteroide detectado a contrarreloj
Lo sorprendente de 2023 CX1 no fue solo su comportamiento, sino el hecho de que se le detectara antes de impactar. Tan solo siete horas antes de su entrada, un astrónomo húngaro observó el objeto a 200.000 kilómetros de distancia de la Tierra. En cuestión de minutos, la información fue verificada por la NASA y la Agencia Espacial Europea, lo que permitió trazar con gran precisión la trayectoria y zona de impacto: el norte de Francia.
Fue un logro en tiempo real de la vigilancia espacial global, un ejemplo de coordinación científica a escala planetaria. Pero nadie esperaba lo que estaba por suceder.
Al entrar en la atmósfera a las 04:00 pm (hora local), el pequeño asteroide se desintegró de forma catastrófica a unos 28 kilómetros de altitud. A diferencia de otros eventos similares —como el famoso caso de Cheliábinsk en 2013, donde el impacto fue escalonado y liberó energía en varias fases—, el 2023 CX1 se desintegró prácticamente de golpe. El 98% de su masa se perdió en una única ruptura, generando una explosión esférica y concentrada en una sola zona de la atmósfera.

Este patrón de disrupción súbita es extremadamente raro. Solo hay constancia de otro caso comparable: el del asteroide que explotó sobre Eslovenia en 2020. La mayoría de meteoritos se fragmentan progresivamente a medida que descienden. 2023 CX1, sin embargo, aguantó hasta alcanzar una presión dinámica de 4 megapascales —un valor inusualmente alto— y luego colapsó de forma violenta, liberando casi toda su energía en un único punto.
El riesgo invisible de los pequeños asteroides
Aunque el impacto no causó daños en tierra —los fragmentos fueron pequeños y cayeron en zonas rurales—, el modelo de disrupción observado genera inquietud entre los expertos en defensa planetaria. La energía se liberó más cerca del suelo de lo habitual, lo que en otro escenario podría haber sido peligroso.
Los científicos explican que este tipo de explosiones concentradas son mucho más destructivas que las que liberan energía de forma escalonada. Un evento como el de Cheliábinsk, con un asteroide de 20 metros, causó más de mil heridos por la onda expansiva que rompió ventanas. Si un cuerpo como 2023 CX1 hubiese tenido un tamaño mayor, el resultado podría haber sido catastrófico en una zona urbana.
Una recuperación histórica
Gracias a la rápida movilización de la red de astrónomos profesionales y aficionados conocida como FRIPON/Vigie-Ciel, se logró documentar la entrada del objeto con una precisión sin precedentes. Vídeos, fotografías e incluso grabaciones de infrasonido y ondas sísmicas permitieron reconstruir el evento paso a paso.
Dos días después, se halló el primer fragmento de meteorito, de apenas 93 gramos, en el pequeño pueblo normando de Saint-Pierre-le-Viger. En total, se recuperaron más de una docena de fragmentos, que ahora forman parte de colecciones científicas y están siendo analizados en laboratorios de todo el mundo.
El meteorito ha sido clasificado como una condrita ordinaria tipo L5-6, una variedad común de meteorito, pero lo interesante es que es el primero de su tipo cuya trayectoria fue completamente registrada antes del impacto.
El análisis de la órbita del 2023 CX1 ha revelado que se trataba de un fragmento desprendido de la familia de asteroides Massalia, ubicada en el cinturón principal entre Marte y Júpiter. Su trayectoria caótica lo convirtió en un visitante esporádico del espacio cercano a la Tierra, hasta que fue capturado por la gravedad terrestre.
Los estudios geoquímicos de los meteoritos revelan una historia que se remonta miles de millones de años. Pero también una más reciente: su viaje desde el cinturón de asteroides hasta la superficie terrestre duró entre 27 y 32 millones de años, según los análisis de exposición a rayos cósmicos.

¿Qué significa esto para la defensa planetaria?
El caso del 2023 CX1 representa una advertencia científica. Aunque era pequeño, su comportamiento fue tan anómalo y violento que obliga a replantear ciertos supuestos en los protocolos de protección frente a impactos.
Los investigadores proponen que, ante casos similares en el futuro —en los que se prevea una disrupción súbita con presiones superiores a 3 MPa— se considere la evacuación preventiva de zonas bajo la trayectoria estimada. Es una medida extrema, pero en ciertos escenarios podría salvar vidas.
Además, este evento demuestra el valor de la colaboración ciudadana en la ciencia: desde astrónomos amateurs hasta habitantes locales que buscaron fragmentos, todos contribuyeron a que este asteroide nos contara su historia.
Una historia que empezó hace más de 4.500 millones de años y terminó, de forma explosiva, sobre los campos tranquilos de Normandía.
Referencias
- Egal, A., Vida, D., Colas, F. et al. Catastrophic disruption of asteroid 2023 CX1 and implications for planetary defence. Nat Astron (2025). DOI:10.1038/s41550-025-02659-8
Durante décadas, los paleontólogos han trazado la historia de la evolución humana como una progresiva expansión del cerebro, un viaje de millones de años desde cráneos diminutos hasta las enormes cavidades cerebrales que caracterizan a Homo sapiens. Pero todo cambió en 2003, cuando un hallazgo en una remota cueva de Indonesia puso patas arriba esta narrativa.
Allí, en la isla de Flores, se descubrieron los restos de una especie humana tan extraña como fascinante. Medía poco más de un metro de altura, tenía un cerebro del tamaño de un chimpancé y unos rasgos que recordaban más a los primeros homínidos que a los humanos modernos. Fue bautizada como Homo floresiensis, pero el mundo la conoció con un apodo más evocador: los hobbits humanos.
Una anomalía en la evolución humana
El hallazgo de Homo floresiensis supuso un terremoto científico. ¿Cómo era posible que una especie tan reciente —vivió entre hace 700.000 y 60.000 años— tuviera un cerebro tan pequeño? Para entonces, otras especies humanas como los neandertales ya mostraban un notable desarrollo cerebral. Y sin embargo, los hobbits no solo sobrevivían con un cerebro reducido, sino que tallaban herramientas, cazaban elefantes enanos y posiblemente usaban el fuego.
La clave para entender este enigma no estaba en el cráneo, ni en el fémur. Estaba en algo mucho más pequeño y aparentemente banal: los dientes. O, más específicamente, las muelas del juicio.
Un equipo de investigadores de la Western Washington University, liderado por Tesla A. Monson, ha publicado un revelador estudio en la revista Annals of Human Biology. En él, los científicos han comparado la longitud relativa de las muelas del juicio de Homo floresiensis con la de otros 14 homínidos, desde Australopithecus hasta Homo sapiens, para buscar patrones entre dentición, volumen cerebral y tamaño corporal.

La investigación reveló un detalle crucial: en la mayoría de los homínidos, a medida que el cerebro crecía, las muelas del juicio se hacían más pequeñas. Es un patrón evolutivo claro que se observa en nuestra propia especie y en parientes cercanos como los neandertales.
Pero Homo floresiensis rompía este patrón. Sus muelas del juicio eran pequeñas, como cabría esperar en una especie con un cerebro desarrollado. Sin embargo, su endocráneo apenas alcanzaba los 400 cm³, el tamaño de un chimpancé.
Este desajuste revelaba algo asombroso. Los hobbits parecían "preparados" en el útero para desarrollar un cerebro grande, pero en algún momento después del nacimiento, ese desarrollo se detenía. Y ahí entra en escena la hipótesis que podría cambiar para siempre nuestra comprensión del crecimiento humano: el freno al crecimiento cerebral y corporal de Homo floresiensis pudo deberse a un mecanismo que aún hoy existe en nuestra especie.
La pista de las hormonas del crecimiento
Para comprender cómo este "freno" pudo haber operado, los investigadores recurrieron a un trastorno humano conocido como síndrome de Laron, una condición genética que provoca baja estatura y microcefalia por la deficiencia de una hormona clave: el IGF-1 (factor de crecimiento similar a la insulina tipo 1). Las personas con esta condición nacen con medidas normales, pero su crecimiento se ralentiza bruscamente tras el nacimiento.
Curiosamente, en estos individuos las muelas del juicio no se ven afectadas, ya que estas se forman en las primeras etapas del desarrollo fetal. Lo mismo parecía ocurrir con Homo floresiensis: dientes normales para su especie, pero cuerpos y cerebros detenidos en su crecimiento. La hipótesis de los investigadores sugiere que una reducción postnatal de IGF-1 o mecanismos similares de crecimiento podría haber provocado su talla miniatura, sin necesidad de recurrir a mutaciones patológicas.
Este cambio no se habría producido por accidente. Los hobbits vivían en una isla, aislados del continente y rodeados de un ecosistema singular, donde los grandes depredadores brillaban por su ausencia y los recursos eran limitados. En este entorno, la evolución tomó un rumbo muy distinto.
El fenómeno del "enanismo insular"
La isla de Flores es famosa por albergar otros ejemplos de especies enanas, como el Stegodon sondaarii, una suerte de elefante pigmeo. El fenómeno, conocido como enanismo insular, se da cuando una población de gran tamaño queda aislada en una isla y, con el tiempo, sufre una reducción progresiva en tamaño como estrategia de supervivencia.
Es una estrategia evolutiva bastante común en mamíferos, y ahora se cree que también ocurrió en Homo floresiensis. Pero no fue un simple achicamiento proporcional. El estudio de Monson y sus colegas demuestra que el cuerpo de los hobbits se redujo más rápido que sus dientes, algo que también se ha documentado en otros casos de enanismo en primates.
Lo más interesante es que este patrón también aparece en otra misteriosa especie insular: Homo luzonensis, descubierta en Filipinas. Aunque no se han hallado suficientes restos para estimar su tamaño cerebral, la dentición sugiere que podría haber seguido un camino evolutivo muy similar.

No obstante, uno de los grandes mitos en paleoantropología es que el tamaño del cerebro determina la inteligencia. Pero Homo floresiensis obliga a cuestionar esta idea. Aunque su cerebro era pequeño, no hay duda de que desarrolló capacidades cognitivas complejas: fabricaban herramientas de piedra, cazaban en grupo y posiblemente utilizaban el fuego.
La investigación sugiere que la ralentización del crecimiento cerebral postnatal no implicó una pérdida de capacidad mental, sino una adaptación eficiente a un entorno aislado y limitado. De hecho, el proceso que llevó a su pequeño tamaño pudo ser muy similar al que ha modelado a algunas poblaciones humanas modernas de baja estatura, como los pigmeos africanos.
Un nuevo enfoque para estudiar el pasado
Más allá del caso de los hobbits, el estudio tiene implicaciones profundas para la paleontología. En un campo donde a menudo se trabaja con fragmentos incompletos, los dientes se revelan como herramientas valiosas para reconstruir cerebros y cuerpos perdidos en el tiempo. Al ser altamente resistentes al paso de los milenios, permiten inferir con precisión sorprendente cómo eran nuestros antepasados, incluso cuando el resto del esqueleto ha desaparecido.
A partir de solo dos dientes —una muela del juicio y un primer molar—, los científicos pueden hoy estimar la masa corporal o el volumen cerebral de especies extinguidas, siempre que se entienda bien su contexto evolutivo.
Con cada nuevo diente hallado en una excavación, se abre así una ventana más clara a los secretos del pasado humano. Y en el caso de los hobbits de Flores, esa ventana acaba de revelar un fascinante proceso evolutivo donde la pequeñez no fue un defecto, sino una brillante adaptación.
En lo alto de las colinas orientales del mar de Galilea, donde el paisaje parece inmune al paso del tiempo, un equipo de arqueólogos ha desenterrado uno de los tesoros más espectaculares hallados en Israel en las últimas décadas. Nada menos que 97 monedas de oro de altísima pureza, acompañadas por joyas fragmentadas de incalculable valor, fueron encontradas bajo los escombros de una antigua ciudad cristiana: Hippos, también conocida como Sussita.
El descubrimiento no solo deslumbra por su belleza, sino por lo que representa. Este tesoro, escondido durante casi 1.400 años, es una cápsula sellada del tiempo que arroja nueva luz sobre una época convulsa, marcada por invasiones, revueltas y el colapso de un imperio que alguna vez gobernó desde Constantinopla hasta Egipto.
Una ciudad cristiana frente al abismo
Hippos fue una de las joyas del oriente bizantino. Fundada originalmente por los griegos en el siglo II a. C., la ciudad se convirtió en un centro cristiano vibrante entre los siglos V y VII d. C. Sus iglesias, mosaicos e inscripciones revelan una comunidad próspera, culturalmente activa y espiritualmente entregada. Pero esa bonanza tenía fecha de caducidad.
En el año 614, las tropas del Imperio sasánida, provenientes de Persia, cruzaron el desierto y entraron en la región con violencia. Era el inicio del fin para muchas ciudades bizantinas. Jerusalén cayó. Tiberíades fue sacudida. Y en medio del caos, los habitantes de Hippos enterraron lo más valioso que poseían con la esperanza de recuperarlo más adelante. Nunca lo hicieron.
Las monedas encontradas abarcan desde el reinado de Justiniano I hasta los primeros años de Heraclio, lo que sitúa el escondite en un periodo exacto: los años previos a la invasión persa. La mezcla de denominaciones —solidi, semisses y tremisses— revela no solo riqueza, sino una sofisticada economía local. Lo más impactante es el estado de conservación de las piezas: relucen como si acabaran de ser acuñadas, recordándonos la durabilidad casi mágica del oro.

¿Taller de orfebrería o fortuna familiar?
La gran incógnita es quién escondió este tesoro. Las pruebas apuntan a una persona o familia acaudalada, quizás incluso vinculada al comercio de joyas o al arte de la orfebrería. Los arqueólogos destacan que, junto con las monedas, aparecieron fragmentos de pendientes de oro decorados con piedras semipreciosas, perlas y vidrio, cada uno con ligeras variaciones que sugieren un origen artesanal más que industrial.
En uno de los templos de Hippos se halló una inscripción del siglo VI que menciona a un orfebre cristiano y su familia como benefactores. Aunque no se puede establecer una conexión directa, este detalle fortalece la teoría de que el tesoro podría haber pertenecido a un joyero local, que huyó ante el avance persa dejando atrás su fortuna en un rincón olvidado de la ciudad.
Curiosamente, la riqueza de este hallazgo contradice lo que los expertos creían sobre Hippos en su etapa final. Hasta ahora, la arquitectura más modesta y el abandono progresivo de algunos edificios habían llevado a pensar que la ciudad estaba en decadencia en el siglo VII. Pero este tesoro sugiere lo contrario: que aún había vida, riqueza y esperanza justo antes del desastre.
Un lugar marcado por la guerra y la fe
El hallazgo se realizó en una zona donde previamente se había identificado una iglesia carbonizada, lo que refuerza el relato de una destrucción violenta. La ciudad pudo haber sido arrasada no solo por las tropas persas, sino quizás por colaboracionistas locales, ya que algunas fuentes mencionan a grupos judíos que se aliaron con los invasores en la región.
El cruce de estos acontecimientos con la historia imperial también añade dramatismo. En los mismos años en los que Heraclio tomaba el poder tras una cruenta rebelión contra el emperador Focas, las monedas con su rostro eran acuñadas apresuradamente en talleres militares itinerantes —algunas, incluso, en Chipre— y distribuían el mensaje de una nueva esperanza para el imperio. Uno de estos rarísimos ejemplares ha sido hallado en Hippos.
Este contexto político y bélico convierte al tesoro en algo más que una acumulación de metales preciosos: es un testimonio de una época de colapso y transformación. La caída de Hippos es la historia de muchas ciudades bizantinas en la región, atrapadas entre imperios rivales, asoladas por terremotos y víctimas de una lenta agonía que culminó en el año 749 con un terremoto devastador que selló su destino.

Redibujando la historia de Galilea
La importancia de este hallazgo va mucho más allá de lo numismático. Representa una oportunidad única para reescribir lo que sabemos sobre la vida en Galilea durante los años finales del dominio bizantino. Lejos de ser un periodo oscuro y desprovisto de dinamismo, este tesoro demuestra que todavía había riqueza, redes comerciales activas y comunidades organizadas con un elevado nivel de vida.
Además, pone en evidencia un fenómeno habitual pero poco documentado: los "tesoros de emergencia". Cuando la guerra se avecina, las familias entierran sus bienes con la esperanza de un retorno que rara vez ocurre. Estos escondites se convierten, siglos después, en cápsulas que nos permiten mirar de frente a quienes vivieron momentos de incertidumbre tan intensos como los nuestros.
Los trabajos de investigación sobre las monedas y joyas aún están en curso. Los arqueólogos esperan ahora analizar la composición del oro, trazar su origen geográfico y entender mejor cómo circulaba el dinero en la región. La posibilidad de que se exhiba en un museo local ya se está considerando, y no sería raro que, como en tantos otros casos, el azar de un detector de metales dé paso a una gran exposición internacional.
Hippos, esa ciudad olvidada en lo alto del Galilea, vuelve a estar en el mapa. No como un lugar de ruinas silenciosas, sino como epicentro de una historia apasionante que aún tiene mucho que contar.
Cuando un modelo ya asentado en el mercado se renueva con mejoras sustanciales, no hablamos simplemente de una “puesta al día”, sino de un salto evolutivo que redefinirá las expectativas del público. Esto es justo lo que ha hecho Volvo con el EX90 2026, que incorpora una serie de mejoras en hardware y software para reforzar su posición como buque insignia eléctrico de la marca. Los cambios afectan desde la arquitectura de carga eléctrica hasta el cerebro informático del vehículo, pasando por sistemas de seguridad, asistencia al conductor y funciones de confort.
La piedra angular de esta actualización es la adopción de una arquitectura eléctrica de 800 voltios, que permite disminuir pérdidas por generación de calor y aumentar la velocidad de carga respecto al sistema de 400 V de la versión anterior. Gracias a un algoritmo interno de gestión de baterías, el EX90 puede añadir hasta 250 km de autonomía en tan solo 10 minutos de carga, utilizando puntos de carga rápida de 350 kW. Este avance no solo reduce tiempos muertos, también optimiza el uso de materiales y energía, haciendo el conjunto más eficiente.
Pero Volvo no se ha quedado en lo eléctrico: la actualización incluye un nuevo ordenador central de doble núcleo basado en NVIDIA DRIVE AGX Orin, con una potencia de cálculo de 500 TOPS. Esa capacidad extra sustenta mejoras en sistemas de seguridad activa, prevención de colisiones, funciones de conducción autónoma limitada y gestión del infoentretenimiento. Para quienes ya poseen un EX90 del año 2025, la marca ha pensado en la continuidad: ofrecerá la actualización gratuita del ordenador central mediante una visita al taller.
Además de estas mejoras de “fuerza bruta” técnica, el EX90 2026 incorpora funciones inteligentes de seguridad conectada: alertas sobre carreteras resbaladizas, peligros o accidentes en ruta, y una función e-call automática combinada con un sistema de parada de emergencia (Emergency Stop Assist, ESA) para detener el vehículo si el conductor no responde. Así, se consolida como el primer Volvo que inicia una nueva era en materia de seguridad, integrando inteligencia artificial, sensores avanzados y comunicación vehicular para anticiparse a los riesgos antes de que ocurran.
Pero el EX90 no solo redefine la seguridad; también transforma la forma en que experimentamos el viaje. Gracias a sus sistemas de sonido de alta fidelidad y su enfoque sensorial, el nuevo Volvo EX90 te transporta a Abbey Road, ofreciendo una experiencia acústica que rivaliza con los míticos estudios londinenses.

Arquitectura eléctrica de 800 V: la base de la mejora
La transición de la arquitectura de 400 V a 800 V representa un cambio radical. Al aumentar el voltaje operativo, se reducen las pérdidas por resistencia y se disipa menos calor durante la carga. Esto permite que el sistema funcione de forma más eficiente, especialmente durante cargas intensas.
Otra ventaja es la reducción del tamaño y peso en ciertos componentes eléctricos (cables, conectores), lo que ayuda a optimizar el conjunto batería-motor. Volvo afirma que esta arquitectura ofrece más potencia para la aceleración y un uso más eficiente de la energía.

Velocidad de carga y autonomía en 10 minutos
Gracias al sistema de carga rápido (hasta 350 kW) y al algoritmo interno de gestión, el EX90 puede recuperar unos 250 km de autonomía en solo 10 minutos. Esta cifra es crítica para suavizar la percepción de “ansiedad de autonomía” y acercar el uso diario a la experiencia de repostar en un coche de combustión.
El software de gestión ajusta dinámicamente el flujo de corriente entre batería y sistema eléctrico para mantener temperaturas óptimas y prolongar la vida útil del paquete de baterías. Esto también contribuye a una carga más estable y eficiente a lo largo del tiempo.

Nuevas prestaciones del ordenador central
El EX90 2026 incorpora un ordenador central de doble núcleo basado en NVIDIA DRIVE AGX Orin con una capacidad de 500 TOPS, lo que multiplica la potencia de cálculo para operaciones de software, IA y algoritmos de seguridad.
Esta capacidad adicional no solo mejora funciones ya existentes, sino que habilita nuevas funciones de asistencia, de cálculo en tiempo real del tráfico, datos del entorno y gestión inteligente del vehículo. Los sistemas pueden beneficiarse de actualizaciones OTA (over-the-air), manteniendo al coche actualizado con mejoras futuras sin intervención mecánica.

Actualización gratuita para los EX90 2025
Volvo garantiza que los propietarios de la versión 2025 del EX90 podrán acceder a la actualización del ordenador central sin coste, mediante una visita programada al taller oficial. Esta decisión refuerza la apuesta por la fidelización del cliente y muestra la convicción de la marca de que el coche debe evolucionar, más allá del momento de la compra.
Este movimiento también pone de relieve la estrategia de software-first aplicada en la industria: los dispositivos físicos se mantienen, pero su valor se extiende con mejoras continuas basadas en software.

Seguridad conectada: alertas en tiempo real
Una de las novedades del EX90 es la inclusión de alertas conectadas sobre condiciones peligrosas: superficies resbaladizas, accidentes, obstáculos o riesgos en la ruta. Estos sistemas utilizan datos externos y colaboración en red para anticipar situaciones potenciales.
Este tipo de alerta preventiva permite al vehículo actuar con mayor anticipación, ya sea avisando al conductor o preparándose para intervenir con sistemas de asistencia. Es un paso adicional hacia una conducción más segura e integrada con el entorno digital.

Función e‑call automática + ESA (Emergency Stop Assist)
La función e‑call automática se activa cuando se detecta que el vehículo ha parado de forma inusual o que el conductor no responde. En ese caso, conecta automáticamente con un centro de llamadas de emergencia, que puede hablar con los ocupantes y alertar a los servicios sanitarios adecuados.
Complementando esa función, el sistema ESA (Emergency Stop Assist) puede detener el coche de manera controlada dentro del carril si el conductor no responde o hay una indisposición repentina. Una vez detenido, se activa la e-call para garantizar asistencia.

Asistencia avanzada en maniobras: dirección de emergencia y aparcamiento
Volvo extiende la función de dirección automática de emergencia en condiciones de poca visibilidad o de noche, lo que permite que el vehículo actúe para evitar una colisión incluso cuando el conductor no puede ver con claridad.
El EX90 también incorpora Park Assist Pilot, que facilita el aparcamiento en paralelo de forma asistida, reduciendo el esfuerzo y el riesgo en maniobras complicadas. Este sistema gana relevancia en entornos urbanos densos.

Techo panorámico electrocrómico: confort y control lumínico
Una novedad estética y funcional es el techo panorámico electrocrómico, inspirado en la introducción de esa tecnología para el nuevo ES90. Con solo pulsar un botón, el cristal varía su transparencia, modulando el paso de la luz solar o aumentando la privacidad del habitáculo.
Este tipo de techo aporta una sensación espacial más abierta y mejora la experiencia para los pasajeros, mitigando los efectos molestos del deslumbramiento o el calor solar directo.

Impacto en rendimiento y eficiencia
La suma de la arquitectura de 800 V, la gestión térmica optimizada y el nuevo hardware informático repercute en un rendimiento más equilibrado. El EX90 ahora “respira mejor” durante exigencias continuas, como trayectos largos o cargas fuertes.
Además, con menor generación de calor y componentes optimizados, se gana eficiencia energética, lo que a su vez se traduce en más autonomía útil ante condiciones reales de uso.

Estrategia de software y evolución continua
La actualización OTA (over‑the‑air) permite que Volvo implemente mejoras futuras sin necesidad de cambios físicos. El nuevo EX90 no es un producto estático: está diseñado para recibir mejoras a lo largo de su vida útil.
La compañía recalca que esta filosofía convierte al vehículo en una plataforma viva, donde la innovación no termina en fábrica, sino que continúa a través de la conexión y el software.

Apuesta por el cliente a largo plazo
Con estas mejoras, el EX90 se posiciona como un rival de peso en el segmento premium eléctrico, compitiendo no solo por potencia o autonomía, sino por inteligencia integrada y seguridad avanzada.
Frente a marcas rivales que también apuestan por arquitecturas de 800 V y sofisticados sistemas de asistencia, Volvo pone en valor su herencia en seguridad y su apuesta por el cliente a largo plazo (con actualizaciones).

Volvo EX90 2026: una reinvención integral
El Volvo EX90 2026 no es simplemente una versión revisada: representa una reinvención integral. La adopción de una arquitectura eléctrica de 800 V, la incorporación de un nuevo ordenador central con 500 TOPS, las mejoras en carga rápida, y los sistemas de seguridad conectada o intervención automática elevan la experiencia más allá del simple trayecto diario.
Además, la posibilidad de actualizar los EX90 actuales y el enfoque en mejoras OTA consolidan una estrategia de vehículo vivo y en evolución constante. Este salto coloca al EX90 como referente tecnológico en el mercado premium eléctrico, apuntalando la credibilidad de Volvo en la transformación hacia la movilidad sostenible.

En un entorno donde la competencia no descansa, Volvo muestra que innovar ya no es solo lanzar un nuevo modelo, sino asegurar que ese modelo mejore con el tiempo, adaptándose y anticipándose al mañana.
Durante mucho tiempo, el espacio entre galaxias fue considerado una región vacía, un enorme desierto cósmico sin estructuras relevantes. Sin embargo, observaciones cada vez más precisas están revelando un universo mucho más interconectado de lo que se pensaba. Un descubrimiento reciente ha llamado la atención de la comunidad astronómica: un puente de gas de 185.000 años luz de longitud que une dos pequeñas galaxias situadas a unos 53 millones de años luz de nosotros. Este hallazgo no solo es visualmente impactante, sino que también plantea nuevas preguntas sobre cómo las galaxias se relacionan entre sí a lo largo del tiempo.
El estudio, publicado en la revista Monthly Notices of the Royal Astronomical Society, se basa en datos obtenidos por el radiotelescopio ASKAP, en Australia. Los investigadores observaron una densa estructura de hidrógeno neutro que conecta las galaxias NGC 4532 y DDO 137, ambas clasificadas como galaxias enanas. Lo más sorprendente es que esta conexión se extiende en una región que, hasta ahora, se consideraba parte del espacio intergaláctico “vacío”. Como afirman los autores en el artículo original, “las observaciones de hidrógeno atómico neutro (HI) de alta resolución... han revelado un enorme puente de gas entre las dos galaxias”.
Un descubrimiento dentro de una red galáctica en formación
Las dos galaxias conectadas por este puente no son gigantes como la Vía Láctea, sino sistemas enanos que orbitan en los márgenes del cúmulo de Virgo, uno de los conglomerados de galaxias más cercanos a la Tierra. Lo que hace a este sistema tan especial es la interacción evidente entre ambas galaxias, visible a través del gas que comparten.
Gracias a la resolución de los datos recopilados por el proyecto WALLABY (Widefield ASKAP L-band Legacy All-sky Survey), los científicos pudieron detectar no solo el puente de gas principal, sino también una cola de gas aún más extensa que se aleja del sistema. Esta cola alcanza una longitud estimada de 1,6 millones de años luz, lo que la convierte en la estructura de este tipo más larga observada hasta ahora .
Este sistema fue clasificado como WALLABY J123424+062511, un nombre técnico que permite referirse a ambas galaxias como un solo objeto de estudio. En palabras del artículo original, “el sistema NGC 4532/DDO 137 refleja muchas de las características físicas del Sistema Magallánico”, en referencia a las Nubes de Magallanes, satélites de nuestra galaxia.

Un puente formado por fuerzas extremas
La estructura gaseosa que une estas dos galaxias se compone de hidrógeno neutro, el elemento más abundante del universo y la materia prima esencial para la formación de estrellas. La detección de este tipo de gas es una de las grandes fortalezas de las observaciones en radiofrecuencia, y el radiotelescopio ASKAP ha sido clave para lograrlo.
El origen del puente no es casual ni estático. Según el equipo de investigación, este puente fue generado por la combinación de fuerzas gravitacionales mutuas entre las galaxias y la influencia del entorno del cúmulo de Virgo. A lo largo de mil millones de años, las galaxias han ido moviéndose y girando una alrededor de la otra mientras se adentran en el cúmulo, lo que ha provocado el estiramiento de sus halos de gas.
Este proceso fue descrito en el paper mediante simulaciones hidrodinámicas: “la interacción mutua entre las galaxias es responsable de elevar gas desde las partes externas del potencial gravitacional hacia el puente de HI”. El gas, en este contexto, no permanece contenido en las galaxias, sino que es literalmente extraído por las fuerzas de marea y la presión del entorno intergaláctico.

El puente de hidrógeno descubierto conecta las siguientes galaxias:
- NGC 4532
- DDO 137 (también conocida como UGC 7739 o Holmberg VII)
Estas dos galaxias enanas están situadas en las afueras del cúmulo de Virgo, a una distancia de aproximadamente 13,8 millones de pársecs (alrededor de 45 millones de años luz) de la Tierra, aunque algunos cálculos las sitúan algo más lejos, hasta 53 millones de años luz.
¿Qué características tiene este puente?
- Longitud: ~185.000 años luz
- Composición: Hidrógeno neutro (HI), detectable en radiofrecuencia
- Origen: Probablemente por interacción gravitacional mutua entre las dos galaxias, potenciada por la presión de arrastre (ram pressure) del gas caliente del cúmulo de Virgo
- Ubicación: En el sistema conocido como WALLABY J123424+062511
El papel de la presión de arrastre
Una de las claves del estudio es la identificación del fenómeno conocido como presión de arrastre (ram pressure). Esta presión se produce cuando una galaxia se desplaza a gran velocidad a través de un entorno lleno de gas caliente, como ocurre en los cúmulos galácticos. La fricción con ese gas puede literalmente “despegar” el material gaseoso de la galaxia, dejándolo atrás.
El cúmulo de Virgo, al que estas galaxias se están acercando, actúa como un entorno hostil en este sentido. Su gas caliente tiene una temperatura que, según los investigadores, alcanza valores “200 veces superiores a la superficie del Sol”. En ese contexto, el gas más débilmente ligado a las galaxias puede ser expulsado con relativa facilidad.
El estudio indica que la densidad electrónica del entorno es de 1,2 × 10⁻⁵ cm⁻³ y que la velocidad de entrada de las galaxias es de aproximadamente 880 km/s, cifras que, según los autores, “probablemente son suficientes para explicar la extracción extensiva de gas”. Esta presión de arrastre habría contribuido tanto a la creación del puente como a la enorme cola gaseosa que se extiende más allá del sistema.

¿Un espejo de la Vía Láctea?
Uno de los aspectos más interesantes del estudio es su potencial para mejorar nuestra comprensión del pasado de nuestra propia galaxia. Los investigadores señalan similitudes entre el sistema NGC 4532/DDO 137 y la Vía Láctea con las Nubes de Magallanes, dos galaxias enanas que orbitan nuestra galaxia y están conectadas por una corriente de gas conocida como el Puente Magallánico.
“Comprender estos puentes de gas y sus dinámicas proporciona información crítica sobre cómo evolucionan las galaxias a lo largo del tiempo”, explican los autores. Aunque las escalas son diferentes, los procesos físicos parecen ser los mismos: interacción gravitacional, desplazamiento a través de un medio denso, formación de estructuras alargadas de gas.
Este paralelismo convierte al sistema estudiado en un laboratorio natural, donde es posible observar en acción procesos que podrían haber ocurrido en nuestro vecindario cósmico hace miles de millones de años. Al estudiar casos como este, los astrónomos pueden reconstruir cómo el gas se redistribuye, se pierde o se transforma en nuevas estrellas.
Una red cósmica de estructuras ocultas
El descubrimiento de esta conexión gaseosa entre galaxias enanas es importante no solo por su tamaño o espectacularidad, sino porque podría ser una pieza más de un fenómeno mucho más común de lo que creemos. Las observaciones de este tipo permiten vislumbrar las redes de gas que conectan galaxias dentro de los cúmulos, estructuras que suelen ser invisibles en luz óptica.
La misión WALLABY, dentro de la cual se enmarca este hallazgo, tiene precisamente como objetivo mapear el hidrógeno en el universo cercano, detectando estructuras a gran escala como esta. Según los datos recogidos, “la masa total de gas HI en las características difusas fuera de los cuerpos principales de NGC 4532 y DDO 137... es de aproximadamente 2 × 10⁹ masas solares”.
Esto sugiere que una fracción significativa del gas de una galaxia puede terminar fuera de ella, suspendida entre sistemas o formando estructuras transitorias. Lejos de ser excepcionales, estos puentes podrían ser habituales en etapas específicas de evolución galáctica, especialmente en zonas de transición como las afueras de cúmulos jóvenes como Virgo.
Referencias
- L. Staveley-Smith, K. Bekki, A. Boselli, L. Cortese, N. Deg, B.-Q. For, K. Lee-Waddell, T. O’Beirne, M. E. Putman, C. Sinnott, J. Wang, T. Westmeier, O. I. Wong, B. Catinella, H. Dénes, J. Rhee, L. Shao, A. X. Shen y K. Spekkens. WALLABY pilot survey: the extensive interaction of NGC 4532 and DDO 137 with the Virgo cluster. Monthly Notices of the Royal Astronomical Society, 543(1), 526–539 (2025). https://doi.org/10.1093/mnras/staf1443.
Entre los siglos XIII y XIX, Europa experimentó una prolongada fase de enfriamiento climático conocida como Pequeña Edad de Hielo. Aunque este periodo, que se extendió aproximadamente entre 1250 y 1860, no fue una glaciación global en sentido estricto, sí supuso el intervalo más frío de los últimos 8.000 años. Sus efectos se dejaron sentir en la agricultura, la economía y la vida cotidiana de millones de personas hasta el punto de que la caída de las temperaturas, los inviernos particularmente rigurosos y las frecuentes oscilaciones climáticas marcaron la historia de la Europa medieval y moderna.
De una anómala calidez medieval al enfriamiento prolongado
Antes de la Pequeña Edad de Hielo, Europa vivió la denominada Anomalía climática medieval (aprox. 950-1250), caracterizada por temperaturas benignas que favorecieron el desarrollo agrícola y la expansión demográfica. El paso de esta fase cálida al enfriamiento posterior no fue abrupto, sino un proceso complejo y gradual en el que influyeron factores naturales a escala planetaria. Las reconstrucciones dendrocronológicas y documentales muestran que los inviernos comenzaron a enfriarse ya en el siglo XII, aunque las temperaturas medias estivales siguieron siendo elevadas hasta mediados del XIII.
Este cambio de tendencia culminó en una serie de descensos térmicos que configuraron el clima europeo hasta el siglo XIX. Las fluctuaciones fueron notables. Se produjeron veranos cálidos en medio del enfriamiento, así como episodios de frío extremo que se convirtieron en auténticos hitos históricos, como el conocido “Año sin verano" de 1816 que se verificó tras la erupción del Tambora en Indonesia.

Los factores astronómicos y solares
Uno de los principales motores de este enfriamiento fueron las variaciones en la radiación solar. Durante la Pequeña Edad de Hielo se registraron varios grandes mínimos solares, esto es, periodos en los que la actividad del Sol disminuyó drásticamente. Entre ellos, destacan el Mínimo de Wolf (1280-1350), el Mínimo de Spörer (1420-1550), el Mínimo de Maunder (1645-1715) y el Mínimo de Dalton (1790-1830).
En estos intervalos, la menor emisión de radiación ultravioleta redujo la producción de ozono en la estratosfera, debilitó el vórtice polar y favoreció la penetración de masas de aire frío hacia latitudes medias. Estos fenómenos se tradujeron en inviernos más largos y fríos en Europa, el sello más característico de la Pequeña Edad de Hielo.
La influencia de las erupciones volcánicas
Los volcanes desempeñaron un papel decisivo en el proceso de enfriamiento. La erupción del Samalas en 1257, una de las más potentes del último milenio, liberó enormes cantidades de aerosoles de sulfato a la estratosfera. Estos aerosoles reflejaron la radiación solar y generaron una caída abrupta de las temperaturas, considerada por muchos investigadores el detonante del primer avance glaciar significativo en los Alpes durante la segunda mitad del siglo XIII.
Otros episodios volcánicos posteriores reforzaron este patrón. Las erupciones en cadena entre 1450 y 1700 coincidieron con los grandes mínimos solares y amplificaron los efectos de la baja irradiancia solar. El ejemplo más célebre es el del Tambora (1815), cuyo impacto global arruinó las cosechas y provocó hambrunas en gran parte de Europa.
Las erupciones volcánicas, además, modificaron los patrones de circulación atmosférica y oceánica. Así, generaron veranos húmedos y fríos, propicios para el avance de los glaciares alpinos.

Dinámicas oceánicas y la Oscilación del Atlántico Norte
Otro de los factores fundamentales fue la alteración de la circulación oceánica en el Atlántico Norte. El aporte de aguas frías y dulces procedentes del deshielo en Groenlandia y del aumento de la exportación de hielo marino redujo la formación de aguas profundas en el mar de Labrador, al tiempo que debilitaba la circulación termohalina. Esta ralentización disminuyó el transporte de calor hacia Europa septentrional y favoreció la expansión del hielo marino en el Ártico y mares nórdicos.
En paralelo, la Oscilación del Atlántico Norte (NAO), un patrón climático que regula la intensidad de los vientos del oeste y la trayectoria de las tormentas, tendió hacia fases negativas durante la Pequeña Edad de Hielo. Estas fases se tradujeron en inviernos fríos y secos en Europa central y occidental. La interacción entre la NAO, la debilidad solar y la actividad volcánica creó un sistema retroalimentado que intensificó el enfriamiento invernal.

El papel de los usos del suelo y el albedo
Aunque de menor peso frente a los factores naturales, también se ha propuesto que los cambios en la cobertura del suelo, como aquellos derivados de la deforestación asociada a la expansión agrícola, pudieron aumentar el albedo terrestre y contribuir a un enfriamiento adicional. Las estimaciones sugieren que este factor redujo la temperatura media del hemisferio norte en unas décimas de grado.
Asimismo, el ennegrecimiento de la nieve y el hielo por depósitos de carbono negro derivados de la combustión de biomasa y la incipiente actividad industrial en el siglo XIX pudo haber acelerado el final de la Pequeña Edad de Hielo. Este factor antrópico habría favorecido el deshielo glaciar.

Variabilidad interna del sistema climático
La Pequeña Edad de Hielo estuvo marcada por una fuerte variabilidad interna del sistema climático, es decir, por las oscilaciones espontáneas en la interacción entre océanos, atmósfera y criosfera. Estos procesos explican por qué dentro de un periodo de enfriamiento prolongado coexistieron veranos extremadamente cálidos, como el de 1540, y episodios de sequías prolongadas que contrastaban con los gélidos inviernos. Los estudios históricos basados en crónicas, registros de vendimias y observaciones fenológicas confirman que la Pequeña Edad de Hielo no fue un periodo de frío uniforme, sino una época de fenómenos climáticos extremos y contrastantes.

Enseñanzas para el presente
La Pequeña Edad de Hielo en la Europa moderna fue el resultado de una compleja interacción entre diversas causas naturales: una intensa actividad volcánica, los mínimos solares prolongados las, alteraciones en la circulación oceánica y patrones atmosféricos como la NAO. Factores adicionales, como los cambios en el uso del suelo y la variabilidad interna del sistema climático, reforzaron un escenario ya de por sí propicio al enfriamiento.
Analizar las causas de la Pequeña Edad de Hielo europea ofrece lecciones valiosas para comprender el cambio climático contemporáneo. Hace unos siglos, la combinación de factores naturales —solar, volcánico, oceánico y atmosférico— bastó para alterar el clima de un continente durante siglos. Hoy, sin embargo, el factor decisivo es la actividad humana.
Referencias
- Wanner, Heinz, Christian Pfister y Raphael Neukom. 2022. "The variable European little ice age". Quaternary Science Reviews, 287: 107531. DOI: https://doi.org/10.1016/j.quascirev.2022.107531
En los márgenes de la vida, cuando el cuerpo colapsa y el cerebro se enfrenta a su límite, ocurre algo tan fascinante como desconcertante: las llamadas experiencias cercanas a la muerte (ECM). Son relatos extraordinarios, cargados de simbolismo, emoción y sensaciones profundamente vívidas. Un túnel de luz, la presencia de seres fallecidos, una paz indescriptible, la visión panorámica de la propia vida... ¿Qué hay detrás de estos fenómenos?
Una nueva investigación publicada en la prestigiosa Nature Reviews Neurology propone por primera vez un modelo neurocientífico integral que intenta explicar de forma coherente qué sucede en el cerebro durante estos episodios límite. El equipo multidisciplinar, liderado por la neurocientífica Charlotte Martial y su grupo en la Universidad de Lieja, ha sintetizado décadas de estudios en neurobiología, psicología, farmacología y evolución para proponer lo que han bautizado como modelo NEPTUNE.
Lo que han descubierto es, simplemente, alucinante.
Cuando el cerebro colapsa... se ilumina
Lejos de apagarse sin más, el cerebro en situación crítica —por ejemplo durante una parada cardiaca— entra en una fase de hiperactividad breve pero intensa. La reducción del flujo sanguíneo, la falta de oxígeno (hipoxia) y el aumento del dióxido de carbono (hipercapnia) desencadenan un desequilibrio metabólico que provoca una avalancha de neurotransmisores: serotonina, dopamina, glutamato, noradrenalina, GABA, acetilcolina y endorfinas.
Cada una de estas sustancias, en ese estado alterado, activa distintos circuitos neuronales que, según los autores, pueden explicar buena parte del repertorio típico de las ECM: alucinaciones visuales, disociación del cuerpo, euforia, paz, recuerdos nítidos e incluso sensaciones místicas.
La serotonina, por ejemplo, se dispara en los momentos de hipoxia severa. Su interacción con receptores específicos (como el 5-HT2A) ha sido asociada con visiones y percepciones extraordinarias, muy similares a las que producen sustancias psicodélicas como la psilocibina o el DMT. Este tipo de activación podría estar detrás de los famosos "túneles de luz", los encuentros con entidades o la vivencia de un "más allá".
Pero el cuadro es aún más complejo.

La química de lo inexplicable
Las endorfinas y el GABA inducen calma, alivian el dolor e inhiben el miedo. La dopamina, por su parte, intensifica el significado emocional de la experiencia, dándole ese matiz de "verdad absoluta". La acetilcolina y la noradrenalina parecen clave en la codificación de recuerdos, lo que explicaría por qué quienes han vivido una ECM recuerdan cada detalle con una nitidez inusual, incluso si estaban clínicamente inconscientes.
En otras palabras, el cerebro activa todos sus recursos, incluso en condiciones límite, para fabricar una experiencia coherente, cargada de sentido, e inolvidable.
El modelo NEPTUNE propone que esta reacción en cadena no es aleatoria ni caprichosa. Podría tener raíces evolutivas profundas.
¿Un mecanismo de defensa ancestral?
Entre los elementos más intrigantes de la propuesta científica está la idea de que las ECM podrían ser una sofisticada estrategia biológica: un mecanismo pasivo de supervivencia, similar a la tanatosis o "simulación de muerte" que se observa en muchos animales.
Cuando luchar o huir ya no es posible, el cerebro activaría un estado disociativo que desconecta al individuo del sufrimiento físico y de la percepción directa del entorno, pero mantiene cierto nivel de conciencia interna. En humanos, ese estado se manifestaría como la ECM, una construcción cerebral compleja que mezcla memoria, emoción y percepción, y que podría incluso favorecer la recuperación si la situación médica se revierte.
Este enfoque no solo ayuda a explicar por qué personas que no estuvieron clínicamente muertas —como quienes sufren síncopes, caídas de tensión o incluso experiencias meditativas extremas— pueden relatar ECMs. También reabre el debate sobre el concepto de consciencia en estados críticos, incluso sobre cuándo empieza y termina realmente la muerte cerebral.
¿Y si no todas las ECM son positivas?
Aunque la mayoría de testimonios hablan de paz, amor y trascendencia, también hay relatos de ECM negativas: angustiosas, perturbadoras, con imágenes de oscuridad o entidades aterradoras. El estudio reconoce este aspecto, aún poco explorado, y sugiere que factores como el estado emocional previo, las creencias personales o el contexto fisiológico específico podrían influir en la naturaleza de la experiencia.
En este sentido, el modelo NEPTUNE es abierto: no pretende dar respuestas definitivas, sino ofrecer una base coherente sobre la que construir futuras investigaciones empíricas. Sus autores insisten en que es un punto de partida, no una conclusión.

Más allá del misticismo, una ventana a la consciencia
Las ECM han sido tradicionalmente un terreno abonado para la espiritualidad, la religión y el misterio. Pero lo que esta nueva investigación propone no es descartar lo subjetivo, sino entenderlo desde la biología. No niega lo vivido por quienes han pasado por una ECM, sino que intenta comprender cómo el cerebro es capaz de generar experiencias tan intensas, organizadas y trascendentes en condiciones de colapso total.
El estudio no plantea un alma flotante ni un más allá físico. Pero tampoco reduce las ECM a simples alucinaciones sin valor. Al contrario: muestra cómo el cerebro humano, en su límite, es capaz de crear una última historia. Una narración sensorial y emocional de despedida. Un viaje que, en palabras de muchos sobrevivientes, "parecía más real que la propia vida".
Y quizá, entender cómo se construyen estas experiencias sea también una forma de entender qué es, en el fondo, la conciencia humana.
Referencias
- Martial, C., Fritz, P., Gosseries, O. et al. A neuroscientific model of near-death experiences. Nat Rev Neurol 21, 297–311 (2025). DOI:10.1038/s41582-025-01072-z
En un mercado donde las cámaras de acción se han convertido en herramientas imprescindibles para viajeros, deportistas y creadores de contenido, las marcas no dejan de mover ficha en busca del liderato.
Además, con el final del verano y la llegada del otoño, la competencia se intensifica, mientras unos aprovechan para liquidar stock. Y en este terreno, Insta360 ha vuelto a dar un golpe sobre la mesa hundiendo el precio de su buque insignia, la Insta360 X5.

Normalmente, la Insta360 X5 supera fácilmente los 585€ en varias webs como MediaMarkt, PcComponentes, Worten y Amazon. No obstante, Insta360 ha vuelto IFPHKO8M para liquidarla hasta los 470,35 euros.
Se trate de una una cámara de acción 360º de última generación que eleva la grabación inmersiva con su sistema de doble sensor 1/1,28” y apertura f/2.0, capaz de capturar vídeo 8K 360º a 30 fps y fotos de hasta 72 MP. Además de tener soporte para múltiples modos como PureVideo optimizado con triple chip IA para grabaciones nocturnas, HDR Activo en 5,7K a 60 fps e InstaFrame.
Ofrece grabación en resolución 4K hasta 120 fps en modo lente única y modos creativos como TimeShift, Bullet Time y FreeFrame. Así mismo, cuenta con un audio multicanal con 4 micrófonos, reducción de ruido antiviento multicapa y mejora de voz. Todo ello, alimentado por una batería de 2400 mAh con carga rápida, Wi-Fi ac y Bluetooth 5.2.
DJI actúa rápido mediante la rebaja del creator combo de su cámara Osmo Pocket 3
Ante el movimiento de Insta360, DJI no ha tardado en reaccionar y también recorta el precio de su Osmo Pocket 3 Creator Combo hasta los 537,76 euros aplicando el mismo cupón IFPHKO8M. Un pack especial para creadores cuyo precio habitual supera los 650€ en Amazon, Worten y PcComponentes.

Esta cámara integra un sensor CMOS de 1 pulgada capaz de grabar en resolución 4K Ultra HD hasta 120 fps y ofrecer fotografías de 9,4 MP. Además, tiene soporte para códecs H.264/H.265 y profundidad de color de 10 bits en D-Log M. Sin olvidar su pantalla táctil giratoria de 2 pulgadas.
Así mismo, cuenta con un sistema de estabilización mecánica avanzada en 3 ejes, complementado con ActiveTrack 6.0. Incorporando también un micrófono estéreo con soporte AAC y una batería de 1300 mAh.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Las consolas portátiles viven un gran momento gracias a su combinación de potencia, portabilidad y catálogos cada vez más amplios. Las últimas novedades apuestan por pantallas de alta calidad, mejor autonomía y funciones online optimizadas.
Tras el lanzamiento de la Nintendo Switch 2, Logitech responde con fuerza y lleva su consola portátil G CLOUD a un nuevo precio mínimo histórico. Una rebaja drástica con la que busca frenar el avance de la competencia y posicionarse como una alternativa sólida.

Su precio habitual ronda los 370€ en tiendas como Amazon, Pixmania o BEEP. Pero ahora la firma suiza se alía con PcComponentes para dejarlo en solo 199 euros. Una rebaja contundente que marca un nuevo mínimo irresistible.
Redefine el gaming al centrarse en la nube, ofreciendo acceso a miles de juegos AAA e indie sin necesidad de descargas, actualizaciones ni hardware de última generación. Compatible con servicios como Xbox Game Pass, NVIDIA GeForce NOW, Remote Play en Xbox, PS5 o PC, y hasta Google Play Store. Diseño ligero, autonomía superior a 12 horas y conectividad WiFi ultrarrápida.
Con una pantalla táctil IPS Full HD de 7 pulgadas a 1080p y 60 Hz, audio estéreo inmersivo y controles ergonómicos, la Logitech G CLOUD ofrece una experiencia de juego premium. Equipada con procesador Snapdragon 720G, 64 GB de almacenamiento interno y conectividad Bluetooth 5.1, asegura rendimiento, versatilidad y comodidad.
MSI se suma a la guerra de consolas portátiles con una fuerte rebaja en su Claw A1M
MSI no quiere quedarse atrás en la batalla del gaming portátil y aplica una rebaja contundente en su consola Claw A1M, que ahora puede conseguirse por solo 400,95 euros. Un precio muy competitivo si tenemos en cuenta que en tiendas como Pixmania su coste habitual ronda los 509€.

La MSI Claw A1M marca un antes y un después en el gaming portátil al ser la primera consola equipada con el procesador Intel Core Ultra 5 135H. Este chip garantiza un rendimiento fluido y eficiente. Su batería de 53 Wh ofrece una autonomía prolongada, pensada para sesiones de juego sin interrupciones durante horas.
El sistema de refrigeración CoolerBoost HyperFlow mantiene una temperatura óptima en todo momento. Además, su diseño ergonómico asegura comodidad en largas partidas, con controles de alta precisión y retroalimentación clara. La iluminación RGB Mystic Light aporta un toque llamativo.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
¿Y si el tartamudeo no fuera solo una dificultad del habla, sino una pista hacia algunos de los misterios más profundos del cerebro humano? Eso es lo que sugiere un estudio internacional sin precedentes, publicado en Nature Genetics, que ha analizado los datos genéticos de más de un millón de personas para descifrar qué hay detrás de esta condición que afecta a más de 70 millones de personas en todo el mundo.
El estudio, liderado por el Vanderbilt Genetics Institute en colaboración con la empresa 23andMe y varios centros internacionales, ha identificado 57 regiones del genoma humano asociadas con el tartamudeo, que se corresponden con 48 genes diferentes. Se trata del mayor estudio genético sobre fluidez del habla jamás realizado, y sus resultados están empezando a cambiar nuestra comprensión de esta condición que ha estado rodeada durante siglos de estigmas, malentendidos e incluso teorías extravagantes.
Un viejo misterio con nuevas herramientas
El tartamudeo se manifiesta por repeticiones involuntarias de sonidos, bloqueos al hablar o prolongaciones anómalas de palabras. Su aparición suele darse en la infancia, entre los 2 y 5 años, y aunque la mayoría de los casos se resuelven de forma espontánea, alrededor del 20% persiste hasta la edad adulta. Tradicionalmente se ha culpado al estrés, a la ansiedad o incluso a la educación parental. Pero este nuevo estudio demuestra con contundencia que la causa principal está escrita en nuestros genes.
El equipo científico trabajó con los datos genéticos de 99.776 personas que respondieron afirmativamente a la pregunta “¿Has tenido alguna vez tartamudez o dificultad para hablar?” en la plataforma de 23andMe. Este grupo se comparó con más de un millón de individuos que nunca habían experimentado el trastorno, lo que permitió a los investigadores trazar con gran precisión los factores genéticos implicados.
Uno de los aspectos más llamativos del estudio es cómo los factores genéticos asociados al tartamudeo varían según el sexo y el origen ancestral de las personas. Se realizaron ocho análisis independientes (GWAS), separados por género y grupos genéticos (europeos, africanos, asiáticos del este y latinoamericanos). El resultado fue sorprendente: hombres y mujeres mostraron perfiles genéticos distintos, lo que podría explicar por qué el tartamudeo es mucho más frecuente en hombres adultos que en mujeres, a pesar de que en la infancia afecta a ambos sexos por igual.

Además, algunas variantes genéticas eran exclusivas de ciertos grupos ancestrales, lo que subraya la importancia de diversificar las muestras en la investigación genética para que los hallazgos puedan aplicarse a toda la población.
Ritmo, lenguaje… y algo más
Entre los genes más relevantes encontrados figura VRK2, que no solo se asocia al tartamudeo en hombres, sino también a la capacidad de seguir un ritmo musical —como aplaudir al compás— y a la pérdida del lenguaje en enfermedades neurodegenerativas como el Alzheimer. Esta coincidencia no parece casual.
Los investigadores están empezando a sospechar que las habilidades lingüísticas, musicales y de fluidez verbal podrían compartir una arquitectura cerebral común. Este hallazgo refuerza la llamada hipótesis del ritmo atípico, según la cual las dificultades para procesar el ritmo podrían estar en el núcleo de varios trastornos del habla y del lenguaje, incluyendo el tartamudeo.
No es casual que muchas personas que tartamudean puedan hablar sin problemas cuando cantan o recitan en sincronía con un metrónomo. Este nuevo estudio proporciona el primer respaldo genético sólido a esa observación clínica.
Conexiones inesperadas: depresión, autismo y más
Más allá del lenguaje, el estudio también halló correlaciones genéticas entre el tartamudeo y varios trastornos neurológicos y psiquiátricos. Entre ellos destacan el autismo, la depresión, el TDAH (trastorno por déficit de atención e hiperactividad) e incluso la obesidad. Algunas de estas asociaciones mostraban posibles relaciones bidireccionales: no solo compartían genes, sino que podrían influirse mutuamente.
Esto sugiere que el tartamudeo no es una condición aislada, sino parte de un entramado complejo de procesos cerebrales que afectan también a la percepción emocional, la coordinación motora y otros aspectos de la salud mental.
Usando los datos obtenidos, los científicos desarrollaron una puntuación de riesgo poligénico, una herramienta que combina múltiples variantes genéticas para predecir la probabilidad de que una persona tartamudee. Este modelo logró identificar con bastante precisión a quienes padecían tartamudeo en dos cohortes independientes, aunque fue más eficaz en hombres que en mujeres.
Este tipo de herramientas aún están lejos de tener un uso clínico inmediato, pero abren la puerta a detectar precozmente a los niños con mayor riesgo y ofrecerles apoyo terapéutico antes de que el trastorno impacte negativamente en su vida social o educativa.

Un paso hacia la comprensión (y el respeto)
Uno de los aspectos más transformadores de este estudio es su impacto social. Durante siglos, las personas que tartamudean han sido víctimas de burlas, discriminación y diagnósticos erróneos. El hecho de que se confirme su origen biológico y genético no solo ayuda a combatir el estigma, sino que podría mejorar la autoestima de quienes conviven con esta condición.
Además, este avance puede cambiar la forma en que se forma a los profesionales de la salud, los educadores y los terapeutas del lenguaje, brindando una comprensión más profunda y respetuosa de una condición que, aunque no es peligrosa, puede tener un impacto enorme en la vida diaria.
Lo que queda por descubrir
Aunque el estudio marca un hito histórico, los propios autores reconocen que aún hay mucho por explorar. La mayoría de los participantes eran de ascendencia europea, lo que limita la generalización de los resultados. Aumentar la diversidad en los estudios genéticos será clave para comprender cómo el tartamudeo se manifiesta en distintas poblaciones del mundo.
Por otro lado, aún se desconoce cómo interactúan los factores genéticos con el entorno, el desarrollo neurológico o las experiencias emocionales. Es probable que el tartamudeo surja de una combinación de todos estos elementos, y que su expresión varíe según las circunstancias personales de cada individuo.
Lo que está claro es que, a partir de ahora, la ciencia del lenguaje ya no podrá ignorar la dimensión genética del tartamudeo. Con esta nueva hoja de ruta, los próximos años podrían traer avances cruciales tanto en la investigación como en el tratamiento personalizado.
El estudio ha sido publicado en Nature Genetics.
Durante siglos, Leicester Market ha sido el corazón palpitante del comercio local en esta ciudad inglesa. Lo que nadie imaginaba era que bajo sus adoquines se escondía una historia mucho más antigua y compleja: una secuencia ininterrumpida de ocupación humana que se extiende a lo largo de dos milenios. En el marco de las obras de renovación para construir una nueva plaza moderna, un equipo de arqueólogos del University of Leicester Archaeological Services (ULAS) ha realizado un hallazgo sin precedentes que conecta el presente con un pasado olvidado.
Bajo el mercado: un viaje en capas por la historia de Inglaterra
Lo que comenzó como una intervención arqueológica preventiva, se transformó en una excavación que ha revelado vestigios de varias épocas superpuestas como si fueran capas de una tarta histórica. Desde los cimientos de edificios romanos hasta el empedrado de mercados medievales y restos de arquitectura del siglo XVI, los descubrimientos permiten reconstruir la evolución urbana de Leicester con una riqueza de detalles extraordinaria.
El descubrimiento más conmovedor ha sido el enterramiento de un bebé de época romana, ubicado bajo el suelo de una antigua vivienda de madera construida hace unos 1.800 o 1.900 años. Esta práctica, aunque chocante para la sensibilidad contemporánea, era relativamente común en el mundo romano, donde los infantes que morían en sus primeros días de vida a menudo no eran sepultados en cementerios, sino cerca del entorno doméstico, quizás como una forma de mantenerlos simbólicamente con la familia.
A escasos metros de esa tumba, el equipo encontró hornos de cerámica que ofrecen una visión poco habitual de la producción artesanal en el seno de la antigua ciudad romana de Ratae Corieltauvorum —nombre con el que se conocía a Leicester en época imperial—. Junto a ellos, monedas, fragmentos de cerámica, joyas y pequeñas teselas empleadas en mosaicos dan cuenta de una comunidad próspera, integrada en los circuitos económicos del Imperio.

Un calabozo medieval bajo tierra: la prisión más infame de Leicester
Pero si el nivel romano ofrece luces sobre la vida cotidiana de hace casi dos mil años, la sorpresa mayor llegó unos niveles más arriba, en los restos de una estructura de piedra robusta, con muros de gran grosor, que correspondía a un edificio civil de alto estatus: la Gainsborough Chamber. Este espacio, hoy desaparecido, funcionó entre los siglos XVI y XVIII como sede del gobierno municipal, tribunal de justicia y lugar de celebraciones públicas. Sin embargo, lo más impactante es que bajo este edificio se escondía un oscuro secreto: un calabozo descrito en documentos de la época como “una prisión vil”, donde los reclusos eran encerrados sin cama ni compañía, encadenados sobre tablones duros, privados de toda dignidad.
Aunque el edificio fue demolido en torno a 1748, mapas antiguos y descripciones han permitido identificarlo con claridad. Ahora, sus cimientos han sido rescatados del olvido, devolviendo a la memoria colectiva un lugar que fue testigo tanto de decisiones políticas como de sufrimientos silenciados. El hallazgo del calabozo ha estremecido incluso a los investigadores más curtidos: es una ventana a las condiciones penitenciarias del pasado, difíciles de imaginar bajo la superficie de un mercado lleno de vida.
El mercado más antiguo de Leicester, capa por capa
Entre las ruinas romanas y las estructuras medievales se encuentra otro periodo clave en la historia británica: el anglosajón. Aunque poco visible en el registro arqueológico, el equipo ha identificado capas de suelo pertenecientes a esta época, lo que podría indicar que la ciudad nunca fue completamente abandonada tras la retirada romana. Estudios posteriores de estos sedimentos podrían ofrecer una imagen más precisa de cómo fue la transición entre la caída del Imperio y la consolidación del reino de Inglaterra.
La superficie inmediatamente inferior al nivel actual revela otro hallazgo significativo: el primer mercado medieval documentado de Leicester. Compuesto por capas sucesivas de guijarros compactados, sedimentos y restos de antiguos puestos comerciales marcados por agujeros de postes, este nivel ofrece una visión directa de la actividad comercial que comenzó alrededor del siglo XIII y continuó durante siglos. Es posible ver, literalmente, las huellas físicas de generaciones de comerciantes que utilizaron el mismo espacio para vender sus productos, crear vínculos sociales y transformar la economía urbana.

Una plaza con 2.000 años de memoria
El actual proyecto de renovación del Leicester Market, con una inversión de 7,5 millones de libras (8,7 millones de euros), está previsto para completarse en 2026. Sin embargo, antes de cubrir la nueva plaza con elegantes losas de pórfido, la ciudad se ha detenido a mirar hacia su pasado. Las excavaciones de ULAS han aportado un tesoro arqueológico inesperado que reescribe partes fundamentales de la historia urbana de Leicester.
Más allá del valor académico, el proyecto ha despertado el interés del público y ha generado un debate sobre la necesidad de conservar, divulgar y poner en valor estos hallazgos. Las autoridades locales ya han manifestado su intención de exhibir algunas de las piezas más significativas y de incorporar parte de estos descubrimientos en la narrativa cultural de la ciudad. Es una forma de rendir homenaje a quienes, generación tras generación, caminaron por el mismo suelo —aunque en distintos estratos de la historia.
Este tipo de investigaciones demuestra que la Historia no está solo en los libros o en los museos: está bajo nuestros pies, esperando a ser contada. En Leicester, esa historia abarca desde la muerte de un niño romano hasta los ecos de un prisionero medieval, pasando por el bullicio del comercio medieval. Un testimonio, capa a capa, de cómo evoluciona una ciudad… y cómo permanece.
El Museo Nacional de Arte Romano de Mérida (MNAR) combina una rica historia institucional, una arquitectura de gran prestigio y una colección excepcional que da cuenta del esplendor de la antigua Augusta Emerita. Desde sus orígenes en el siglo XIX como proyecto local, hasta su consolidación en 1975 como museo nacional, el museo ha logrado convertirse en un centro vivo de investigación, educación y difusión arqueológica. Sus colecciones, que incluyen piezas de escultura, mosaicos, objetos cotidianos y numismática de incalculable valor histórico, siguen siendo una fuente inagotable en la reconstrucción del pasado romano peninsular. La obtención del premio de la Fundación Muy Interesante en 2025, que reconoce la transferencia del conocimiento a la sociedad, subraya ahora la excelencia del museo en la divulgación de la historia.
Historia y antecedentes del museo
Primeros pasos: coleccionismo local y origen institucional
En el siglo XIX, la Desamortización impulsó que el Estado cediera la iglesia de Santa Clara en Mérida como espacio donde albergar piezas arqueológicas. Es esta cesión la que daría cuerpo al futuro Museo Arqueológico de Mérida. En 1910, se redactó el primer inventario: contenía 557 objetos. Unos años después, en 1929, se acondicionó un almacén con fines museográficos que ya preveía el almacenamiento de unas 3.000 piezas.
Terminada la Guerra Civil y reactivadas las excavaciones emeritenses, se comprobó que la iglesia de Santa Clara ya no bastaba para albergar el volumen creciente de materiales arqueológicos. Era necesario encontrar una nueva sede que se adecuara a un museo de mayor rango.

El salto institucional en 1975 y la creación de un museo nacional
El momento decisivo llegó en 1975, con motivo del bimilenario de la ciudad de Mérida, cuando se constituyó formalmente el Museo Nacional de Arte Romano. A partir de entonces, se emprendió un ambicioso proyecto arquitectónico para dotar al museo de una sede acorde con su proyección nacional. El nuevo edificio, diseñado por el arquitecto Rafael Moneo, se inauguró oficialmente el 19 de septiembre de 1986.
Desde su apertura, el museo ha funcionado como centro de investigación y de difusión de conocimientos. Sus actividades culturales incluyen congresos, conferencias, exposiciones, talleres y publicaciones, destinados a vincular el patrimonio arqueológico con la comunidad científica y el público general.
El edificio y su arquitectura como elemento simbólico
El edificio proyectado por Rafael Moneo entre 1979 y 1986 es una obra que, además de acoger las colecciones del museo, también busca evocar la monumentalidad romana en su propio diseño. El complejo consta de dos volúmenes comunicados por un puente, con un juego de arcos y una iluminación cenital que facilita la contemplación de las piezas.
La intención del arquitecto fue que el museo tuviera un carácter evocador, casi como si el edificio mismo pudiese dialogar con las piezas de la cultura romana que se exponen en su interior. Aunque el diseño constructivo parezca simple, en realidad encierra una concepción espacial compleja y articulada.
En su conjunto, esta arquitectura ha sido considerada una obra maestra emergente dentro del ámbito de la arquitectura española contemporánea. Además, el museo, en cuanto parte integrante del recinto arqueológico de Mérida, forma parte del conjunto declarado Patrimonio de la Humanidad por la UNESCO en 1993.

Colecciones y piezas destacadas
Gran parte de la colección del MNAR se concentra en los objetos procedentes del yacimiento de Augusta Emerita y sus entornos arqueológicos. El museo también alberga algunas piezas prerromanas, así como ciertos materiales fuera del ámbito geográfico emeritense. Las colecciones se organizan en varias áreas, entre ellas, arquitectura y escultura, pintura y mosaico, utillaje y cerámica, y numismática.
Arquitectura y escultura
En la sección de arquitectura y escultura, el MNAR expone elementos pétreos como mármoles, capiteles, fragmentos arquitectónicos, estatuaria y relieves. Destacan, en especial, los relieves funerarios, como la estela funeraria de Lutatia Lupata o la dedicada a la tabernera Sentia Amarantis. También hay materiales constructivos como ladrillos, tejas y tuberías que reflejan las condiciones urbanas de la Emerita romana.
Mosaicos y pintura
El museo conserva varios mosaicos notables. Entre ellos, destaca el Mosaico de la Caza del Jabalí de la Villa de las Tiendas, que ilustra escenas cinegéticas con gran calidad técnica. En la sección de pinturas del anfiteatro, se muestran fragmentos decorativos vinculados a este edificio monumental. También forman parte del repertorio las llamadas Pasarriendas de los Filósofos, una pieza de bronce coronada por las representaciones de dos figuras barbadas.
Utensilios, cerámica y objetos cotidianos
El mayor volumen de la colección lo ocupa la cerámica que, en forma de recipientes, vajillas y lámparas, representa la vida cotidiana de la ciudad romana. Estos materiales provienen, en su mayoría, tanto de excavaciones sistemáticas como de hallazgos fortuitos en el ámbito urbano.
Numismática
La colección de monedas del MNAR es otro de sus ejes fundamentales. Incluye monedas encontradas en la ciudad o adquiridas para completar las series, lo que permite trazar la evolución monetaria de la ceca de Augusta Emerita y compararla con otras del mundo romano.
Otras piezas emblemáticas
Entre los tesoros arqueológicos más representativos del museo, figuran piezas como el Augusto velado, la tapadera de vidrio, las monedas de la ceca emeritense o los elementos decorativos del anfiteatro. En conjunto, estas piezas ejemplifican la riqueza estética, funcional y simbólica del patrimonio romano de Mérida.

Un museo premiado por su labor divulgadora
La concesión del premio de la Fundación Muy Interesante en su edición de 2025 al Museo Nacional de Arte Romano reconoce la labor de la institución no solo como custodia de colecciones de gran valor arqueológico, sino también por su labor de comunicación cultural de calidad. En ese sentido, el galardón reafirma la posición del museo como referente en la divulgación patrimonial y en la transferencia del conocimiento del mundo romano al público contemporáneo.
Referencias
- Página oficial del Museo Nacional de Arte Romano de Mérida. URL: https://www.cultura.gob.es/mnromano/home.html
La Fundación Muy Interesante celebró la segunda edición de sus premios, reafirmando su compromiso con la transferencia social del conocimiento como motor de progreso colectivo. En esta ocasión, los reconocimientos recayeron en dos ámbitos distintos, pero igualmente transformadores: el investigador Dr. Alejandro Lucía, en la modalidad individual, y el Museo Nacional de Arte Romano de Mérida, en la modalidad institucional.
El Dr. Lucía fue distinguido por más de dos décadas de investigación sobre los beneficios del ejercicio físico en pacientes oncológicos y otras enfermedades, destacando que la ciencia debe estar más presente en la vida cotidiana. Por su parte, el Museo Romano, dirigido por Trinidad Nogales, fue reconocido por su labor en la transferencia del conocimiento histórico a través de actividades educativas, talleres y exposiciones que acercan el legado romano al público general.
El acto reunió a representantes de universidades, centros de investigación y organismos culturales de toda España, en una cita que volvió a subrayar que el conocimiento cobra verdadero sentido cuando se comparte.

“El conocimiento no debe quedarse encerrado en los laboratorios”
La ceremonia fue inaugurada por Marta Ariño, Presidenta de la Fundación, quien dio la bienvenida a los asistentes recordando que la ciencia, el arte y el conocimiento constituyen pilares fundamentales de la sociedad. Subrayó que el propósito de la Fundación es tender puentes entre investigadores y ciudadanía, porque “el conocimiento no debe quedarse encerrado en los laboratorios”.
Por su parte, José Ramón Alonso, doctor por la Universidad de Salamanca y patrono de la Fundación, insistió en la urgencia de una divulgación clara y rigurosa: “Necesitamos llegar mejor a la sociedad, de forma clara y basada en información”.
“Vivimos en una época de mala información y la Fundación Muy Interesante es una pieza clave para el futuro”.
Alonso
En su intervención, recordó también que la ciencia no debe olvidar sus raíces y que junto al avance del conocimiento, la sociedad necesita valores esenciales y profesiones básicas como maestros, bomberos o policías.
Premio individual: Alejandro Lucía
El Dr. Alejandro Lucía, médico e investigador especializado en los beneficios del ejercicio físico en pacientes oncológicos, recibió el premio en la categoría individual. Su trayectoria de más de 25 años ha demostrado cómo la actividad física puede convertirse en una herramienta terapéutica real en hospitales, residencias y centros de investigación.
Lucía dijo a MUY que la ciencia rara vez ocupa espacio en la agenda informativa y destacó la necesidad de divulgar para que la sociedad conozca el valor de la investigación realizada en España. Reconoció a la Fundación Muy Interesante por dar visibilidad a ese esfuerzo y remarcó que la ciencia existe para servir a las personas.
Sobre su campo de trabajo, fue claro: “Hacer ejercicio físico con regularidad ayuda a prevenir muchas enfermedades. Es una pena que no utilicemos más esa herramienta. Hay que prestar más atención al estilo de vida”. El aporte del Dr. Lucía va más allá de promover hábitos saludables. Su investigación ha contribuido a que la medicina reconozca el ejercicio físico como una medida preventiva y como un recurso terapéutico.
Con más de 700 publicaciones científicas, su trayectoria está sólidamente documentada, aunque lo que realmente distingue su labor es el impacto tangible: una ciencia que trasciende el laboratorio y se aplica en hospitales, en espacios de rehabilitación y en la vida diaria de los pacientes.

Premio institucional: Museo Nacional de Arte Romano de Mérida
En la categoría institucional, el reconocimiento fue para el Museo Nacional de Arte Romano de Mérida, obra maestra del arquitecto Rafael Moneo. Trinidad Nogales, directora del centro, recogió el galardón agradeciendo el reconocimiento a la institución, a la que definió como un referente cultural e histórico.
En su discurso, Nogales reivindicó el papel de los museos como agentes activos en la transferencia de conocimiento. Explicó que la labor de los investigadores consiste en seguir rastros y huellas, y que en el caso de su institución esos vestigios son los de la cultura. Subrayó, además, que a diferencia de otros ámbitos académicos, los museos tienen la capacidad de hacer partícipe a la sociedad de ese conocimiento de manera directa.
La directora aprovechó para subrayar la carencia de reconocimiento institucional que viven los museos como espacios de investigación —con poco apoyo para poder participar en proyectos nacionales e internacionales. Añadió que el verdadero logro de su equipo es ver las salas llenas de público disfrutando de actividades que acercan el legado romano con rigor y creatividad.
Nogales concluyó con una reflexión etimológica: “cultura es un sustantivo que deriva del verbo latino colere, que significa hacer crecer las plantas... Eso es lo que hace la cultura: nos hace crecer como sociedad y como personas”.

Voces invitadas: la ciencia como bien común
El acto reunió a representantes de universidades, centros de investigación y organismos españoles, en una celebración que quiso poner en valor el esfuerzo de quienes generan conocimiento desde distintos ámbitos: laboratorios, hospitales, museos y aulas.
Entre ellas, Inés Moreno, vicerrectora adjunta de investigación de la Universidad de Málaga, destacó la importancia de este tipo de iniciativas como vía para reconocer la labor de los investigadores: “La celebración de este tipo de eventos es la mejor forma de reconocer a los investigadores el trabajo que hacen desde universidades, instituciones o, como en este caso, desde los museos”, para acercar a la sociedad los avances que cuestan tanto esfuerzo y dedicación.
Moreno añadió que acercar estos resultados al público no solo es un reconocimiento al trabajo académico, sino también una forma de garantizar que la investigación tenga una aplicación real y contribuya a la cultura y al bienestar social.
Una misión compartida
La Fundación Muy Interesante nació en 2023 con un propósito claro: hacer que el conocimiento circule. En solo dos años ha tejido una red con universidades y centros de investigación y hoy llega cada mes a decenas de miles de personas a través de sus canales de divulgación, con el apoyo de entidades como la Universidad Autónoma de Madrid, la Universidad de Málaga, la Universidad de Cantabria, la Universidad de Valencia, la Universidad Europea, el Instituto de Salud Carlos III, el CSIC y sus institutos asociados, la UNIR, la Universidad de León y la Academia Joven de España.
Con esta segunda edición de sus premios, la Fundación vuelve a poner en valor la importancia de quienes no solo investigan, sino que también se atreven a compartir el saber con la sociedad, convirtiéndolo en un bien común.
La revolución de la movilidad comercial urbana encuentra un nuevo protagonista: el Renault 4 E‑Tech Eléctrico Van, una propuesta eléctrica específicamente diseñada para profesionales, flotas y operarios de servicios que buscan combinar la practicidad de un vehículo comercial con la eficiencia y el estilo de un turismo moderno. Con precios que parten de los 23.954 € antes de impuestos, Renault da el salto definitivo a la electrificación del segmento ligero, con una solución versátil y competitiva.
Este nuevo Van eléctrico nace como derivado directo del Renault 4 E‑Tech Eléctrico, un modelo que rinde homenaje al mítico Renault 4L producido entre 1961 y 1994, del que se fabricaron más de ocho millones de unidades en todo el mundo, incluida la planta de Valladolid. Aquel coche fue concebido como una solución simple, robusta y accesible para las zonas rurales francesas, y acabó convirtiéndose en un icono mundial, asumiendo múltiples roles: familiar, comercial, primer coche, incluso objeto de moda. Hoy, Renault rescata su esencia con una reinterpretación contemporánea: un B-SUV eléctrico de 4,14 metros, emocional, funcional y con toques estéticos que evocan al modelo original, como la tercera ventanilla lateral, los pilotos verticales o el frontal carenado.
El Van hereda ese mismo espíritu, aunque orientado al trabajo. Concebido desde el inicio como un vehículo N1, es decir, homologado como vehículo comercial ligero, se le han realizado modificaciones estructurales clave: eliminación de asientos traseros, suelo reforzado, panel separador de carga y ganchos de sujeción. Su capacidad de carga útil alcanza los 375 kg, con un volumen de hasta 940 dm³, lo que lo posiciona como una herramienta ideal para repartos urbanos, autónomos y profesionales que apuestan por la sostenibilidad sin renunciar a la funcionalidad.
Homologación y concepción N1: una furgoneta nacida del ADN de un icono
El Renault 4 E‑Tech Eléctrico Van se ha homologado como vehículo N1, es decir, como furgón comercial ligero, con una estructura específicamente modificada para el trabajo diario: sin plazas traseras, con un suelo plano y reforzado, panel separador rígido y puntos de anclaje para asegurar la carga. No es una simple adaptación, sino un rediseño industrial desde el chasis que permite una integración completa con los estándares del transporte profesional urbano.
Su concepción no parte de cero: es el hermano funcional del Renault 4 E‑Tech Eléctrico, el SUV compacto 100 % eléctrico que recupera la memoria de uno de los modelos más emblemáticos de la marca. Aquel Renault 4 original, que motorizó a Francia rural durante décadas, sirve ahora como inspiración para un vehículo moderno, tecnológico y emocional, que comparte plataforma, proporciones y hasta un 65 % de componentes con el nuevo Renault 5 E-Tech.
Mientras el R4 E-Tech coche se dirige a familias, urbanitas y aventureros nostálgicos con espíritu sostenible, el Van toma ese mismo legado y lo convierte en herramienta de trabajo. Esta dualidad convierte al proyecto Renault 4 E‑Tech en uno de los más ambiciosos y coherentes dentro de la estrategia de electrificación emocional de la marca francesa.

Un eléctrico nacido para el trabajo
El Renault 4 E‑Tech Van no es un turismo modificado, sino un vehículo profesional concebido desde el inicio como utilitario. Está homologado como N1, lo que le otorga ventajas fiscales y normativas en muchos países europeos.
Esto significa que no se trata de una versión adaptada del modelo de pasajeros, sino de una transformación estructural y legal: eliminación de asientos traseros, instalación de suelo reforzado, panel de separación, puntos de anclaje y compartimentos adicionales optimizados para carga.El resultado es un vehículo más robusto, más seguro y más eficiente para uso diario profesional.

Espacio de carga que sorprende
Uno de los aspectos más llamativos es su volumen útil: hasta 940 litros, una cifra que lo sitúa entre los líderes del segmento de furgonetas compactas eléctricas.
A ello se suma un compartimento adicional de 36 litros bajo el suelo, ideal para guardar el cable de carga o herramientas pequeñas, sin restar espacio útil.
La longitud máxima del compartimento alcanza los 1,20 metros, lo que permite transportar paquetes de tamaño medio, herramientas, equipamiento técnico o incluso elementos más voluminosos con cierta facilidad.

Diseñado para la ciudad (y sus límites)
En entornos urbanos donde la circulación está restringida por emisiones o ruido, el Renault 4 E‑Tech Van se mueve como pez en el agua. Su tamaño compacto, maniobrabilidad y acceso a zonas de bajas emisiones lo convierten en el aliado perfecto para la última milla.
Además, gracias a su autonomía y capacidades de recarga, puede hacer varias rutas al día sin necesidad de parar más de lo necesario. El silencio de marcha y la aceleración suave también lo hacen ideal para entornos residenciales o centros históricos. En definitiva, es una herramienta de trabajo pensada para la ciudad y sus nuevos desafíos.

Dos versiones, dos perfiles profesionales
El Renault 4 Van está disponible con dos motorizaciones eléctricas para adaptarse a distintos perfiles de uso.
- La versión de acceso ofrece 90 kW (120 CV) y una batería de 40 kWh, con una autonomía de hasta 308 km WLTP.
- La variante superior entrega 110 kW (150 CV) con batería de 52 kWh, permitiendo hasta 409 km WLTP de autonomía.
Con estas cifras, Renault cubre tanto a los usuarios que realizan rutas cortas y frecuentes, como a quienes necesitan más rango sin sacrificar espacio ni agilidad.

Autonomía y eficiencia que convencen
Más allá de los datos oficiales, en el uso real el Renault 4 Van promete un consumo ajustado, sobre todo en entornos urbanos, donde el sistema de regeneración de energía y la conducción suave eléctrica marcan la diferencia.
Los modos de conducción permiten optimizar el uso energético según el tipo de ruta, y la climatización se ha diseñado para minimizar el impacto sobre la autonomía sin sacrificar confort. Esto se traduce en una eficiencia energética ejemplar que permite a los profesionales planificar sus jornadas sin ansiedad por la autonomía.

Carga rápida para no perder tiempo
El sistema de carga del Renault 4 E‑Tech Van es tan práctico como eficiente. En corriente alterna (AC), permite recargar del 15 % al 80 % en unas 2,5 a 3 horas, según la batería.
Pero donde realmente brilla es en corriente continua (DC): con cargadores rápidos de hasta 100 kW, es posible recuperar hasta el 80 % en apenas 30 minutos.
Esto significa que se puede repostar durante un descanso o pausa de trabajo, manteniendo al vehículo siempre operativo, sin largos periodos fuera de servicio.

Precio competitivo para profesionales exigentes
Renault ha apostado por una estrategia de precios agresiva: el modelo más económico parte de 23.954 € antes de impuestos, mientras que la versión de mayor autonomía se sitúa en 26.284 €. Teniendo en cuenta los ahorros en combustible, mantenimiento y posibles incentivos fiscales, el coste total de propiedad es muy competitivo frente a vehículos térmicos. Una inversión que no solo cumple con la normativa ambiental, sino que también resulta rentable a medio plazo.

Personalización a medida: fábrica inteligente
La transformación del Renault 4 Van se realiza en Maubeuge (Francia), en las instalaciones de Ampère, por la unidad Qstomize, especializada en adaptar vehículos para usos profesionales.
Esto garantiza un nivel de calidad de montaje y homologación idéntico al de cualquier otro modelo de la gama, y evita las típicas limitaciones de las adaptaciones posventa. Además, Renault ofrece una gama de accesorios y opciones para que cada cliente pueda personalizar el vehículo a sus necesidades reales.

Ideal para repartos, mantenimiento y más
El nuevo Renault 4 E‑Tech Van está pensado para profesionales en movimiento: empresas de mensajería, servicios de instalación, electricistas, técnicos de climatización o mantenimiento, entre otros.
Su combinación de agilidad, espacio y eficiencia lo hace ideal para quienes necesitan moverse rápido y con carga ligera o media, sin sacrificar confort ni imagen de marca. Además, su diseño moderno y reconocible lo convierte en una excelente tarjeta de presentación.

Compite con los grandes, desde una nueva perspectiva
En un segmento donde marcas como Peugeot, Citroën o Fiat ya ofrecen furgonetas eléctricas, Renault ha optado por un enfoque diferente: no un derivado industrial, sino un vehículo ligero, urbano y versátil.
Es una apuesta que busca destacar por eficiencia, diseño y sostenibilidad, más que por capacidad bruta o volumen extremo.
Esto lo posiciona como una opción muy atractiva para empresas jóvenes, flotas urbanas o autónomos que buscan una herramienta útil, pero también coherente con los valores actuales.

Un icono reinventado con visión de futuro
El Renault 4 E‑Tech Van es también un guiño emocional: recupera el espíritu del legendario “cuatro latas”, pero con tecnología del siglo XXI. Ya no es un coche familiar, sino una solución de movilidad comercial que mantiene la esencia de versatilidad, fiabilidad y economía, ahora con cero emisiones. Este tipo de reinterpretación con sentido práctico y base tecnológica puede marcar el camino para otros modelos que vuelvan del pasado con un enfoque moderno.

¿El inicio de una nueva generación de eléctricos profesionales?
El Renault 4 Van no es solo un producto, es el primer paso de una estrategia de electrificación pensada para profesionales. Si tiene éxito, podríamos ver versiones ampliadas, gamas complementarias o incluso modelos específicos para sectores concretos.
Renault tiene la capacidad industrial, la red de posventa y la experiencia para liderar este segmento. Con el 4 E‑Tech Van, demuestra que es posible combinar nostalgia, innovación y funcionalidad en un solo vehículo.

Y lo hace en el momento justo, cuando el mercado pide soluciones sostenibles, ágiles y económicamente viables para el trabajo diario en ciudad.
Durante décadas, la historia oficial sobre el origen de Homo sapiens se ha sustentado en una línea evolutiva clara, con raíces profundas en África y una separación de nuestros parientes más cercanos —los neandertales y los denisovanos— hace unos 600.000 años. Sin embargo, un cráneo humano fósil hallado en China y recientemente reconstruido ha sacudido los cimientos de esa narrativa. El hallazgo, publicado en la revista Science, no solo adelanta en unos 400.000 años la aparición de nuestra especie, sino que plantea una posibilidad aún más controvertida: ¿y si Homo sapiens no surgió exclusivamente en África?
El fósil en cuestión, conocido como Yunxian 2, fue encontrado en la década de 1990 en la provincia china de Hubei, pero su estudio había sido limitado debido a su estado fragmentado y deformado. Eso cambió recientemente gracias a técnicas avanzadas de escaneo por tomografía computarizada y modelado digital en 3D que permitieron reconstruir el cráneo con un nivel de detalle sin precedentes. Los resultados han sorprendido incluso a los propios investigadores.
Un rostro del pasado, con rasgos del futuro
Lo que emergió de la reconstrucción digital no fue simplemente una pieza arqueológica más, sino un testimonio directo de un momento clave en la evolución humana. El cráneo muestra una combinación única de rasgos: por un lado, conserva características arcaicas similares a las de Homo erectus, como una bóveda craneal baja y robusta; pero por otro, presenta elementos más modernos, como una cara más plana, pómulos altos y una cavidad craneal más amplia de lo esperable para su antigüedad.
Este patrón anatómico mixto ha llevado a los científicos a ubicar a Yunxian 2 dentro de un linaje poco comprendido pero cada vez más relevante: el de Homo longi, también conocido como el “hombre dragón”. Este grupo incluiría también a los denisovanos, una especie humana extinta cuya existencia fue confirmada en los últimos años gracias al análisis genético de restos fósiles hallados en Siberia.
Sin embargo, Yunxian 2 no sería un denisovano como tal, sino una forma aún más primitiva, un antecesor cercano al tronco común que dio lugar tanto a Homo sapiens como a los denisovanos. Y es aquí donde las implicaciones se tornan revolucionarias.

Una divergencia mucho más antigua de lo pensado
El equipo de investigación, liderado por expertos de universidades chinas y del Museo de Historia Natural de Londres, ha utilizado análisis morfométricos avanzados para comparar más de 500 rasgos anatómicos de Yunxian 2 con otros más de 100 fósiles humanos de todo el mundo. Lo que revelaron estos análisis fue una reorganización total del árbol genealógico humano: la separación entre Homo sapiens, neandertales y denisovanos no ocurrió hace 600.000 años, como se pensaba, sino hace al menos 1,3 millones de años.
Eso significa que el linaje de Homo sapiens —nuestro linaje— podría haber emergido hace más de un millón de años, lo que duplica los plazos tradicionales aceptados por la mayoría de modelos genéticos actuales. De hecho, el estudio establece que el grupo al que pertenecía Yunxian 2 —la denominada clado longi— se separó hace 1,2 millones de años, mientras que la rama de Homo sapiens lo hizo en torno a los 1,02 millones.
Lo más intrigante es que el fósil hallado en Yunxian se encuentra justo en la intersección de esas dos grandes ramas. Esto lo convierte en uno de los mejores candidatos a representar al último ancestro común entre nuestra especie y los denisovanos. No es exagerado decir que este cráneo podría ser el “eslabón perdido” que la ciencia llevaba décadas buscando.

¿Un origen asiático para Homo sapiens?
Las consecuencias del estudio no terminan ahí. Otro de los puntos más discutidos entre los investigadores es la ubicación geográfica de este ancestro común. Hasta ahora, la mayoría de los modelos asumían que Homo sapiens y sus parientes cercanos evolucionaron exclusivamente en África, y que luego migraron hacia otras regiones del mundo.
Pero la presencia de fósiles tan antiguos y anatómicamente complejos en China —como Yunxian 2 y otros similares como Homo longi o los fósiles de Atapuerca en España (850.000 años de antigüedad)— sugiere una distribución pan-eurasiática mucho antes de lo que se creía. En otras palabras, es posible que los linajes que dieron origen a nuestra especie ya se encontraran dispersos por Eurasia desde hace más de un millón de años. Algunos de ellos podrían haber evolucionado fuera de África y luego haber regresado, reintroduciéndose en el continente en etapas posteriores.
Esta hipótesis es aún objeto de debate, pero pone en entredicho el modelo clásico como única explicación para el surgimiento de los humanos modernos.
De hecho, uno de los grandes problemas que enfrenta la paleoantropología actual es la confusión causada por la enorme variedad de fósiles humanos con rasgos intermedios hallados en Eurasia entre hace 1 millón y 300.000 años. Muchos de estos restos no encajan del todo en las categorías clásicas de Homo erectus, neandertales o humanos modernos.
El nuevo análisis liderado por Ni Xijun y Chris Stringer propone una solución clara a este enigma. Según el nuevo árbol evolutivo propuesto, las principales especies de humanos grandes (de mayor capacidad craneal) evolucionaron a lo largo de cinco ramas principales: Homo erectus asiático, Homo heidelbergensis, Homo sapiens, neandertales y Homo longi (incluyendo a los denisovanos).
Con esta nueva clasificación, muchos de los fósiles "incomprendidos" podrían ser reubicados como variantes tempranas dentro de estos linajes. Así, lo que parecía una colección caótica de especies aisladas, podría en realidad ser el reflejo de una evolución más rica y diversa de lo que nunca imaginamos.

Un descubrimiento que nos obliga a repensarnos
Lo que demuestra Yunxian 2 es que la evolución humana no fue un proceso lineal ni exclusivo de un solo continente. Fue una red de poblaciones humanas que coexistieron, se cruzaron y divergieron a lo largo de cientos de miles de años. Y lo más probable es que todavía estemos viendo solo una parte del cuadro completo.
El equipo científico planea continuar sus análisis con otros fósiles clave en África, Europa y Asia. Incluso se espera que el cráneo Yunxian 3 —aún sin estudiar formalmente— pueda aportar nuevas pistas en los próximos años.
Mientras tanto, lo cierto es que este cráneo milenario, desenterrado junto a un río en China, acaba de reescribir uno de los capítulos más antiguos y fundamentales de nuestra historia como especie.
El estudio ha sido publicado en la revista Science.
El doctor Alejandro Lucía —catedrático e investigador en la Universidad Europea de Madrid— ha dedicado su carrera a demostrar que el ejercicio físico es mucho más que una herramienta de prevención: puede convertirse en un verdadero tratamiento frente a múltiples enfermedades. Su trayectoria le ha valido el Premio Fundación Muy Interesante en su segunda edición, en la categoría individual, y es en este marco que hemos conversado con él sobre los logros y retos de la medicina del ejercicio.
A lo largo de los años, Alejandro Lucía ha demostrado que el ejercicio físico, correctamente planificado y supervisado, es seguro incluso en los contextos más delicados: desde niños con trasplantes de médula ósea hasta personas mayores hospitalizadas o pacientes con cáncer. Al frente del Grupo de Investigación en Actividad Física y Salud, ha impulsado junto a su equipo programas pioneros de ejercicio en hospitales, instalando gimnasios intrahospitalarios para que los niños con cáncer puedan ejercitarse durante los tratamientos, reduciendo complicaciones y mejorando su calidad de vida.
Su investigación también se ha extendido al estudio del corazón de atleta, la genética del rendimiento deportivo y enfermedades raras como la de McArdle, en la que es considerado uno de los mayores expertos del mundo. Además, ha defendido cambios de paradigma en medicina, como derribar la idea de que el embarazo debe vivirse en reposo. Con una visión integradora y apoyado en la ciencia más avanzada, Lucía ha convertido el ejercicio en una herramienta clínica de primer nivel, capaz de mejorar la salud y alargar la vida.

¿En qué contextos especiales han aplicado programas de ejercicio y qué resultados han observado?
Durante mi carrera hemos demostrado cómo, hasta en los escenarios más complicados —como la fase de aislamiento en niños que reciben un trasplante de médula ósea o incluso estancias penitenciarias— el ejercicio físico individualizado y supervisado representa una intervención segura y eficaz. Hemos implementado programas de ejercicio ad hoc tanto en patologías (cáncer, hipertensión arterial o pulmonar, enfermedad de Alzheimer, anorexia, o enfermedades metabólicas de base genética, entre otras) como en poblaciones especiales (personas muy mayores, mujeres embarazadas, o presidiarios en desintoxicación con metadona).
También hemos estudiado a fondo el llamado corazón de atleta —que muestra adaptaciones únicas, mas no por ello patológicas. Y he trabajado en el campo de la genética, siendo por ejemplo uno de los autores seniors del primer estudio de asociación de genoma completo sobre genética y rendimiento deportivo realizado con atletas de diferentes orígenes étnicos y geográficos. He liderado estudios pioneros con intervenciones de ejercicio intrahospitalario para tratar de atenuar los efectos adversos —y muchas veces persistentes— del tratamiento (sobre todo, quimio y radioterapia) contra el cáncer infantil (inmunodepresión, fatiga, atrofia muscular o cardiotoxicidad).
Hemos creado, con financiación nacional/internacional pública/privada, y también con la ayuda de fundaciones de pacientes (como las Fundaciones Aladina y Unoentrecienmil), una infraestructura —pienso que única en el mundo— de gimnasios intrahospitalarios para todos los niños con cáncer tratados en centros públicos de Madrid (12 de Oct, La Paz, Marañón, Niño Jesús). Contamos con un verdadero ‘ejército’ de preparadores físicos que se dejan la piel por estos pacientes. También realizamos estudios preclínicos para ahondar en los mecanismos biológicos implicados en los potenciales efectos antitumorales del ejercicio (p.ej., a través de una mejora de la inmunovigilancia).
¿En qué áreas considera que su trabajo ha contribuido a transformar la visión médica más tradicional?
Espero haber ayudado a generar algunos cambios de paradigma en el pensamiento clínico, frente a visiones más dogmáticas. Por ejemplo, el embarazo ya no ha de ser considerado un periodo de inactividad forzada, ni mucho menos —por el bien no solo de la salud materna sino también por la de su descendencia— con diversos ensayos clínicos realizados en esta área en años pasados. Y, sobre todo, las personas muy mayores institucionalizadas o incluso hospitalizadas —los grandes olvidados de la medicina y de nuestra sociedad, algo que pienso debería avergonzarnos y llevarnos a una profunda reflexión— pasan demasiado tiempo inactivos o encamados sin razón médica; nunca es demasiado tarde para que hagan ejercicio, que contribuye a atenuar su declive funcional, incluso en fases de hospitalización por problemas graves. Nuestro grupo utiliza las tecnologías de nuestro tiempo (‘ómicas’, entre otras) para intentar responder a las preguntas que se nos plantean.
Por ejemplo, cómo es la ‘firma sanguínea’ del envejecimiento saludable y con funcionalidad independiente al final de la vida humana. Finalmente, creo haber contribuido a mejorar el conocimiento y manejo de la enfermedad de McArdle (o ‘glucogenosis tipo V’) empleando un abordaje multidisciplinar y habiendo liderado y coliderado el registro nacional y europeo, respectivamente, de esta enfermedad. Y tengo el honor de ser considerado el mayor experto mundial en esta enfermedad, según ‘expertscape’.
¿Qué nos dice hoy la ciencia sobre el papel del ejercicio como herramienta terapéutica en distintas enfermedades?
Existe cada vez más evidencia de que seguir las recomendaciones mínimas de actividad física dictadas por la OMS —es decir, al menos 150 min a la semana de actividades aeróbicas, como caminar a buen ritmo, a lo que hay que añadir 2-3 sesiones semanales de ejercicios de fuerza— disminuye el riesgo de padecer las enfermedades crónicas más prevalentes de nuestra civilización: enfermedades cardiovasculares, diversos tipos de cáncer, o incluso enfermedades degenerativas. Es lo que se conoce como prevención primaria. Además, en pacientes ya diagnosticados, el ejercicio puede contribuir a mejorar el tratamiento de su enfermedad y a prevenir el riesgo de eventos graves—prevención secundaria. Por ejemplo, en personas que hayan sufrido un infarto de miocardio, el ejercicio aeróbico bien programado y supervisado, incluso intenso, puede prevenir el desarrollo de un segundo infarto, o al menos ayudar al miocardio a regenerarse mejor si apareciese. Otro ejemplo ilustrativo: el ejercicio programado disminuye la mortalidad de pacientes con cáncer de colon.

Sus estudios han explorado desde la enfermedad de McArdle hasta el cáncer infantil. ¿Qué hallazgos destacaría que hayan cambiado la práctica clínica o la visión científica?
Espero haber contribuido —y lo nuestro nos ha costado— a que el ejercicio supervisado (incluyendo además ejercicios de fuerza) forme parte del manejo de la enfermedad de McArdle, como señalamos en las guías clínicas internacionales de esta patología que he tenido el privilegio de liderar. Y algo parecido creo haber conseguido en el cáncer infantil. Estoy dirigiendo las guías internacionales del Colegio Americano de Medicina Deportiva sobre ejercicio en cáncer infantil, con especialistas de otros países. Comenzamos en esto hace casi 20 años y ahora es un orgullo ver cómo incluso se financian proyectos europeos sobre el tema. Y en nuestro caso —gracias a la Dra. Fiuza Luces, que ha recogido el testigo junto con la Dra. Elena Santana, de esta casa— implementamos programas de ejercicio supervisados por profesionales en los cuatro hospitales públicos de referencia en Madrid para el tratamiento del cáncer infantil, como indicaba más arriba. ¡Hasta se empiezan a recoger datos de ejercicio en las historias clínicas!
Usted es catedrático en la Universidad Europea, ¿cómo impulsa la Universidad Europea la investigación en ejercicio y salud, y qué papel juega en la formación de futuros profesionales que integren el ejercicio como herramienta terapéutica?
He desarrollado toda mi carrera investigadora postdoctoral en esta universidad. Y aquí pretendo acabarla. Solo he visto crecimiento a lo largo de los años y en mi caso personal, siempre he recibido apoyo y cariño. En nuestra institución se forma a futuros profesionales de distintas ciencias sanitarias que pueden incorporarse a proyectos de investigación de diversos grupos como el nuestro, para aprender y motivarse (y luego, por ejemplo, realizar su tesis doctoral con nosotros). El que no investiga es porque no quiere.
¿Qué ejemplos clínicos podría compartir que ilustren cómo el ejercicio transforma la evolución de una enfermedad?
Por ejemplo, los niños con cáncer que hacen ejercicio pasan menos días ingresados. Que no es poco. O los pacientes muy mayores (80+ años) que hacen ejercicio en el hospital salen del mismo más funcionales, con menor declive físico. Aquí me gustaría reconocer la labor de un excelente geriatra, el Dr. Serra-Rexach (del CIBER de Fragilidad y Envejecimiento Saludable), con el que tengo la suerte de colaborar.

Usted insiste en que el ejercicio fortalece el sistema inmunitario y disminuye la inflamación. ¿Qué significa esto, en términos prácticos, para un paciente con cáncer?
Cada vez que haga una sesión de ejercicio —y más si es de una cierta intensidad— va a liberar a la sangre una considerable cantidad de células inmunes (linfocitos) capaces de infiltrar tumores y destruir células cancerosas. El ejercicio nunca va a sustituir a la quimioterapia o a la inmunoterapia, obviamente. Pero puede ayudar. Y no estamos para desdeñar nada que pueda ayudar a los pacientes, por poco que parezca.
¿Qué impacto cree que tendría, a nivel de salud pública, incorporar el ejercicio como parte rutinaria de los tratamientos médicos?
Creo que tenemos una sanidad bastante ejemplar y con grandes profesionales. Dicho lo cual, el ejercicio quizás podría ayudar a hacerla aún un poco mejor, sobre todo como herramienta preventiva, evitando un declive físico innecesario de los pacientes —que así tendrían mayor reserva funcional para afrontar tratamientos duros. Por ejemplo, con los programas de ejercicio que lidera la Dra. Ana Ruiz en el Hospital Puerta de Hierro de Madrid, los pacientes con cáncer de páncreas llegan mucho más fuertes a la cirugía (que es altamente agresiva).
¿Cómo debería el sistema sanitario incorporar de manera realista el ejercicio como herramienta preventiva y terapéutica?
Es una respuesta difícil de responder y que me supera un poco. De todos modos, más que un problema del sistema sanitario, a mi modo de ver es un problema de educación. Tendríamos que ser capaces de concienciar a la sociedad de que cada persona debería hacerse responsable en gran medida de su propia salud. Debería saber que si se ejercita con frecuencia tendrá un cuerpo más sano y resiliente. Es menos complicado para cualquier sistema sanitario curar a personas con una buena reserva funcional.
En el corazón de Andalucía ha salido a la luz un secreto milenario que reescribe parte de la prehistoria ibérica. Un equipo de arqueólogos de la Universidad de Cádiz ha desenterrado en Teba (Málaga) una tumba colectiva de más de 5.000 años de antigüedad, preservada de forma excepcional bajo tierra durante milenios. Se trata de un dolmen megalítico de 13 metros de longitud, cuya cámara y pasillos internos estaban intactos desde la Edad del Bronce, conteniendo ajuares de gran riqueza: objetos exóticos de marfil y ámbar, conchas marinas, puntas de flecha de sílex e incluso una antigua alabarda. El hallazgo, comparable en monumentalidad a los célebres dólmenes de Antequera, ha despertado asombro tanto por su estado de conservación como por la ventana que abre al modo de vida de las primeras comunidades andaluzas.
Este descubrimiento arqueológico no solo aporta tesoros materiales, sino que ofrece información clave sobre las creencias, rituales funerarios y redes de contacto de las sociedades prehistóricas del sur peninsular. Gracias a una excavación meticulosa con tecnologías del siglo XXI, los investigadores han podido ingresar, por primera vez desde alrededor del 1800 a.C., en el interior intacto de este monumento megalítico. La exploración ha revelado restos humanos y ofrendas in situ, tal como fueron dejados hace milenios, lo que permitirá reconstruir con detalle cómo eran los enterramientos colectivos en aquella época. A continuación, explicamos el contexto histórico de los dólmenes andaluces, los detalles de este hallazgo extraordinario y las implicaciones científicas y patrimoniales que conlleva.
Contexto histórico: el legado de los dólmenes en Andalucía
Andalucía posee un rico legado megalítico fruto de las primeras sociedades agrarias del Neolítico y la Edad del Cobre. Desde aproximadamente el VI al III milenio a.C., los pobladores prehistóricos de la región erigieron numerosos dólmenes o sepulcros de piedra para uso ritual y funerario. Estos monumentos consisten en grandes bloques megalíticos que forman cámaras cubiertas con losas. Suelen encontrarse enterrados bajo túmulos de tierra, integrados en el paisaje natural, y eran utilizados como tumbas colectivas donde se depositaban los restos de varios individuos junto con sus ofrendas funerarias.
Ejemplos destacados abundan en la geografía andaluza. El Conjunto Dolménico de Antequera (Málaga), que incluye los famosos dólmenes de Menga y Viera y el tholos de El Romeral, fue declarado Patrimonio Mundial por la UNESCO en 2016. Representa una asombrosa muestra de la arquitectura megalítica europea, por la colosal dimensión de sus piedras y su precisa orientación astronómica. También es reseñable el Dolmen de Soto, en Trigueros (Huelva), de casi 21 metros de longitud, uno de los más grandes y mejor conservados del sur de España. En esta misma provincia se han localizado más de doscientos monumentos similares, lo que demuestra la extensión y relevancia del megalitismo en la región.
A pesar de su abundancia, muchos de estos yacimientos fueron excavados hace más de un siglo con técnicas rudimentarias, lo que limitó la información recogida. En este contexto, el dolmen de Teba cobra un valor especial: al permanecer sellado e intacto hasta hoy, ofrece a los arqueólogos una oportunidad única de estudiar un enterramiento prehistórico en su contexto original.

El hallazgo en Teba: un dolmen monumental sale a la luz
El descubrimiento del dolmen de Teba ha sido fruto de cuatro campañas sucesivas de excavación llevadas a cabo entre 2022 y 2025. Un equipo de investigación de la Universidad de Cádiz, dirigido por los doctores Eduardo Vijande y Serafín Becerra, emprendió la exploración de la zona conocida como necrópolis de La Lentejuela. Con financiación del Ayuntamiento de Teba y autorizaciones de la Consejería de Cultura y Patrimonio Histórico, el proyecto combinó arqueología de campo con análisis multidisciplinarios, contando además con la colaboración de la Fundación Palarq y la participación de estudiantes de Historia.
La estructura, denominada Dolmen I de La Lentejuela, presenta unas dimensiones imponentes: alrededor de 13 metros de longitud, con varios compartimentos internos delimitados por losas de piedra y puertas perforadas. Al retirar cuidadosamente el túmulo de tierra y desmontar la cubierta, los arqueólogos accedieron a un interior prístino, un espacio sellado desde hace unos 3.800 años. Allí encontraron restos humanos y ajuares en su posición original, lo que aporta un valor científico excepcional.
Estructura y ajuares de una tumba de 5.000 años
El dolmen está formado por varias cámaras sucesivas, separadas por losas perforadas a modo de puertas. Dentro se localizaron restos óseos junto con una gran variedad de objetos funerarios. Entre ellos destacan fragmentos de marfil procedentes del norte de África, cuentas de ámbar posiblemente originarias de Sicilia, conchas marinas traídas del litoral, más de veinte puntas de flecha de sílex, láminas de gran tamaño, una hoja-alabarda y recipientes cerámicos. Estos objetos no solo tienen un valor arqueológico intrínseco, sino que revelan la existencia de contactos a larga distancia y jerarquías sociales dentro de la comunidad.
La presencia de materiales exóticos sugiere que los individuos enterrados pertenecían a una élite local con acceso a redes de intercambio mediterráneas y africanas. Por otro lado, los útiles de sílex de gran tamaño evidencian el trabajo de artesanos especializados y un alto nivel de habilidad técnica.
Revelaciones científicas: rituales y redes prehistóricas
El hallazgo abre una ventana única al estudio de los rituales funerarios prehistóricos. Al conservarse todo en su posición original, los arqueólogos pueden analizar la disposición de cuerpos y ajuares, reconstruyendo paso a paso los rituales de deposición. Se cree que el dolmen se construyó en torno al 3000 a.C. y se usó durante siglos, documentándose un cambio desde los enterramientos colectivos a prácticas más individualizadas en épocas posteriores.
Los estudios en curso incluyen dataciones de los materiales, análisis de ADN antiguo en los huesos y estudios arqueométricos para determinar el origen exacto del ámbar y el marfil. Estos trabajos permitirán comprender mejor quiénes eran las personas enterradas, qué comían, cómo vivían y qué creencias guiaban sus rituales.
El dolmen de Teba se convierte así en un auténtico laboratorio de investigación, con potencial para reinterpretar otros yacimientos excavados en épocas pasadas con menor detalle. Su conexión con los grandes centros megalíticos de Antequera y con asentamientos como Valencina de la Concepción o Los Millares refuerza la idea de que Andalucía formaba parte de amplias redes culturales y económicas en la Prehistoria.
Valor patrimonial y oportunidad turística del hallazgo
Más allá de su valor científico, el descubrimiento tiene implicaciones patrimoniales y turísticas. El Ayuntamiento de Teba y la Universidad de Cádiz planean proteger el yacimiento y poner en valor los hallazgos, posiblemente con exposiciones en museos y rutas de turismo cultural. El dolmen puede convertirse en un nuevo punto de atracción dentro del mapa megalítico andaluz, junto a monumentos tan conocidos como los de Antequera o el Dolmen de Soto.
Además, la excavación ha servido como espacio de formación práctica para estudiantes y puede inspirar futuras actividades de divulgación y participación ciudadana. El hallazgo no solo aporta conocimiento sobre el pasado, sino que también fortalece la identidad cultural local y abre nuevas oportunidades de desarrollo económico basado en el turismo arqueológico sostenible.
Referencias
- Noticia oficial de la Universidad de Cádiz sobre el hallazgo del dolmen en Teba (Málaga): https://www.uca.es/noticia/investigadores-de-la-universidad-de-cadiz-sacan-a-la-luz-un-dolmen-de-mas-de-5-000-anos-en-teba-malaga/.
El proceso por el que el cristianismo logró imponerse en el panorama religioso y cultural europeo fue lento y desigual. Si bien la adopción de la religión cristiana por parte del Imperio romano tras la conversión de Constantino facilitó su expansión, amplias áreas territoriales, especialmente en el norte del continente, permanecieron al margen hasta bien entrada la Edad Media e incluso la Edad Moderna. En la Europa medieval, la Iglesia utilizó una serie de estrategias variadas para intentar ganarse a las poblaciones paganas. En muchos casos, en lugar de imponer la religión con la fuerza, las autoridades eclesiásticas desarrollaron mecanismos simbólicos, psicológicos y arquitectónicos que resultaron decisivos para conquistar el paganismo.
Uno de los mecanismos más eficaces fue la apropiación de los espacios sagrados paganos, es decir, los bosques, piedras, manantiales, templos y altares que ya poseían un valor religioso ancestral entre las comunidades que se buscaba cristianizar. Al convertir esos lugares en iglesias, capillas y santuarios cristianos o, simplemente, mediante la reestructuración de los templos ya existentes, la Iglesia logró plantar el cristianismo allí donde la religiosidad popular ya estaba plenamente arraigada.

Un paganismo arraigado: la naturaleza, la geografía y los mitos
Los pueblos paganos del norte y del este de Europa, como los bálticos, los lapones (o sámi) y los antiguos prusianos, veneraban la naturaleza en formas diversas. Rendían culto en bosques sagrados, usaban determinadas piedras a las que se les atribuía significado espiritual, recurrían a los manantiales o mantenían un fuego perpetuo. Estos rituales estaban profundamente entrelazados con el paisaje. Así, las colinas, los ríos, los bosques y las rocas eran, en sí, manifestaciones de lo divino y puntos de conexión con lo ancestral. Por ejemplo, se ha encontrado que en regiones como Carelia, en la frontera entre Finlandia y Rusia, algunas piedras glaciares veneradas durante milenios aún exhiben los surcos donde los fieles paganos depositaban sus ofrendas.

La estrategia de apropiación: cómo mantener la continuidad
La Iglesia aplicó una estrategia inteligente. En lugar de arrancar de raíz esas religiosidades populares, decidió transformarlas en beneficio propio. En muchas regiones, se construyeron iglesias sobre antiguos templos y se levantaron altares cristianos donde antes había altares paganos. Aunque se destruían los ídolos, se mantenían las paredes, los lugares de culto e incluso la arquitectura. Así, los fieles veían que los espacios de la fe tradicional seguía nexistiendo, solo que bajo una nueva autoridad religiosa.
En el caso de Lituania, por ejemplo, cuando el rey Mindaugas fue coronado alrededor de 1253, aceptó el cristianismo durante un breve periodo y, en consecuencia, construyó una catedral en Vilna. Tras su homicidio, sin embargo, Lituania volvió al paganismo. Incluso se tomó una iglesia que había sido construida sobre un antiguo templo dedicado a Perkūnas (dios del trueno). Después de quitarle el techo, se restauró el altar pagano y se retomaron los rituales tradicionales.
Cuando, finalmente, en 1387, bajo el Gran Duque Jogaila, Lituania se convirtió formalmente al cristianismo, los frailes franciscanos destruyeron el altar pagano, retiraron el ídolo de Perkūnas y restauraron la estructura como catedral cristiana. Esa iglesia, que aún hoy existe en Vilna, entrelaza en sus piedras los legados del templo pagano, el santuario cristiano y la catedral.

La guerra como complemento a lo simbólico
Con todo, la estrategia simbólica por sí sola no fue suficiente para imponer el cristianismo. La Iglesia y los monarcas cristianos complementaron esta apropiación de espacios con las campañas militares. Se llevaron a cabo las llamadas Cruzadas del Norte, a partir del siglo XII, contra los paganos bálticos y se expandieron órdenes militares como los Caballeros Teutónicos. Además, se ejerció una fuerte presión política para aceptar el bautismo y se abogó por las conversiones forzadas en algunos casos.

Sin embargo, lo simbólico tenía un gran poder. Al reconvertir los lugares que para la población ya eran sagrados, la Iglesia ofrecía una continuidad con lo que los pueblos ya conocían, veneraban o temían. Así, aunque cambiaran de fe, podían seguir reuniéndose en los manantiales, bajo las grandes rocas o en los bosques, pero ya bajo la autoridad cristiana. Esa continuidad mitigaba la resistencia.

Los últimos bastiones del paganismo
Los últimos territorios que se resistieron al Cristianismo fueron Lituania y Letonia. Hasta fines del siglo XIV, Lituania fue uno de los últimos reinos paganos oficiales en Europa. La tolerancia formaba parte de la estrategia política del reino. Así, aunque los frailes cristianos vivían en sus territorios, el culto pagano siguió prosperando. Aun así, la presión militar que ejercieron los Caballeros Teutónicos y otros actores, junto con la apropiación simbólica de los espacios sagrados, fue determinante.
Un triunfo más allá de la espada
Desde los albores del cristianismo en Europa occidental hasta la cristianización tardía del Báltico en los siglos XII al XIV, esta táctica de continuidad resultó vital. Predicar, bautizar o imponer decretos no bastaba para convencer a la población. Las costumbres, los lugares de culto y los paisajes espirituales populares exigían una transición que no los desarraigara por completo, pues, de lo contrario, la Iglesia se arriesgaba a tener que hacer frente a revueltas o incluso a un retorno al paganismo. Al final, esta estrategia de la Iglesia permitió que la cristianización de Europa fuera un proceso de transformación cultural profunda que tocaba lo tangible: los lugares, los rituales, la memoria.
Referencias
- Young, Francis Kendrick. 2022. Pagans in the Early Modern Baltic. Arc Humanities Press.
- Young, Francis Kendrick. 2025. Silence of the Gods: The Untold History of Europe's Last Pagan Peoples. Cambridge University Press.
En el mercado de las aspiradoras sin cable estamos notando un gran crecimiento de la demanda, sobre todo buscando cada vez productos más prácticos y eficientes. Gracias a la autonomía, su batería y la potencia de succión que integran podemos conseguir una limpieza más cómoda y versátil en nuestro hogar.
La marca Dreame ha logrado captar la atención de los consumidores con su modelo H12 Pro Ultra, una aspiradora sin cable que se destaca por su potente succión y su innovador sistema de limpieza 2 en 1. Capaz de fregar y aspirar al mismo tiempo, lo que lo convierte en un gran modelo para quienes buscan eficiencia y practicidad.

El aspirador sin cables Dreame H12 Pro Ultra podemos encontrarlo en el mercado por 299€ en webs como Fnac o hasta más de 320€ en PcComponentes. Pero ahora se puede conseguir por mucho menos con esta oferta de Amazon que nos la ofrece por sólo 229 euros, alcanzando su precio mínimo histórico.
Se trata de un dispositivo que destaca por su potente motor sin escobillas. Además ofrece una succión de hasta 150 AW, eliminando la suciedad más difícil en todo tipo de superficies. Su sistema de limpieza 2 en 1, que combina aspirado y fregado simultáneamente, es ideal para mantener los suelos impecables. Además, cuenta con un depósito de agua y succión de 500 ml para un uso continuo de hasta 35 minutos.
Otros aspectos a destacar es su pantalla LED inteligente que muestra información en tiempo real sobre el rendimiento de la batería y el nivel de suciedad. Su tecnología de autolimpieza es otro punto a favor, eliminando los residuos acumulados en los cepillos y depósitos. Así mismo, su sistema de filtrado de alta eficiencia atrapa hasta el 99,9% de las particulas de polvo.
Dreame tampoco deja de lado los robots aspiradores con la rebaja del Dreame D20 Pro Plus
Entre las ofertas de Dreame, también se encuentra el Dreame D20 Pro Plus a un precio muy destacado. En otras webs como PcComponentes se puede ver a unos precios que alcanzan los 439€, pero Amazon sorprende con una oferta por el que te lo podrás llevar a 309 euros.

Este robot aspirador es ideal ya que combina aspirado y fregado gracias a su diseño 2 en 1. Pues está apoyado por una potencia de succión Vormax de 13000 Pa, lo que permite remover eficazmente el polvo, pelusas y suciedad adherida al suelo. El diseño incluye un depósito para el polvo de 500 ml y un depósito de agua de 350 ml que admite hasta 32 niveles de humedad. Destacar, además, su cepillo doble desenredante HyperStream pensado para mascotas especialmente.
Para mayor comodidad, integra un sistema de vaciado automático mediante una bolsa de 5L, que permite hasta 150 días de uso sin intervención manual. Cuenta con navegación inteligente con mapeo LDS le permite trazar rutas eficientes, esquivar obstáculos con precisión y hacer un seguimiento cercano a las paredes. Por último, es compatible con control por voz y APP con Siri, Alexa y Google Home.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
En los últimos años, el telescopio espacial James Webb (JWST) se ha convertido en una ventana privilegiada hacia los orígenes del universo. Sus imágenes infrarrojas no solo han revelado galaxias muy antiguas, sino también objetos inesperados que han desconcertado a los astrónomos. Entre ellos destacan los “puntos rojos” o little red dots, fuentes compactas y muy brillantes cuya naturaleza ha sido motivo de intensos debates.
Un reciente trabajo liderado por Anna de Graaff y publicado en Astronomy & Astrophysics propone que uno de estos objetos, apodado “El Acantilado” (The Cliff en inglés), representa algo completamente nuevo: una estrella de agujero negro. Según los autores, este hallazgo constituye la evidencia más clara hasta ahora de que al menos parte de los puntos rojos no son galaxias extremadamente densas, sino fuentes alimentadas por agujeros negros rodeados de gas denso que brilla al ser calentado.
El misterio de los puntos rojos
Desde 2022, el James Webb ha identificado una población de objetos compactos, pequeños y de color rojo intenso. Estos puntos recibieron pronto el apodo de “rompedores del universo”, porque parecían demasiado masivos y antiguos para encajar en los modelos de formación de galaxias en los primeros miles de millones de años.
Los astrónomos plantearon dos hipótesis principales. Por un lado, que fueran galaxias ultracompactas con tasas de formación estelar descomunales. Por otro, que se tratara de agujeros negros activos ocultos tras grandes cantidades de polvo. Ambas ideas chocaban con los modelos de evolución cósmica y ninguna explicaba del todo las observaciones.
La identificación de “El Acantilado” ofrece un tercer camino. Su espectro mostró una señal conocida como salto de Balmer, tan pronunciado que no podía atribuirse a estrellas envejecidas ni a un núcleo galáctico típico. En palabras de los investigadores: “Demostramos que podemos, por primera vez, excluir de forma robusta un origen basado en una población estelar de alta masa y densidad”.

Un objeto imposible de encajar
El análisis espectroscópico reveló que “El Acantilado” posee un salto de Balmer casi el doble de intenso que cualquier otro objeto similar observado en el universo temprano. Además, carece de líneas metálicas destacadas, algo extraño si se tratara de una galaxia con gran cantidad de estrellas evolucionadas.
Otra característica llamativa es su extrema compacidad. El equipo midió un radio efectivo de apenas 40 pársecs, un tamaño diminuto en comparación con galaxias de masa parecida. De haber sido una población estelar densa, la frecuencia de colisiones entre estrellas habría sido altísima, generando emisiones en rayos X que no se detectaron.
Esto llevó a los autores a descartar el escenario de una galaxia masiva y a proponer un modelo distinto: el de la estrella de agujero negro (black hole star). Según explican, este tipo de objeto consiste en un agujero negro que devora materia tan rápidamente que calienta un capullo de gas a su alrededor, haciéndolo brillar como si fuera una estrella.
La hipótesis de la estrella de agujero negro
El artículo de De Graaff y colaboradores señala que “la ruptura de Balmer, las líneas de emisión y la absorción en Hα se explican de forma más plausible por un escenario de estrella de agujero negro”. Esta interpretación encaja con la idea de que algunos de los puntos rojos no son galaxias, sino fenómenos intermedios en la evolución de agujeros negros en el universo primitivo.
Lo que diferencia a estas supuestas estrellas de agujero negro de los núcleos activos de galaxias (AGN) conocidos es que su gas envolvente es mucho más denso y su espectro más rojo. El modelo implica tasas de acreción super-Eddington, es decir, crecimientos del agujero negro más rápidos de lo que predicen los límites clásicos de la astrofísica.
Si estos objetos existen en gran número, podrían resolver un misterio de la cosmología: cómo aparecieron agujeros negros supermasivos tan pronto tras el Big Bang. La fase de estrella de agujero negro permitiría un crecimiento acelerado, explicando observaciones que hasta ahora parecían imposibles.

Comparaciones y tensiones con otros modelos
El equipo exploró distintos escenarios alternativos: poblaciones estelares masivas, variaciones extremas en la función inicial de masas, o leyes de atenuación del polvo poco habituales. Ninguno consiguió reproducir los datos sin introducir contradicciones.
Por ejemplo, al suponer que el brillo provenía de estrellas envejecidas, los modelos exigían densidades estelares tan extremas que el sistema sería inestable. Además, la supuesta abundancia de colisiones estelares habría producido estallidos en rayos X detectables, pero el satélite Chandra mostró que “El Acantilado” no emite radiación significativa en ese rango.
En cuanto al polvo, la única forma de ajustar los modelos era recurrir a leyes de extinción más empinadas que las observadas en la Vía Láctea o en la Nube de Magallanes. Sin embargo, los autores destacan que “las leyes de atenuación tan empinadas y a la vez ópticamente gruesas parecen físicamente inverosímiles”.
Implicaciones para la evolución cósmica
La posible existencia de estrellas de agujero negro obliga a replantear parte de lo que se sabe sobre el universo temprano. Estos objetos serían etapas transitorias, visibles solo durante un tiempo limitado, pero con un papel clave en el crecimiento de los primeros agujeros negros.
De hecho, la presencia de más de un candidato en los mismos programas de observación sugiere que no se trata de rarezas. Otro objeto muy parecido, denominado MoM-BH-1*, se identificó a un corrimiento al rojo mayor, reforzando la idea de que no son fenómenos aislados.
El siguiente paso será observar más puntos rojos con la sensibilidad del James Webb y buscar señales similares. Según los propios autores, “El Acantilado proporciona la evidencia más clara hasta la fecha de que al menos algunos puntos rojos no son galaxias ultradensas, sino fuentes dominadas por un centro ionizante embebido en gas denso”.
Hacia una nueva categoría de objetos cósmicos
Lo que está en juego no es solo la explicación de un objeto peculiar, sino la definición de una categoría completamente nueva en el zoo cósmico. Las estrellas de agujero negro se situarían a medio camino entre una estrella y un núcleo activo, un híbrido impulsado por un agujero negro que aún está en plena fase de crecimiento.
De confirmarse, abrirían la puerta a estudiar condiciones extremas de acreción y a comprender mejor la formación de agujeros negros supermasivos en el universo joven. También servirían como prueba de estrés para los modelos cosmológicos, obligando a revisarlos y ampliarlos.
El misterio no está cerrado. La comunidad científica seguirá debatiendo si estos objetos son verdaderas estrellas de agujero negro o si representan otro fenómeno desconocido. Lo cierto es que el hallazgo de “El Acantilado” ha dado un paso crucial hacia resolver una de las incógnitas más intrigantes de la astronomía contemporánea.
Referencias
- De Graaff, A., Rix, H.-W., Naidu, R. P., Labbé, I., Wang, B., Leja, J., Matthee, J., Katz, H., Greene, J., Hviding, R., Baggen, J., Bezanson, R., Boogaard, L., Brammer, G., Dayal, P., van Dokkum, P., Goulding, A., Hirschmann, M., Maseda, M., McConachie, I., Miller, T., Nelson, E., Oesch, P., Setton, D., Shivaei, I., Weibel, A., Whitaker, K., Williams, C. (2025). A remarkable ruby: Absorption in dense gas, rather than evolved stars, drives the extreme Balmer break of a little red dot at z = 3.5. Astronomy & Astrophysics, 701, A168. https://doi.org/10.1051/0004-6361/202554681.
En su libro Del kaos a la calma, la organizadora profesional Sara Domínguez plantea una idea poderosa: el desorden que nos rodea no es un simple problema estético, sino el reflejo de un estado interior. Lo que parece una montaña de ropa sin doblar, una cocina siempre abarrotada o un salón lleno de papeles va mucho más allá de lo visible: afecta a nuestro bienestar, nuestra capacidad de concentrarnos y hasta a la forma en que nos relacionamos con los demás.
Esa intuición, que tantas personas reconocen en su vida cotidiana, empieza a encontrar cada vez más respaldo científico. Hoy sabemos que vivir en un entorno caótico además de incomodar, también condiciona nuestras emociones, eleva los niveles de estrés y erosiona la sensación de satisfacción con la vida. Lo que debería ser refugio y descanso termina transformándose en una fuente silenciosa de tensión.
Más allá del malestar inmediato, el desorden cotidiano actúa como un recordatorio constante de lo pendiente y lo inacabado. Esa sensación de “tareas sin cerrar” mantiene al cerebro en estado de alerta, impidiendo desconectar del todo y afectando incluso la forma en que gestionamos el tiempo y la productividad diaria.
Un enemigo silencioso en el hogar
El concepto de household chaos ha ganado espacio en la investigación psicológica en los últimos años. Bajo esa etiqueta se incluyen factores como la acumulación de objetos, el ruido constante, la falta de rutinas y la sensación de que nunca se logra poner orden.
Un estudio —pulicado en Journal of Environmental Psychology en 2025— con más de 500 participantes, reveló que el desorden en casa se asocia con niveles más altos de afecto negativo (irritabilidad, frustración, tristeza) y con menor bienestar psicológico.
La clave no estaba solo en el volumen de objetos, sino en cómo ese entorno afecta la percepción de belleza y armonía del hogar. Cuando la casa deja de resultar agradable o acogedora, nuestra mente lo nota y responde con malestar.
Pero no se trata únicamente de percepción. Otra investigación experimental, en la que se recrearon hogares caóticos y ordenados, mostró que la diferencia se refleja incluso en el cuerpo: en entornos saturados, las personas registraban niveles más altos de marcadores fisiológicos de estrés, como la enzima salival alfa-amilasa. El desorden activa, aunque sea de manera sutil, la misma maquinaria biológica que responde a situaciones de amenaza.

El efecto acumulativo del desorden
No estamos hablando de un día malo ni de una pila de platos olvidados. Los estudios apuntan a que los efectos del caos doméstico, aunque pequeños en cada momento, se acumulan con el tiempo. La exposición constante a un ambiente que percibimos como caótico o poco habitable va desgastando la capacidad de relajarnos, afecta a la calidad del sueño y alimenta un ciclo de estrés y desmotivación.
Incluso puede darse un círculo vicioso: cuando el bienestar decae, cuesta más mantener el orden, lo que a su vez aumenta el malestar. Una espiral difícil de romper que muchas personas describen como “vivir atrapadas en su propia casa”.
Además, la saturación de estímulos visuales que genera el desorden reduce la claridad mental y dificulta la toma de decisiones. Esa sensación de “no sé por dónde empezar” es, en parte, un bloqueo cognitivo provocado por el exceso de información que recibe el cerebro en un entorno caótico.
Con el tiempo, este desgaste puede traducirse en procrastinación, irritabilidad y una menor capacidad para concentrarse en lo verdaderamente importante.
Más allá de la estética: identidad y emociones
La ciencia también empieza a explorar la dimensión simbólica del desorden. No todos perciben igual la misma habitación abarrotada, porque la tolerancia al caos está mediada por expectativas personales, reglas internas y significados emocionales. Para algunos, los objetos acumulados representan recuerdos o parte de su identidad; para otros, son una carga que les impide avanzar.
En este sentido, hablar de “clutter” (acumulación de cosas) no es solo hablar de espacio ocupado, sino de cómo nos relacionamos con nuestras pertenencias. La casa, como extensión del yo, refleja quiénes somos y quiénes aspiramos a ser. Cuando esa imagen se ve distorsionada por el caos, también lo hace nuestra sensación de control y de bienestar.
Los psicólogos subrayan que esta relación con los objetos puede convertirse en un campo de batalla interno: lo que para la mente consciente es “algo que debería tirar”, para la mente emocional puede ser un símbolo de seguridad, de memoria o de estatus. De ahí que ordenar no sea solo una cuestión de tiempo y esfuerzo físico, sino un proceso cargado de dilemas personales que toca fibras sensibles.
Al mismo tiempo, el desorden puede reforzar narrativas negativas sobre uno mismo: la idea de ser desorganizado, incapaz o poco disciplinado. Esa autopercepción, alimentada por el entorno, termina moldeando la identidad. Por eso, abordar el caos del hogar no se limita a despejar estanterías, sino que implica trabajar la manera en que nos vemos y nos hablamos a nosotros mismos.

Estrés invisible en la crianza
El impacto del caos doméstico es todavía más evidente en situaciones de alta demanda emocional, como el cuidado de niños pequeños. En un experimento con jóvenes adultas encargadas de atender a un bebé simulador —publicado en Comprehensive psychoneuroendocrinology— quienes lo hacían en un entorno caótico presentaban niveles significativamente más altos de estrés fisiológico, aunque no siempre lo expresaran en sus emociones conscientes.
Este hallazgo es especialmente relevante para las familias: un ambiente desordenado incomoda a los adultos y puede afectar la calidad de la interacción con los hijos. El estrés acumulado reduce la sensibilidad y la capacidad de respuesta de los cuidadores, lo que a largo plazo puede impactar en el desarrollo infantil.
Cómo romper el ciclo del caos en casa
La buena noticia es que no se trata de resignarse. La evidencia y la experiencia práctica apuntan a varias estrategias efectivas para recuperar el control:
- Identificar el origen emocional del desorden. Muchas veces el caos no es solo falta de tiempo: puede ser cansancio acumulado, dificultades para tomar decisiones o incluso la necesidad de aferrarse a objetos por motivos afectivos. Reconocer estas raíces es el primer paso para abordarlas.
- Revalorizar la belleza del hogar. Más allá de la limpieza o la funcionalidad, introducir elementos que hagan el espacio agradable —luz natural, colores suaves, decoración mínima— puede mejorar el bienestar, porque devuelve la sensación de armonía.
- Pequeños hábitos sostenibles. No hace falta una mudanza radical ni un fin de semana maratónico de orden. Incorporar rutinas simples —como dedicar diez minutos diarios a despejar una zona— genera un cambio acumulativo más poderoso que un esfuerzo esporádico.
- Romper la idea de perfección. El orden no debe vivirse como una exigencia inalcanzable ni como una vara de culpa. Se trata de crear espacios funcionales y amables, no de competir con revistas de decoración.
- Compartir la carga. En hogares familiares, el desorden suele recaer simbólicamente en una persona, muchas veces la mujer. Repartir tareas y responsabilidades es clave para evitar que el caos sea también una fuente de desigualdad y resentimiento.
El libro que convierte el orden en calma
En este punto, la propuesta de Del kaos a la calma cobra pleno sentido. En sus páginas, Sara Domínguez va más allá de los métodos clásicos de doblar camisetas o apilar cajas. Su enfoque combina herramientas prácticas —como los no negociables— con una reflexión más profunda: el caos no es el enemigo, sino el síntoma de que necesitamos reconectar con nosotros mismos.
La autora, que ha acompañado a decenas de mujeres en este proceso, ofrece una guía cercana y honesta para transformar tanto los espacios como la relación que tenemos con ellos. El valor de su libro está en integrar el orden físico con la gestión emocional y el equilibrio mental. Del kaos a la calma no promete casas perfectas ni vitrinas de revista, sino algo más valioso: un hogar que sostenga, inspire y devuelva la paz.
Además, el libro se presenta como un recurso práctico para quienes sienten que ya lo han intentado todo sin éxito. Al poner el foco en la raíz emocional y no solo en la superficie, abre la puerta a cambios duraderos y sostenibles, que no dependen de modas pasajeras ni de métodos imposibles de mantener en la rutina diaria.
Si quieres saber más, no te pierdas en exclusiva el primer capítulo de este libro.

Referencias
- Domínguez, S. (2023). Del kaos a la calma: Una guía práctica para recuperar el control de tu casa y tu bienestar. Hestia.
- Quinn, F. (2025). Home clutter and mental well-being: Exploring moderators and the mediating role of home beauty. Journal of Environmental Psychology, 102672. doi: 10.1016/j.jenvp.2025.102672
- Bodrij, F. F., Andeweg, S. M., Prevoo, M. J. L., Rippe, R. C. A., & Alink, L. R. A. (2021). The causal effect of household chaos on stress and caregiving: An experimental study. Comprehensive psychoneuroendocrinology, 8, 100090. doi: 10.1016/j.cpnec.2021.100090
El caos doméstico rara vez se muestra en redes sociales, pero millones de mujeres lo viven a diario: mañanas que comienzan con carreras, cocinas desbordadas y la sensación constante de no llegar a todo. Lo que parece un simple desorden se convierte, en realidad, en un peso invisible que afecta la autoestima, la salud emocional y hasta la manera en la que nos relacionamos con nuestras familias.
En su libro Del kaos a la calma, la autora y experta en organización Sara Domínguez parte de su propia experiencia como madre trabajadora en Londres para desnudar esa carga silenciosa. Su relato arranca en un martes cualquiera de 2013, marcado por el cansancio, la culpa y el agobio. Una escena que podría ser la de cualquier hogar y que conecta con quienes sienten que el orden es un lujo imposible.
El testimonio no se centra en doblar sábanas o encontrar la caja perfecta, sino en identificar el punto de inflexión: comprender que el orden no es un objetivo estético, sino una herramienta vital para recuperar la calma. Lo personal se transforma en universal y abre paso a un método que nace de la empatía, la investigación y la necesidad real de cambio.
Con la publicación anticipada de este capítulo, los lectores pueden adentrarse en el corazón del enfoque del libro: cómo el desorden no es solo un problema de cajones revueltos o estanterías abarrotadas, sino un reflejo de la carga mental y emocional que acumulamos día a día. El capítulo muestra que la calma no se alcanza con soluciones rápidas, se obtiene con pequeños pasos conscientes que devuelven claridad y bienestar.
Así, Sara Domínguez nos invita a entender el orden no como un objetivo estético, sino como una herramienta poderosa para recuperar tiempo, energía y calidad de vida.

Del kaos a la calma (El día que todo cambió para mí), escrito por Sara Domínguez
Año 2013.
Es martes y ya estoy agotada.
Hoy ha sido una carrera desde por la mañana. Las mañanas son la peor parte del día. Como de costumbre, ha sonado el despertador a las 6:00, pero me he levantado casi a las 7:00. Estaba muy cansada y, además, no tenía ganas de salir de la cama. En el momento en el que he puesto el pie en el suelo, ha empezado la carrera.
Ya en pie, he tenido que fregar una taza para el café, porque no había ninguna taza limpia. La cocina es un desastre. Yo soy un desastre. ¡Vaya asco de día!
Ahora a despertar al peque. Perdón, la carrera empieza aquí. Mi hijo es un niño precioso, lo más bonito de mi vida. Acaba de cumplir los dieciocho meses y está guapísimo y muy gracioso. Ojalá pudiera quedarme en casa todo el día con él. Creo que esto que siento es culpa, pero no me puedo parar a pensarlo mucho.
¡Venga! A vestirnos, desayunar y salir corriendo al coche. El tráfico hasta la guardería es una jungla, está lloviendo y ya voy tarde. Besito y adiós. Uff… Las mañanas son lo peor.
Y ahora, el trabajo. Otra vez lo mismo. ¡Vaya asco de día!
Y ahora, el trabajo. Otra vez lo mismo. ¡Vaya asco de día! Por la tarde la cosa no mejora. Llegar a casa es empezar a batallar otra vez. Entrar por la puerta y ver el desorden. Mi casa no me gusta. No es por el apartamento en sí, es un edificio de los años 30 con bastante encanto, pero siento que es muy pequeño y que está mal decorado y siempre en desorden. Los platos sin fregar, la ropa limpia amontonada… ¿o era esta la ropa sucia?
Juguetes por todas partes.
Y la cama sin hacer, como cada día. Probablemente todo está así porque yo soy un desastre. Soy desordenada. Es lo que hay. Además, ser madre se me da fatal. ¿Cómo lo hacen otras personas? ¿Cómo llegan a todo? Seguro que tienen ayuda. O será que no son un fracaso total como yo…
¡Jolines! Es martes y ya estoy agotada…
Este era un día cualquiera para mí una vez que mi estatus pasó de persona joven disfrutando de una vida en Londres a persona adulta con responsabilidades, madre y carrera profesional. Me costó mucho adaptarme a este cambio porque me faltaban las habilidades necesarias para gestionar mis nuevas responsabilidades, y no lo sabía.
Lo cierto es que yo nunca fui una niña ordenada. Era bastante normal que se me olvidaran los libros que necesitaba ese día en clase y que la cajonera de mi pupitre estuviera siempre llena de papeles. Me daban mucha envidia las otras niñas que tenían estuches bonitos, siempre bien ordenados y con cada lápiz en su compartimento. Yo, por norma general, no sabía dónde estaba mi estuche.

De adolescente la cosa no mejoró en absoluto. Mi madre, la pobre, creo que tiró la toalla y se conformaba con que la ayudara en casa en las zonas comunes. Mi habitación era mi territorio.
Mis padres trabajaban mucho los dos. Creo que si mi madre hubiese sido ama de casa quizá habría adquirido hábitos de orden más arraigados. Quizá no.
Tampoco importa, porque mi madre me ha enseñado otras habilidades muy valiosas, precisamente por su ética de trabajo y de emprendimiento. Pero esa es otra historia.
Cuando me independicé, ya no hubo límites a la extensión de mi desorden. En el trabajo tenía un sistema que funcionaba bien, pero dentro de casa nunca encontraba nada, no sabía ni la ropa que tenía (generalmente estaba toda esparcida por la habitación), y limpiar era una tarea titánica, porque siempre había que ordenar antes. Aun así, no sentía que mi situación 15 estuviera fuera de control, porque solo tenía que cuidar de mí misma. Si tenía que dedicar una tarde a ordenar, pues lo hacía y punto.
O no.
Y después llegó Gabi.
Gabi (Gabriel) es mi peque. Si eres madre, seguramente sabrás cómo un bebé te descoloca la vida.
Personalmente, veo los primeros años de la maternidad como un taburete con cuatro patas en el que te apoyas desde el primer día. Las cuatro patas del taburete son: el orden y la organización, tu gestión del tiempo, la confianza en ti misma y en tu propio juicio, y una comunidad de sostén. Ninguna pata es más importante que las demás, pero si una de ellas cojea tienes que poner energía cada instante para mantener el equilibrio, compensar el peso y no caerte.
A mí, la pata del orden me cojeaba de una forma alarmante. Bueno, es que la susodicha no existía. El día que casi se me vuelca el taburete fue el día en que cambiaron las cosas.
Hoy sé que este desorden con el que he convivido buena parte de mi vida se debe a varios factores; uno de ellos es que no tengo ni la inclinación personal ni el tiempo (aunque esto es relativo, ya lo veremos) para poner orden en casa, aunque comprendo que el orden y la organización son fundamentales, no solo para mantenerte sano mentalmente, sino también porque tienes la responsabilidad de que tus hijos aprendan esta habilidad y no sufran lo que estás sufriendo tú ahora. Este es mi motivo, mi razón.
Pero volvamos a 2013, a esa mañana de martes de derrota. A lo mejor te suena la conversación interna, el ir corriendo siempre a todas partes, sentir que no avanzas, que los días son todos iguales, que no tienes control sobre tus cosas, sobre tu tiempo, sobre tus emociones. Porque, cuando te encuentras atascada como un hámster en la rueda de una jaula, se desatan muchas emociones, y casi ninguna positiva. Esto lo vamos a cambiar juntas.

Cuando Werner Heisenberg formuló su principio de incertidumbre en 1927, estableció un límite fundamental para nuestro conocimiento: cuanto más exactamente se conoce la posición de una partícula, menos precisión puede alcanzarse sobre su momento, y viceversa. Esta limitación no era un defecto de nuestros instrumentos, sino una propiedad esencial del mundo cuántico. Desde entonces, esta idea ha sido uno de los pilares de la mecánica cuántica, y ha resistido décadas de experimentos, teorías y desarrollos tecnológicos.
Ahora, un grupo de físicos de Australia y Reino Unido ha encontrado una manera de sortear este límite sin romperlo, modificando las reglas del juego con una elegancia matemática y experimental que ha captado la atención del mundo científico. El estudio, publicado en Science Advances en septiembre de 2025, demuestra que es posible medir posición y momento con una precisión superior a la considerada estándar, sin contradecir las leyes cuánticas. Lo lograron utilizando herramientas inspiradas en la computación cuántica y diseñando un protocolo que evita, en lugar de enfrentar, los obstáculos impuestos por Heisenberg.
Una idea que se cocina desde hace tiempo
La clave del avance está en un concepto llamado medición modular. En lugar de intentar medir directamente la posición o el momento, los investigadores midieron versiones "modulares" de estas variables, es decir, su valor dentro de un intervalo repetido (como el ciclo de las horas en un reloj). Según explica el artículo original, “esta restricción puede sortearse midiendo observables modulares conmutativos, que son equivalentes a las variables naturalmente incompatibles”.
Este enfoque permite evitar el enfrentamiento directo con el principio de incertidumbre, ya que las variables modulares no están sujetas a la misma relación de indeterminación. Se trata de una estrategia que ya se había propuesto teóricamente en 2017, pero que ahora ha sido demostrada experimentalmente por primera vez. Para lograrlo, el equipo utilizó un ion atrapado en un campo eléctrico —una partícula cargada suspendida en el vacío— y lo preparó en un estado cuántico especial llamado estado de rejilla (grid state).
El estado de rejilla permite hacer que ciertas combinaciones de posición y momento se comporten como si fueran medibles simultáneamente. Aunque no es posible conocer ambos valores con precisión absoluta, sí se pueden estimar pequeñas variaciones en esas variables con una sensibilidad mucho mayor que la habitual. En palabras del artículo: “preparamos estados de rejilla [...] y demostramos incertidumbres en posición y momento por debajo del límite cuántico estándar”.

La analogía del reloj que lo explica todo
Para ilustrar el concepto, los autores emplean una imagen que resulta especialmente accesible: un reloj analógico con solo una aguja. Si el reloj tiene únicamente la aguja de las horas, podemos saber qué hora es y deducir aproximadamente qué minuto; pero si solo tiene la de los minutos, sabremos el minuto exacto sin saber en qué hora estamos. Esto refleja lo que ocurre en su experimento: se sacrifica información global para mejorar la precisión en los detalles que importan.
Este tipo de medición, llamada modular, permite desplazar la incertidumbre cuántica hacia aspectos menos relevantes, logrando una mejora efectiva en la sensibilidad. “Las variables modulares de posición y momento se pueden hacer conmutativas, permitiendo una estimación con incertidumbres por debajo del límite cuántico estándar”, escriben los autores.
En otras palabras, no se viola el principio de Heisenberg. Se eluden sus efectos más limitantes aplicando una arquitectura de medición distinta, enfocada en rangos pequeños y señales sutiles. Esta idea, que parecía solo posible sobre el papel, ahora se ha materializado en el laboratorio.

De la computación cuántica a la metrología
Una parte destacada del experimento es que reutiliza tecnologías y conceptos creados originalmente para la computación cuántica con corrección de errores. La manipulación de los llamados estados de rejilla y el uso de algoritmos de estimación de fase cuántica (Quantum Phase Estimation, QPE) —una técnica común en circuitos cuánticos— se trasladaron al campo de la metrología, es decir, al arte de medir con precisión.
Los investigadores utilizaron un ion de iterbio (171Yb+) en un trampa de Paul a temperatura ambiente. La vibración del ion, controlada por láseres, sirvió como sistema cuántico donde preparar y manipular los estados de rejilla. “Nuestro experimento utiliza un único modo de vibración de un ion atrapado como sonda cuántica”, indican los autores.
A través de este montaje, se logró realizar una secuencia de estimaciones multiparámetro, detectando simultáneamente desplazamientos en posición y momento con una precisión superior al límite cuántico estándar (SQL), que es el límite habitual cuando se emplean métodos clásicos.
Dos observables incompatibles, un mismo detector
El principio de Heisenberg impide conocer simultáneamente dos variables que no conmutan, como número y fase, o posición y momento. Sin embargo, este estudio demuestra que sí es posible estimar desplazamientos en ambas variables a través de sus versiones modulares, evitando la típica interferencia entre ellas.
Los resultados son contundentes: “logramos una ganancia metrológica de 5,1(5) dB sobre el límite cuántico estándar utilizando estados de rejilla”. Además, aplicaron una variante adaptativa del algoritmo QPE que permitió reducir aún más la varianza combinada de las estimaciones, logrando mediciones más precisas con menos repeticiones .
No solo se limitaron a la pareja posición-momento. En una segunda parte del experimento, los investigadores emplearon estados NP (número-fase), una clase de estados cuánticos que habían sido solo teóricos hasta ahora. Este es el primer experimento que los implementa y los utiliza como recursos de medida, según el artículo original.
Lo que esto significa para el futuro de la física
Este avance tiene implicaciones importantes para una gran variedad de campos. Detectar cambios diminutos en variables físicas es esencial en navegación sin GPS, imágenes médicas avanzadas, geofísica, y la búsqueda de materia oscura. Sensores que logren medir pequeñas fuerzas, desplazamientos o cambios de fase con precisión extrema podrían abrir la puerta a tecnologías hasta ahora inalcanzables.
Además, el diseño es altamente compatible con futuros sistemas de sensores interconectados o con lógica cuántica. Como señalan los autores, “nuestro sensor de desplazamiento multiparámetro puede utilizarse para detección de fuerzas insensibles a la fase”, lo que lo convierte en una herramienta versátil para nuevas generaciones de instrumentos científicos .
La comunidad científica también destaca otro aspecto: la colaboración entre teóricos y experimentales, repartidos entre Australia y Reino Unido, fue clave para llevar esta idea del papel al laboratorio. El trabajo une física fundamental, ingeniería cuántica y diseño experimental de alto nivel.
Referencias
- Christophe H. Valahu, Matthew P. Stafford, Zixin Huang, Vassili G. Matsos, Maverick J. Millican, Teerawat Chalermpusitarak, Nicolas C. Menicucci, Joshua Combes, Ben Q. Baragiola, Ting Rei Tan. Quantum-enhanced multiparameter sensing in a single mode. Science Advances, 24 de septiembre de 2025. DOI: 10.1126/sciadv.adw9757.
Por primera vez en la historia médica, la ciencia ha logrado detener, o al menos frenar drásticamente, el avance de la enfermedad de Huntington. Y no se trata de una promesa futurista, ni de una mejora sintomática marginal. Estamos hablando de un avance clínico sin precedentes: un 75% de desaceleración en la progresión de la enfermedad tras tres años de tratamiento con una única dosis de terapia génica experimental.
Este hito, presentado por la empresa biotecnológica uniQure y científicos de University College London (UCL), marca el inicio de una nueva era en la neurología. Los resultados, todavía en fase preliminar pero con evidencias clínicas sólidas, han sido compartidos públicamente en un comunicado oficial y se presentarán en el Congreso de Investigación Clínica en Enfermedad de Huntington el próximo mes.
Una enfermedad implacable, hasta ahora sin freno
La enfermedad de Huntington es una de las dolencias más crueles conocidas por la medicina. De origen genético, provoca una destrucción progresiva e irreversible de las neuronas, afectando al movimiento, la cognición y el comportamiento de quienes la padecen. A menudo se compara con una combinación de párkinson, alzhéimer y esclerosis lateral amiotrófica, pero todo en una sola enfermedad.
Quienes heredan el gen defectuoso tienen una certeza: desarrollarán síntomas en algún momento de su vida, normalmente entre los 30 y los 50 años, y acabarán falleciendo tras un largo proceso de deterioro que puede durar una o dos décadas. Hasta ahora, los tratamientos disponibles solo aliviaban síntomas específicos, pero ninguno había sido capaz de alterar el curso natural de la enfermedad.
Eso ha cambiado.

Un 75% menos de deterioro: el dato que cambia las reglas del juego
El ensayo clínico, en fase I/II, ha monitorizado durante tres años a 29 pacientes diagnosticados en etapas tempranas del Huntington. De ellos, 12 recibieron una dosis alta de la terapia llamada AMT-130. Según el comunicado oficial, estos pacientes experimentaron un 75% menos de progresión de la enfermedad, comparados con un grupo de control extraído del estudio longitudinal Enroll-HD, que documenta el avance natural del Huntington en miles de pacientes.
Los resultados se midieron utilizando escalas clínicas como la Unified Huntington’s Disease Rating Scale y el Total Functional Capacity, herramientas estándar para valorar el impacto del deterioro neurológico en la vida diaria.
Más allá de los números, los médicos han observado algo aún más poderoso: pacientes que debían estar en silla de ruedas están caminando, y otros que se habían retirado del trabajo han podido volver a sus puestos. Algo impensable hasta hace solo unos meses.
La terapia: una única dosis para toda la vida
La clave de este avance se encuentra en la propia raíz del problema: el gen HTT, responsable de producir la proteína huntingtina, que en su forma mutada destruye lentamente las neuronas. La terapia AMT-130 no intenta paliar los síntomas ni modular la actividad de esta proteína. Lo que hace es silenciarla directamente.
La técnica es radical pero "elegante". Mediante un procedimiento quirúrgico extremadamente preciso —una operación cerebral guiada por imágenes de resonancia magnética en tiempo real—, los médicos inyectan en el cerebro un virus modificado (no patógeno) cargado con un fragmento de ADN diseñado para combatir directamente el ARN que produce la proteína tóxica.
Una vez dentro de las neuronas, ese fragmento genético se integra de forma permanente, como si se tratase de un sistema de defensa instalado de fábrica. Las células empiezan a fabricar un tipo especial de ARN que bloquea las instrucciones del gen defectuoso, reduciendo así la producción de huntingtina mutada de manera permanente.
Y lo más prometedor: una sola intervención quirúrgica parece suficiente para toda la vida del paciente.
De hecho, uno de los datos más contundentes no procede de escalas clínicas, sino de un biomarcador objetivo: la proteína de cadena ligera de los neurofilamentos (NfL). Esta sustancia, presente en el líquido cefalorraquídeo, se libera cuando las neuronas mueren. En pacientes con Huntington, sus niveles tienden a aumentar entre un 20 y un 30% cada tres años.
En los pacientes tratados con AMT-130, los niveles de NfL no solo no aumentaron, disminuyeron, un indicio inequívoco de que el tratamiento está frenando activamente la muerte neuronal.

¿Un tratamiento universal?
Aunque aún queda camino para su aprobación definitiva, uniQure planea presentar una solicitud de aprobación acelerada ante la FDA en el primer trimestre de 2026, y posteriormente ante las agencias regulatorias europeas, tal y como informan desde Science. De conseguirlo, AMT-130 podría convertirse en el primer tratamiento aprobado que cambia el curso de la enfermedad de Huntington.
Sin embargo, el acceso será, al menos inicialmente, limitado. La terapia requiere una cirugía cerebral especializada y un seguimiento médico intensivo. Además, su coste superará con toda probabilidad los dos millones de euros por paciente, una cifra habitual en terapias génicas de una sola administración.
Esto abre un nuevo debate ético y sanitario: ¿cómo garantizar que un avance histórico no quede reservado solo a unos pocos?
Un momento que emociona a la ciencia
Las declaraciones de los investigadores reflejan el impacto humano del avance. Sarah Tabrizi, directora del Centro de Investigación en Huntington de UCL, calificó los resultados como “espectaculares”, y afirmó que este tratamiento tiene potencial no solo para ralentizar la enfermedad, sino también para evitar que aparezcan los síntomas si se aplica a personas aún asintomáticas.
Por su parte, Ed Wild, neurólogo principal del ensayo en UCL, aseguró que “este resultado lo cambia todo”. En palabras dirigidas a los medios, Wild recordó que cada número del estudio representa a una persona real que se sometió voluntariamente a una cirugía cerebral experimental para dar un paso hacia el futuro.
Uno de esos pacientes, Jack May-Davis, descubrió que portaba el gen de Huntington cuando tenía solo 19 años. Varios familiares habían muerto por la enfermedad. Hoy, después de tres años de tratamiento, dice que puede mirar al futuro con esperanza.
Un nuevo horizonte para enfermedades neurodegenerativas
El éxito de AMT-130 no solo afecta al Huntington. Abre un precedente para terapias similares en enfermedades como el párkinson, el alzhéimer o la ELA, donde también se buscan formas de silenciar genes defectuosos o modificar la biología del cerebro con intervenciones únicas.
No estamos ante una cura definitiva, pero sí ante la primera gran victoria en una batalla que la ciencia llevaba más de 30 años perdiendo. La historia del Huntington podría estar a punto de reescribirse.
A lo largo de la historia, pocas familias reales han generado tanta fascinación como la dinastía ptolemaica de Egipto. Célebre por su poder político, sus luchas internas y por figuras legendarias como Cleopatra VII, su renombre también procede de una práctica que desafió las normas culturales griegas y romanas: los matrimonios incestuosos entre hermanos y parientes cercanos. La historia ha interpretado tal costumbre de diversas maneras. Así, se ha visto como un intento de preservar la pureza dinástica, como una consecuencia de la decadencia moral o como el resultado de una obsesión egipcia con la divinidad faraónica. Sin embargo, las investigaciones apuntan a que los verdaderos motivos del incesto ptolemaico fueron complejos y profundamente vinculados al poder.
El tabú del incesto en el mundo antiguo
Antes de comprender la singularidad de los Ptolomeos, conviene recordar que el incesto se consideraba una transgresión grave en la mayoría de las culturas antiguas. Los griegos no tenían un término único para designarlo, pero empleaban expresiones cargadas de connotaciones negativas, como gamos asebis (“matrimonio impío”) o anosios sunousia (“relación profana”). En la tradición romana, la palabra incestum evocaba las nociones de impureza y contaminación.
Aun así, los límites de la prohibición variaban. Mientras que, en Atenas, se permitían los matrimonios entre medio-hermanos por parte de padre, en otras sociedades se condenaba incluso la unión entre primos. El tabú, por tanto, aun siendo casi universal, mostraba una definición fluctunte según el contexto cultural. En este panorama, la insistencia de los Ptolomeos en desposar a sus hermanas o sobrinas constituyó una anomalía que llamó la atención tanto de sus contemporáneos como de los historiadores modernos.

Primeros experimentos incestuosos: Arsinoe II y Ptolomeo II
El primer paso decisivo se dio con el matrimonio de Arsinoe II y su hermano Ptolomeo II Filadelfo, en el siglo III a. C. Aunque no tuvieron descendencia, este enlace inauguró un modelo que pronto se consolidaría como una marca dinástica.
La propaganda oficial buscó legitimar la unión recurriendo a paralelos míticos. Se comparó a los hermanos con Zeus y Hera, e incluso con Isis y Osiris. Con esto, se presentaba el incesto no como una transgresión, sino como un signo de divinidad.
No obstante, la reacción griega mostró un carácter ambivalente. Mientras el poeta Teócrito exaltaba la boda como un “matrimonio sagrado”, el satírico Sotades denunció con crudeza la impureza de la unión, una decisión que le costó la vida. Este episodio ilustra cómo el incesto ptolemaico fue un acto político que, a su vez, lanzó un desafío cultural.

Consolidación del modelo: entre la política y la propaganda
A partir de la pareja conformada por Ptolomeo IV y Arsinoe III, que sí tuvieron un hijo —Ptolomeo V—, la práctica se convirtió en una auténtica estrategia reproductiva y política. El matrimonio entre hermanos ofrecía varias ventajas inmediatas. Mantenía el poder dentro de la familia y reducía el riesgo de disputas con otras casas reales. Además, evitaba que el poder faraónico tuviese que depender de las alianzas externas, que podían ser inestables o peligrosas. Por último, la práctica vinculaba la figura de los monarcas con los dioses egipcios, para quienes el incesto divino era una norma. De este modo, el incesto se convirtió en una herramienta de propaganda, un modo de enfatizar que los Ptolomeos no eran simples monarcas griegos, sino faraones legítimos capaces de encarnar un poder sagrado exclusivo.
¿Decadencia genética o mito historiográfico?
Uno de los argumentos más repetidos por la historiografía ha sido que los Ptolomeos practicaban el incesto con el fin de preservar la “pureza de la sangre”. Aunque algunas voces sostienen que la práctica habría conducido a la degeneración genética, no existen pruebas sólidas de que la dinastía hubiese padecido consecuencias biológicas graves.
Los estudios sobre la fertilidad de los Ptolomeos muestran que muchas uniones incestuosas produjeron una descendencia abundante y, en algunos casos, longeva. A diferencia de lo que sostenían autores como Peter Green o Michael Grant, no hay evidencia de que Cleopatra VII o sus antecesores padecieran defectos congénitos derivados de la endogamia. Más que un problema de biología, el incesto ptolemaico fue un problema de percepción cultural.

El incesto como signo de poder y singularidad
Estudiosas como Sheila L. Ager han propuesto una lectura antropológica del fenómeno. Así, el incesto ptolemaico funcionaba como un “signo de singularidad”, una manera de destacar que la familia real estaba por encima de las normas que regían a los demás. Así como el lujo extremo (truphe) se convirtió en una marca de la dinastía, también lo fue el incesto.
Los matrimonios entre hermanos se exhibían públicamente mediante rituales, la adopción de títulos oficiales y las representaciones artísticas. La unión incestuosa, por tanto, reforzaba la idea de que los Ptolomeos eran únicos, diferentes y casi intocables, un linaje separado de la humanidad común y vinculado directamente a los dioses.
La herencia de Cleopatra VII
El caso de Cleopatra VII refleja el peso simbólico del incesto en los últimos tiempos de la dinastía. Aunque es posible que los matrimonios con sus hermanos Ptolomeo XIII y XIV nunca llegaran a consumarse, la sola proclamación de tales enlaces bastaba para reforzar su legitimidad en un contexto político precario. Así, Cleopatra utilizó el incesto como un recurso de poder. Su unión con Julio César y luego con Marco Antonio marcó una ruptura con la tradición, pero no eliminó el trasfondo simbólico del incesto, que siguió siendo un recordatorio del carácter excepcional de la casa ptolemaica.

Incesto y poder excepcional
El incesto de los Ptolomeos debe entenderse como un fenómeno complejo, cargado de significados políticos, religiosos y simbólicos. La práctica fue, para esta dinastía, una forma de propaganda dinástica que proclamaba su divinidad, reforzaba su singularidad y aseguraba la concentración del poder en pocas manos.
Al igual que el lujo extremo que los caracterizó, el incesto se convirtió en una marca de identidad, un gesto calculado para subrayar que los Ptolomeos no eran meros mortales. En definitiva, el incesto ptolemaico operó como una estrategia consciente para consolidar un poder absoluto y único en el Mediterráneo helenístico.
Referencias
- Ager, Sheila L. 2025. "Familiarity breeds: incest and the Ptolemaic dynasty." The Journal of Hellenic Studies, 125: 1-34. DOI: 10.1017/S0075426900007084
Durante más de ocho décadas, un retrato de Pablo Picasso permaneció oculto en una colección privada, lejos de los focos de museos, exposiciones y expertos. Una obra silenciosa, desconocida incluso para muchos historiadores del arte, y que ahora emerge como uno de los hallazgos más importantes del mercado artístico contemporáneo. No se trata de una pintura menor ni de una anécdota más en la extensa producción del genio malagueño. Es el retrato de una mujer que marcó profundamente su vida y su obra: Dora Maar.
El lienzo, titulado Busto de mujer con sombrero de flores, fue pintado en julio de 1943, en plena ocupación nazi de París. Un momento histórico de tensiones políticas, miedo e incertidumbre, que también coincidía con una etapa convulsa en la vida personal del artista. Dora Maar, musa, fotógrafa y artista por derecho propio, aún ocupaba el centro de su mundo íntimo, aunque las sombras del final ya se cernían sobre su relación.
Una obra escondida en el tiempo
La historia de este cuadro parece sacada de una novela: adquirido discretamente en 1944, poco después de la liberación de París, por un coleccionista anónimo, desapareció del circuito artístico y quedó en manos privadas durante generaciones. Solo existía constancia de su existencia gracias a una fotografía en blanco y negro conservada en un catálogo especializado. Nadie, ni siquiera los más reputados expertos en Picasso, había tenido la oportunidad de ver el lienzo en persona.
Su reciente reaparición en una subasta organizada en París ha desatado una ola de expectación. No solo por su valor económico, que podría superar los nueve millones de dólares, sino por lo que representa desde un punto de vista histórico y artístico. Estamos ante un testimonio único de un momento de transición en la vida del artista, un retrato íntimo que mezcla angustia, belleza y despedida.

Dora Maar: más que una musa
Reducir a Dora Maar al papel de musa sería injusto. Nacida como Henriette Theodora Markovitch en 1907, fue una figura central del surrealismo francés, una fotógrafa innovadora y una artista con voz propia. Su relación con Picasso fue intensa, compleja y, según algunos biógrafos, marcada por episodios de abuso emocional. Sin embargo, durante años, compartieron una simbiosis creativa que dio lugar a algunas de las obras más potentes del periodo.
Maar no solo fue retratada por Picasso. También documentó el proceso de creación de Guernica, con una serie de fotografías que hoy son claves para entender la evolución del cuadro. Pero con el tiempo, como tantas otras figuras femeninas en la historia del arte, su identidad quedó eclipsada por el brillo del artista que la pintó.
En este nuevo retrato, lejos del dolor desgarrador de La mujer que llora, Picasso muestra a Maar con una expresión más contenida. Los colores —verdes, azules, rojos intensos— vibran sobre una estructura fragmentada, pero no caótica. Hay una especie de serenidad melancólica en su rostro, una tristeza aceptada, como si la despedida ya estuviese asumida, aunque no dicha.
París en guerra y el arte en resistencia
El contexto en el que Picasso creó esta obra no puede ignorarse. En 1943, París estaba bajo control nazi. Los artistas, especialmente aquellos con tendencias vanguardistas, eran vigilados y censurados. Las visitas a su taller eran frecuentes, y su arte, calificado de “degenerado” por el régimen, estaba constantemente amenazado.
Aun así, Picasso no dejó de pintar. Su taller en la rue des Grands Augustins fue un refugio creativo en tiempos de oscuridad. La realización de este retrato durante ese año concreto, cuando la ciudad vivía uno de sus momentos más críticos, es también un acto de resistencia. Mientras el mundo se derrumbaba fuera, dentro del taller nacía una imagen íntima, colorida y compleja de una mujer que lo era todo y a la vez ya no lo era tanto.

Más que una subasta: un pedazo de Historia
La salida a subasta de este cuadro no es solo un evento para coleccionistas. Es una oportunidad para reescribir un pequeño capítulo de la historia del arte del siglo XX. Con este redescubrimiento, los expertos podrán revisar cronologías, estilos y conexiones emocionales en la obra de Picasso. También se abre la puerta para que el público contemple una pintura que, hasta ahora, solo existía como rumor.
Hay quienes se preguntan por qué esta obra permaneció oculta tanto tiempo. Quizás por decisión del coleccionista, quizás por las circunstancias de la posguerra, o simplemente por el deseo de mantener el arte como algo íntimo, alejado de los reflectores. Sea cual sea la razón, su aparición pública revaloriza no solo la pintura, sino el legado de Dora Maar como figura central de esa época.
En tiempos donde la historia del arte sigue descubriendo voces silenciadas, la reapertura de este retrato es también un recordatorio de cuánto aún queda por revelar. No todo está dicho en los museos ni en los libros. Algunas obras, como esta, descansan en la penumbra hasta que el tiempo decide sacarlas a la luz.
Ahora, cuando el martillo de la subasta caiga el próximo 24 de octubre, no solo cambiará de manos un lienzo. Cambiará también nuestra forma de mirar a Dora, a Picasso y a aquel París que resistía entre sombras y colores.
Durante décadas, los paleontólogos han clasificado a los mamuts norteamericanos en dos especies principales: el mamut lanudo, adaptado al frío extremo de las regiones árticas de Canadá y Siberia, y el colombino, más grande y menos peludo, que recorría las llanuras cálidas del sur de Estados Unidos y México. La separación entre ambos parecía clara, marcada por diferencias de hábitat, morfología y comportamiento. Pero un nuevo estudio, publicado en Biology Letters y liderado por Marianne Dehasque y su equipo, ha cambiado esa narrativa por completo.
Gracias al análisis genómico de dos molares fósiles hallados en la Columbia Británica, los investigadores han demostrado que estos mamuts no solo coexistieron, sino que se cruzaron repetidamente durante miles de años. El hallazgo revela un prolongado episodio de hibridación que tuvo lugar durante el Pleistoceno tardío, reconfigurando la historia evolutiva de estos gigantes y sugiriendo que la mezcla de especies fue mucho más común de lo que se pensaba.
Dos dientes, miles de años de historia
Todo comenzó con el hallazgo de dos dientes fósiles —uno en el lago Okanagan y otro en el lago Babine— datados en aproximadamente 25.000 y 36.000 años antes del presente, respectivamente. A simple vista, los molares parecían típicos del mamut lanudo: una estructura dental adaptada a los pastos duros y helados de las estepas del norte. Sin embargo, las apariencias engañan.
Cuando los científicos secuenciaron el ADN extraído de estos restos, descubrieron algo inesperado. Ambos ejemplares mostraban niveles significativos de ascendencia del mamut colombino. El más antiguo tenía cerca de un 22 % de genes colombinos, mientras que el más reciente alcanzaba casi el 35 %. Esto implica que los cruces entre ambas especies no fueron eventos aislados, sino parte de una historia evolutiva continua y sostenida en el tiempo.
El estudio no solo demostró la existencia de híbridos, sino también su importancia en términos evolutivos: estos mamuts híbridos presentaban una diversidad genética superior a la de sus parientes siberianos. Esa variabilidad pudo haberles conferido ventajas adaptativas ante los drásticos cambios climáticos que marcaban la transición entre glaciaciones.

Cuando las especies no respetan las fronteras
El estudio de Dehasque y sus colegas forma parte de una línea de investigación iniciada en 2021, cuando se secuenció por primera vez ADN de un mamut de la línea de Krestovka, de unos 1,2 millones de años de antigüedad. Esta especie, distinta del linaje tradicional de mamuts esteparios, resultó ser uno de los progenitores del mamut colombino. Ya entonces, los científicos se dieron cuenta de que la evolución de los mamuts era mucho más compleja que un simple árbol genealógico con ramas separadas.
Lo que ahora se confirma es que la hibridación no terminó con la aparición del mamut colombino. Durante miles de años, hubo un ir y venir genético entre especies. El ADN nuclear revela un flujo bidireccional, aunque con una peculiaridad: la mayor parte del intercambio fue desde machos colombinos hacia hembras lanudas. Esta asimetría se explica porque el ADN mitocondrial —que se transmite solo por vía materna— de los híbridos pertenece exclusivamente a mamuts lanudos.
El papel de la hibridación en la evolución
La idea de que especies distintas pueden producir descendencia fértil no es nueva, pero ha sido tradicionalmente considerada una excepción. En la era de la genómica, sin embargo, este paradigma se tambalea. El caso de los mamuts refuerza la noción de que la hibridación puede ser una fuerza evolutiva clave, capaz de generar nuevas combinaciones genéticas con valor adaptativo.
En este sentido, los mamuts se suman a una lista creciente de animales prehistóricos —y actuales— que evolucionaron gracias a la mezcla entre linajes. Ya se han documentado casos similares en osos polares y pardos, leones y hasta humanos modernos con neandertales. El patrón es claro: cuando las condiciones climáticas cambian y los rangos geográficos se alteran, las especies se encuentran y, en muchos casos, se cruzan.
Lo fascinante del hallazgo en la Columbia Británica es que estos híbridos no mostraban señales evidentes de mestizaje en su morfología. Sus dientes conservaban las características del mamut lanudo, lo que indica que la selección natural favoreció los rasgos mejor adaptados a las estepas frías, independientemente del origen genético del individuo. En cambio, los híbridos más sureños probablemente conservaron dientes más generalistas, típicos del colombino, adecuados a una dieta más variada.

Una lección para el presente (y el futuro)
Estudiar los mamuts no es solo una ventana al pasado, sino también una herramienta para comprender los desafíos del presente. La hibridación como respuesta al cambio climático tiene implicaciones directas para la conservación de especies modernas. Animales como el lince ibérico, el gato montés escocés o incluso los elefantes actuales podrían beneficiarse —o verse amenazados— por la mezcla con especies afines. Entender cómo ocurrió este proceso en los mamuts puede ayudarnos a anticipar las consecuencias ecológicas de la hibridación en tiempos de crisis ambiental.
Este trabajo es, en definitiva, una advertencia científica sobre los límites de las clasificaciones taxonómicas. A menudo, la naturaleza no se ajusta a nuestras definiciones. Los mamuts no eran simplemente “lanudos” o “colombinos”: eran parte de un continuo evolutivo moldeado por el clima, la geografía y la interacción constante entre poblaciones.
Aunque el estudio se basa en solo dos fósiles, su impacto es enorme. Revela una complejidad biológica inesperada en una de las especies más emblemáticas del Pleistoceno y deja claro que aún queda mucho por descubrir sobre el mundo de los mamuts. Los investigadores planean ahora ampliar su muestreo a otras regiones de América del Norte, donde podrían encontrarse más evidencias de estos híbridos olvidados.
¿Significa esto que existió una tercera especie de mamut en Norteamérica? Por ahora, no se puede afirmar con certeza. Pero lo que sí sabemos es que la evolución de los mamuts no fue lineal, ni sencilla. Fue una danza milenaria entre especies, impulsada por el clima y la necesidad de sobrevivir. Y esa historia, escrita en los genes, apenas empieza a contarse.
La electrificación avanza sin pausa en el segmento premium, y Lexus responde con una propuesta ambiciosa: la gama RZ 2026, que llega con importantes renovaciones técnicas, nuevas motorizaciones, y un nivel de refinamiento que pretende elevar los estándares del coche eléctrico de lujo. Con la incorporación de dos versiones de tracción total —el RZ 500e y el RZ 550e F SPORT—, Lexus completa una oferta más versátil, que cubre desde modelos de propulsión delantera hasta variantes potentes para entusiastas de la conducción.
Pero las novedades no se quedan solo en cifras: el nuevo sistema de dirección por cable Steer by Wire, junto al volante tipo “jet”, marca un salto de concepto en el puesto de conducción, eliminando la conexión mecánica convencional y ofreciendo una experiencia más directa y tecnológica. En paralelo, Lexus ha aprovechado la actualización para introducir mejoras en la batería, eficiencia energética y aislamiento acústico, con el objetivo de ofrecer una autonomía más generosa y un silencio absoluto al volante.
En el mercado español, los precios ya han sido desvelados: desde 52.000 € para las versiones de tracción delantera, hasta 70.900 € para el tope de gama AWD con acabado F SPORT. Las versiones AWD incorporan el sistema Lexus DIRECT4, que gestiona de forma inteligente la distribución del par entre ejes para optimizar tracción y estabilidad. Asimismo, el sistema de gestión dinámica integrada del vehículo (VDIM) coordina elementos como el ABS, control de tracción o dirección asistida para elevar la seguridad y la armonía entre los sistemas.
Pero el nuevo RZ 2026 no es solo un ejercicio técnico: su diseño exterior ha sido refinado, el chasis ha ganado rigidez y los ajustes de suspensión han sido revisados por artesanos Takumi, con el fin de mejorar la sensación de conducción sin perder comodidad. Además, el aislamiento acústico y las soluciones para minimizar vibraciones elevan aún más la sensación de paz interior en un segmento donde el silencio es parte del lujo.
En definitiva, el Lexus RZ 2026 se presenta como un vehículo eléctrico más maduro, más potente, tecnológicamente innovador y consciente de las exigencias del mercado premium. A lo largo de este artículo exploraremos en detalle los distintos aspectos de esta gama: sus versiones y precios, motorizaciones, sistema eléctrico, tecnología de dirección, diseño, confort, seguridad, conectividad y posicionamiento frente a la competencia.

Nuevas versiones: RZ 500e y RZ 550e F SPORT
Lexus refuerza la gama del RZ 2026 incorporando dos nuevas variantes de tracción total: el RZ 500e y el RZ 550e F SPORT. Estas versiones buscan satisfacer a conductores que demandan entregas de potencia superiores y una experiencia de conducción más deportiva, sin sacrificar el carácter eléctrico premium del modelo.
Con esta estrategia, la firma nipona sigue ampliando su catálogo de propuestas potentes y tecnológicamente avanzadas, al mismo nivel que los SUV más prestacionales de Lexus, como el RX y el NX, protagonistas también de eventos deportivos internacionales como la Copa Davis. El nuevo RZ 550e F SPORT se posiciona como una expresión eléctrica de ese mismo ADN de altas prestaciones, con un enfoque más sostenible pero igual de ambicioso en términos de rendimiento.

Gama y precios en España
La nueva gama RZ 2026 ya tiene cifras oficiales para el mercado español. Las versiones con tracción delantera (FWD) arrancan desde 52.000 € para el RZ 350e e‑Premium Efficiency. Le siguen el RZ 350e e‑Premium (52.900 €) y el RZ 350e e‑Executive (55.900 €).
En cuanto a los modelos AWD, los precios publicados son: RZ 500e e‑Executive AWD por 61.900 €, y RZ 500e e‑Luxury AWD y RZ 550e F SPORT AWD por 70.900 €. A estas cifras se suma un coste extra de 750 € si el cliente opta por pinturas especiales o bitono.
Estas tarifas sitúan al RZ 2026 en un rango competitivo dentro del segmento de SUV eléctricos premium, con una clara estrategia de escalado de prestaciones y acabados.

Motorizaciones y sistema eléctrico
En el núcleo de estas versiones late una batería de 77 kWh, que aporta una base sólida para obtener autonomías competitivas. El RZ 500e entrega hasta 280 kW (≈ 381 CV) y declara una autonomía de hasta 500 km conforme al ciclo WLTP. La versión 550e, con 300 kW (≈ 408 CV), alcanza hasta 450 km de autonomía estimada.
El sistema eléctrico está articulado mediante Lexus DIRECT4, que distribuye dinámicamente el par entre los ejes según las condiciones de conducción. Además, la gestión dinámica integrada VDIM coordina todos los sistemas de estabilidad para un comportamiento armonioso y predecible.
La recarga también ha sido optimizada: pasar del 10 al 80 % se puede hacer en 30 minutos en carga rápida, gracias al sistema de preacondicionamiento y control térmico de la batería.

Steer by Wire y volante tipo “jet”
Una de las innovaciones más llamativas del RZ 2026 es el sistema Steer by Wire, que elimina la conexión mecánica entre el volante y las ruedas. El volante tipo “jet” acompaña esta tecnología: carece de la parte superior e inferior del aro convencional, mejorando la visibilidad del cuadro y la ergonomía.
Con este sistema, el vehículo permite un giro de 200° entre topes, facilitando maniobras a baja velocidad y ofreciendo mayor precisión en curvas. En la versión 550e F SPORT este sistema es estándar, aportando una experiencia de conducción futurista y extremadamente precisa.

Diseño exterior y aerodinámica
El nuevo RZ 2026 mantiene la silueta fluida y deportiva de la generación anterior, pero incorpora ajustes en la carrocería para mejorar la eficiencia aerodinámica. La caída trasera tipo coupé, el difusor integrado y los bajos carenados ayudan a reducir la resistencia al avance.
El acabado F SPORT añade llantas de 20", un alerón de doble ala y detalles en negro brillante que refuerzan su imagen deportiva. Otras versiones apuestan por una estética más sobria, sin renunciar a la sofisticación que define a la marca.

Confort, silencio y aislamiento
Lexus ha prestado especial atención al interior y al confort acústico. Refuerzos en puntos clave de la carrocería, materiales absorbentes y cristales especiales permiten lograr un nivel de silencio excepcional.
De hecho, una de las señas de identidad del modelo es precisamente esa combinación de diseño elegante, ingeniería avanzada y atmósfera zen al volante. No en vano, tal como recogimos en un análisis anterior, así es el Lexus RZ: lujo silencioso con alma futurista, una máquina pensada no solo para desplazarse, sino para transformar cada trayecto en una experiencia sensorial exclusiva.

Equipamiento y acabados
La gama RZ 2026 se articula en tres niveles de acabado para las versiones AWD: e‑Executive, e‑Luxury y F SPORT. El acabado Executive incluye techo panorámico y llantas de 20 pulgadas. El Luxury suma faros MultiLED adaptativos, tapicería UltraSuede, head-up display y retrovisor interior digital.
El F SPORT, por su parte, está diseñado para los amantes de la conducción emocional, con estética diferenciada, volante tipo jet, pedales deportivos y simulador de cambios con levas. En los modelos FWD, los acabados son e‑Premium Efficiency, e‑Premium y e‑Executive.

Seguridad, asistencias y sistemas integrados
El RZ 2026 incorpora la suite completa de asistentes Lexus Safety System+, coordinados a través del sistema VDIM. Este controla activamente funciones como ABS, control de tracción, dirección asistida y reparto de par.
Entre las ayudas destacan: frenada autónoma con detección de peatones, asistente de mantenimiento de carril, reconocimiento de señales, control de crucero adaptativo y sensores de aparcamiento con frenado activo.

Conectividad e interfaz del conductor
El sistema multimedia del RZ se basa en una gran pantalla central, con soporte para Apple CarPlay y Android Auto inalámbricos. El head-up display opcional proyecta información clave directamente sobre el parabrisas.
En las versiones más altas, el volante tipo jet, el Steer by Wire y el “Interactive Manual Drive” transforman la conducción, ofreciendo una sensación digital sin perder feedback. La interacción entre conductor y vehículo alcanza aquí un nuevo nivel.

Ventajas del RZ 2026
El nuevo Lexus RZ 2026 no es simplemente una evolución de un SUV eléctrico; es una propuesta que redefine el equilibrio entre lujo, tecnología y eficiencia. Estas son las principales razones por las que destaca frente a sus competidores:

Gran salto en potencia con versiones 500e y 550e
Lexus ha dado un paso firme en cuanto a rendimiento. Las versiones 500e (381 CV) y 550e F SPORT (408 CV) suponen un notable salto de potencia respecto a modelos anteriores y a muchos de sus competidores directos. Esta mejora no solo se traduce en cifras, sino también en una entrega de par más inmediata, mejor respuesta dinámica y una conducción más emocional, especialmente en la variante F SPORT, orientada a quienes buscan sensaciones deportivas en un eléctrico premium.

Tecnología pionera: Steer by Wire y volante tipo “jet”
Uno de los avances más innovadores del RZ 2026 es su sistema de dirección por cable Steer by Wire, una tecnología que elimina la conexión mecánica entre el volante y las ruedas, ofreciendo un nivel de control y precisión sin precedentes. A esto se suma el volante tipo “jet”, que mejora la visibilidad del cuadro de instrumentos y aporta una experiencia de conducción futurista. Esta solución convierte cada trayecto en una interacción más directa y personalizada entre conductor y vehículo.

Excelente confort acústico y refinamiento general
Lexus ha puesto especial énfasis en el aislamiento del habitáculo. Gracias a mejoras estructurales, refuerzos en puntos clave y el uso de materiales absorbentes, el RZ 2026 ofrece uno de los interiores más silenciosos del segmento. Esto se traduce en un confort elevado, ideal tanto para el día a día como para largos desplazamientos. El refinamiento se extiende también a los acabados, la iluminación ambiental y los detalles artesanales que definen la filosofía Omotenashi de la marca.

Gama escalonada para distintos perfiles de usuario
La gama RZ 2026 ha sido diseñada para adaptarse a las necesidades de diversos tipos de clientes. Desde las versiones FWD orientadas a la eficiencia y el confort urbano, hasta las variantes AWD más potentes y deportivas, Lexus ofrece un abanico de posibilidades que cubren estilos de conducción, niveles de equipamiento y presupuestos distintos. Esta estructura escalonada permite a cada comprador encontrar su RZ ideal, sin renunciar al ADN premium de la marca.

Equipamiento abundante incluso en versiones base
Incluso en sus acabados de acceso, el RZ 2026 incluye un equipamiento de serie completo y competitivo, que supera lo habitual en el segmento. Elementos como techo panorámico, pantalla multimedia de gran tamaño, asistentes a la conducción avanzados y materiales de calidad están presentes desde la versión e-Premium Efficiency. Esto asegura una experiencia de alta gama sin necesidad de recurrir a múltiples paquetes opcionales.

Perspectivas de mercado
El Lexus RZ 2026 representa un paso decisivo en la electrificación de la marca japonesa. Su gama ampliada, sus innovaciones tecnológicas y su refinamiento en marcha lo convierten en una de las opciones más interesantes dentro del segmento SUV eléctrico premium.
Lexus demuestra que puede competir de tú a tú con las marcas alemanas y americanas, aportando una visión propia basada en la elegancia, el silencio y la precisión. Si el cliente valora el confort, la fiabilidad y la innovación bien ejecutada, el nuevo RZ tiene mucho que ofrecer.

¿Para quién es el Lexus RZ 2026?
El nuevo RZ 2026 está pensado para un público exigente, amante del lujo contemporáneo y con una clara conciencia medioambiental. Es un modelo ideal para quienes buscan un SUV premium eléctrico que no solo ofrezca autonomía y tecnología, sino también una experiencia de conducción refinada, silenciosa y emocional.

Tanto en sus versiones más racionales como en sus variantes deportivas, este Lexus tiene la capacidad de seducir a perfiles muy distintos: desde ejecutivos urbanos hasta conductores que desean emociones con cero emisiones. El RZ 2026 no solo propone moverse, propone hacerlo con estilo, inteligencia y carácter propio.
Cuando oímos la palabra Estadística, lo más habitual es que pensemos en encuestas, porcentajes o diagramas de barras. Usamos la Estadística para calcular el salario medio en una ciudad, el riesgo de una cierta operación bancaria o la probabilidad de ganar unas elecciones. Pero… ¿qué pasa cuando, además del cuánto, nos importa el dónde?
La Estadística Espacial es una poderosa rama de la Estadística, que se centra en analizar datos que disponen de una ubicación geográfica. ¿Dónde se concentran los incendios forestales? ¿Cuáles son las regiones con mayor incidencia de ciertas enfermedades? ¿Cómo se distribuyen los accidentes de tráfico en una ciudad? Estas y otras muchas preguntas solo pueden entenderse si incorporamos el espacio y las coordenadas en nuestros análisis. En este artículo te invito a descubrir cómo los mapas pueden contar historias que los números, por sí solos, no alcanzarían a explicar.
Mapeando el cólera: un médico en el origen de la Estadística Espacial
Londres, 1854. La ciudad atravesaba una de las muchas epidemias de cólera que azotaban al mundo en aquella época. En particular, el barrio de Golden Square fue testigo de un brote inusualmente virulento: ¡más de 700 personas murieron en apenas diez días! En aquel tiempo, la teoría microbiana de la enfermedad, esa que sostiene que virus y bacterias microscópicos son los responsables de estas, aún no se conocía. En su lugar, se pensaba que las dolencias eran provocadas por los “malos aires” o “malos olores” que emanaban de terrenos o aguas infestadas.
John Snow, un reputado médico de la época, no comulgaba con esta teoría y decidido a comprender el origen de aquel brote, comenzó a recorrer el barrio mapa en mano, visitando una a una las viviendas y preguntando si alguien había presentado síntomas compatibles con el cólera. Cada vez que obtenía una respuesta afirmativa, marcaba con un pequeño rectángulo negro la ubicación. Lo que consiguió no fue solo un censo detallado del brote, sino algo más revelador: una imagen espacial de la enfermedad, ver Figura 1 (izquierda).
Al observar el mapa resultante, Snow detectó un patrón: la mayoría de los casos estaban agrupados en torno a un punto concreto de la ciudad: la fuente de agua pública ubicada en Broad Street, ver Figura 1 (derecha). Sospechando que el agua estaba contaminada, pidió que se deshabilitara el surtidor. Las autoridades accedieron, aunque no sin escepticismo, y poco después, los contagios disminuyeron drásticamente.

Este episodio marcó un antes y un después. Aunque Snow no hablaba aún de “Estadística Espacial”, su método ya contenía los elementos clave: datos georreferenciados, visualización y análisis de patrones. Su mapa contribuyó a frenar una epidemia a la par que sentaba las bases para una nueva forma de entender los datos.
La tríada de la Estadística Espacial: puntos, mallas y regiones.
No todos los datos espaciales son iguales; el tipo y la forma de la información que manejamos influyen directamente en cómo la analizamos. A grandes rasgos, podemos clasificarla en tres grupos que determinan las tres grandes áreas de esta disciplina: Geoestadística, Procesos Puntuales y Datos de Área.
Geoestadística
Imagina que hay sensores de calidad del aire repartidos por una región. Cada uno registra la concentración de cierto contaminante en un punto concreto. Pero claro, no podemos llenar cada metro cuadrado con un sensor. ¿Cómo saber qué ocurre en los lugares intermedios donde no hay mediciones directas? La geoestadística se encarga de resolver este tipo de problemas.
Usando técnicas como la interpolación espacial, podemos predecir valores en zonas sin observaciones, basándonos en cómo se comportan los valores vecinos. Esto permite generar mapas continuos que muestran, con transiciones suaves de color, cómo varía una magnitud en todo el territorio. Es lo que ocurre cuando consultamos un mapa de lluvias, de temperaturas o de contaminación: detrás hay una red de datos dispersos y un modelo que los convierte en una superficie interpretable. Se puede ver un ejemplo simulado del territorio gallego en la Figura 2.

Procesos puntuales
Aquí lo importante no es cuánto vale una variable en un punto, sino las coordenadas donde ocurre el evento (incendio forestal, accidente de tráfico…). Un ejemplo de la representación gráfica de este tipo de datos puede verse en la Figura 3.
Cada observación (evento de interés) se representa como un punto en el mapa con el que buscamos responder a preguntas como: ¿están los sucesos agrupados o dispersos? ¿Existen zonas “calientes” donde ocurren con mayor frecuencia? Herramientas como los mapas de calor permiten visualizar fácilmente zonas donde los eventos tienden a concentrarse. Formalmente, lo que se representa en estos mapas es la intensidad del proceso, una medida que indica cuántos eventos esperamos por unidad de superficie.

Además, no se trata solo de contar puntos. Muchas veces, utilizamos modelos matemáticos que nos permiten incorporar factores que influyen en la aparición de esos eventos: el tipo de vegetación en los incendios o la densidad de tráfico en los accidentes. Estos modelos ayudan no solo a describir lo que ha ocurrido, sino también a predecir y simular lo que podría pasar.
Datos de área
Se caracterizan porque los datos que tenemos no se refieren a puntos concretos, sino a zonas geográficas definidas, como barrios, provincias o áreas sanitarias. Esto ocurre, por ejemplo, con los mapas que muestran la incidencia de una enfermedad, ver Figura 4. En estos casos, cada área tiene asociado un valor, y el análisis se centra en comparar regiones entre sí.
Este enfoque es habitual cuando los datos proceden de registros administrativos o cuando hay que preservar la privacidad. Por ejemplo, en salud pública no se publica la dirección exacta de los pacientes, ofreciendo en su lugar tasas por zonas que impidan la identificación personal.

La Estadística Espacial está presente en tu día a día (aunque no lo sepas)
La Estadística Espacial se encuentra detrás de muchas de nuestras decisiones cotidianas. Se utiliza en los sistemas de predicción de emergencias, permitiendo anticipar fenómenos como inundaciones o incendios forestales. En regiones especialmente afectadas por los fuegos, como Galicia, se han aplicado metodologías de procesos puntuales para identificar las zonas de mayor riesgo y entender las causas subyacentes. Metodologías similares se han aplicado en Canadá, donde el reto es otro: la escala inmensa del territorio y la influencia de factores climáticos extremos.
También se aplica al estudio de accidentes de tráfico provocados por fauna salvaje, un problema creciente en diversas zonas, como por ejemplo en Cataluña, donde la presencia de jabalíes o ciervos en los aledaños de la red de carreteras genera importantes riesgos para la seguridad vial. En contextos urbanos, como Río de Janeiro, el análisis espacial de los accidentes de tráfico ha permitido detectar patrones relacionados con las horas punta y la calidad del diseño urbano.
¿Qué ocurre cuando el mapa se mueve?
Hasta ahora hemos visto cómo la Estadística Espacial nos ayuda a analizar dónde suceden las cosas. Pero, ¿qué pasa cuando esas cosas cambian con el tiempo? No es lo mismo saber que hay incendios forestales en cierto ayuntamiento, que saber además que ocurren mayormente en octubre. Es aquí donde entre en juego la Estadística Espacio-Temporal, que analiza simultáneamente el lugar y el momento.
Este tipo de análisis permite detectar patrones dinámicos, desde cómo se propaga una enfermedad a cómo evoluciona un incendio. También es clave para entender el cambio climático, el consumo energético o el comportamiento en redes sociales. Lo que antes era una foto fija, ahora se convierte en una película en constante movimiento que revela mucho más.

Conclusión
Como hemos podido observar a lo largo de estas líneas, la Estadística Espacial aporta una dimensión fundamental al análisis de datos: el lugar. En muchos contextos no basta con saber cuánto ocurre algo, sino que es igual de importante saber dónde y cómo se distribuye sobre el territorio.
El auge de tecnologías como los sensores móviles, los satélites o el GPS de nuestros teléfonos ha disparado la cantidad de datos con ubicación y marca de tiempo. Incorporar la información geográfica en los análisis permite detectar patrones, priorizar intervenciones y tomar decisiones informadas. En un entorno cada vez más conectado, donde los datos se generan en tiempo real y a distintas escalas, entender la dimensión espacial ya no es opcional, se ha convertido en una necesidad.
Referencias
- Borrajo, M. I., Comas, C., Costafreda-Aumedes, S. y Mateu, J. (2021). Stochastic smoothing of point processes for wildlife-vehicle collisions on road networks. Stochastic Environmental Research and Risk Assessment, 1-15. doi: 10.1007/s00477-021-02072-3
- Borrajo, M. I., González-Manteiga, W. y Martínez-Miranda, M. D. (2020). Bootstrapping kernel intensity estimation for inhomogeneous point processes with spatial covariates. Computational Statistics & Data Analysis, 144, 106875. doi: 10.1016/j.csda.2019.106875
- Borrajo, M. I., González-Manteiga, W. y Martínez-Miranda, M. D. (2020). Testing for significant differences between two spatial patterns using covariates. Spatial Statistics, 40, 100. doi: 10.1016/j.spasta.2019.100379
- Cressie, N. (2015). Statistics for spatial data. John Wiley & Sons. doi: 10.1002/9781119115151
- González-Pérez, I., Borrajo, M. I. y González-Manteiga, W. (2025). Nonparametric testing of first-order structure in point processes on linear networks. Statistical Papers, 66(2), 42. doi: 10.1007/s00362-024-01657-8

María Isabel Borrajo García
Doctorado en Matemáticas.

El folclore es ese campo de estudio bajo el que solemos reunir aspectos como las leyendas populares, los ritos de fertilidad o la creencia en las criaturas feéricas. Se asocia a lo ancestral, a los tiempos en los que se vivía siguiendo los ciclos de la naturaleza y la agricultura. Un reciente ensayo a cargo de Owen Davies y Ceri Houlbrook rompe con esta visión limitada y opta por explorar el folclore como un campo de acción vigente en el mundo contemporáneo. Así, en Folklore. A Journey through the Past and Present (Manchester University Press, 2025), los autores ofrecen una cartografía amplia y accesible de lo que hoy entendemos por folclore, desde los ritos ligados al calendario y los cuentos tradicionales hasta las leyendas urbanas e incluso la fanfiction en internet. El libro pretende situar el folclore como una tradición viva, dinámica y cargada de significados políticos.
Definiciones académicas del término “folclore”
La palabra "folclore" (folklore, en inglés) fue acuñada en 1846 por William John Thoms en una carta publicada en The Athenaeum. Thoms utilizó el término para agrupar bajo una misma etiqueta a las “antiguas supersticiones y mitos del pueblo”. Esta declaración aparentemente inocua tuvo un impacto esencial en la evolución posterior de los estudios folclóricos, pues convirtió una práctica dispersa en un objeto de estudio consciente.
Desde el siglo XIX, las definiciones del vocablo han cambiado. Si, en un principio, los estudiosos mostraban un mayor interés en los aspectos ligados al contenido (relatos, supersticiones, objetos), en la actualidad el folclore ha virado hacia el análisis de las dinámicas sociales. Así, folk ("pueblo") no se referiría únicamente al campesinado, sino a cualquier grupo con tradiciones compartidas, tanto en el ámbito rural como en el urbano. Los estudios folclóricos contemporáneos, por tanto, entienden el folclore como un proceso comunicativo vivo y mutable, y no como reliquia estática.

La importancia de los estudios folclóricos en Gran Bretaña
Aunque su método de trabajo y las conclusiones que presentan son aplicables al estudio del folclore en general, el trabajo de Owen Davies y Ceri Houlbrook se centra en la realidad británica. Gran Bretaña, de hecho, jugó un papel central en la institucionalización de los estudios folclóricos. La Folklore Society, por ejemplo, se fundó en Londres en 1878 y, con ella, surgieron revistas, catálogos y redes de coleccionismo que profesionalizaron la disciplina. Esa estructura institucional convirtió al Reino Unido en un laboratorio temprano para probar las teorías comparativas y las prácticas de archivo folclórico.
El interés victoriano y eduardiano por el folclore estuvo marcado por figuras como James G. Frazer (1854–1941), cuya obra La rama dorada integró folclore, religión y antropología. Cecil Sharp (1859–1924), por su parte, profesionalizó la recolección de música y danzas, mientras que Charlotte Burne (1850–1923) se puso al frente de la Folklore Society para promover sus métodos e intereses. Estos actores ayudaron a desarrollar métodos y a fijar un corpus de material que aún hoy siguen condicionando los trabajos contemporáneas.
En el presente, los estudios folclóricos británicos se han actualizado para abordar debates sobre el patrimonio intangible, la descolonización de los archivos y la inclusión de voces migradas. La disciplina ha pasado así de coleccionar “lo rural” a estudiar las prácticas urbanas, mediáticas y transnacionales.

Folclore: un viaje entre el pasado y el presente
El ensayo Folklore: A journey through the past and present combina historia intelectual, etnografía de campo y estudios culturales para mostrar cómo las manifestaciones folclóricas se han registrado, recuperado y reinterpretado desde el siglo XIX hasta hoy. Uno de sus mayores méritos reside en su capacidad de sintetizar debates y ofrecer nuevas vías de lectura, equilibrando accesibilidad y rigor.
Entre los aspectos tratados en el libro, se cuentan el año ritual, la dimensión performativa del folclore, con sus danzas, música y teatro popular, y los cuentos, fábulas y leyendas. También dedican secciones a los amuletos, los talismanes y las prácticas mágicas. En todo ello, los autores no solo analizan los aspectos performativos y de transmisión, sino que también exploran cómo se reconfigura el sentido de las tradiciones. Así, el folclore es visto como un acto vivo y no como una mera repetición.
Davies y Houlbrook incorporan en su análisis las leyendas urbanas y otras manifestaciones similares de la cultura contemporánea que ya pertenecen a nuestro folclore. Los autores sostienen que la lógica folclórica continúa plenamente vigente en internet y las redes sociales a través de los creepypasta, fanfiction y otras manifestaciones digitales.

Folk horror, el auge de un subgénero en la ficción
El concepto de folk horror se asocia, sobre todo, a un subgénero cinematográfico y, en menor medida, literario dentro del terror. Se estima que la tríada de películas británicas formada por El general Witchfinder (1968), La garra de Satán (1971) y El hombre de mimbre (1973) fundó y sentó sus bases, si bien se consideran precedentes producciones como Häxan (1922), de Benjamin Christensen. El folk horror suele articular el miedo a partir de la invención o reformulación de determinadas tradiciones locales.
En la última década, se ha observado un renovado interés en títulos contemporáneos, como The Witch (2015) y Midsommar (2019), que recuperan y reinventan motivos rurales, rituales y vida comunitaria para tratar temáticas actuales como la identidad, el trauma y la modernidad inversa. Este segundo auge, además de recuperar motivos estéticos derivados del folclore, también reinterpreta el pasado folclórico para utilizarlo como dispositivo crítico.
Con todo, el folk horror rara vez reproduce las folclóricas auténticas documentadas. Por el contrario, prefiere crear su propio folclore, una colección de ritos e imágenes diseñada para conferir horror. Este punto es crucial para comprender la relación entre producción cultural, patrimonio y tradición.

Una nueva perspectiva
Folklore. A Journey through the Past and Present es una aportación sólida que conjuga historia, teoría y ejemplos tanto históricos como contemporáneos. El ensayo también funciona como una introducción a los debates académicos actuales sobre la identidad y las políticas culturales. Quienes se acerquen a este libro encontrarán una síntesis crítica que respeta la complejidad del objeto y ofrece herramientas para pensar la pervivencia y las transformaciones del folclore.
Referencias
- Davies, Owen y Ceri Houlbrook. 2025. Folklore: A journey through the past and present. Manchester University Press.
A escasos metros del manzano más famoso de la historia de la ciencia, ese que según la leyenda inspiró a Isaac Newton a formular su teoría de la gravedad, un grupo de arqueólogos ha desenterrado los restos de una casa que estuvo ligada estrechamente a su infancia. Pero lo realmente fascinante no es solo la confirmación del lugar donde se encontraba la vivienda de su madre, Hannah Ayscough, sino la colección de objetos cotidianos que han emergido del subsuelo: fragmentos de vajilla, jarras decoradas con rostros barrocos, hebillas, botones, utensilios de costura e incluso fichas de juego. Un conjunto de hallazgos que ofrece una ventana única al mundo íntimo de la familia Newton en el corazón rural de Inglaterra, en plena era de las revoluciones científicas.
La excavación, dirigida por el equipo del National Trust y los arqueólogos de York Archaeology, ha tenido lugar en Lincolnshire, en el mismo terreno que en el siglo XVII albergó la casa construida por Hannah tras enviudar por segunda vez. La importancia del hallazgo no radica en su espectacularidad visual, sino en lo que representa: un retrato detallado de la vida doméstica en una Inglaterra aún marcada por las tensiones religiosas, la inestabilidad política y la lenta gestación de lo que luego se conocería como la Revolución Científica.
La infancia fragmentada de un genio
Isaac Newton nació en 1642 en Woolsthorpe Manor, una pequeña finca de piedra gris en el campo inglés. Su padre murió antes de que él naciera, y su madre volvió a casarse pocos años después. El pequeño Newton fue entonces criado por sus abuelos, mientras su madre vivía en la casa ahora excavada junto a sus nuevos hijos. A pesar de la proximidad física entre ambas viviendas, existía una separación emocional profunda. Este distanciamiento marcaría la psicología de Newton durante toda su vida, alimentando su carácter reservado, obsesivo y solitario.
El redescubrimiento de esta casa, demolida tras un incendio en el siglo XIX, viene acompañado de restos materiales que permiten imaginar cómo era el día a día en ese pequeño núcleo familiar: utensilios domésticos, juegos, costura, preparación de alimentos, relaciones entre hermanos. Todo ello en un entorno que Newton sin duda frecuentó a diario. La arqueología aquí no revela solo objetos, sino vínculos emocionales, momentos compartidos, gestos repetidos durante años que tejieron una vida común antes de que el joven Isaac emprendiera el camino hacia la Universidad de Cambridge.

Una excavación que reconstruye la vida diaria del siglo XVII
Entre los hallazgos más llamativos destacan piezas de un tipo de cerámica vidriada con decoraciones en colores cálidos, muy típica del periodo. También apareció un fragmento de una jarra Bellarmine, con la efigie abultada de un rostro barbudo, un objeto curioso tanto por su aspecto como por su historia: estas jarras eran comunes en la Europa protestante y a menudo se asociaban con rituales domésticos e incluso con supersticiones.
Más allá de los objetos decorativos, el equipo encontró restos que hablan del trabajo cotidiano: tres dedales (dos de adulto y uno infantil), agujas, botones de hueso, hebillas y herramientas de cocina. También se hallaron fichas de juego llamadas jettons, utilizadas en la contabilidad doméstica o en simples pasatiempos. Junto a estos elementos, huesos de animales con marcas de corte revelan los hábitos alimenticios del hogar y sugieren que la carne era preparada en casa, una tarea fundamental que implicaba a toda la familia.
Este conjunto material revela una escena muy distinta a la imagen solemne y aislada del joven Newton bajo el manzano, contemplando el misterio de la gravedad. La realidad era mucho más humana: una infancia en un entorno rural, rodeado de hermanos, objetos, olores, juegos, costuras y comidas compartidas. El genio de la física nació y creció entre platos de barro, dedales de hierro y jarras con caras grotescas.
Del mito al contexto: más allá de la manzana
La leyenda de la manzana, aunque encantadora, ha oscurecido durante siglos el contexto real en el que Isaac Newton desarrolló sus ideas. Durante su retiro en Woolsthorpe en 1665 y 1666, mientras la peste asolaba Londres y Cambridge cerraba sus puertas, Newton tuvo lo que él mismo llamó sus “años milagrosos”. Fue en ese periodo cuando formuló las bases del cálculo, desarrolló sus estudios sobre la óptica y comenzó a pensar en la gravitación universal.
Pero lo que a menudo se olvida es que estos momentos de concentración e inspiración no se produjeron en un vacío. Estaban inmersos en un entorno rural, doméstico, cargado de referencias emocionales, sociales y materiales. Newton trabajaba en su laboratorio improvisado mientras su madre y sus hermanos quizás cocinaban al lado, jugaban o reparaban ropa. La arqueología ha permitido vislumbrar esta dimensión cotidiana que rara vez aparece en los retratos oficiales.
El hallazgo también invita a una reflexión más amplia sobre cómo la historia de la ciencia se ha narrado tradicionalmente: centrada en momentos de genialidad individual, desvinculada de la vida real. Esta excavación nos recuerda que incluso las mentes más brillantes nacen en contextos concretos, entre platos sucios, juegos y discusiones familiares. El genio no flota en el aire: pisa tierra firme, y en este caso, tierra inglesa llena de fragmentos del pasado.

Una exposición para revivir el pasado
Los objetos descubiertos formarán parte de una nueva exposición que se abrirá al público en 2026 en Woolsthorpe Manor, ahora gestionado como museo por el National Trust. Será una oportunidad para que visitantes de todo el mundo conozcan no solo al físico, matemático y alquimista, sino también al niño, al hermano, al hijo de una familia rural del siglo XVII.
El proyecto no solo ha servido para recuperar patrimonio, sino también para acercar la arqueología a la comunidad local. Durante el llamado “Festival de la Arqueología”, familias y escolares participaron en actividades junto al equipo profesional, aprendiendo a excavar, limpiar y catalogar objetos. Una forma de conectar generaciones y transmitir el valor de descubrir nuestro pasado desde la propia tierra que lo sustenta.
El redescubrimiento de la casa de Hannah Ayscough, y la vida que encerraba, pone en primer plano una historia invisible: la del mundo que rodeó a uno de los grandes genios de la humanidad. Una historia que, gracias a la arqueología y al trabajo de varios años de investigación, empieza por fin a contarse con la riqueza y la humanidad que merece.
El gran legado de la física del siglo xx es que todo en el universo, absolutamente todo, está hecho de espacio-tiempo clásico y de campos cuánticos. El espacio-tiempo es la entidad dinámica responsable de la gravitación, descrita por la relatividad general. Los campos son responsables de las partículas que constituyen toda la materia y la radiación, descritos por teorías cuánticas de campos en el marco del modelo estándar. Esta naturaleza dual del universo desagrada a la mayoría de los físicos, que sueñan con una descripción cuántica del espacio-tiempo y de la gravitación, la esquiva gravedad cuántica. La clave para el desarrollo de una teoría de todo capaz de unificar la gravitación con el resto de las interacciones fundamentales (el electromagnetismo, la interacción débil y la interacción fuerte).
Puede parecer una cuestión estética, pero sabemos que la gravitación de Einstein es una teoría incompleta. Penrose y Hawking probaron que pueden aparecer singularidades, en las que la noción de espacio-tiempo clásico deja de tener sentido y la teoría no es aplicable. Una futura gravedad cuántica nos permitirá eliminar estas singularidades tanto en el interior de los agujeros negros como al inicio de los modelos cosmológicos de tipo Big Bang. Además, desvelará la naturaleza cuántica del espacio y del tiempo en la escala de Planck (a distancias del orden de 10-³⁵ metros y en duraciones del orden de 10-⁴⁴ segundos). En esta escala se espera que el espacio- tiempo continuo sea reemplazado por una espuma cuántica, con fluctuaciones caóticas en las que las partículas y los agujeros negros virtuales se entremezclan en formas difíciles de describir con palabras. Esta espuma cuántica podría dar lugar a efectos observables en ciertos fenómenos físicos que ocurren en escalas cósmicas, como la propagación de rayos cósmicos durante miles de millones de años.
La prehistoria de la gravedad cuántica
En noviembre de 1915 nació la teoría general de la relatividad que describe la gravitación. Siendo uno de los padres de la física cuántica, el propio Einstein afirmó en 1916 que la teoría cuántica tendría que modificar la física de las ondas gravitacionales, como lo hace con las ondas electromagnéticas. Lo volvió a repetir en 1918, pero en 1919 cambió de idea de forma radical: propuso el sueño que le acompañó el resto de su vida, la búsqueda de una teoría unificada del electromagnetismo y de la gravitación basada en una formulación geométrica clásica. Hoy sabemos que una descripción clásica subyacente a la física cuántica contradice los experimentos cuánticos galardonados con el premio Nobel de Física en 2022.
Tras el nacimiento de la formulación definitiva de la física cuántica, en 1927, Klein volvió a proponer la necesidad de una gravedad cuántica. Parecía tan fácil que, en 1929, en su artículo pionero sobre la cuantización del campo electromagnético, Heisenberg y Pauli afirmaron que su método era aplicable a la gravitación sin ninguna dificultad adicional. Recogieron el guante Rosenfeld en 1930, Blokhintsev y Gal’perin en 1934, y Bronstein en 1935. Así nació el gravitón, la partícula cuántica asociada a las ondas gravitacionales, análoga al fotón para las ondas electromagnéticas, cuya física está regida por la versión linealizada de la ecuación de Einstein. Por desgracia, estas teorías cuánticas estaban decoradas con infinitos que impedían realizar predicciones. De hecho, para el electromagnetismo, la versión cuántica libre de infinitos, llamada electrodinámica cuántica (QED), no se culminó hasta 1949.

La gravitación como teoría Gauge
La naturaleza de la luz está descrita por el electromagnetismo, que unifica los campos eléctrico y magnético. En cada punto del espacio tridimensional, las seis componentes de estos campos cumplen con las cuatro ecuaciones de Maxwell. Como resultado, el electromagnetismo solo tiene dos grados de libertad físicos (responsables de las dos polarizaciones de la luz que permiten el cine en 3D con gafas adecuadas). Pero no sabemos describir el electromagnetismo usando solo sus dos grados de libertad físicos. Esta redundancia en las ecuaciones es característica de las teorías gauge.
La geometría del espacio-tiempo está descrita por la gravitación de Einstein. Las diez componentes del tensor métrico en tres dimensiones espaciales cumplen con la ecuación de Einstein, que equivale a ocho ecuaciones no lineales acopladas. Como resultado, la gravitación solo tiene dos grados de libertad físicos (responsables de las dos polarizaciones de las ondas gravitacionales). La gran redundancia de las ecuaciones hace que haya infinitas configuraciones clásicas que representan cada estado físico del campo gravitacional; se dice que la teoría es invariante ante cambios de coordenadas generales (de ahí el nombre de relatividad general). Por desgracia, no sabemos describir la gravitación usando solo sus dos grados de libertad físicos. Estas redundancias en la ecuación de Einstein permiten interpretarla como una teoría gauge.
La cuantización del electromagnetismo se puede realizar por varios métodos y todos ellos conducen a la misma teoría final, la QED. Esta teoría describe la interacción entre partículas con carga eléctrica como un intercambio de fotones virtuales. El fotón es un bosón de espín uno sin masa, luego corresponde a dos excitaciones de sendos campos cuánticos acoplados (que representan a nivel cuántico las dos polarizaciones de la luz). La QED es una teoría lineal, ya que el fotón no tiene carga eléctrica, por lo que no interacciona con otros fotones (luego los sables láser de Star Wars son imposibles). La linealidad facilita muchísimo todos los cálculos y permite que la QED sea la teoría más precisa de toda la física.
La relatividad general se puede cuantizar con los mismos métodos usados para el electromagnetismo y todos ellos conducen a la misma gravedad cuántica. La masa es la carga de la gravitación newtoniana, sin embargo, en la gravitación einsteiniana actúa como carga la densidad de energía y momento lineal. Por ello, la gravitación es una interacción universal, que afecta a todas las partículas (porque todas tienen energía, incluidas las que no tienen masa como el fotón). La gravedad cuántica describe la interacción entre dos partículas cualesquiera como un intercambio de gravitones virtuales. El gravitón es un bosón de espín dos sin masa, que corresponde a dos excitaciones de sendos campos cuánticos acoplados (que representan a nivel cuántico las dos polarizaciones de las ondas gravitacionales). Como el gravitón tiene energía, puede interaccionar con otros gravitones, lo que conduce a una teoría no lineal en la que es muy difícil realizar cálculos. Pero los problemas de esta teoría van más allá.

Una gravedad cuántica inútil
La versión cuántica de la gravitación de Einstein se puede obtener con los métodos de cuantización canónica, covariante y con integrales de camino, que fueron aplicados por Bergmann (1949), Dirac (1950), Gupta (1952), Misner (1957) y Feynman (1963), entre otros. El resultado es una teoría cuántica no renormalizable, inútil, pues carece de capacidad predictiva. La razón última ya fue apuntada por Heisenberg en 1938, la constante de acoplamiento de la gravitación tiene dimensiones, a diferencia de las del resto de las interacciones del modelo estándar, que son adimensionales. Este problema también lo tenía la teoría de Fermi de 1934 para la interacción débil, que tuvo que ser reemplazada por la teoría electrodébil en 1967.
La idea física que subyace a la renormalización es que las partículas que observamos en los experimentos están influidas por el vacío cuántico que las rodea. Toda teoría cuántica de campos tiene dos tipos de estados, vacío y partículas. El vacío tiene energía infinita, pues se describe como infinitas partículas virtuales, que son fluctuaciones cuánticas con cierta energía de punto cero. Las partículas son excitaciones del campo sobre un estado de vacío; por ello, su energía finita es relativa a la energía infinita del vacío y su energía parece infinita si no se renormalizan los cálculos.
La renormalización consiste en revestir las partículas con el vacío que las rodea, de tal forma que la contribución infinita del vacío a la energía de la partícula compense de forma exacta la energía infinita del propio vacío, resultando un valor finito para la energía de la partícula observable. En la práctica, en dicho proceso se modifican los parámetros de las partículas (masas y cargas) y de los campos (acoplamientos) para que sean funciones que cambian con la energía, en lugar de valores constantes. El cálculo de dicha modificación se realiza a nivel perturbativo, paso a paso, calculando la contribución de un lazo (dos partículas virtuales), de dos lazos (tres partículas virtuales), etc. Los físicos Gerardus ‘t Hooft y Martinus Veltman Veltman recibieron el premio Nobel de Física de 1999 por demostrar en 1973 que todas las interacciones del modelo estándar son renormalizables.
En 1974, ‘t Hooft y Veltman demostraron que en la gravedad cuántica la renormalización perturbativa no funciona. En la interacción entre gravitones, al calcular la contribución a un lazo (dos gravitones virtuales) aparecen infinitos que no se pueden suprimir modificando el acoplamiento de la teoría (la constante de gravitación universal en este caso). Para lograrlo hay que introducir dos nuevos términos en el campo gravitacional, con dos parámetros libres, cuyo valor solo puede ser determinado con experimentos usando gravitones en colisionadores. El problema se agrava al añadir lazos adicionales, que introducen nuevos parámetros libres.

Necesitamos la guía de la naturaleza
El gran problema en gravitación cuántica es que nadie sabe cómo realizar experimentos con gravitones (a veces se afirma que se necesitaría un utópico colisionador de partículas del tamaño de toda una galaxia). De hecho, ni siquiera sabemos si el gravitón existe, pues aún no ha sido observado. Las ondas gravitacionales no son prueba de su existencia ya que una onda de 1 kHz (frecuencia típica en las que se observan en LIGO) contiene unos 10¹⁴ gravitones por centímetro cúbico.
La interacción gravitacional es demasiado débil para permitir observar efectos cuánticos mediante experimentos. Sabemos calcular las correcciones cuánticas al potencial gravitacional de Newton y al potencial eléctrico de Coulomb; pero son demasiado pequeñas. Por ejemplo, el acoplamiento gravitacional entre dos protones es del orden de 10-³⁹, unos 37 órdenes de magnitud más pequeño que el acoplamiento electromagnético (la constante de estructura fina). A pesar de ello, la gran esperanza está puesta en las observaciones cosmológicas de ultraprecisión de futuras generaciones de observatorios espaciales del fondo cósmico de microondas.
Se han propuesto muchos candidatos a teorías de gravedad cuántica, que se encuentran en diferentes fases de desarrollo. La teoría de cuerdas y la gravedad cuántica de lazos son las propuestas más avanzadas y prometedoras. La gran diferencia entre ellas es que la primera es invariante relativista a todas las energías, mientras que la segunda no lo es en la escala de Planck. Pero hay muchos otros candidatos, como la gravedad cuántica asintóticamente segura, la teoría de conjuntos causales, la teoría de triangulaciones causales, la gravedad de Hořava- Lifshitz y la gravedad basada en geometría no conmutativa, entre otras. Hasta ahora, ninguna de estas teorías nos ha enseñado a eliminar las singularidades en el interior de los agujeros negros, a entender la naturaleza cuántica del espacio y del tiempo, y a construir una teoría de todo que cumpla con el sueño unificador de Albert Einstein.
Cuando se piensa en óxido, lo habitual es imaginarse un clavo viejo, una viga abandonada o una reja olvidada bajo la lluvia. Lo que no resulta nada común es encontrarlo en un lugar donde no hay ni aire ni agua: la Luna. Sin embargo, en 2020 se detectó un tipo específico de óxido de hierro, llamado hematita, en regiones polares de nuestro satélite. Lo más sorprendente no era su presencia, sino el hecho de que allí, en un mundo seco y expuesto al vacío, el óxido no debería existir. Un hecho más para añadir a la lista de curiosidades de la Luna.
Esto provocó una incógnita científica que ha venido desafiando las explicaciones tradicionales. Un reciente estudio publicado en Geophysical Research Letters ofrece una respuesta tan inesperada como fascinante: el oxígeno que oxida la superficie lunar no viene del espacio exterior, sino directamente de la Tierra, en forma de un “viento” compuesto por partículas cargadas. Este hallazgo no solo resuelve un misterio geológico, sino que además apunta a una conexión constante y material entre nuestro planeta y su satélite natural.
El misterio del óxido en un lugar sin aire
La hematita, también conocida como Fe₂O₃, es una forma común de óxido de hierro en la Tierra. Su formación suele requerir la presencia de oxígeno y agua. Pero la Luna no cuenta con atmósfera ni humedad significativa, lo que ha llevado a considerar su entorno como un lugar reducido, es decir, carente de oxígeno disponible para reacciones químicas.
Pese a ello, la misión M3 (Moon Mineralogy Mapper) identificó depósitos de hematita en las zonas polares del satélite, especialmente en el hemisferio más cercano a la Tierra. Esto implicaba que algo, de alguna manera, estaba suministrando oxígeno a esas regiones, contradiciendo el conocimiento previo sobre la geología lunar. Las primeras teorías intentaron relacionarlo con impactos de meteoritos o procesos volcánicos antiguos, pero ninguna podía explicar la localización precisa de los hallazgos.

El viento de la Tierra: una fuente inesperada
La clave del enigma parece encontrarse en un fenómeno poco conocido llamado “viento de la Tierra”, una corriente de partículas que fluye desde la magnetosfera terrestre hacia el espacio. Este viento incluye iones de oxígeno, que pueden viajar hasta la Luna cuando esta pasa por la estela magnética del planeta, lo cual ocurre durante unos cinco días cada mes.
Durante este periodo, parte de la atmósfera superior terrestre es arrastrada hacia el entorno lunar. Los iones de oxígeno pueden llegar hasta el regolito (suelo) lunar e interactuar con minerales ricos en hierro, transformándolos en hematita sin necesidad de agua. Esta hipótesis, antes considerada especulativa, ha sido ahora validada mediante simulaciones de laboratorio que imitan las condiciones reales de la superficie lunar .
Experimentos con minerales lunares simulados
En el estudio liderado por Xiandi Zeng y Ziliang Jin, los investigadores irradiaron diferentes minerales portadores de hierro —como ilmenita, magnetita, troilita y hierro metálico— con iones de oxígeno a una energía de 10 keV, similar a la del viento terrestre. El resultado fue claro: en varios de estos materiales se formó hematita.
Uno de los hallazgos más relevantes fue que el hierro metálico, al ser irradiado, mostraba nuevos picos característicos en el espectro Raman, confirmando la transformación química. En palabras de los autores: “La formación de hematita a partir del hierro metálico puede lograrse mediante [la irradiación con] O⁺”.
También observaron una secuencia de oxidación progresiva: primero se forma magnetita (Fe₃O₄), y luego esta se convierte en hematita. Esta cadena reacciona incluso sin la presencia de agua, lo que la convierte en un proceso viable en el entorno lunar.

Reducción y conservación: el papel del hidrógeno
El otro gran protagonista de esta historia es el hidrógeno, especialmente el que llega desde el viento solar. La misma investigación analizó si los iones de hidrógeno podían revertir el proceso de oxidación. Para ello, irradiaron hematita con hidrógeno de distintas energías, simulando tanto el viento solar (2 keV) como el viento terrestre (10 keV).
Los resultados fueron reveladores. Solo los iones de hidrógeno de alta energía lograron reducir parte de la hematita a hierro metálico, mientras que los de baja energía fueron casi ineficaces. Esto implica que la presencia y conservación de hematita en la Luna depende en gran medida del equilibrio entre oxígeno e hidrógeno, así como de la energía de las partículas que llegan hasta allí.
Una distribución que también tiene explicación
Los mapas del satélite muestran que la hematita se concentra en las regiones de alta latitud, lo cual podría explicarse por la forma en que las partículas cargadas viajan a través del campo magnético terrestre. Los iones de oxígeno, al tener mayor masa, siguen trayectorias que los dirigen hacia los polos lunares, mientras que los de hidrógeno tienden a desviarse. Este patrón favorece la oxidación en zonas específicas, lo que concuerda con las observaciones de los satélites orbitales.
Además, los investigadores advierten que la distribución y conservación del óxido depende no solo de la composición del regolito lunar, sino también de las condiciones variables del viento magnético terrestre, especialmente durante tormentas solares o alteraciones del campo geomagnético.

Más que un fenómeno geológico
Más allá de lo sorprendente que resulta encontrar óxido en un lugar tan inhóspito, este hallazgo tiene implicaciones profundas. En primer lugar, confirma que existe un intercambio material constante entre la Tierra y la Luna, algo que no se había demostrado con claridad. En segundo lugar, abre la posibilidad de que la evolución química de nuestro planeta haya dejado huella en el satélite. Según los autores, “las fluctuaciones en los niveles de oxígeno atmosférico de la Tierra podrían estar registradas en los isótopos de oxígeno de la hematita lunar”.
Este proceso, activo desde hace miles de millones de años, convierte a la Luna en una especie de archivo geológico que conserva la historia de la atmósfera terrestre. Además, otros componentes del viento terrestre, como el nitrógeno, también podrían estar almacenados en el regolito, esperando ser estudiados por futuras misiones.
Nuevos caminos para la exploración lunar
Los resultados del estudio se producen en un contexto muy oportuno. La reciente misión india Chandrayaan-3 aterrizó cerca del polo sur lunar, precisamente en una de las regiones donde se ha detectado hematita. Por otro lado, la misión china Chang’e-7 tiene previsto explorar también esta zona. Ambas podrían ofrecer datos cruciales para seguir investigando este fenómeno y profundizar en el papel del viento terrestre como agente geológico activo.
Por último, comprender estos procesos puede ser clave para futuras misiones tripuladas y la posible extracción de recursos en la Luna. Saber cómo se transforman los minerales en su superficie, y qué compuestos se forman o desaparecen, permite anticipar cambios y diseñar estrategias más seguras para la exploración y el aprovechamiento de sus materiales.
Referencias
- Zeng, X., Jin, Z., Dong, C., Huang, Z., Zhu, M.-H., Xu, L., Morrissey, L., & Wang, L. (2025). Earth Wind‐Driven Formation of Hematite on the Lunar Surface. Geophysical Research Letters, 52, e2025GL116170. https://doi.org/10.1029/2025GL116170.
En la actualidad, los smartwatches se han convertido en mucho más que un accesorio tecnológico. Hoy son una herramienta clave para el control de la salud, el deporte y la productividad diaria, ofreciendo a los usuarios la posibilidad de llevar en su muñeca un centro de notificaciones.
En este contexto, OnePlus ha decidido reforzar su posición en el sector a través de la reducción agresiva del precio de su OnePlus Watch 2R. Una estrategia con la que la marca busca consolidar su presencia frente a rivales como Xiaomi, Amazfit o Huawei.

Normalmente, su precio se sitúa en un rango cercano entre los 150 y 180€, en tiendas como Amazon, PcComponentes o Pixmania. No obstante, OnePlus y AliExpress se unen para rebajarlo bruscamente usando el código descuento IFPPTLIC, el cual lo sitúa en 103,74 euros.
Este smartwatch cuenta con una pantalla AMOLED de 1,43 pulgadas con brillo de hasta 1.000 nits, más de 100 modos deportivos, medición de oxígeno en sangre, frecuencia cardíaca y sueño. Además de resistencia al agua 5 ATM. Todo ello impulsado por el el chipset Snapdragon W5 Gen 1 y una batería de 500 mAh.
En su interior, ofrece 2 GB de RAM y 32 GB de almacenamiento, conectividad WiFi 5 (2.4G/5G), Bluetooth 5.0 BLE y NFC. Además, dispone de sensores de frecuencia cardíaca, SpO2, acelerómetro, giroscopio, barómetro, luz ambiental y geomagnético.
OnePlus también mantiene la presión disminuyendo el precio de su nuevo Watch 3
Además de apostar fuerte con el Watch 2R, OnePlus no quiere dejar escapar la gama alta y también ha recortado el precio de su OnePlus Watch 3 hasta los 169,98 euros, gracias al cupón IFPRG6S7. Un precio muy por debajo de los 250€ en los que se encuentra en Pixamania, Amazon y PcComponentes.

Este modelo incorpora un diseño más premium con acabados en acero inoxidable y pantalla LTPO AMOLED de 1,5 pulgadas brillo máximo de 2200 nits. Funciona con arquitectura de doble motor compuesta por el Snapdragon W5 y el BES2800BP, junto a 32 GB de almacenamiento.
Así mismo, ofrece una autonomía de hasta 5 días en modo inteligente y 16 días en modo ahorro. Integra también Bluetooth 5.2 con llamadas, WiFi de doble banda, NFC y resistencia 5 ATM. Así como una multitud de sensores de rendimiento y salud.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
La inteligencia artificial aplicada a la salud no solo mejora diagnósticos, también reestructura el rol del paciente, del médico y la sociedad. Un estudio presentado en CHI 2025 analiza 21 productos de IA aplicada a la salud y revela que, además de optimizar procesos, también dibujan un modelo de “buena sociedad”, definen qué es un “buen paciente” y reordenan el trabajo clínico. La investigación revela los mundos que promete y los dilemas que abre.
Las campañas de la nueva salud con IA son un carrusel de promesas: resultados más rápidos, diagnósticos más precisos y vidas mejoradas gracias a datos en tiempo real. Los investigadores Catherine Wieczorek, Heidi Biggs, Kamala Payyapilly Thiruvenkatanathan y Shaowen Bardzell se preguntan qué hay debajo de ese relato y proponen mirarlo con la lupa de la socióloga Ruth Levitas, quien entiende la “utopía” como un método para pensar futuros posibles.
La promesa no es neutral. Con esa idea, revisan la publicidad, los vídeos y los sitios web de 21 sistemas de IA —desde robots quirúrgicos hasta apps de embarazo— para ver no solo lo que hacen, sino la sociedad que proyectan.

Un mapa para leer las promesas
La utopía como método de Levitas ofrece tres lentes: arqueología (qué imágenes del “buen futuro” rescatan), ontología (qué tipo de personas imaginan) y arquitectura (qué estructuras sociales proponen). Es un prisma triple.
Con él, el equipo analiza cómo las tecnologías de salud con IA se apoyan en deseos ya conocidos —eficiencia, control, prevención— y los convierten en un horizonte que parece inevitable.
En el plano arqueológico aflora un repertorio familiar: la vida monitorizada sin fricciones, la medicina sin esperas, el riesgo convertido en probabilidad y, por tanto, en intervención temprana. Todo suena perfecto. Pero esa perfección implica vigilancia constante, redistribución de poder entre humanos y máquinas y nuevas dependencias de plataformas.
Desde la ontología, la pregunta es quién puede prosperar en ese mundo: pacientes predispuestos a confiar, profesionales dispuestos a co-producir con algoritmos y cuerpos listos para ser optimizados según métricas. Se define al “buen usuario”. Y desde la arquitectura se ve cómo esa visión reorganiza tareas, flujos de datos y responsabilidades legales.
Cuatro mundos que la IA pone en escena
El primer mundo es el de la omnipresencia: pulseras, parches, cámaras y chats que recogen señales biológicas todo el día y las traducen en alertas y recomendaciones. La salud nunca se apaga. La atención se vuelve continua, móvil y remota, con el hogar como extensión de la consulta y la nube como expediente.
El segundo es el de la eficiencia: ultrasonidos de bolsillo, citologías digitales, algoritmos que posicionan mejor al paciente en el escáner o priorizan imágenes. La promesa es reducir variabilidad humana y acelerar procesos, pero también desplaza valor hacia lo que la máquina mide y decide.
El tercero es el de la prevención total: chatbots maternos que detectan riesgos, apps que estiman presión arterial con un selfie y plataformas que estratifican población para intervenir antes. La clínica deja de esperar síntomas y pasa a gestionar probabilidades, con beneficios y dilemas a la vez.
El cuarto mundo es el de la optimización: audífonos que ajustan el entorno, sistemas de fertilidad que clasifican embriones o wearables que prometen controlar lo incontrolable. La mejora personal se vuelve objetivo por defecto y la norma de rendimiento puede invisibilizar ritmos, capacidades y vidas diversas.
Este ideal puede deslizarse hacia el tecno-capacitismo: si lo bueno es arreglar o normalizar, las diferencias corren el riesgo de verse como fallos a corregir. Pero no todo es déficit. Un enfoque verdaderamente inclusivo no solo adapta dispositivos, también valida maneras distintas de oír, moverse, gestar o envejecer.
La optimización, además, trae capas extras: más sensores, más cuentas compartidas, más integraciones con el móvil de la familia. Más funciones, más exposición. El límite entre empoderamiento y paternalismo depende de quién decide, qué datos se recogen y con qué fin concreto.

Roles que cambian: paciente, profesional y… la IA
En muchos de estos productos, el paciente se vuelve consumidor: confía, cumple y paga suscripciones para recibir consejos “personalizados”. Si la explicación es opaca o el modelo falla, el margen de crítica y negociación se reduce.
El profesional pasa a ser co-productor con el algoritmo: integra salidas automáticas, valida alertas y reparte su autoridad con sistemas que ven patrones imposibles al ojo humano. El criterio no desaparece, pero el tiempo de consulta se mueve hacia interpretar scores, ajustar umbrales y gestionar excepciones.
La IA emerge como un usuario también que filtra datos, sintetiza historias y propone rutas de acción; una voz más en el equipo, con agencia práctica y efectos reales. La máquina participa y con su participación crece la pregunta por la responsabilidad cuando el consejo automatizado se equivoca.
Lo que se reordena: trabajo y cuidados
En la arquitectura del nuevo ecosistema, tareas antes humanas se automatizan: triajes iniciales, posicionamiento en equipos, cribados masivos y seguimiento entre visitas. El trabajo se redistribuye —esto puede liberar tiempo clínico, pero también añadir nuevas cargas de monitoreo y justificación de decisiones. Los cuidados se descentralizan de la sala de espera al salón de casa y del encuentro humano al ciclo app-sensor-alerta-mensaje. Se gana inmediatez y alcance, pero se puede perder escucha, contexto y la conversación que sostiene la adherencia terapéutica.
La infraestructura se adapta y surgen nubes con cumplimiento regulatorio, roles nuevos (especialistas en datos clínicos), protocolos de auditoría y trazabilidad. La privacidad se convierte en trabajo —no basta con cifrar, hay que decidir qué datos son proporcionales, quién accede, cómo se explican y cómo se revocan consentimientos.

¿Cómo hacer realidad una utopía habitable?
El estudio no demoniza la IA, reconoce mejoras reales en diagnóstico, prevención y acceso. El matiz es clave. Lo que pide es pasar del entusiasmo genérico a una deliberación concreta sobre valores, límites y condiciones de uso.
Para eso, sugiere participación. Es decir, incorporar a pacientes diversos, clínicos, comunidades y perfiles técnicos en el diseño, evaluación y gobierno de estos sistemas. Diseñar con, no para. También pide explicación útil, métricas alineadas con resultados que importan a las personas y mecanismos claros de responsabilidad.
La conclusión no es “IA sí” o “IA no”, sino IA en sus justos términos: con diversidad al centro, transparencia operativa, supervision humana en decisiones sensibles y derecho a decir “no” a la monitorización cuando no aporta valor. La tecnología debe servir a la vida, solo así la utopía deja de ser eslogan y se convierte en un lugar habitable.
Referencias
- Wieczorek, C., Biggs, H., Payyapilly Thiruvenkatanathan, K., & Bardzell, S. (2025, April). Architecting Utopias: How AI in Healthcare Envisions Societal Ideals and Human Flourishing. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (pp. 1-15). doi: 10.1145/3706598.3713118
En 2003, durante una campaña arqueológica en las ruinas de la antigua ciudad de Chersonesos Taurica —en el extremo suroeste de la península de Crimea, junto al mar Negro—, un equipo ucraniano-polaco excavó una imponente residencia romana. Bajo los cimientos de una antigua casa, reutilizados en época bizantina como parte de un complejo eclesiástico, apareció un objeto singular: la cabeza esculpida en mármol de una mujer de rostro sereno y ojos alargados. Su identidad, sin embargo, permanecería como un enigma durante más de dos décadas.
Ahora, gracias a una investigación interdisciplinaria recientemente publicada en la revista npj Heritage Science, ese rostro ha sido finalmente identificado: se trata de Laódice, una matrona romana de élite que pudo haber sido clave en uno de los momentos políticos más decisivos de la historia de Quersoneso.
Una escultura olvidada bajo tierra
La escultura fue encontrada en una habitación semienterrada de la domus más grande jamás excavada en la antigua ciudad. Con más de 700 m², la casa estaba situada cerca del teatro y el ágora, el corazón cívico y político de Quersoneso. El objeto, parcialmente dañado pero sorprendentemente bien conservado, fue hallado junto a una moneda helenística, cerámica de varios siglos de antigüedad y un pequeño altar con las figuras de Artemisa y Apolo. Todo en esa habitación parecía una cápsula del tiempo cuidadosamente sepultada.
La cabeza, tallada por separado para unirse a un cuerpo completo mediante un sistema de ensamblaje con espiga y mortero, presenta detalles llamativos: arrugas en el cuello, surcos en las mejillas, orejas ligeramente caídas y el clásico peinado griego de secciones simétricas recogidas en la nuca. Todos estos elementos, combinados con una mirada suave y digna, reflejan una compleja mezcla de realismo romano y estética idealizada helenística.

¿Quién fue Laódice y por qué la esculpieron?
Durante siglos, esta escultura no tuvo nombre. No existía una inscripción asociada, y los registros sobre retratos femeninos en esta área eran escasos. Sin embargo, la clave apareció recientemente en un lugar insospechado: los archivos del Museo Arqueológico de Odesa. Allí, los investigadores encontraron un pedestal de mármol con una inscripción griega que mencionaba a una mujer llamada Laódice, hija de Heroxenos y esposa de Titus Flavius Parthenokles, miembro de una de las familias más poderosas de la ciudad.
Gracias a los estudios estratigráficos, estilísticos y de laboratorio, los investigadores confirmaron que el pedestal y la escultura coincidían en cronología, estilo y procedencia. El busto habría formado parte de una estatua de más de dos metros de altura, esculpida en mármol importado desde la isla griega de Paros, conocido por su calidad excepcional. La datación radiocarbónica indica que la escultura fue enterrada en torno al año 200 d.C., aunque fue elaborada décadas antes.
¿Y por qué levantar una estatua a una mujer en una ciudad donde estos honores eran casi exclusivamente masculinos? Los investigadores plantean una hipótesis tan fascinante como verosímil: Laódice pudo haber desempeñado un papel esencial en la obtención del estatus de eleutheria para esta ciudad, un privilegio que permitía a la ciudad autogobernarse, acuñar su propia moneda y liberarse de ciertas cargas fiscales dentro del Imperio Romano.
La política en manos de una matrona
El estatus de ciudad libre era una meta codiciada por las polis del mundo grecorromano, y no se obtenía sin influencias ni negociaciones hábiles. La historia conocida cuenta que, hacia el año 135 d.C., un ciudadano llamado Aristo viajó a Roma para gestionar este reconocimiento. Sin éxito. Fue solo algunos años después, en época de Antonino Pío, cuando Quersoneso finalmente comenzó a acuñar monedas con la leyenda “ΧΕΡΣΟΝΗΣΟΥ ΕΛΕΥΘΕΡΑΣ”.
Si bien no hay pruebas directas del papel de Laódice en estas gestiones, los indicios son elocuentes. Su familia —los Flavii Parthenokloi— ocupaba los más altos cargos administrativos en la ciudad. Ella era la única mujer conocida a la que se le dedicó una estatua pública en esa época. Y la iconografía de su retrato, unida a la calidad técnica de su ejecución, indica que fue una figura central en la vida cívica local.
Una escultura cargada de secretos técnicos
Uno de los aspectos más sorprendentes del estudio, y que no ha trascendido tanto en los artículos de prensa, es el nivel de detalle técnico aplicado en el análisis del mármol. La escultura fue sometida a análisis isotópicos que permitieron rastrear el origen del material hasta la cantera ubicada cerca del Egeo. Este tipo de mármol fino y blanco era empleado habitualmente en esculturas de prestigio.
Además, el estudio identificó las huellas de once herramientas diferentes usadas por el escultor: cinceles planos de varios tamaños, punzones, gubias redondas, una garra dentada, rasquetas y abrasivos como piedra pómez. Incluso se descubrieron reparaciones antiguas realizadas durante el proceso de tallado: en la parte superior del cráneo se detectó una zona pulida y pigmentada que habría ocultado una grieta en el mármol, tapada con un fragmento adherido con mortero. Todo esto demuestra un alto nivel de maestría y atención al detalle.

Curiosamente, la escultura no fue destruida intencionadamente. Fue reutilizada como relleno al remodelar el suelo de la casa donde apareció. ¿Por qué? Quizás, con el paso del tiempo, el edificio público donde originalmente se encontraba —probablemente una exedra del ágora— fue desmantelado. El busto, ya sin su pedestal, habría sido trasladado a esa residencia y sepultado junto con otros materiales en una reforma del siglo III.
Esta práctica no era extraña. La reutilización de materiales escultóricos en contextos domésticos o funerarios estaba extendida en el mundo romano tardío. Pero su buen estado de conservación sugiere que no fue víctima de un acto de damnatio memoriae ni de iconoclasia. Simplemente fue olvidada… hasta hoy.
Una historia que reescribe el papel de la mujer romana
El hallazgo y la identificación de Laódice es mucho más que una curiosidad arqueológica. Representa un cambio de paradigma en la comprensión del papel de las mujeres en las provincias del Imperio. No se trataba solo de esposas de hombres poderosos: algunas de ellas, como esta matrona de Quersoneso, podrían haber sido agentes políticos por derecho propio.
Este caso también ilustra cómo las investigaciones modernas, con sus metodologías científicas avanzadas, pueden recuperar voces del pasado silenciadas durante siglos. En este caso, la de una mujer que tal vez fue clave para que una ciudad remota en los confines del Imperio alcanzara su libertad.
Desde los albores de la humanidad, la evolución ha sido la gran escultora de nuestra existencia. Durante millones de años, nuestra especie ha cambiado lentamente, moldeada por mutaciones, selección natural y presiones ambientales. Pero ahora, un grupo de investigadores de la Universidad de Maine sugiere que estamos atravesando una transición evolutiva tan profunda que podría redibujar por completo el mapa de lo que significa ser humano. Y lo más sorprendente es que no está impulsada por nuestros genes, sino por nuestra cultura.
El estudio, publicado en la revista BioScience, sostiene que la evolución humana está entrando en una nueva fase, una donde los cambios no se heredan a través del ADN, sino mediante el conocimiento, las normas sociales, las instituciones y las tecnologías que compartimos y acumulamos generación tras generación. En palabras simples: ya no evolucionamos principalmente como individuos biológicos, sino como sociedades culturales.
Una evolución que ya no pasa por el cuerpo
Durante siglos, la evolución genética fue la única vía por la que las especies se adaptaban al mundo. Pero los humanos desarrollamos una habilidad única: la capacidad de transmitir conocimientos de forma acumulativa. Lo que aprendimos ayer se convierte en la base para lo que construiremos mañana. Esta herencia cultural —tan poderosa como invisible— ha empezado a eclipsar al código genético en la carrera de la adaptación.
Los autores del estudio señalan múltiples ejemplos de esta transformación. Hoy en día, problemas que antes representaban barreras evolutivas —como una visión deficiente o una incapacidad para dar a luz— se resuelven con gafas, cirugía, cesáreas o tratamientos de fertilidad. En otras palabras, la cultura está neutralizando las presiones naturales que, durante milenios, definieron quién sobrevivía y quién no.

Más allá de la medicina, nuestras sociedades modernas dependen cada vez más de sistemas culturales complejos: gobiernos, escuelas, hospitales, tecnologías digitales... Estas estructuras no solo organizan nuestras vidas; también condicionan nuestras oportunidades, nuestra salud y nuestra reproducción. De hecho, según el estudio, hoy es más determinante para nuestro futuro nacer en un país con instituciones sólidas que heredar buenos genes.
De seres individuales a superorganismos sociales
Pero la hipótesis va aún más lejos. Los investigadores proponen que esta transición no solo está alterando el mecanismo de la evolución humana, sino también la forma en que nos organizamos como especie. Lo que empezó con pequeñas aldeas ha derivado en megaciudades interconectadas, redes globales de información y economías que funcionan como ecosistemas en sí mismos. El individuo, en este contexto, comienza a parecer una célula más dentro de un organismo mucho más grande: la sociedad.
Esta idea recuerda a otros grandes hitos en la historia evolutiva. Hace millones de años, células individuales se unieron para formar organismos multicelulares. Más tarde, algunos insectos evolucionaron hacia colonias cooperativas tan cohesionadas que funcionaban como un solo ente. En ese sentido, el ser humano podría estar recorriendo un camino similar: de individuos biológicos a colectivos culturales interdependientes.
No es casual que en momentos críticos, como la pandemia de COVID-19, las respuestas más efectivas hayan surgido de la acción colectiva: sistemas sanitarios trabajando en red, medidas de salud pública coordinadas, cooperación científica global. La supervivencia ya no depende de un rasgo físico heredado, sino de la capacidad de actuar como un todo coherente.
Cultura como motor evolutivo
Lo más revolucionario de este enfoque es la velocidad con la que la evolución cultural opera. Mientras que los cambios genéticos pueden tardar miles o incluso millones de años en asentarse, una innovación cultural puede modificar el rumbo de la humanidad en cuestión de décadas o incluso menos. La agricultura, la escritura, la imprenta, la medicina moderna, internet… Cada uno de estos avances ha transformado la forma en que vivimos, pensamos y nos relacionamos.
Y lo más importante: estos cambios no desaparecen con la muerte de quienes los crearon. Se acumulan, se perfeccionan y se transmiten, creando un proceso evolutivo vertiginoso. Es como si, en lugar de tener un único código genético transmitido al nacer, cada uno de nosotros accediera a un vasto archivo cultural heredado de miles de generaciones anteriores.
Los investigadores señalan que este proceso no debe confundirse con una línea de progreso. La evolución, cultural o genética, no sigue un camino moral ni inevitable. Puede dar lugar tanto a sistemas justos y cooperativos como a estructuras opresivas. Lo que cambia no es la dirección, sino el vehículo: ya no se trata de mutaciones y reproducción diferencial, sino de ideas, instituciones y tecnologías.

¿Hacia una humanidad diferente?
La teoría no es solo una reflexión académica. Los autores están desarrollando modelos matemáticos y simulaciones para medir la velocidad y profundidad de esta transición. Su objetivo es entender cómo —y cuán rápido— la humanidad está dejando atrás la evolución biológica tradicional para abrazar una nueva forma de adaptarse y transformarse.
Si tienen razón, el futuro de nuestra especie podría depender más de la fortaleza de nuestras sociedades que de la calidad de nuestro genoma. La educación, la salud pública, la resiliencia institucional y la cooperación global podrían convertirse en los nuevos factores clave de supervivencia.
En un escenario a largo plazo, la humanidad podría dar el salto definitivo: dejar de evolucionar como individuos para hacerlo como colectividades. Tal vez algún día, nuestros descendientes no sean humanos tal como los entendemos hoy, sino entidades culturales interconectadas cuya evolución estará escrita no en el ADN, sino en algoritmos, instituciones y conocimientos compartidos.
Sea como sea, lo cierto es que estamos ante una idea que sacude los cimientos de la biología evolutiva. Una propuesta audaz que invita a repensar el lugar que ocupamos en la historia de la vida. Porque, quizás, el verdadero motor de la evolución humana ya no está en nuestros cuerpos… sino en nuestras ideas.
Si intentamos imaginar la vida en un convento femenino de la Edad Moderna, probablemente evoquemos imágenes de clausura, silencio y obediencia. Durante mucho tiempo, se concibió a estas instituciones como espacios estáticos, alejados de los conflictos del mundo exterior, en los que mujeres consagradas a Dios vivían en armonía siguiendo una serie de estrictas reglas espirituales. Sin embargo, las recientes investigaciones históricas demuestran que los claustros podían convertirse en escenarios de tensiones, luchas de poder y auténticas insurrecciones.
El trabajo de Ana M. Sixto Barcia sobre los conventos gallegos entre los siglos XVI y XVIII revela un panorama muy diferente al de esa supuesta calma conventual. Los conventos femeninos operaron como una especie de “república de mujeres” con capacidad de agencia, donde surgieron motines, rebeliones y resistencias frente a los abusos internos y las presiones externas.

Conventos y poder: un microcosmos de tensiones
Los conventos gallegos de la Edad Moderna eran instituciones con un gran peso social y económico. Muchos de ellos poseían amplios patrimonios, tierras, derechos de vasallaje y vínculos estrechos con las principales casas nobiliarias de la región. Ingresar en un convento, por tanto, iba más allá de ser una decisión espiritual. Podía convertirse en un movimiento estratégico de las familias para reforzar sus redes de poder.
En este contexto, la elección de las abadesas y las superioras podía generar rivalidades intensas entre las distintas facciones. Una vez al frente del convento, la abadesa administraba rentas, concedía foros y ejercía una notable influencia política. Por ello, las disputas por el control de estos cargos derivaron en conflictos que, en ocasiones, llegaron a fracturar la vida de las comunidades religiosas.

Conflictos entre linajes y elecciones problemáticas de las abadesas
Un ejemplo paradigmático se produjo en el convento de Santa Clara de Allariz en 1613. La sucesión en el poder de varias candidatas vinculadas a un mismo bando perjudicó a otras facciones y llegó a romper la convivencia interna. El trasfondo de este episodio se encuentra en la rivalidad entre dos grandes casas nobiliarias gallegas: la de Monterrey y la de Lemos. Las tensiones de la nobleza, por tanto, se infiltraban en los muros conventuales y empujaban a las religiosas a conflictos que pocas veces tenían un carácter espiritual.
Algo similar ocurrió en Santa Clara de Monforte en el último tercio del siglo XVII. Allí, la familia fundadora —los condes de Lemos—, apoyándose en su derecho de patronazgo, intervino de forma activa en la vida del convento. Estas injerencias eran frecuentes y, en muchos casos, se aceptaban. Sin embargo, cuando las ambiciones de las familias involucradas resultaban desmedidas, podían estallar las rebeliones.

La rapiña de los patronos y la resistencia conventual
Uno de los apartados más reveladores del estudio de Ana M. Sixto Barcia se centra en el interés depredador de los patronos laicos. Las familias fundadoras o protectoras de los conventos solían reclamar derechos sobre sus bienes y rentas, a menudo en detrimento de las religiosas.
Así sucedió en el convento de la Anunciación de Betanzos en 1774, cuando las monjas denunciaron la apropiación indebida de caudales por parte del patronato Sánchez Boado. La reacción fue contundente. Las religiosas se amotinaron, dejaron de acudir al coro y suspendieron sus deberes litúrgicos como forma de protesta. Es decir, abandonaron sus funciones para visibilizar el abuso.
El pleito llegó hasta el Consejo de Castilla, que tardó más de un siglo en darles la razón. Este episodio refleja cómo los conventos fueron también espacios de resistencia frente a los abusos de poder nobiliario y clerical.

Motines por la gestión de reliquias y símbolos sagrados
Los conflictos no se limitaban a las cuestiones económicas o políticas. En ocasiones, también surgieron disputas en torno a objetos de devoción y reliquias, cuya posesión reforzaba el prestigio del convento.
En Santiago de Compostela, las clarisas se rebelaron contra la orden de Felipe II de trasladar al Escorial una preciada reliquia: un fragmento del cráneo de San Lorenzo. Las monjas protagonizaron una auténtica algarada que se prolongó durante dos décadas. El arzobispo Juan de Sanclemente y Torquemada llegó a amenazarlas con excomunión mayor, pero ellas resistieron hasta que, en 1593, perdieron la reliquia. La defensa de este objeto sagrado muestra cómo las religiosas podían desafiar incluso a la autoridad real en defensa de sus intereses espirituales y comunitarios.
Reformas religiosas y resistencias colectivas
Otro foco de conflictividad fueron las reformas eclesiásticas, especialmente tras el Concilio de Trento. En Galicia, ya a finales del siglo XV, las benedictinas se resistieron a ser trasladadas a Compostela y a perder el control de sus feudos. Las monjas llegaron incluso a enfrentarse armadas a los oficiales que trataban de imponer las nuevas normas.
Durante los siglos XVII y XVIII, otras reformas impulsadas por prelados de carácter rigorista generaron choques similares. En muchos casos, las comunidades se dividieron en bandos rivales, con facciones a favor o en contra de la vida en común. Estos conflictos internos, aunque menos visibles que los pleitos de naturaleza económica, revelan la capacidad de las monjas para organizarse y resistir colectivamente a los cambios que consideraban lesivos.

Estrategias de resistencia y negociación
Los motines conventuales rara vez buscaban una transformación radical. Según concluye la investigación, las insurrecciones pretendían, más bien, preservar el statu quo frente a las intromisiones externas o los abusos internos.
Para ello, las religiosas emplearon diversas estrategias. Recurrieron a los motines, las huelgas de los deberes litúrgicos, los bloqueos económicos, la resistencia pasiva e incluso la búsqueda del apoyo de campesinos y vasallos, en el caso de aquellas comunidades con mayor poder.
Una vez conseguida una negociación favorable o cuando disminuía la presión externa, los conflictos tendían a disolverse. El convento funcionaba así como un microcosmos político en el que se ensayaban formas de protesta y negociación con la autoridad.

Los conventos como espacios de acción
El estudio de Ana M. Sixto Barcia revela un mundo conventual mucho más complejo de lo que sugieren los tópicos. Los claustros femeninos gallegos entre los siglos XVI y XVIII fueron espacios de poder, sociabilidad y también conflicto. Lejos de estar aisladas, las monjas actuaban como agentes políticos, defendían los intereses de sus linajes, se enfrentaban a patronos abusivos, se resistían a las reformas y hasta se rebelaban contra la Corona.
Estas historias de insurrecciones y resistencias ponen de relieve que la clausura femenina se convirtió en un escenario activo de lucha por la autonomía y la dignidad. Con ello, se desmantela la visión idílica de los conventos como ámbitos de quietud y se recupera la memoria de unas mujeres que defendieron sus espacios.
Referencias
- Barcia, Ana María Sixto. 2025. "Conflictos, motines e insurrecciones. Las grietas de la convivencia en los claustros gallegos modernos." Revista electrónica de Historia Moderna, 15.50: 308-325. URL: http://tiemposmodernos.org/tm3/index.php/tm/article/view/6020
En el ámbito de la investigación biomédica, la disponibilidad de muestras biológicas de alta calidad resulta esencial para impulsar el conocimiento científico y acelerar el desarrollo de nuevas terapias, diagnósticos y estrategias de prevención. Estas muestras — sangre, tejidos, orina, saliva, ADN, entre otras — permiten estudiar los mecanismos de las enfermedades a nivel molecular y celular, facilitando la identificación de biomarcadores, la validación de hipótesis científicas y el diseño de tratamientos más precisos y personalizados.
La calidad de estas muestras, así como la fiabilidad de los datos clínicos asociados, determina en gran medida la validez y reproducibilidad de los resultados obtenidos. Contar con infraestructuras como los biobancos, que garantizan una recogida, procesamiento y conservación de muestras bajo criterios técnicos, éticos y legales rigurosos, se ha convertido en una pieza clave para la investigación biomédica moderna y de calidad.

Biobancos: el recurso estratégico ético, transparente y eficiente
En este contexto, los biobancos constituyen un recurso estratégico fundamental, que recopila, gestiona y almacena una amplia variedad de muestras biológicas para facilitar estudios científicos de vanguardia.
Son un pilar clave de la ciencia abierta y permiten compartir recursos de forma ética, transparente y eficiente.
Centralizar y conservar miles de muestras junto con información clínica asociada (de forma anonimizada), hace posible que grupos de investigación de todo el mundo puedan disponer de materiales de gran valor para el estudio de enfermedades, el desarrollo de nuevos tratamientos y/o la identificación de biomarcadores. Esto, además, favorece la colaboración entre instituciones, evita la duplicación innecesaria de esfuerzos y reduce costes y tiempos, contribuyendo así a una ciencia más eficiente y reproducible.

Pero ¿qué es un biobanco?
Un Biobanco es una entidad que obtiene, almacena y cede muestras biológicas, y sus datos asociados anonimizados con fines de investigación, para generar conocimiento biomédico.
Imaginemos un banco tradicional en el que se guarda dinero, joyas o documentos. De manera similar, los biobancos almacenan muestras biológicas y su información clínica asociada.
Ambos son repositorios que almacenan y gestionan recursos valiosos de personas (dinero o muestras biológicas), bajo condiciones de seguridad, privacidad, regulación y acceso limitado, y cuyo propósito final es beneficiar a la sociedad (económicamente en el caso de los bancos, científicamente o en salud en el caso de los biobancos).
¿Cómo funciona un Biobanco?
El proceso comienza con la obtención de las muestras en colaboración con los servicios hospitalarios y centros de salud, siempre con el consentimiento informado firmado previamente por el donante. La donación es completamente voluntaria y se realiza respetando la privacidad y los derechos de los donantes, que pueden revocar su consentimiento en cualquier momento. La mayor parte de las muestras que se integran en el Biobanco, son los excedentes de las muestras obtenidas para realizar un diagnóstico o de las utilizadas en un proyecto de investigación. Sin embargo, también se pueden incorporar muestras provenientes de donantes sanos, tan importantes para su uso como controles en los estudios científicos.
Una vez recibidas las muestras en el Biobanco, estas se procesan en laboratorios especializados para mantener su calidad e integridad, bajo condiciones de bioseguridad. Además, cuentan con programas informáticos que permiten gestionar toda la información relacionada con las muestras, incluida la recopilación de datos clínicos, desde su origen hasta su cesión a los investigadores, siempre garantizando la confidencialidad y la protección de los datos personales de los donantes, protegidos por el Biobanco según la Ley de Autonomía del Paciente y la Ley de Protección de Datos de Carácter Personal.
El almacenamiento de las muestras se realiza en condiciones controladas, como congelación a temperaturas ultra bajas para su conservación durante largos periodos sin que se deterioren. Y además, para asegurar su integridad, durante su conservación las muestras están sujetas a controles periódicos de calidad.

¿Quién puede utilizar estas muestras?
Una de las características más relevantes de los Biobancos es que cualquier investigador o investigadora, desde cualquier parte del mundo, puede hacer uso de los recursos/muestras siempre que cumpla una serie de condiciones, cuyo cumplimiento se evaluará de forma individual al iniciar la solicitud. Con el asesoramiento de un comité de ética y un comité científico, se asegura que el uso de las muestras será el adecuado, beneficioso para la comunidad y que se cumplen con los requisitos tanto éticos como científicos necesarios.
Los proyectos que no cuenten con una revisión ética o que pongan en riesgo la privacidad o la dignidad de las personas donantes no podrán hacer uso de un Biobanco. Tampoco las instituciones, empresas o particulares que no tengan un fin de investigación biomédica.
Para hacer una solicitud de muestras a un Biobanco, será necesario presentar una memoria del proyecto de investigación para el que se van a usar y la aprobación ética de ese proyecto. Con eso, los Comités de Ética y Científico del Biobanco estudian si procede ceder esas muestras a ese proyecto, y solo en caso afirmativo se cederán, firmando un acuerdo entre el investigador y el Biobanco.
Importancia de los Biobancos para la Investigación
- Los Biobancos son necesarios y aseguran la excelencia de la Investigación.
- Son un servicio público altruista, que pone a disposición de la comunidad científica material biológico en condiciones óptimas para sus estudios.
- Custodian recursos, siempre con el consentimiento del donante, que permiten al personal investigador acceder a gran cantidad de muestras representativas de diferentes tipos de enfermedades y de pacientes con características únicas.
- Permite trabajar con muestras patológicas y tejidos sanos que facilitan el diseño de tratamientos más efectivos y menos agresivos para los pacientes.
- En el caso de enfermedades raras o poco estudiadas, son aún más valiosos, ya que reúnen recursos que, de otra forma, serían muy difíciles de obtener.
- Los pacientes y personas sanas que donan sus muestras a un Biobanco consienten que sus muestras sean utilizadas en cualquier investigación biomédica cuyo fin sea el bienestar ciudadano, siempre en los términos que define la ley.

Los Biobancos en España: algunas cifras
En nuestro país existen 65 Biobancos que forman parte de Plataforma de Biomodelos y Biobancos, iniciativa del Instituto de Salud Carlos III. Uno de ellos es el Biobanco del Instituto de investigación Sanitaria Galicia Sur, en el Hospital Álvaro Cunqueiro de Vigo y miembro adherido a la Plataforma.
Constituido en 2009, el Biobanco IIS Galicia Sur gestiona colecciones orientadas a diferentes patologías entre las que se puede destacar la Esclerosis Múltiple, Enfermedades Reumáticas, Cáncer tratado con Inmunoterapia, VIH o Covid-19. Gestiona también colecciones de enfermedades raras, como la de Enfermedades Lisosomales o la de Ciliopatías.
Dispone de colecciones iniciadas con anterioridad a la constitución del Biobanco y gestionadas en estrecha colaboración con el Servicio de Anatomía Patológica como son el Banco de cerebros y el Banco de Tumores.
El Banco de Cerebros, se creó a raíz de la crisis de las “vacas locas” en España. Cuenta con una colección de casi 300 cerebros de donantes con diversas enfermedades neurológicas y neurodegenerativas entre las que destacan las Encefalopatías Espongiformes Transmisibles Humanas causadas por priones y la Demencia tipo Alzheimer, además de otras como ELA, Parkinson o PSP. Dispone de una importante selección de muestras congeladas además de muestras conservadas en formol.
El Banco de Tumores, iniciada en 2001, cuenta con más de 10000 muestras ultracongeladas de tejidos tumorales y sanos además del material fijado.
Referencias
- Ley 14/2007, de 3 de julio, de Investigación Biomédica
- Real Decreto 1716/2011, de 18 de noviembre, por el que se establecen los requisitos básicos de autorización y funcionamiento de los biobancos con fines de investigación biomédica y del tratamiento de las muestras biológicas de origen humano, y se regula el funcionamiento y organización del Registro Nacional de Biobancos para investigación biomédica.
- Ley 41/2002, de 14 de noviembre, básica reguladora de la autonomía del paciente y de derechos y obligaciones en materia de información y documentación clínica.
- Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales.
- BBMRI-ERIC. (s.f.). About Biobanks. European Research Infrastructure for Biobanking. Recuperado de https://www.bbmri-eric.eu
- Instituto de Salud Carlos III. (s.f.). Plataforma de Biobancos y Biomodelos. Recuperado de https://biobancos.isciii.es
- Organización Mundial de la Salud (OMS). (2016). Guidelines on good clinical laboratory practice (GCLP). WHO Technical Report Series. https://www.who.int
- UNESCO. (2005). Declaración universal sobre bioética y derechos humanos. Recuperado de https://unesdoc.unesco.org/ark:/48223/pf0000146180
- European Commission. (2018). General Data Protection Regulation (GDPR) (EU Regulation 2016/679). Recuperado de https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A32016R0679
- Memoria Científica anual IIS Galicia Sur 2024. https://docs.iisgaliciasur.es/MEMORIA-IISGALICIASUR-2024.pdf
En una era donde los datos se han convertido en la materia prima más valiosa del mundo, el transporte comercial no podía quedarse atrás. Las furgonetas que recorren las calles de nuestras ciudades no solo transportan mercancías: también generan millones de datos cada segundo. Información sobre rutas, consumos, mantenimiento o hábitos de conducción que, bien interpretada, puede transformar por completo la operativa de una empresa. Ford Pro, la división de vehículos comerciales de Ford, ha querido profundizar en este fenómeno y ha encargado una investigación a gran escala que revela una verdad tan clara como inquietante: mientras unos ya están aprovechando el poder de los datos, muchos otros aún no saben que lo tienen a su alcance.
España emerge como un líder inesperado en esta transición hacia flotas más inteligentes, gracias a su alto nivel de adopción tecnológica y a la creciente conciencia empresarial sobre la eficiencia operativa. El nuevo informe “Optimizando los datos de los vehículos comerciales”, elaborado por Burson Data & Intelligence, ofrece un panorama detallado de cómo pequeñas y grandes empresas están empezando a sacar partido del software y la telemática integrada para ahorrar tiempo, reducir costes y aumentar la seguridad de sus operaciones. Y, sin embargo, también revela una profunda brecha de valor, formación y privacidad que amenaza con ralentizar esta transformación.
La telemática como motor de cambio en el transporte comercial
La conectividad de los vehículos ha dejado de ser un lujo para convertirse en una necesidad. Según el informe de Ford Pro, los sistemas de gestión de flotas conectadas crecerán en Europa de 16,3 millones en 2023 a 27,6 millones en 2028, lo que refleja una transformación acelerada en todos los mercados.
Este crecimiento no solo responde al avance tecnológico, sino también a una mayor conciencia empresarial. Hoy, disponer de información precisa en tiempo real permite optimizar rutas, reducir el consumo de combustible, anticiparse a averías y mejorar la productividad del equipo humano. Como afirma Jeremy Gould, director de Ford Pro Intelligence Europa, “el verdadero valor de los datos solo se desbloquea cuando los clientes entienden lo que pueden hacer con ellos”.

España al frente de la adopción tecnológica
España destaca en el informe por su alto nivel de uso de datos en las operaciones diarias de flotas comerciales. El 64% de los conductores españoles valora la planificación de rutas como un elemento clave, por encima de la media europea.
Este liderazgo no es casual. La combinación de un tejido empresarial compuesto mayoritariamente por pymes, junto con una digitalización acelerada en sectores logísticos, ha propiciado un terreno fértil para soluciones como Ford Pro Telematics, que integra el software de gestión directamente en el vehículo, sin necesidad de hardware adicional.
Esta misma visión conectada y práctica también se refleja en el desarrollo de productos pensados para el entorno urbano, como el nuevo Ford Puma Gen-E, considerado por muchos el mejor Ford urbano de la historia.

Tres brechas que impiden el aprovechamiento total de los datos
El estudio revela tres grandes obstáculos para la adopción masiva del software de datos:
- Brecha de valor: 46% de los conductores y 25% de los gestores de flotas no consultan los datos del estado del vehículo a diario, a pesar de ser una prioridad declarada.
- Brecha formativa: Solo un 29% de los conductores europeos declara saber “bien” cómo utilizar estos datos.
- Brecha de privacidad: El 94% de los conductores y el 97% de los gestores expresan preocupación por la seguridad de sus datos.
Superar estas brechas será fundamental para democratizar los beneficios de la digitalización en el transporte.

Seguridad de los datos, una prioridad no negociable
Uno de los factores clave que frena la adopción de tecnologías conectadas es la preocupación por la privacidad. Los temores más frecuentes incluyen el uso de datos sin consentimiento (42%), la cesión a terceros (40%) y la posibilidad de hackeos o filtraciones.
Ford Pro ha respondido con una certificación ISO 27001, que garantiza estándares internacionales de seguridad en todas sus plataformas, incluida Ford Pro Intelligence. Según Gould, “la seguridad de los datos no es una simple característica de Ford Pro; es un principio fundamental”.

Del hardware externo al software integrado: el cambio de paradigma
Muchos gestores aún dependen de dispositivos del mercado posventa (PID) para recopilar datos, pero este modelo está dando paso a soluciones OEM (fabricante de equipo original), más seguras, integradas y eficientes.
Los vehículos Ford Pro integran módems de fábrica que transmiten datos directamente a la plataforma de gestión, lo que permite funciones como:
- Bloqueo remoto
- Geoperimetraje
- Supervisión en tiempo real del estado del vehículo
El resultado: menos tiempo fuera de carretera y decisiones más rápidas y precisas.

El caso Lloyds British: productividad en movimiento
Lloyds British, una empresa de servicios industriales del Reino Unido, ha implementado el servicio Taller Móvil de Ford Pro, que permite realizar el mantenimiento de sus 70 furgonetas in situ, evitando hasta 60 días de inactividad por vehículo al año.
Este ejemplo ilustra cómo el vínculo entre software y mantenimiento físico reduce drásticamente los tiempos muertos y maximiza la disponibilidad de los vehículos.

Las pequeñas empresas, el gran desafío pendiente
Las pymes representan el 99% del tejido empresarial europeo y, sin embargo, solo el 37% de sus conductores utiliza hoy tecnologías telemáticas. Esta brecha formativa limita el potencial de ahorro y eficiencia en empresas donde cada minuto cuenta.
Ford Pro propone soluciones como la app Telematics Drive, que permite gestionar flotas pequeñas directamente desde el móvil, sin necesidad de gestores especializados. Pero hace falta más educación y soporte para llegar a este segmento.

Percepciones encontradas: ¿quién se beneficia de los datos?
Una de las claves del estudio es que los conductores suelen percibir que los datos benefician más a la empresa que a ellos mismos. No obstante, el informe muestra que:
- El 52% de los conductores europeos
- Y el 68% de los estadounidenses
consideran que los beneficios son compartidos. La clave está en comunicar mejor cómo estos datos también mejoran su seguridad, eficiencia y condiciones laborales.

Confianza en las marcas: un factor decisivo
El origen de la marca influye en la confianza. Los datos revelan que los conductores tienden a preferir vehículos comerciales del mismo mercado geográfico. En Europa, Ford es la marca más valorada en privacidad y gestión de datos en países como Reino Unido y Alemania.
La confianza no se limita a la tecnología: es el resultado de relaciones construidas durante años, muchas veces a través de concesionarios locales, que siguen siendo claves para pymes y flotas medianas.
En este sentido, Ford ha sabido reforzar su vínculo emocional con los usuarios, no solo a través de servicios conectados, sino también rescatando su legado con propuestas modernas y audaces como el Capri, un clásico rebelde que renace como SUV eléctrico en 2025.

Formación y concienciación: las claves del cambio
La falta de formación es uno de los principales frenos a la adopción. En flotas pequeñas, el 38% de los conductores no sabe nada sobre telemática.
Ford Pro propone soluciones formativas sencillas y accesibles para este público, con el objetivo de convertir los datos en una herramienta aliada, no en una fuente de desconfianza. La meta: normalizar la gestión digital en todo tipo de flotas, sin importar su tamaño.

Un ecosistema conectado, una economía más eficiente
Ford Pro estima que los vehículos comerciales conectados aportaron un billón de euros al PIB europeo en 2023. El impacto de la conectividad no es solo operativo, sino también macroeconómico.
Si más empresas adoptan estas soluciones, los efectos serán visibles en:
- Menores costes logísticos
- Mejor planificación de recursos
- Reducción de emisiones y consumo energético

El futuro inmediato: 2025 como punto de inflexión
Jeremy Gould lo resume con visión estratégica: “Veo un mundo en el que todos los vehículos están conectados y todas las flotas usan software para gestionarse”.

2025 marca un momento clave: el crecimiento del 40% en vehículos conectados de Ford Pro y la llegada de nuevas soluciones hacen de este el año perfecto para que las empresas den el salto. El momento de cerrar la brecha es ahora.
La historia de Lilly Reich ilustra cómo el talento de una mujer excepcional se relegó en la narrativa oficial de la arquitectura moderna hasta época reciente. Formada en el seno del Werkbund alemán, Reich fue pionera en la creación de arquitecturas efímeras, diseño de interiores y mobiliario, áreas en las que se consolidó como una figura clave del diseño en la primera mitad del siglo XX. Sin embargo, a medida que estrechaba su colaboración con Ludwig Mies van der Rohe, su nombre comenzó a desaparecer de los discursos de la crítica hasta casi quedar borrado.
El reciente artículo académico "Mapping Lilly Reich", firmado por Laura Lizondo-Sevilla y Débora Domingo-Calabuig, ofrece una cartografía detallada de su vida y trayectoria. La investigación reconstruye el legado de Reich desde sus inicios como diseñadora independiente hasta el papel que jugó en algunos de los proyectos más icónicos del Movimiento Moderno.

Una formación sólida en el Berlín de comienzos del siglo XX
Lilly Reich nació en Berlín en junio de 1885. Hija de un ingeniero de Siemens, creció en un ambiente culto y privilegiado, lo que le permitió acceder a una buena educación. Tras sus estudios en Viena en la Wiener Werkstätte y en la escuela de Else Oppler-Legband, Reich abrazó las enseñanzas de Josef Hoffmann y Peter Behrens y se decantó tanto por un diseño lineal y sin ornamentos como por una comprensión rigurosa de los materiales.
Así, en 1911 abrió su propio taller en Berlín, donde realizó encargos como el diseño del mobiliario del Centro Juvenil de Charlottenburg. La crítica especializada elogió aquella primera obra por su austeridad y elegancia. Un año después, Lilly Reich participó en la exposición La mujer en casa y en el trabajo (1912), donde presentó un apartamento obrero que se había concebido desde la simplicidad y la economía. Aunque recibió valoraciones positivas en la prensa, también despertó ataques prejuiciosos que cuestionaban la capacidad de las mujeres para ejercer la arquitectura.
A pesar de las polémicas, en ese mismo año ingresó en la Deutsche Werkbund, la Agrupación Alemana de Artesanos. Este cambio la situó en el epicentro de la renovación estética y funcional de las artes aplicadas. Allí, destacó por sus montajes de escaparates y exposiciones, un camino hacia la arquitectura efímera que sería decisivo en su trayectoria.

Ascenso profesional y reconocimiento internacional
Durante la década de 1910 y los primeros años de 1920, Reich acumuló una experiencia notable en interiorismo, el diseño de mobiliario y la creación de exposiciones. Además de ser nombrada directora de la sección de moda en el Werkbund, en 1920 se convirtió en la primera mujer en formar parte de su junta directiva. Su capacidad para combinar artesanía e industria la convirtió en una voz autorizada en el debate sobre el papel del diseño en la modernidad.
Uno de sus proyectos más ambiciosos fue la exposición De la fibra al tejido (1926), organizada en la Feria Internacional de Frankfurt. Reich diseñó un montaje innovador en el que los materiales, la maquinaria y los productos se integraban en un recorrido libre y continuo. La prensa la elogió por su “ejemplar objetividad” y por ofrecer una aproximación novedosa que mostraba la producción industrial como experiencia espacial.
Este prestigio, sin embargo, marcaría el inicio de una nueva etapa: la de su colaboración con Mies van der Rohe.

Encuentro con Mies: el inicio de una relación profesional y personal
Reich y Mies se conocieron en 1924, cuando ambos formaban parte del Werkbund. Dos años más tarde, tras el éxito en Frankfurt, Mies —recién nombrado vicepresidente de la institución— recurrió a Reich para organizar la exposición Die Wohnung (La vivienda), celebrada en Stuttgart en 1927.
En aquella muestra, Mies se encargó de la planificación urbana y arquitectónica, mientras que Reich asumió el diseño de interiores y de varias salas industriales. Fue la única participante mujer en diseñar un apartamento completo, donde desplegó un lenguaje moderno, funcional y flexible. Asimismo, juntos crearon el mobiliario tubular que se exhibió en Stuttgart. Aunque las iniciales “MR” consagraron el nombre de Mies, las piezas eran fruto de una estrecha colaboración entre ambos. Aunque la crítica reconoció entonces el talento de Reich, su visibilidad comenzó a menguar en cuanto su firma apareció junto a la de Mies.

Colaboraciones decisivas: de Stuttgart a Barcelona y Brno
La asociación entre ambos produjo algunos de los proyectos más emblemáticos de la arquitectura moderna. En el Velvet and Silk Café (1927), por ejemplo, Reich concibió un espacio de telas suspendidas que lograban desdibujar los límites arquitectónicos en un ejercicio de abstracción y sensualidad. Sin embargo, su autoría rara vez se mencionó en la prensa.
En la Exposición Internacional de Barcelona (1929), por su parte, Reich fue responsable de los montajes industriales alemanes y participó en el diseño del célebre Pabellón Alemán. También intervino en la concepción del mobiliario, incluida la icónica “silla Barcelona”. A pesar de ello, su nombre casi desapareció de los registros oficiales e incluso la relegaron a la categoría de decoradora en algunos documentos.
Algo similar ocurrió con la Casa Tugendhat (1928-1931) en Brno. Aunque Reich diseñó los interiores, los textiles y el mobiliario, la crítica internacional solo atribuyó el proyecto a Mies. Ni siquiera revistas de prestigio como L’Architecture d’Aujourd’hui ni De 8 en Opbouw mencionaron su autoría.

Docencia y últimos trabajos junto a Mies
En 1932, Reich fue nombrada directora del taller de tejidos y diseño interior en la Bauhaus, bajo la dirección de Mies. Su paso por la institución, sin embargo, fue breve, ya que la llegada del nazismo forzó el cierre de la escuela y limitó severamente la práctica de la arquitectura moderna en Alemania.
Durante esos años, Reich continuó trabajando, aunque muchos de sus diseños permanecieron inéditos o se atribuyeron a terceros. Cuando Mies emigró a Estados Unidos en 1938, Reich permaneció en Berlín, gestionando desde la distancia los asuntos de su antiguo socio.
Tras la Segunda Guerra Mundial, Lilly Reich intentó retomar su independencia profesional, fundando un nuevo estudio en Berlín y colaborando en proyectos de reconstrucción. En 1947, poco antes de su muerte, la prensa alemana reconoció su labor por la elegancia y claridad de diseño de sus creaciones. Falleció el 11 de diciembre de ese mismo año.

Olvido y lenta recuperación de su legado
La muerte de Reich coincidió con una etapa de consagración internacional de Mies en Estados Unidos. Mientras él se convertía en referente indiscutible del Estilo Internacional, el nombre de su colaboradora desaparecía de la historiografía. Durante décadas, apenas se la citó y, cuando se hizo, figuró como “diseñadora de muebles” o “asistente” de Mies. No fue hasta los años ochenta, gracias al trabajo de investigadoras como Sonja Günther, Elaine Hochman o Matilda McQuaid, cuando su figura comenzó a recuperarse.
La trayectoria de Lilly Reich refleja una doble injusticia: la de una mujer relegada por una cultura arquitectónica dominada por hombres y la de una creadora cuya autoría se diluyó bajo la sombra de su célebre socio. Hoy, investigaciones como las de Laura Lizondo-Sevilla y Débora Domingo-Calabuig permiten trazar una biografía lineal y coherente, en la que Reich aparece no como discípula o colaboradora secundaria, sino como una de las grandes protagonistas de la modernidad arquitectónica.
Referencias
- Lizondo-Sevilla, Laura y Débora Domingo-Calabuig. 2025. "Mapping Lilly Reich". Arte, Individuo y Sociedad, 37.1: 85. DOI: https://dx.doi.org/10.5209/aris.96371
Y si hubiera singularidades cósmicas que, en vez de devorar materia, la escupieran? ¿No sería acaso el Big Bang la madre de todos los agujeros blancos? ¿Podrían estos, en versión nanoscópica, originar la misteriosa materia oscura que conforma el 27 % del universo? Aunque hace ya más de cien años que se postuló su existencia teórica, los científicos no han conseguido todavía dar con ellos. Te contamos cómo se han buscado y cuáles son los últimos candidatos.
La idea de sacar algo de la nada es un efecto clásico de los ilusionistas. Estos muestran su sombrero vacío, meten la mano y extraen de allí un conejo, una paloma o un ramo de flores. Por muy habilidoso que sea el mago, por muy increíble que sea el efecto, todos sabemos que hay truco, pero no siempre es así. En el universo es posible que existan unas colosales chisteras mágicas de las que, muy de vez en cuando, parece como si surgiera materia y energía literalmente de la nada: estamos hablando de los agujeros blancos. «Si un agujero negro puede tragarse un Mercedes, el correspondiente blanco podría con toda certeza expulsar un coche idéntico», explica Paul Halpern, físico de la Universidad de las Ciencias en Filadelfia (EE. UU.) y autor del libro The Cyclical Serpent. Prospects for an Ever-Repeating Universe (1995). Aunque, por desgracia, lo que realmente devora el primero es luz y polvo interestelar, así que eso es lo que debemos esperar que regurgite su reverso luminoso.
El origen de este extraño fenómeno está en la teoría de formación de un agujero negro formulada por el científico alemán Karl Schwarzschild en 1916, mientras luchaba en el frente ruso durante la Primera Guerra Mundial. Porque por paradójico que pueda parecer, el primero en encontrar una solución a las ecuaciones de la relatividad general —la teoría moderna que describe la gravedad— no fue su creador, Albert Einstein, sino este astrónomo seis años mayor, director del Instituto Leibniz de Astrofísica de Potsdam, que murió de pénfigo ampolloso —una rara enfermedad de la piel— al poco de haber desarrollado el nuevo concepto. Su solución mostraba que una masa contenida en un punto no tiene exterior, pues provoca tal distorsión que el espacio se cierra en torno a ella y la aísla del resto del universo. Y esta escisión se produce a una distancia del punto central que solo depende de la masa concentrada allí, el llamado radio de Schwarzschild u horizonte de sucesos. Toda partícula que lo atraviesa jamás regresa.

El tiempo y el espacio intercambian sus papeles
Dicho así, queda bastante claro, pero a los físicos les costaba entender el significado físico de este límite: ¿se trata de una barrera tangible, real? Visto desde fuera, si lanzamos un objeto al agujero negro jamás lo veremos atravesar el horizonte de sucesos, pues el tiempo se va ralentizando a medida que se acerca a él y tardaría una eternidad en alcanzarlo. Sin embargo, desde el punto de vista del objeto no sucede nada extraordinario, ya que en cuestión de minutos atraviesa dicha frontera sin problemas; solo se dará cuenta de que lo ha hecho porque no puede salir.
Es más, al cruzar el horizonte, el tiempo y el espacio intercambian sus papeles: si en el exterior podemos movernos a cualquier lugar, pero siempre somos arrastrados hacia adelante en el tiempo a una velocidad de sesenta segundos por minuto, en el interior nos desplazamos —dentro de ciertos límites— por el tiempo, aunque nos dirigiremos inexorablemente hacia la singularidad central.
Ahora bien, si se mira con cuidado la solución de Schwarzschild, descubrimos que… ¡no es una, sino dos! Las ecuaciones que describen el colapso definitivo de un cuerpo celeste en un agujero negro pueden leerse al revés, como una expansión hacia el exterior de un objeto a partir de una singularidad. O, lo que es lo mismo, un agujero blanco.
Tuvimos que esperar hasta mediados de la década de los cincuenta para que se desarrollara una forma de visualizar y comprender este galimatías. Fue Martin Kruskal, un especialista en física de plasma de la Universidad de Princeton (EE: UU.) —en aquella época muy interesado por la relatividad general—, quien dio con un sistema de coordenadas para describir la estructura de los agujeros negros mediante un solo modelo de ecuaciones, que unía el espacio-tiempo plano del exterior —y alejado del agujero— con el extremadamente curvo del interior. Lo más llamativo era que no había asomo de singularidad en el horizonte de Schwarzschild.
Kruskal tuvo la brillante idea de describir los fenómenos desde la perspectiva de un rayo de luz lanzado hacia un agujero negro, aunque nunca se tomó la molestia de publicarla. Solo John Archibald Wheeler, el físico teórico estadounidense que bautizó como tales a los agujeros negros, se dio cuenta de la importancia de este trabajo. Wheeler escribió un artículo con los cálculos, puso el nombre de Kruskal en él y lo publicó en 1960 en la revista Physical Review. Tiempo más tarde, el inglés Roger Penrose perfeccionó la representación de Kruskal y la convirtió en un diagrama. De este modo, todos están contentos: para los matemáticos, la clave de la comprensión de estos objetos es la métrica de Kruskal; y para los físicos, la idea esencial la proporciona la versión gráfica conocida como diagrama de Penrose.
¿Qué deducimos de todo ello? Que los agujeros blancos son las imágenes especulares de los agujeros negros. Si uno hace una cosa, el otro hace justo lo contrario e invertido en el tiempo. Así, mientras que el horizonte de sucesos de un agujero negro es un lugar del que no se puede salir, al antihorizonte de uno blanco no se puede entrar. Si el primero se traga todo, su hipotética contrapartida lo expulsa.
No hay que ser muy perspicaz para darse cuenta de que el Big Bang tiene mucha pinta de agujero blanco: toda la materia y energía que existe en la actualidad se creó en esa megaexplosión repentina. «Es extraordinario comprobar cuánto se parecería la película del gran estallido yendo hacia atrás al colapso gravitatorio instantáneo de una bola de fuego», dice Halpern. O a la inversa, si rebobináramos la película que muestra la destrucción de la energía cayendo en la singularidad central de un agujero negro, nos parecería estar asistiendo al momento en que nació el universo.

Los núcleos rezagados de Novikov
En 1965, el soviético Igor Novikov y el israelí Yuval Ne’eman desarrollaron, de modo independiente, la primera teoría medianamente detallada sobre el origen de los agujeros blancos, bautizados por Novikov como núcleos rezagados. Según ambos físicos, la inmensa mayoría del universo surgió a partir del Big Bang, pero con el paso del tiempo han seguido apareciendo fragmentos de considerable tamaño provenientes de las regiones rezagadas del estallido primigenio.
Con esta idea entre las manos, Alon Retter y Shlomo Heller sugerían en 2012 en la revista New Astronomy que el cosmos nació en realidad de un agujero blanco, al que llamaron «small bang», y que se trata de un fenómeno espontáneo: toda la materia se expulsa de una sola vez. Por lo tanto, y a diferencia de los negros, solo pueden detectarse alrededor del evento en sí. ¿Estarían los estallidos de rayos gamma (GRB, por sus siglas en inglés) asociados con estallidos extremadamente energéticos en galaxias distantes, es decir, agujeros blancos? La idea no es descabellada, ya que los GRB figuran como los sucesos explosivos más luminosos del cosmos.
Lo cierto es que los llevan buscando desde hace ya bastantes años. Cuando en los setenta se obtuvo la primera prueba indirecta de la existencia de los agujeros negros, se redoblaron los esfuerzos por encontrar a sus antagonistas. Y en este contexto aparecieron los cuásares, unos objetos muy alejados —y, por tanto, situados en la época que el universo era joven— que emiten grandes cantidades de energía de forma continuada. Bastantes pensaron que por fin tenían la prueba concluyente, pero un jarro de agua fría apagó sus ilusiones.
En efecto, Douglas Eardley, del Instituto Tecnológico de California (Caltech), detectó en 1974 que las soluciones de Novikov y Ne’eman eran muy inestables y se desintegrarían casi de inmediato. La causa es muy sencilla: el agujero blanco moriría sepultado por las capas de materia y energía acumuladas a su alrededor.
Imaginemos un agujero blanco de Schwarzschild, con una singularidad central de donde brotan materia y energía, que a su vez está rodeada por un antihorizonte. Pero dicha emisión energética no escapa hacia el espacio, sino que se va acumulando en la franja exterior del antihorizonte. Así, capa tras capa, tendremos un agujero blanco envuelto por una densa pantalla protectora de energía, que Eardly denominó «sábana azul».
Siguiendo las reglas de la relatividad general, la pared ultraenergética hace que esa región del espacio se deforme bruscamente y surja el horizonte de sucesos de un verdadero agujero negro. Según Nick Herbert, de la Universidad Stanford (EE. UU.), «a los universos les gusta tener contenidas sus propias dosis letales de luz y de materia para formar sábanas azules, que asfixian en su cuna a los agujeros blancos recién nacidos». Según muestran los cálculos, este proceso de asfixia depende de la masa: para uno equivalente a diez soles, la conversión se verificaría en menos de una milésima de segundo; para otro con una masa de un millón de soles, en poco más de un minuto.
¿Así que no hay agujeros blancos en todo el universo? El físico teórico italiano Carlo Rovelli —uno de los fundadores de la gravedad cuántica de bucles, la idea rival a la teoría de cuerdas y actualmente profesor de la Universidad de Aix-Marsella (Francia)— cree que no está todo perdido. Aplicando las reglas de la mecánica cuántica al mundo de los agujeros blancos —como hizo Stephen Hawking con sus réplicas oscuras—, Rovelli sostiene que los agujeros negros se blanquean tras experimentar una transición cuántica. Y la materia, al caer sobre ellos, rebota.
Luego debe haber un momento en que el horizonte de sucesos cambia a antihorizonte. Y es aquí donde la teoría cuántica viene a echar una mano, gracias a un fenómeno bien conocido y no por ello menos misterioso: el efecto túnel. Sin él es imposible entender la desintegración radiactiva, cuando una partícula atrapada en el núcleo de un átomo inestable consigue vencer la barrera que le impide salir al exterior. Las leyes de la física clásica lo prohíben, pues no tiene la energía suficiente para superar las ligaduras a las que está sometido.
En el caso de los agujeros negros, el hecho de que experimenten la llamada evaporación Hawking —según la cual, y debido a efectos cuánticos, se evaporan de forma lenta hasta desaparecer— es lo que permite que se produzca un peculiar efecto túnel. Para Rovelli, justo cuando el agujero negro ha menguado hasta un punto en el que el espacio-tiempo ya no puede contraerse más, se transforma en uno blanco.

Nanoagujeros blancos
Si es así, ¿dónde los encontraríamos? Pues podrían estar detrás de la misteriosa materia oscura del universo, solo detectada hasta la fecha por sus efectos gravitatorios indirectos. El físico italiano ha calculado que solamente se necesita un minúsculo agujero blanco por cada 10 000 kilómetros cúbicos, mucho más pequeño que un protón y con una masa de aproximadamente una millonésima de gramo —«equivalente a la masa de un pelo humano de doce centímetros»— para dar cuenta de toda la materia oscura que se encuentra en el entorno galáctico del Sol. Estos nanoagujeros blancos no emitirían radiación, y como son infinitamente pequeños, serían invisibles, como la materia oscura. Si un protón impactara con uno, simplemente rebotaría. «No pueden tragar nada», resume Rovelli.
Y si ya la idea de la existencia de estas entidades ultramicroscópicas no fuera suficientemente extravagante, Rovelli sugiere —agárrate a la silla— que algunos agujeros blancos podrían ser anteriores al Big Bang. No solo eso, sino que estos objetos llegados de un universo previo podrían ayudar a explicar por qué el tiempo fluye hacia adelante en el nuestro.
El afeitado forma parte de la rutina diaria de muchos hombres y es un mercado que ha ido creciendo y evolucionando desde hace unos años. Las maquinillas eléctricas dominan el mercado por ser muy versátiles y adaptarse a cada tipo de corte y apurado.
Ahora que arranca la rutina, Philips quiere que sea todo más llevadero ofreciendo una oferta en su último modelo de afeitadora i9000 para ayudar a conseguir un look limpio y cuidado, necesario para el día a día.

El precio regular de esta afeitadora Philips i9000 está en 349€ en la página oficial de Philips y en otras webs como Worten. No obstante, El Corte Inglés la muestra en oferta actualmente en 229€, pero sigue sin igualar la rebaja de Amazon que la deja en 209,99 euros.
Se trata de una afeitadora muy destacada en el mercado por su tecnología SkinIQ, potenciada por IA, que detecta y se adapta a tu piel para mayor comodidad y precisión. Es un modelo que incluye cuchillas Dual SteelPrecision que ofrecen un afeitado apurado y eficiente, incluso en barbas de 1 a 7 días. Además, cuenta con un cabezal flexible de 360º para un contacto constante con la piel y llegar a zonas más difíciles.
A destacar también su batería de iones de litio que va a asegurar hasta 50 minutos de autonomía con una carga completa de sólo una hora. En cuanto a diseño, cuenta con un revestimiento hidrofílico HydroSkinGlide que le confiere un deslizamiento un 50% más suave sobre la piel. Es perfectamente lavable y permite su uso tanto en seco como en húmedo, además de incorporar un sistema de limpieza en la base.
Remington se suma a estas ofertas de Amazon ofreciendo su cortadora de pelos Remington HC5035
Este movimiento a supuesto que la competencia se active. Entre todas las marcas, Remington dirige su mirada en los que prefieren arreglarse por completo en casa, tanto la barba como el pelo, disminuyendo el precio de su Remington HC5035 hasta los 14,99 euros. Otra ganga pues actualmente no baja de los 27€ en webs como PcComponentes o Carrefour.

En este modelo se puede encontrar una excelente opción calidad/precio que destaca por sus 9 peines de colores que facilitan la selección de la longitud de corte, desde 1,5 a 25 mm. El kit, además, incluye accesorios como tijeras, un peine, un cepillo para la limpieza y un cepillo para el cuello.
En cuanto a rendimiento, cuenta con cuchillas de acero inoxidable autoafilables, diseñadas para proporcionar un rendimiento de corte superior y una larga vida útil. A su favor hay que destacar que funciona con cable, lo que asegura una potencia constante y no tendrás que preocuparte por quedarte con el corte a medias por la batería.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Hoy en día, los smartphones de gama media representan la alternativa ideal para quienes buscan un móvil equilibrado, con buen rendimiento y prestaciones avanzadas, sin tener que asumir el alto coste de los modelos premium.
En respuesta a los recientes movimientos agresivos de Xiaomi y Realme, OPPO contraataca con una rebaja notable en su Reno12 FS. Gracias a esta bajada de precio, el modelo se consolida como una de las alternativas más atractivas y competitivas dentro de la gama media.

Este smartphone suele encontrarse por unos 200€ en tiendas como Amazon, Fnac o PcComponentes. Sin embargo, OPPO refuerza su apuesta por AliExpress en el mercado español, donde lo deja a solo 178,99 euros, uno de sus precios más bajos hasta la fecha.
Combina diseño y rendimiento en un formato ligero de solo 187 g y 7,76 mm de grosor, con el exclusivo Cosmos Ring Design. Ofrece una pantalla AMOLED FHD+ de 6,67 pulgadas con 120 Hz y 1.200 nits de brillo. Su procesador MediaTek Dimensity 6300, junto a 8 GB de RAM ampliables a 16 GB y 256 GB de almacenamiento con soporte hasta 2 TB, garantizan potencia y espacio de sobra.
En el apartado fotográfico, integra una cámara principal de 50 MP, gran angular y macro. Además de una cámara frontal de 32 MP para selfies nítidos. Destaca por su batería de 5.000 mAh con carga rápida 45W SUPERVOOC, capaz de alcanzar el 50% en solo 26 minutos. A ello se suman funciones avanzadas de IA como AI Eraser 2.0, AI Studio y AI LinkBoost, certificación IP64 para mayor resistencia y sonido estéreo con modo Ultra Volumen 300%.
El Redmi Note 13 Pro+ 5G se hunde de precio y se convierte en una de las gangas del momento
Xiaomi responde al empuje de OPPO y Realme en la gama media con una rebaja contundente en su Redmi Note 13 Pro+ 5G, que ahora puede conseguirse por solo 196,98 euros. Una oportunidad difícil de ignorar, teniendo en cuenta que su precio habitual en plataformas como Miravia, Amazon o PcComponentes supera los 259 €.

Combina un diseño premium con pantalla curva AMOLED de 6,67 pulgadas y resolución 2712 x 1220, que garantiza colores vibrantes y fluidez gracias a su tasa de refresco de 120Hz. En su interior integra el potente procesador MediaTek Dimensity 7200 Ultra, acompañado de 8 GB de RAM y 256 GB de almacenamiento.
En el apartado fotográfico, este modelo brilla con una cámara principal de 200 MP con estabilización óptica, zoom 4X y tecnología de inteligencia artificial. Su batería de 5.000 mAh, combinada con la carga ultrarrápida de 120W, permite alcanzar el 100 % de autonomía en apenas 19 minutos.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
La imagen es familiar: números pequeños a la izquierda, grandes a la derecha. Pensamos así casi sin darnos cuenta. Pero ¿esa “línea mental” es fruto de la cultura o viene grabada de fábrica en el cerebro? Un equipo de la Universidad de Padua y colaboradores en EE. UU. llevó la pregunta al laboratorio… con pollitos recién nacidos.
En un estudio publicado en eLife, los investigadores manipularon un detalle mínimo —la luz que recibe el embrión dentro del huevo— y observaron un efecto enorme: la lateralización del cerebro cambió la forma de “contar” en el espacio. El resultado ofrece una pieza clave en un rompecabezas clásico de la neurociencia cognitiva.
La lateralización cerebral es un fenómeno común en muchas especies. Al reproducir y controlar este proceso, los investigadores lograron crear dos grupos de pollitos: los de luz —con cerebros fuertemente lateralizados— y los oscuridad —con menor diferenciación hemisférica. Esta diferencia inicial permitió explorar hasta qué punto la organización espacial de los números dependía de la arquitectura cerebral forjada incluso antes del nacimiento.

La pista inicial: una línea invisible que todos usamos
Durante años se ha asumido que la “línea numérica” surge del aprendizaje, por ejemplo, de leer de izquierda a derecha. La cultura no lo explica todo. Ya se habían visto señales similares en bebés y en animales, lo que apuntaba a raíces más antiguas.
La nueva investigación quiso probar de forma directa si esa orientación depende de cómo el cerebro reparte tareas entre hemisferios. La lateralización importa. Y eligió a los pollitos porque permiten controlar el entorno antes de nacer con una precisión imposible en humanos. El concepto es sencillo: si el cerebro está más “dividido” en funciones, quizá el mapeo número-espacio se incline hacia una dirección concreta. La hipótesis se podía poner a prueba.
Los autores incubaron 100 huevos en dos condiciones: a la mitad les dieron luz en los días finales de gestación y la otra mitad permaneció en oscuridad. La luz fortalece la lateralización. Este procedimiento es clásico en etología de aves y cambia el peso relativo de cada hemisferio.
Tras nacer, todos los pollitos aprendieron lo mismo: picotear el cuarto tapón de una fila de diez, colocada en sentido antero-posterior respecto al animal. La regla era siempre “el cuarto”. Así se fijaba una meta ordinal sin pistas de color, forma o tamaño. Luego llegó la prueba crítica: los científicos giraron la fila 90 grados, de manera que ahora había dos opciones correctas, la cuarta por la izquierda y la cuarta por la derecha. El escenario revelaba la preferencia espacial.
Cuando manda el hemisferio derecho
Los pollitos con cerebro fuertemente lateralizado —los “de luz”— eligieron muchas más veces la cuarta posición por la izquierda. Apareció un sesgo izquierda-derecha. En cambio, los criados en oscuridad no mostraron preferencia: iban tanto a la izquierda como a la derecha.
Para afinar más, se cubrió temporalmente un ojo y luego el otro, aprovechando que en las aves cada ojo conecta sobre todo con el hemisferio contrario. El parche ocular separó el trabajo de cada hemisferio. Con el ojo izquierdo abierto (activa el hemisferio derecho), el sesgo hacia la izquierda se hizo aún más claro. Con el ojo derecho abierto (hemisferio izquierdo), los “de luz” tendieron a acertar por la derecha, coherente con un reparto funcional complementario. El patrón fue consistente con lo que se sabe del procesamiento espacial.
El equipo repitió el test variando la distancia entre tapones en cada ensayo para que la “geometría” no sirviera de guía. Quedaba solo la posición ordinal. En esas condiciones, desapareció el sesgo izquierda-derecha incluso en los cerebros más lateralizados.
La lectura es directa: la orientación de la “línea de números” emerge cuando el cerebro integra la cantidad con el mapa espacial, un cóctel en el que el hemisferio derecho lleva la batuta. La dirección depende de integrar espacio y número. Sin espacio fiable, no hay flecha hacia la izquierda. Esto no resta valor al aprendizaje cultural, pero muestra que hay cimientos biológicos sobre los que la cultura construye. Biología y experiencia se suman, no se excluyen.

Por qué importa más allá del gallinero
El hallazgo ofrece una pieza de causalidad que faltaba: no solo correlación entre lateralización y sesgo numérico, sino manipulación prenatal que cambia el resultado. Es evidencia directa. Abre vías para entender por qué las habilidades numéricas varían entre individuos.
También sugiere que la orientación izquierda-derecha podría tener valor adaptativo: al forrajear, un escaneo sistemático ayuda a no perder ítems ni repetir zonas. Contar y orientarse van de la mano. En contextos naturales, número y espacio son inseparables.
Para la educación y la clínica, comprender este “anclaje” espacial podría informar intervenciones en dificultades de aprendizaje numérico o en cerebros con organización atípica.
Qué modelos explican mejor el efecto
Los autores comparan tres explicaciones: dominio del hemisferio derecho en atención visuoespacial, “valencia emocional” (números pequeños negativos/izquierda, grandes positivos/derecha) y sintonía asimétrica de frecuencias espaciales. El derecho al mando encaja mejor. Los datos favorecen el modelo en que el hemisferio derecho guía el sesgo hacia la izquierda al integrar espacio y número.
La propuesta de valencia emocional no predice bien que el sesgo desaparezca cuando las claves espaciales se vuelven poco fiables. La emoción no basta aquí. Y el modelo de frecuencias espaciales no explica el sesgo claro observado cuando espacio y ordinalidad son coherentes. Con todo, el estudio no zanja el debate: muestra cuándo aparece el sesgo y qué lo potencia, y pide más trabajo sobre cómo la experiencia temprana “sintoniza” estos circuitos. Quedan preguntas abiertas.

Qué nos dice de nosotros
Si bien el estudio es en aves, el principio —que la lateralización es clave para acoplar número y espacio— es relevante para vertebrados con cerebros laterales, incluidos humanos. Hay un sustrato compartido. No significa que nazcamos “con” la línea tal cual la usamos, pero sí con predisposiciones que la cultura moldea.
Esto ayuda a reconciliar hallazgos aparentemente opuestos: efectos culturales del sentido de lectura y señales de sesgo en bebés que aún no leen. Ambas cosas pueden ser ciertas. La biología fija el escenario y la experiencia escribe el guion. Mirando al futuro, la investigación invita a explorar cómo condiciones prenatales y primeras experiencias sensoriales influyen en habilidades cuantitativas. La ventana temprana importa.
Como toda investigación, esta tiene fronteras: es un modelo animal, en un entorno controlado, con una tarea concreta. Aun así, la precisión del diseño y la manipulación causal de la lateralización la hacen especialmente valiosa. El siguiente paso es mapear circuitos y tiempos: qué redes integran cantidad y espacio, y cuándo quedan “ancladas” por la experiencia. También, probar otras tareas numéricas y otras especies para cerrar el círculo comparado.
Si la “línea mental” se apoya en cómo el cerebro reparte el trabajo, se abren vías para personalizar enseñanza y rehabilitación según perfiles de lateralización. La aplicación práctica asoma.
Referencias
- Rugani R., Macchinizzi M., Zhang Y., Regolin L. (2025). Prenatal light exposure affects number sense and the mental number line in young domestic chicks. eLife. doi: 10.7554/eLife.106356.3
El mundo del automóvil vive una etapa vertiginosa de innovación. No sólo por la transición hacia la movilidad eléctrica, sino también por la exigencia creciente en criterios de eficiencia, seguridad, diseño y confort. En ese contexto emerge el BYD SEALION 7, un SUV 100 % eléctrico que no sólo aspira a competir por potencia o autonomía, sino a redefinir lo que significa conducir sin comprometer nada: ni el estilo, ni la seguridad, ni el confort familiar.
Presentado en Europa a finales de 2024, el SEALION 7 ha captado atención tanto por su grupo motriz como por las tecnologías de última generación que incorpora. Lo más reciente: conseguir la máxima calificación, cinco estrellas, en las pruebas de seguridad Euro NCAP. Este aval no es decorativo: refleja sobresalientes calificaciones en protección de ocupantes adultos, protección infantil, protección a usuarios vulnerables (peatones, ciclistas) y sistemas de asistencia al conductor.
En particular, se ha destacado un 93 % en protección infantil —una de las cifras más altas registradas hasta la fecha— y un 87 % en protección de adultos, posicionándolo como una de las opciones más seguras para quienes priorizan la integridad de todos los ocupantes.
Pero la seguridad es solo uno de los pilares. Su diseño, inspirado en las olas del mar, con líneas fluidas, perfil aerodinámico y detalles como pilotos con formas evocadoras, pretende capturar emociones y no dejar indiferente. Además, su interior combina amplitud, lujo sutil y tecnología, con materiales como cuero napa o cuero vegano, sistema de infoentretenimiento avanzado, iluminación ambiental, techo panorámico... Todo pensado para que cada viaje sea más que un mero trayecto.
En cuanto al rendimiento, promete cifras que rivalizan con muchos coches deportivos: versiones con 313 o 530 CV, baterías de hasta 91,3 kWh, y una autonomía de hasta 502 km bajo ciclo combinado. También se integra una batería “Blade Battery” propia de BYD, junto con la tecnología Cell‑to‑Body (CTB), que convierte la batería en parte estructural del vehículo, elevando la rigidez del chasis.
Seguridad líder en su clase
El BYD SEALION 7 obtuvo cinco estrellas en las pruebas Euro NCAP, la máxima calificación posible. Esto se logró gracias a su rendimiento sobresaliente en todas las categorías que evalúa Euro NCAP: protección de ocupantes adultos, protección infantil, protección a usuarios vulnerables de la vía pública y sistemas de asistencia al conductor.
En particular, destaca su protección infantil: un 93 % que lo coloca entre los mejores de los últimos años. En caso de impacto frontal o lateral, tanto los dummies de 6 como de 10 años mostraron protección excelente. También su sistema detecta la presencia de un niño olvidado en el vehículo, alertando al conductor.

Diseño exterior inspirado en el océano
El diseño del SEALION 7 bebe de referencias marítimas. Líneas fluidas, perfil aerodinámico, frontal Ocean‑X en “X”, capó bajo y una doble línea de cintura que evocan olas y dinamismo.
Los pilotos traseros se inspiran en gotas de agua, reforzando la sensación de movimiento incluso cuando el coche está parado. Elementos como el portón trasero de apertura eléctrica aportan funcionalidad sin perder ese toque estético.

Interior espacioso y lujoso
El SEALION 7 ofrece un ambiente interior que combina amplitud con lujo medido. Gracias a su mayor distancia entre ejes, los pasajeros disfrutan de espacio tanto delante como detrás.
Los materiales se seleccionan con mimo: hay versiones con cuero napa (en la versión Excellence) y cuero vegano en otras versiones, cubriendo más del 80 % del interior en esas versiones. Las versiones Comfort y Design optan por acabados sostenibles sin renunciar al lujo.

Tecnología de infoentretenimiento y confort
Destaca la enorme pantalla central rotatoria de 15,6 pulgadas, que se adapta para distintos modos de uso. También la iluminación ambiental de 128 colores, que puede cambiar el carácter del habitáculo según la ocasión.
El sistema de audio de alta fidelidad firmado por Dynaudio, con doce altavoces, promete una experiencia envolvente. Los asientos ventilan, se calientan, hay función de masaje lumbar y múltiples ajustes eléctricos, incluso soporte lumbar y para piernas.

Prestaciones y motorización
El SEALION 7 está disponible con dos niveles de potencia: 313 CV o 530 CV. Estas versiones permiten alcanzar velocidades máximas de 215 km/h y aceleraciones de 0–100 km/h en unos 4,5 segundos en la variante AWD.
La velocidad de giro del motor es también destacable: hasta 23.000 rpm. Estos datos sitúan al SEALION 7 no como un mero SUV familiar, sino como una máquina eléctrica que sabe mezclar eficiencia con sensaciones.

Autonomía y eficiencia energética
Con baterías de 82,5 o 91,3 kWh, el SEALION 7 puede ofrecer hasta 502 km de autonomía en ciclo combinado, según la versión. Esto lo convierte en una opción muy competitiva dentro del segmento D de eléctricos. Su sistema de bomba de calor de alta eficiencia ayuda a mantener la autonomía incluso en climas fríos, reduciendo las pérdidas térmicas habituales en este tipo de vehículos.

Tecnología de batería avanzada: Blade Battery
La Blade Battery de BYD es un punto clave de este coche. Es más segura que muchas baterías convencionales, según pruebas extremas realizadas por la marca. No sólo por seguridad: su integración estructural a través de la tecnología Cell to Body (CTB) convierte la batería en una parte activa de la estructura del vehículo, mejorando rigidez, protección ante impactos y comportamiento dinámico.

Sistemas avanzados de asistencia al conductor
El SEALION 7 incorpora ADAS de última generación con cámaras panorámicas de 360°, control de salida de carril, frenado automático de emergencia que detecta peatones y motocicletas y limitador de velocidad inteligente.
Además hay detección de presencia infantil, alertas en distintas circunstancias y tecnologías que ayudan a mantener la atención del conductor, haciendo que la conducción sea más segura y menos fatigosa.

Comodidad, espacio y versatilidad
El maletero ofrece 520 litros en la parte trasera y hasta 1.789 litros cuando los asientos traseros se pliegan. También hay espacio frontal para carga adicional (unos 58 litros). Estas cifras lo hacen muy práctico para viajes familiares o escapadas.
El portón trasero inteligente facilita la carga. Elementos como el techo solar panorámico y el aislamiento acústico contribuyen a que la experiencia sea cómoda incluso en trayectos largos.

Dinámica, suspensión y experiencia de conducción
Para controlar su envergadura, BYD ha dotado al SEALION 7 de suspensión delantera de paralelogramo deformable y trasera multibrazo con amortiguadores de frecuencia selectiva (FSD). Esto mejora mucho la estabilidad, el balanceo y el confort.
El sistema iTAC (Intelligence Torque Adaption Control) regula el par motor de forma inteligente para evitar pérdidas de adherencia y mejorar el control dinámico.

Conectividad, interfaz y servicios digitales
El vehículo ofrece integración con Apple CarPlay y Android Auto, control por voz en cuatro zonas, navegación avanzada y actualización remota de software (OTA). También incluye función V2L: puede alimentar otros dispositivos externos, convirtiéndose en una especie de generador móvil cuando es necesario.

Precio y versiones
Las versiones disponibles en España son Comfort, Design y Excellence, en variantes tracción total (AWD) o no, con distintos niveles de potencia y capacidad de batería.
El precio recomendado de partida es de 39.780 € para la versión Comfort, con una financiación que puede dejarlo por 299 €/mes, condicionada a incentivos como el Plan MOVES III. La estrategia de precios agresiva y bien segmentada de BYD ha sido clave para ganar terreno en un mercado dominado tradicionalmente por marcas europeas y americanas.
De hecho, el SUV híbrido enchufable que arrasa en España no es europeo ni americano, sino el BYD Seal U DM-i, otro modelo de la marca que está revolucionando el segmento gracias a su eficiencia, precio competitivo y autonomía extendida.

Implicaciones en el mercado y futuro de los SUV eléctricos
El SEALION 7 llega en un momento en el que la competencia se endurece: cada vez más marcas ofrecen SUVs eléctricos familiares capaces de cubrir grandes distancias, pero muchas fallan en aspectos como seguridad infantil o confort real. Con sus cinco estrellas Euro NCAP y sus innovaciones estructurales, BYD sitúa el listón más alto.
La marca ya ha demostrado su potencial no sólo en SUVs, sino también en segmentos más compactos, como el del BYD Dolphin, un compacto eficiente y tecnológico que ha sabido posicionarse como una de las opciones más inteligentes del mercado urbano actual. Este enfoque transversal —del urbano al familiar— refuerza la idea de que BYD no ha venido a experimentar, sino a liderar.
El BYD SEALION 7 es mucho más que un SUV eléctrico con buenas cifras: es una propuesta redonda para quien quiere emociones, seguridad, espacio y tecnología en un solo vehículo. Con sus cinco estrellas en Euro NCAP, una autonomía de hasta 502 km, un diseño cuidado por dentro y por fuera, y tecnologías avanzadas como Blade Battery y CTB, marca un hito en lo que debe ofrecer un coche familiar eléctrico hoy en día.

El futuro de la movilidad eléctrica pasa por modelos como este: que no sacrifiquen nada, pero lo ofrezcan todo. Y para quienes aún dudan, el SEALION 7 podría ser la demostración de que ya no es necesario elegir entre rendimiento, seguridad o confort: todos pueden convivir en armonía.
Los nuevos estudios sobre las poblaciones neandertales cuestionan la idea de que se trataba de comunidades con escasa movilidad, centradas en un territorio reducido y sin capacidad para recorrer largas distancias. La investigación tradicional sostenía que la mayor parte de las materias primas líticas que utilizaban procedían de entornos cercanos, a menos de cincuenta kilómetros de sus lugares de hábitat. Sin embargo, las excavaciones realizadas en la cueva de El Castillo, en Puente Viesgo (Cantabria), han puesto de manifiesto un panorama muy distinto.
Una investigación publicada en 2025 en el Journal of Human Evolution muestra que los grupos neandertales que habitaron El Castillo entre 70.000 y 45.000 años en el pasado accedieron a sílex procedente de fuentes situadas a más de 427 kilómetros de distancia. Estas evidencias han empujado a la comunidad científica a replantearse las formas de interacción social que mantenían.

El Castillo, un laboratorio único para la prehistoria europea
Descubierta en 1903, la cueva de El Castillo es un yacimiento excepcional tanto por su arte rupestre paleolítico como por su estratigrafía, que ocupa más de veinte metros de depósitos arqueológicos. En lo que respecta al Paleolítico medio, los niveles musterienses de la cavidad, sobre todo los denominados XXa/b, XXc, XXd, XXe y XXf1.1, han proporcionado abundante industria lítica y restos de fauna. Su cronología, determinada mediante dataciones de radiocarbono y de resonancia de espín electrónico, oscila entre los 70.000 y los 45.000 años antes del presente. Estos niveles se adscriben en parte al denominado Musteriense vasconiense, caracterizado por la presencia de hendedores y la aplicación de técnicas de talla con posibles conexiones africanas.
El protagonismo del sílex en un mundo de cuarcitas
Aunque la cuarcita fue la materia prima predominante en El Castillo, el sílex, minoritario en porcentaje, posee una enorme importancia desde el punto de vista interpretativo. El hallazgo de piezas de sílex elaboradas con material procedente de lugares muy alejados confirma que estos grupos neandertales no se limitaban a explotar los recursos inmediatos, sino que mantenían estrategias de movilidad de gran alcance.
El análisis petrográfico permitió identificar hasta ocho variedades diferentes de sílex y radiolarita. La mayor parte de las piezas de sílex se fabricaron con piedra procedente de Monte Picota, a apenas 23 kilómetros del yacimiento. De hecho, estas piezas representan más del 60 % de los ejemplares identificados. Sin embargo, lo más significativo de este nivel arqueológico es la presencia de otros materiales silíceos cuya procedencia se sitúa a decenas e incluso cientos de kilómetros de distancia.

Rutas de aprovisionamiento de sílex
Los investigadores han podido clasificar los recursos en cuatro categorías: locales (menos de 30 km), regionales (entre 30 y 120 km), de trazador (de 120 a 250 km) y de supertrazador (más de 250 km). En el conjunto de El Castillo ,se documentaron todas estas categorías.
El sílex del Treviño, situado en el Alto Ebro, se sitúa a unos 169 km de distancia. El sílex de Piedramuelle, procedente de la cuenca de Oviedo, se localiza a 246 km. Más significativo aún resulta el sílex de Tercis, cuya fuente se encuentra en el río Adour, en el sur de Francia, a 427 km de Puente Viesgo.
Tales evidencias implican que los neandertales de El Castillo tuvieron acceso a materias primas que habían recorrido distancias de más de 400 kilómetros, algo que dinamita las interpretaciones clásicas sobre su movilidad. La hipótesis más aceptada, por el momento, es que estos recursos se habrían obtenido, en su mayoría, a través de redes de intercambio y contactos intergrupales.

Un territorio social de más de 600 kilómetros
A partir de estos datos, los autores del estudio proponen distinguir entre el territorio doméstico o de subsistencia inmediata y un territorio social mucho más amplio, que podía extenderse más de 600 kilómetros. Este último se habría mantenido gracias a las interacciones regulares entre los grupos vecinos, que habrían propiciado el intercambio de materiales y conocimientos técnicos.
En consecuencia, la movilidad neandertal no puede entenderse solo como un fenómeno económico, sino también como una manifestación de su organización social y sus relaciones culturales. La circulación de sílex a larga distancia habría funcionado, pues, como un indicador material de vínculos sociales y culturales.

Técnicas de talla y uso del sílex
El estudio demuestra que, aunque minoritario en el conjunto de piezas líticas analizadas, el sílex se utilizó con regularidad. Su uso se aprecia en raspadores, denticulados y raederas, pero también en piezas obtenidas mediante los métodos Levallois, lo que indica un aprovechamiento especializado de una materia prima de alta calidad. La presencia de núcleos, así como las huellas de reavivado, sugiere que muchas piezas llegaban al yacimiento ya preparadas y eran reutilizadas en repetidas ocasiones.
Implicaciones para el estudio del Musteriense vasconiense
El análisis de las materias primas de El Castillo también contribuye al debate más amplio sobre el Musteriense vasconiense. Lejos de ser un fenómeno estrictamente tecnológico, podría reflejar una identidad cultural compartida en un territorio amplio, que se habría mantenido mediante contactos regulares y el intercambio de recursos.
Esto presupone que las similitudes observadas en diferentes yacimientos no obedecen únicamente a la coincidencia en técnicas de talla, sino también a la existencia de auténticas redes sociales prehistóricas que favorecieron la circulación de objetos, ideas y tradiciones.

Redes de intercambio neandertales
Los resultados obtenidos en El Castillo demuestran que los neandertales fueron capaces tanto de recorrer como de mantener contactos duraderos a lo largo de distancias que superan los 400 kilómetros. Más allá de su interés arqueológico, este descubrimiento contribuye a derribar algunos estereotipos persistentes que ven a los neandertales como grupos limitados y estáticos. La circulación de sílex a gran escala revela que estos humanos operaban en territorios sociales extensos, organizaban redes de intercambio y compartían tradiciones culturales en un espacio que abarcaba desde Asturias hasta el suroeste de Francia.
Referencias
- Herrero-Alonso, Diego, et al. 2025. "Neanderthal mobility over very long distances: The case of El Castillo cave (northern Spain) and the ‘Vasconian’Mousterian". Journal of Human Evolution, 205: 103715. DOI: https://doi.org/10.1016/j.jhevol.2025.103715
En un momento en que el mercado automovilístico español encara una transición acelerada hacia la electrificación, BYD lanza una apuesta estratégica: el ATTO 2, su nuevo SUV urbano eléctrico que aterriza en España desde 28.780 €. Este modelo no solo amplía la gama eléctrica de la marca, sino que incorpora innovaciones destacadas en seguridad, diseño, esfuerzo tecnológico y eficiencia práctica para el uso diario, con argumentos sólidos para convertirse en referente del segmento B.
El ATTO 2 conjuga una dimensión compacta (4.310 mm de largo, 1.830 mm de ancho y 1.675 mm de alto) que facilita la movilidad urbana y el aparcamiento, con una habitabilidad sorprendente, gracias a su distancia entre ejes de 2.620 mm, lo que le permite rivalizar en espacio con SUVs de segmentos superiores. En cuanto a su corazón tecnológico, incorpora la Blade Battery de BYD, así como la arquitectura Cell to Body (CTB): una innovación que integra la batería como parte estructural del chasis, mejorando rigidez, seguridad y aprovechamiento del espacio interior.
Este vehículo se presenta con dos versiones de lanzamiento para el mercado español: Active Urban Edition y Boost Urban Edition, que comparten motor, batería y muchas de las tecnologías, pero se diferencian en equipamiento premium, tamaño de pantalla, detalles de confort y asistentes, con un ajuste muy competitivo en precio. Además, BYD anuncia que a finales de 2025 ampliará la gama con la versión Comfort, que incorporará mayor autonomía, más potencia y más equipamiento de confort.
Dimensiones y diseño exterior
El ATTO 2 presenta unas dimensiones medidas pero ambiciosas para su categoría: 4.310 mm de longitud lo convierten en un SUV compacto, mientras que los 1.830 mm de ancho y 1.675 mm de alto brindan presencia. El tren de rodaje se apoya en una distancia entre ejes de 2.620 mm, lo que favorece una habitabilidad que muchos modelos de segmento B difícilmente alcanzan.
En cuanto al diseño, BYD juega con líneas marcadas, voladizos cortos delantero y trasero, y superficies curvas que realzan deportividad. En el frontal, faros Full LED y molduras inferiores integradas le dan carácter, mientras que en la trasera destaca una banda luminosa continua que une los pilotos, con un guiño al moebius y al símbolo del “nudo chino”, que aporta un elemento estético distintivo.

Interior, espacio y confort
El interior sorprende por su ergonomía y materiales. Se usan superficies blandas en zonas de contacto clave, asideros bien integrados, consola central funcional, asientos delanteros eléctricos (en todas las versiones) y calefacción del volante y de los asientos delanteros en la versión Boost.
El espacio para los pasajeros traseros no se sacrifica a pesar de su carrocería compacta. Gracias al aprovechamiento del chasis y a la arquitectura CTB, los ocupantes atrás cuentan con buen espacio para piernas y cabeza. El maletero ofrece 400 litros con los asientos traseros desplegados, y puede ampliarse hasta 1.340 litros al abatir los asientos.

Autonomía, motor y rendimiento
El ATTO 2 monta un motor eléctrico delantero con una potencia de 130 kW (177 CV) y 290 Nm de par, que le permiten acelerar de 0 a 100 km/h en 7,9 segundos y alcanzar una velocidad máxima de 160 km/h.
Su batería Blade de 45,1 kWh, junto con la plataforma e-Platform 3.0 y la eficiencia de la arquitectura CTB, le reportan una autonomía combinada WLTP de 312 km, y de hasta 463 km en ciclo urbano. Estos valores lo hacen muy competitivo para un uso mayoritariamente urbano, aunque los trayectos largos exigirán recargar con mayor frecuencia.

Tecnología de baterías y arquitectura Cell to Body
La Blade Battery es la gran apuesta de BYD: usa química LFP (fosfato de hierro y litio), lo que aporta mayor seguridad, durabilidad, resistencia térmica, ausencia de cobalto y níquel, y alta tolerancia a los ciclos de carga y descarga.
Junto con la arquitectura Cell to Body (CTB), la batería deja de ser un mero componente insertado para convertirse en parte estructural del coche, integrándose en el chasis. Esto mejora la rigidez torsional, la distribución de pesos, la eficiencia del vehículo, y permite optimizar el espacio interior y el maletero.

Equipamiento tecnológico y conectividad
El ATTO 2 llega con un equipamiento generoso de serie. Todas las versiones incluyen pantalla de infoentretenimiento – de 10,1″ en Active Urban Edition, y 12,8″ en Boost Urban Edition. También instrumentación digital de 8,8″.
Se incluye conectividad con Android Auto y Apple CarPlay inalámbrico, carga inalámbrica para smartphones (versión Boost: base de 15 W), puertos USB tipo C en el frontal y también tomas traseras, además de un sistema de control por voz (“Hi BYD”), actualizaciones OTA y apps integradas.

Seguridad y asistencias al conductor
BYD equipa al ATTO 2 con numerosas tecnologías de seguridad activa y pasiva. Estructura CTB aporta rigidez, y se incluyen múltiples airbags: conductor, acompañante, laterales delanteros, de cortina, etc.
Entre los sistemas de asistencia: aviso de colisión frontal, frenado automático de emergencia (AEB), control de crucero adaptativo, monitorización del conductor (DMS), mantenimiento de carril, detección de obstáculos en ángulo muerto, aviso de tráfico transversal trasero, y reconocimiento de señales.

Capacidades de carga y tiempos
Para quienes dependen de la carga rápida, el ATTO 2 ofrece carga en corriente continua (CC) hasta 65 kW, lo que permite subir de 30 % a 80 % en 28 minutos, o del 10 % al 80 % en 37 minutos. En alterna (AC) con carga trifásica de 11 kW, una carga completa toma aproximadamente 5,5 horas.
Además incluye de serie bomba de calor, que es muy útil en climas fríos, pues mejora la eficiencia térmica y reduce pérdidas de autonomía en bajas temperaturas.

Versiones, acabados y precios
El lanzamiento del ATTO 2 se articula en España con dos versiones iniciales: Active Urban Edition y Boost Urban Edition. Ambas comparten motor y batería, pero la Boost añade elementos premium como pantalla mayor, carga inalámbrica, calefacción en volante y asientos, sensores delanteros, cámara 360°, entre otros.
En cuanto a precios, el modelo más básico comienza en 28.780 €, mientras que la versión Boost se sitúa en 30.280 € con campañas incluidas. Estas versiones están limitadas a 1.200 unidades en su lanzamiento en España. Más adelante se unirá la versión Comfort, con mayor autonomía, potencia y mejoras de equipamiento, cuyo precio estimado es de 37.500 €.

Comparativa frente a rivales
Frente a otros SUVs urbanos eléctricos del segmento B, el ATTO 2 destaca por su combinación de autonomía urbana (más de 460 km), rendimiento notable (0‑100 km/h en menos de 8 segundos), y un equipamiento tecnológico que muchos competidores ofrecen solo en versiones superiores o como opcional.
El movimiento de BYD en España no es casual: el fabricante chino ya ha demostrado su capacidad para conquistar el mercado nacional con propuestas muy competitivas. De hecho, el SUV híbrido enchufable que arrasa en España no es europeo ni americano, sino el BYD Seal U DM-i, un modelo que ha roto las expectativas y ha escalado posiciones entre los más vendidos gracias a su tecnología y autonomía en modo eléctrico.

Uso urbano: maniobrabilidad y practicidad
Uno de los puntos fuertes del ATTO 2 es su radio de giro de 5,25 metros, lo que facilita maniobrar en espacios estrechos, algo clave en ciudad. Cortos voladizos delantero y trasero ayudan en ángulos de aproximación y salida, así como al aparcar.
El maletero es práctico y bien formado: 400 litros para uso diario, ampliables a 1.340 litros con los asientos abatidos. Por dentro, la disposición de los espacios de almacenamiento y la consola central contribuyen al confort cotidiano.

Consideraciones de eficiencia energética
La química LFP de la Blade Battery y su comportamiento en condiciones extremas le otorgan mayor durabilidad, mejor tolerancia a calor y frío, y menor dependencia de materiales críticos como cobalto o níquel.
Además, la bomba de calor de serie mejora la eficiencia en climas fríos, reduciendo el consumo energético extra que tienen otros modelos que dependen de resistencias o sistemas menos eficientes.

Impacto en el mercado y perspectivas futuras
El lanzamiento del ATTO 2 se inserta en la estrategia de BYD para consolidar su presencia en Europa y España, especialmente en los SUV del segmento B, un segmento de gran volumen y con altas expectativas de crecimiento. La marca ya ha dado pasos firmes con modelos como el BYD Dolphin, un compacto eficiente y tecnológico que ha captado la atención del público urbano por su relación calidad-precio, diseño juvenil y autonomía equilibrada.
La versión Comfort, prevista para finales de 2025, con mayor autonomía y equipamiento, puede ampliar el espectro de potenciales compradores que buscan algo más que lo urbano, acercándose a trayectos mixtos o viajes más largos. La combinación entre éxito comercial y avances tecnológicos posiciona a BYD como uno de los fabricantes eléctricos más activos e influyentes del panorama actual.

BYD ATTO 2: diseño atractivo y tecnologías de vanguardia
El BYD ATTO 2 representa un salto cualitativo para el segmento de SUVs eléctricos urbanos en España. Su combinación de diseño atractivo, tecnologías de vanguardia como Blade Battery y Cell to Body, autonomía real muy competente, y equipamiento de serie generoso lo convierten en una opción muy atractiva.

Con precios accesibles, versiones que se adaptan a distintos perfiles de usuario, y perspectivas de mejoras futuras con la versión Comfort, el ATTO 2 tiene todos los ingredientes para ganar la carrera urbana eléctrica. Más allá del producto en sí, su llegada al mercado apunta a reforzar la tendencia hacia vehículos eléctricos más completos, seguros y eficaces, no solo en cifras, sino en la experiencia real.
Durante décadas, los dinosaurios de cabeza abovedada —conocidos científicamente como pachycephalosaurios— han sido uno de los mayores enigmas del Cretácico. Sus cráneos redondeados y extremadamente gruesos han fascinado a científicos y cineastas por igual, pero más allá de esa llamativa “cúpula ósea”, el resto de su cuerpo y su historia evolutiva permanecían sumidos en la incertidumbre. Hasta ahora.
Un equipo de paleontólogos ha desenterrado en Mongolia un fósil sorprendentemente bien conservado que no solo arroja luz sobre este grupo de dinosaurios, sino que reescribe por completo su árbol genealógico. Se trata de Zavacephale rinpoche, una nueva especie que, con 108 millones de años de antigüedad, se convierte en el pachycephalosaurio más antiguo y completo jamás descubierto. Los hallazgos han sido publicados esta semana en la prestigiosa revista Nature.
Un hallazgo que empezó con una piedra extraña
Todo comenzó con una forma redonda que sobresalía de una ladera del desierto del Gobi. A primera vista, parecía una simple roca. Pero al excavar con más detalle, los investigadores descubrieron que se trataba de un cráneo fosilizado, y no uno cualquiera: la bóveda ósea característica de los pachycephalosaurios estaba casi intacta, como si hubiera sido colocada allí por el tiempo a propósito.
Este “adolescente” de apenas un metro de largo y no más de un metro de alto habría vivido en una región que hace más de 100 millones de años era un valle repleto de lagos y vegetación. Pese a su edad, ya presentaba una cúpula craneal completamente desarrollada, lo que sugiere que estos dinosaurios desarrollaban su “armadura” ósea desde muy temprano.
El fósil que los paleontólogos llevaban décadas esperando
Hasta ahora, casi todo lo que sabíamos sobre los pachycephalosaurios provenía de cráneos aislados y fragmentados. El resto del esqueleto era, literalmente, un misterio. Por eso, el hallazgo de Zavacephale rinpoche es tan significativo: su esqueleto está prácticamente completo, incluyendo detalles inéditos como las manos, el estómago y una larga cola con tendones preservados.

De hecho, los huesos de las manos eran tan pequeños que, inicialmente, los científicos pensaron que podrían ser restos de lo que el animal había comido. Pero al analizar el contenido del estómago descubrieron algo aún más interesante: piedras conocidas como gastrolitos, utilizadas por algunos animales para triturar los alimentos en ausencia de dientes molarizados. Es la primera vez que se documenta el uso de gastrolitos en un pachycephalosaurio.
Una de las preguntas más debatidas en paleontología es por qué estos animales desarrollaron cráneos tan gruesos. Las teorías van desde protección frente a depredadores hasta regulación térmica, pero la explicación más aceptada hoy en día apunta hacia el comportamiento sexual: duelos entre machos, exhibición de fuerza y competencia por las hembras. Algo así como una versión prehistórica de los carneros actuales, pero a lo grande.
El hecho de que Zavacephale ya presentara una cúpula desarrollada a una edad tan temprana refuerza esta hipótesis. Según los investigadores, la estructura ósea habría sido crucial para el éxito reproductivo de estos animales, hasta el punto de condicionar su evolución desde fases juveniles. En otras palabras, si querías impresionar en el mundo de los pachys, más te valía empezar a entrenar la cabeza desde joven.
Reescribiendo la historia evolutiva de los dinosaurios acorazados
Este nuevo fósil no solo cambia lo que sabíamos sobre la anatomía de los pachycephalosaurios, sino que también obliga a repensar su lugar en la historia evolutiva. Hasta ahora, el registro fósil más antiguo de este grupo databa de hace unos 93 millones de años. Zavacephale rinpoche, con sus 108 millones, adelanta esa línea temporal en al menos 15 millones de años.
El nombre de la especie es también un guiño al valor del hallazgo. Zava, que significa “raíz” u “origen” en tibetano, y cephale, del latín “cabeza”, hacen referencia a su carácter ancestral. Rinpoche, por su parte, significa “preciado” en tibetano, una alusión tanto a la joya paleontológica que representa como a la forma en que fue hallado: brillando en un acantilado como una gema natural.
Más allá de los datos técnicos, lo fascinante de Zavacephale es cómo transforma una imagen incompleta en una historia mucho más rica. Gracias a este ejemplar, los paleontólogos pueden, por primera vez, analizar en detalle cómo crecían estos dinosaurios, cómo se movían, qué comían y cómo interactuaban entre sí.

El fósil también permite conectar los puntos entre diferentes especies de pachycephalosaurios encontradas a lo largo del hemisferio norte, desde Asia hasta América del Norte. ¿Fueron migraciones? ¿Un origen común? Preguntas que hasta ahora solo tenían hipótesis, y que ahora podrían tener respuestas más concretas.
Además, la presencia de tendones fosilizados en la cola sugiere un sistema de estabilización que podría haber sido clave en combates entre individuos. Un sistema de contrapeso natural que les permitía mantener el equilibrio durante los famosos “empujones de cabeza”.
Un fósil para la historia
El estudio, liderado por el paleontólogo Tsogtbaatar Chinzorig en colaboración con expertos de Estados Unidos, Japón y Mongolia, ha sido descrito como uno de los más importantes del año. No solo por la antigüedad del fósil, sino por su estado de conservación casi milagroso.
Aunque Zavacephale rinpoche ya ha sido devuelto a Mongolia, su legado continúa. Las réplicas digitales, escaneos en alta resolución y muestras obtenidas seguirán siendo objeto de estudio durante años. Porque cuando se trata de dinosaurios, una buena cúpula puede esconder muchas más historias de las que imaginamos.
En pleno siglo XXI, los mosquitos han dejado de ser solo una molestia de los meses calurosos para convertirse en transmisores de enfermedades virales que avanzan con rapidez y amenazan nuestra salud. El cambio climático, la globalización y la urbanización descontrolada han favorecido la expansión de mosquitos invasores como Aedes aegypti y Culex pipiens, responsables de transmitir virus emergentes como dengue, zika, chikungunya o el virus del Nilo Occidental.
Hasta hace pocos años, en España las infecciones por estos virus se limitaban a casos importados: personas que se contagiaban en el extranjero y regresaban infectadas. Sin embargo, en 2018 la presencia del mosquito invasor en nuestro territorio cambió el panorama: se confirmaron los primeros casos autóctonos de dengue. Desde entonces, se han registrado nuevos episodios, incluido el más reciente en 2024, con ocho personas afectadas. De forma paralela, también se ha documentado transmisión local del virus del Nilo Occidental. Es decir, estos virus ya no solo llegan desde fuera, pueden circular dentro de nuestras fronteras (Figura 1).
El problema es que estos virus pueden provocar infecciones con síntomas similares, pero también complicaciones graves si no se detectan o se diferencian a tiempo. Por ello, las agencias de salud pública, como los Centros para el Control y la Prevención de Enfermedades (CDC) en Estados Unidos o el Centro Europeo para la Prevención y el Control de las Enfermedades (ECDC), mantienen una vigilancia constante y publican alertas para intentar anticipar brotes.
En este escenario, la ciencia está afinando sensores que no solo “escuchen” la presencia viral, sino que puedan detectar infecciones antes incluso de que aparezcan los síntomas. Y lo están logrando gracias a la combinación innovadora de nanotecnología e inteligencia artificial (IA).

Diagnosticar antes de que aparezcan los síntomas
El gran reto con estos virus es que muchas personas infectadas no presentan síntomas o los confunden con dolencias leves. Un dolor de cabeza con cansancio puede parecer trivial, pero podría ocultar una infección emergente. Además, los síntomas iniciales de dengue, zika o chikungunya son muy similares (fiebre, dolores musculares o articulares, fatiga, náuseas o sarpullidos), lo que complica el diagnóstico clínico, especialmente en zonas con recursos limitados. Esta dificultad para diferenciar entre virus no solo retrasa la atención médica adecuada, sino también las medidas de control epidemiológico necesarias para contener un brote. Para cuando se confirma un diagnóstico correcto, el virus puede haber avanzado ampliamente en la comunidad.
Además, las pruebas diagnósticas tradicionales suelen ser costosas, lentas o necesitan laboratorios especializados, lo que limita su accesibilidad en zonas remotas o con pocos recursos.
¿Y si pudiéramos detectar estos virus emergentes en sus primeras fases, incluso antes de que la persona se sienta mal? ¿Y si ese dato se pudiera enviar automáticamente a los sistemas de salud pública para anticipar y coordinar una respuesta rápida? Aquí es donde la nanotecnología y la IA entran en juego.
La nanotecnología al servicio de lo invisible
La nanotecnología trabaja con materiales y dispositivos a escala nanométrica, mil veces más pequeños que un cabello humano. En medicina, esta precisión permite crear biosensores diminutos capaces de detectar componentes del virus (material genético o proteínas) en una gota de sangre o saliva. Por ejemplo, algunos biosensores emplean nanopartículas de oro que cambian de color al unirse a proteínas del virus del dengue, haciendo visible la infección en minutos. Otros utilizan nanotubos de carbono o grafeno, materiales que conducen la electricidad de forma extraordinaria, para detectar variaciones eléctricas al contacto con el material genético del virus y diferenciar entre dengue, zika y chikungunya en una sola prueba.
Estos dispositivos generan señales eléctricas, ópticas o químicas al detectar el virus, que pueden ser interpretadas por aparatos portátiles similares a un glucómetro. Lo revolucionario es que no solo indican la presencia viral, sino que pueden identificar el tipo exacto de virus, y algunos incluso detectan varios virus distintos en una sola muestra.
Esto supone un avance sobre las pruebas rápidas actuales, que suelen ser inespecíficas o inaccesibles en muchas regiones. Además, estos biosensores son portátiles, económicos y fáciles de usar, ideales para entornos sin laboratorios avanzados. Pero aquí no termina la historia.

IA: la clave para interpretar y anticipar
La IA entra para analizar los datos que recogen estos biosensores. Gracias a algoritmos entrenados con miles de muestras, la IA puede reconocer patrones, clasificar tipos de virus y estimar la carga viral en cada persona. Si los biosensores están conectados en red (por ejemplo, a través de un móvil) los datos pueden enviarse en tiempo real a sistemas de vigilancia epidemiológica, donde se integran con información climática, movilidad humana y presencia de mosquitos.
Así, la IA puede mapear zonas de riesgo, detectar patrones de coinfección (como dengue y zika simultáneos) y emitir alertas tempranas si detecta aumentos inusuales en una región. Esto transforma cada diagnóstico en una herramienta predictiva para anticipar brotes antes de que ocurran. Mientras el mosquito transmite silenciosamente un virus, la tecnología ya está escuchando, analizando y, si fuera necesario, lanzando una alerta.
Biosensores inteligentes en acción: una mirada práctica
Uno de los grandes avances es que estos biosensores pueden usarse fuera del laboratorio. Su bajo costo y tamaño compacto permiten implementarlos en centros rurales, comunidades remotas o campamentos de emergencia. No requieren electricidad constante ni personal especializado. Además, las versiones conectadas a smartphones podrían integrarse en programas comunitarios de vigilancia o incluso en el autodiagnóstico.
Imaginemos a una persona en una zona rural con alta presencia de mosquitos. Al sentir molestias leves, usa un biosensor portátil, coloca una gota de sangre y, en minutos, el dispositivo indica si está infectada y con qué virus. Los datos son procesados por IA y, con el consentimiento del usuario, notificados a las autoridades sanitarias locales. Este sencillo gesto no solo ayuda a recibir atención rápida, sino que aporta información crucial para evitar un brote mayor. Si varios casos positivos surgen en una misma zona, se pueden activar medidas preventivas: fumigación, campañas informativas, o refuerzo sanitario (Figura 2).
Este diagnóstico precoz es especialmente vital para mujeres embarazadas expuestas al zika o personas inmunocomprometidas frente al virus del Nilo Occidental. La IA puede incluso diferenciar entre infecciones recientes, pasadas o simultáneas, algo difícil con las pruebas tradicionales.
Además, estas plataformas tecnológicas no se limitan solo a virus transmitidos por mosquitos. En un futuro cercano, podríamos disponer de dispositivos capaces de detectar de forma rápida y precisa infecciones víricas emergentes y también otras enfermedades, como pandemias respiratorias o infecciones zoonóticas. De hecho, la pandemia de COVID-19 ha acelerado el desarrollo de estas tecnologías, impulsando la innovación en el diagnóstico de enfermedades infecciosas. Gracias a ello, nos acercamos a un escenario en el que la detección temprana será clave para afrontar muchas amenazas sanitarias.

Más allá del diagnóstico: vigilancia ciudadana y digital
La tecnología no solo está en manos de especialistas. Plataformas como MosquitoDashboard.org permiten a cualquier persona con un móvil enviar fotos y ubicaciones de mosquitos sospechosos. Estas imágenes, validadas por expertos, construyen mapas actualizados de especies invasoras. La ciudadanía se convierte así en aliada de la vigilancia epidemiológica y las campañas de control. Si se detecta Aedes aegypti en un área nueva, las autoridades pueden anticipar medidas antes de que se desate un brote. La IA también ayuda a clasificar imágenes y mejorar la precisión de estos sistemas.
Además, herramientas como HealthMap.org, impulsada por la Universidad de Harvard, transforman a la población en parte activa de la vigilancia sanitaria global. Cualquier persona puede reportar síntomas o diagnósticos, mientras la IA analiza de forma continua miles de datos públicos procedentes de noticias, informes oficiales y redes sociales. El resultado es un mapa interactivo que muestra, en tiempo real y a escala global, dónde están emergiendo brotes de virus y otras enfermedades infecciosas.
Retos por delante
Aunque estos avances son prometedores, el camino todavía presenta desafíos importantes. Es fundamental comprobar que los biosensores funcionen con fiabilidad en condiciones reales y variadas, más allá del laboratorio. Otro reto igual de importante, es garantizar la privacidad de los datos personales y su uso ético. Transmitir información médica a sistemas de IA o a redes sanitarias requiere marcos legales sólidos y medidas para proteger los derechos de los usuarios. La tecnología debe servir a las personas, no vigilarlas.
También es vital evitar la brecha tecnológica: no todos los países o regiones tienen acceso a estas innovaciones. Su implementación debe ir acompañada de políticas públicas que promuevan la equidad y la cooperación internacional, para que su impacto sea realmente global.
Conclusión inteligente: escuchar antes de que sea tarde
En un mundo donde los mosquitos se expanden a gran velocidad y traen a nuestro entorno virus que antes no circulaban, no podemos esperar a que un brote se salga de control. Necesitamos herramientas que actúen antes del colapso, no después. La alianza entre nanotecnología, IA y ciencia ciudadana nos ofrece justo eso: la capacidad de escuchar las señales invisibles de un virus y responder con rapidez, precisión y coordinación.
No se trata solo de diagnosticar más rápido, sino de prevenir, anticipar y proteger a las poblaciones más vulnerables. Convertir al mosquito en una fuente de información y a la IA en su intérprete es estar un paso por delante de la próxima epidemia. Porque en salud pública, actuar antes es sinónimo de salvar vidas.
Referencias
- Agencia de Salud Pública de Cataluña. (2024). Actualización 16.09.2024 del brote de dengue autóctono en Cataluña. https://salutpublica.gencat.cat/ca/detalls/Article/dengue-actualitzacio
- Akkaş, T., Reshadsedghi, M., Şen, M., Kılıç, V., & Horzum, N. (2025). The role of artificial intelligence in advancing biosensor technology: Past, present, and future perspectives. Advanced Materials, 2504796. doi: 10.1002/adma.202504796
- Centers for Disease Control and Prevention. (2025). Health Topics A-Z. https://www.cdc.gov/health-topics.html
- Centro de Coordinación de Alertas y Emergencias Sanitarias. (2018). Evaluación Rápida de Riesgo. Primeros casos de dengue autóctono en España. Actualización noviembre 2018. Ministerio de Sanidad, Consumo y Bienestar Social. https://www.sanidad.gob.es/profesionales/saludPublica/ccayes/alertasActual/docs/ERR_Dengue_autoctono_Espana.pdf
- European Centre for Disease Prevention and Control. (2025). Public health topics. Diseases A-Z. https://www.ecdc.europa.eu/en/all-topics
- Global Mosquito Observations Dashboard. (2025). https://mosquitodashboard.org/
- HealthMap. (2025). https://www.healthmap.org/es/
- Kharwadkar, S., & Herath, N. (2024). Clinical manifestations of dengue, Zika and chikungunya in the Pacific Islands: A systematic review and meta-analysis. Reviews in Medical Virology, 34(2), e2521. doi: 10.1002/rmv.2521
- Leung, X. Y., Islam, R. M., Adhami, M., Ilic, D., McDonald, L., Palawaththa, S., … Karim, M. N. (2023). A systematic review of dengue outbreak prediction models: Current scenario and future directions. PLoS Neglected Tropical Diseases, 17(2), e0010631. doi: 10.1371/journal.pntd.0010631
- Mosquito Alert. (2025). https://www.mosquitoalert.com/
- Pan American Health Organization. (2025). Topics. https://www.paho.org/en/topics
- Quero-Delgado, M., Codina, H., Gómez, R., Terán, F. J., Muñoz-Fernández, M. A., Jiménez, J. L., … Martínez, I. (2025). Advances in nanotechnology-enabled optical biosensors for dengue virus detection: A systematic review. Medical Research Reviews. doi: 10.1002/med.70006
- Remesh, S. D., Karuppanan, S., Perumal, V., Gopinath, S. C. B., Ovinis, M., Raja, P. B., Arumugam, N., & Kumar, R. S. (2025). Sensitive detection of dengue serotype-4 on lignin-derived graphene nanofibre and manganese oxide composite by DNA-sensing. Scientific Reports, 15(1), 25511. doi: 10.1038/s41598-025-10518-9
- Riya, N. J., Chakraborty, M., & Khan, R. (2024). Artificial intelligence-based early detection of dengue using CBC data. IEEE Access, 12, 112355–112367. doi: 10.1109/ACCESS.2024.3443299
- Santos-Silva, R., Florentino, P. T. V., Cerqueira-Silva, T., Oliveira, V. A., Junior, J. B., Barbosa, G. C. G., Penna, G. O., Boaventura, V. S., Ramos, P. I. P., Barral-Netto, M., & Marcilio, I. (2025). Primary health care data-based early warning system for dengue outbreaks: A nationwide case study in Brazil. The Lancet Regional Health – Americas, 48, 101165. doi: 10.1016/j.lana.2025.101165
- Simão, E. P., Silva, D. B. S., Cordeiro, M. T., Gil, L. H. V., Andrade, C. A. S., & Oliveira, M. D. L. (2020). Nanostructured impedimetric lectin-based biosensor for arboviruses detection. Talanta, 208, 120338. doi: 10.1016/j.talanta.2019.120338
- The Rockefeller Foundation. (2025). Using artificial intelligence, Cali takes action against dengue. https://www.rockefellerfoundation.org/news/using-artificial-intelligence-cali-takes-action-against-dengue/
- World Health Organization. (2025). Health topics. https://www.who.int/health-topics/World Mosquito Program, Monash University. (2025). Learn: Mosquito-borne diseases. https://www.worldmosquitoprogram.org/en/learn/mosquito-borne-diseases

Helena Codina Márquez
Graduada en Biotecnología. Máster en Bioingeniería. Investigadora predoctoral, Instituto de Salud Carlos III


Daniel Sepúlveda Crespo
Doctor en Biociencias Moleculares. Investigador Miguel Servet, Instituto de Salud Carlos III


Marta Quero Delgado
Graduada en Biomedicina Básica y Experimental. Máster en Microbiología Aplicada a la Salud Pública e Investigación en Enfermedades Infecciosas. Investigadora predoctoral, Instituto de Salud Carlos III


Isidoro Martínez González
Doctor en Ciencias Biológicas. Científico Titular de OPIs, Instituto de Salud Carlos III


Salvador Resino García
Doctor en Ciencias Biológicas. Investigador Científico de OPIs, Instituto de Salud Carlos III

En un momento en el que la movilidad eléctrica se encuentra en plena ebullición, el gigante chino BYD —líder mundial en vehículos enchufables— da un paso más con el lanzamiento europeo del SEAL 6 DM-i, una berlina híbrida enchufable que promete cambiar las reglas del juego. Disponible también en versión familiar, el nuevo SEAL 6 DM-i Touring, este modelo combina de forma excepcional la eficiencia eléctrica, la versatilidad del motor térmico y una autonomía que roza lo inverosímil: hasta 1.505 kilómetros.
Este modelo se presenta como la evolución lógica del exitoso SEAL U DM-i, pero con una propuesta más aerodinámica y refinada, que apunta tanto a particulares exigentes como a empresas que buscan optimizar sus flotas sin renunciar a la sostenibilidad. Gracias a su tecnología Dual Mode Intelligent, el SEAL 6 DM-i puede circular hasta 105 km en modo 100% eléctrico, y recorrer largas distancias sin necesidad de repostar constantemente. La clave: un sistema híbrido avanzado que permite alternar entre modos eléctricos y térmicos según la demanda del trayecto.
BYD lleva tiempo demostrando su capacidad para romper barreras tecnológicas. Ya lo hizo con el BYD Dolphin: el compacto eléctrico que carga en 30 minutos, se controla por voz y lleva ya más de medio millón de unidades vendidas, y ahora vuelve a sorprender con un modelo que amplía los límites de la autonomía sin comprometer el confort ni el equipamiento.
¿El precio? Tan rompedor como su propuesta técnica: desde 27.990 euros aplicando las campañas promocionales y el Plan MOVES III con achatarramiento. Una cifra que lo sitúa como uno de los híbridos enchufables más competitivos del mercado. BYD no solo quiere electrificar las carreteras europeas, quiere hacerlo sin compromisos.
Diseño Ocean: elegancia dinámica al servicio de la eficiencia
La silueta del SEAL 6 DM-i es una declaración de intenciones. Con un diseño inspirado en las olas del mar, la parte frontal presenta una parrilla minimalista con un sistema activo de entrada de aire que optimiza el rendimiento aerodinámico. A ello se suman faros LED cristalinos y un paragolpes marcado que insinúa deportividad.
A lo largo del lateral, líneas tensas y proporciones equilibradas —con llantas de aleación de 18" tipo “flying axe”— consolidan una imagen dinámica, mientras que la zaga introduce un conjunto óptico matrix-LED de gran sofisticación. Este diseño no solo enamora a primera vista, también reduce el coeficiente de resistencia y mejora el consumo.

Dos carrocerías, una misma filosofía
El SEAL 6 DM-i se ofrece en dos versiones de carrocería: berlina (sedán) y familiar (Touring). Ambas comparten plataforma y dimensiones generosas: 4.840 mm de largo, 1.875 mm de ancho y una distancia entre ejes de 2.790 mm, lo que garantiza un interior amplio y confortable.
La variante Touring añade 10 mm de altura y una versatilidad ampliada, gracias a sus rieles de techo y un maletero que alcanza los 1.535 litros. Con un diseño estilizado pero práctico, esta versión se convierte en una opción ideal para familias o profesionales que necesiten espacio sin renunciar a la estética.

Tecnología Dual Mode Intelligent: el verdadero corazón del SEAL
La clave del rendimiento del SEAL 6 DM-i está en su sistema de propulsión Dual Mode Intelligent, que permite alternar entre modos EV (eléctrico puro) y HEV (híbrido en serie o paralelo). Esto garantiza una experiencia eléctrica la mayor parte del tiempo, pero con la tranquilidad de un motor de combustión cuando se requiere.
El motor de gasolina 1.5 Xiaoyun, con una eficiencia térmica del 43%, se combina con un motor eléctrico de hasta 15.000 rpm, gestionado por un sistema inteligente que prioriza la eficiencia sin comprometer el confort ni la respuesta. Una tecnología revolucionaria en su segmento.

Autonomía récord: hasta 1.505 km sin parar
Uno de los datos más impactantes del SEAL 6 DM-i es su autonomía combinada: hasta 1.505 km en la versión sedán y hasta 1.350 km en el Touring. Esto se consigue gracias a la gestión inteligente de energía, el bajo consumo (desde 1,5 l/100 km) y la aerodinámica refinada.
La carga rápida, además, juega un papel clave en la experiencia de uso. En tan solo 23 minutos se puede recuperar el 50% de la batería, lo que lo acerca al rendimiento de propuestas como el coche eléctrico que se carga en el tiempo de un repostaje de gasolina. Así, viajar largas distancias deja de ser una preocupación para los conductores eléctricos.

Habitáculo: amplitud, calidad y confort premium
El interior del SEAL 6 DM-i es una combinación perfecta de tecnología y confort. El diseño del salpicadero continúa el lenguaje Ocean, con líneas suaves y envolventes, mientras que los materiales —como el cuero vegano texturizado— aportan sofisticación y durabilidad.
Los asientos delanteros ofrecen ajuste eléctrico, memoria, calefacción y ventilación. La parte trasera, con un espacio digno del segmento superior, permite viajar con comodidad sin importar el trayecto. Además, cuenta con cuatro puertos USB-C, base de carga inalámbrica de 50W y climatización de alta eficiencia.

Infotainment conectado y personalizable
En el centro del habitáculo destaca una pantalla de infoentretenimiento de 12,8” o 15,6” según el acabado, con resolución Full HD y conectividad total. El sistema integra navegación, control por voz y actualizaciones OTA.
El cuadro de instrumentos digital de 8,8” completa la experiencia de conducción moderna. La iluminación ambiental configurable, los ocho altavoces y las múltiples opciones de conectividad convierten cada viaje en una experiencia multisensorial.

Seguridad integral: protección activa y pasiva
El SEAL 6 DM-i viene equipado de serie con siete airbags, estructura reforzada y anclajes ISOFIX. A ello se suma un completo conjunto de asistencias: control de crucero adaptativo, frenada automática de emergencia, detección de ángulo muerto, alerta de tráfico cruzado, etc. Las cámaras 360º, los sensores perimetrales y los sistemas de ayuda al aparcamiento elevan el nivel de seguridad y facilidad de uso, tanto en ciudad como en carretera.

V2L y estilo de vida: la energía va contigo
El sistema V2L permite alimentar dispositivos externos desde el vehículo, con una potencia de hasta 3,3 kW. Esto lo convierte en un aliado perfecto para actividades al aire libre, escapadas de fin de semana o incluso como fuente de emergencia en casa.
Desde una cafetera hasta una bicicleta eléctrica, el SEAL 6 DM-i amplía su utilidad más allá de la movilidad, convirtiéndose en una estación de energía móvil para el estilo de vida moderno.

Versiones y equipamiento: opciones para todos los gustos
La gama se compone de tres acabados: Boost, Comfort Lite y Comfort, disponibles tanto en sedán como en Touring. Todos incluyen llantas de aleación, climatizador, infoentretenimiento, sensores y cámara trasera.
El acabado Comfort suma el techo solar panorámico, iluminación ambiental, sistema de sonido premium, volante calefactado y pantalla de 15,6”. Una oferta que, incluso en sus versiones de entrada, rebasa el estándar del segmento.

Precios competitivos: desde 27.990 euros
Con campañas y financiación, el SEAL 6 DM-i arranca en 27.990 euros y el Touring en 29.490 euros, lo que los posiciona como líderes en relación precio-autonomía-equipamiento. En el caso de Canarias, los precios son incluso más bajos por fiscalidad especial. En tiempos de inflación y combustibles caros, esta propuesta se convierte en una de las más racionales y avanzadas del panorama actual.

El respaldo de un gigante: BYD en Europa
Con más de 13 millones de vehículos enchufables vendidos, presencia en 90 países y un ecosistema propio de energía limpia, BYD no es un recién llegado. Su apuesta por Europa se consolida con modelos como el Dolphin, Atto 3, Seal U y ahora el SEAL 6 DM-i.
Este modelo representa la madurez tecnológica de la marca y su firme intención de competir en el segmento medio-alto europeo, con un producto atractivo, eficiente y asequible.

Una nueva era para el híbrido enchufable
El SEAL 6 DM-i marca un antes y un después en el mundo de los PHEV. Con su diseño atractivo, tecnología avanzada, gran autonomía y precio contenido, demuestra que la electrificación práctica y sin limitaciones es posible hoy.

En un mercado donde cada vez se exige más a los vehículos, este modelo de BYD responde con una propuesta valiente, versátil y futurista. ¿Estamos ante el híbrido enchufable definitivo? Muy posiblemente, sí.
Aunque no lo sepas, tu día empieza con física cuántica. Al pulsar el mando del garaje, al calentar el pan en la tostadora o al usar el GPS para no perderte en la ciudad, estás rodeado de tecnología que funciona gracias a fenómenos cuánticos. Pero ¿cómo entender algo que ni siquiera parece lógico a primera vista? Tenemos un ejemplo en el libro Física cuántica de lo cotidiano. Ana Martín Fernández, doctora en Física y divulgadora apasionada, ha logrado algo que parecía imposible: explicar la cuántica con claridad, humor y ejemplos cotidianos, sin simplificar lo esencial ni abrumar al lector.
En Física cuántica de lo cotidiano (Pinolia, 2025), la autora nos lleva de la mano por la historia, los principios y las aplicaciones actuales de la física cuántica, haciendo conexiones brillantes entre teorías abstractas y objetos comunes. Cada capítulo es una sorpresa: desde cómo funciona el microondas hasta por qué los colores de la naturaleza son lo que son. Hoy nos vamos a acercar al capítulo 7, titulado “El efecto fotoeléctrico me abre la puerta del garaje”.
La luz también empuja
Puede parecer una frase poética, pero es física pura: la luz tiene el poder de mover cosas. No en el sentido visible de una ráfaga de viento, sino a nivel microscópico, en forma de energía que se transfiere en paquetes muy concretos. Esos paquetes se llaman fotones, y aunque no tienen masa, sí pueden arrancar electrones de un material cuando chocan con él. A eso se le llama efecto fotoeléctrico.
Einstein lo explicó en 1905 y recibió el Nobel por este trabajo, no por la relatividad. El efecto fotoeléctrico es la base de muchas tecnologías actuales. Celdas solares, sensores de luz, cámaras digitales… y, sí, también el mando a distancia del garaje. Cuando apretas el botón, un pequeño diodo emite un haz de luz infrarroja que es captado por un sensor en la puerta. El sensor responde porque esa luz provoca una reacción electrónica, gracias precisamente al efecto fotoeléctrico.
Lo interesante no es solo el fenómeno, sino lo que implica a nivel conceptual. El efecto fotoeléctrico desafía la visión clásica de la luz como una simple onda. Aquí, la luz actúa como partícula, mostrando que la naturaleza puede ser dos cosas a la vez, y que la física cuántica no se rige por el sentido común, sino por la evidencia.

Más allá de la puerta del garaje
Lo que empieza como una explicación sobre cómo se abre la puerta del garaje se convierte en una lección sobre el funcionamiento del mundo moderno. El efecto fotoeléctrico no solo está en sensores, sino en paneles solares, que permiten convertir luz directamente en electricidad. Y ese mismo principio se aplica en los fotomultiplicadores usados en medicina o en detectores de partículas en experimentos fundamentales.
Pero más allá de la tecnología, este fenómeno nos obliga a repensar la forma en que entendemos la realidad. En el mundo clásico, esperábamos que más luz significara más energía. Sin embargo, el efecto fotoeléctrico nos dice que no importa cuánta luz pongas, sino la energía de cada fotón. Una linterna muy intensa con luz roja no podrá arrancar electrones, pero un láser débil con luz ultravioleta sí. Esa paradoja solo se resuelve con física cuántica.
El capítulo usa ejemplos visuales, analogías con la vida diaria y una narrativa clara para mostrar cómo un fenómeno aparentemente técnico está detrás de muchas decisiones tecnológicas que afectan al medioambiente, la salud y nuestra vida cotidiana. Es una forma de contar ciencia que no solo informa, sino que genera una nueva forma de mirar.
De la abstracción a lo tangible
Lo más poderoso de este recorrido es cómo logra conectar lo abstracto con lo cotidiano. No hace falta saber matemáticas avanzadas para entender cómo un fotón puede liberar un electrón. Solo hay que observar con atención el entorno y hacer las preguntas adecuadas. El capítulo, y el libro entero, están llenos de ese tipo de conexiones: desde las ecuaciones de los pioneros de la cuántica hasta el mando que usamos cada mañana sin pensarlo.
Y es que ahí está la clave del enfoque de Ana Martín Fernández: no busca simplificar la física, sino hacerla cercana. La cuántica no se presenta como un mundo misterioso e inaccesible, sino como una herramienta poderosa que ya forma parte de nuestras vidas. No hay que ir al CERN para verla en acción; basta con fijarse en el sensor de luz que activa el grifo automático del baño.

El actual mes de septiembre está siendo uno de los más intensos para la gama media de smartphones, un segmento en el que la competencia se ha disparado. Donde la relación calidad-precio es decisiva, y ahí es donde las marcas están librando una batalla sin descanso.
En este contexto, tras los agresivos movimientos de Xiaomi en las últimas semanas, Realme ha decidido actuar mediante una rebaja muy significativa en su Realme GT 7. Lo que lo posiciona como una de las opciones más atractivas dentro de la gama media gracias a su nuevo precio.

El Realme GT 7, cuyo coste habitual ronda los 480€ en tiendas como Miravia, Amazon y PcComponentes, puede encontrarse actualmente a 405,99 euros en AliExpress. Un movimiento dirigido especialmente a contener el fuerte avance de Xiaomi.
Este modelo equipa una pantalla AMOLED de 6,78 pulgadas con resolución 1.5K y tasa de refresco de 120 Hz, lo que garantiza una experiencia visual fluida y vibrante. En su interior incorpora el procesador MediaTek Dimensity 9400e, junto con 12 GB de RAM y 256 GB de almacenamiento.
Además, integra un sistema de cámaras muy competente, con un sensor principal Sony IMX906 de 50 MP con estabilización óptica (OIS), un ultra gran angular de 8 MP y dos cámaras Samsung de 50 MP. La cámara frontal de 32 MP cumple con solvencia en selfies y videollamadas. Todo ello respaldado por una batería de 7.000 mAh con carga rápida de 120W, 5G, Bluetooth 5.4 y Hi-Res Audi.
Motorola también actúa rápido liquidando su Edge 50 hasta mínimos
La respuesta de Realme no ha pasado desapercibida, y otras marcas también se han movido para no perder protagonismo. Es el caso de Motorola, que ha decidido liquidar su Edge 50 hasta los 271,71 euros. Un precio que difiere con otras plataformas como Amazon o Miravia, donde supera los 315€.

Este dispositivo cuenta con una pantalla pOLED Endless Edge de 6,6 pulgadas, junto con el procesador Snapdragon® 7 Gen 1 Accelerated Edition, 12 GB de RAM y 512 GB de almacenamiento. En fotografía destaca su cámara principal Sony de 50 MP con OIS, acompañada de un ultra gran angular de 13 MP y un teleobjetivo de 10 MP .Mientras que la cámara frontal de 32 MP ofrece gran calidad en retratos y videollamadas. Su batería de 5.000 mAh asegura autonomía para todo el día, reforzado además de 5G, Wi-Fi 6E, Bluetooth 5.2 y altavoces Dolby Atmos.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Vestidos de armiño, llevando brillantes armaduras o empuñando la espada: así solemos imaginar a los soberanos que llevaron las riendas de Europa a lo largo de la Edad Moderna. Resulta menos probable que asociemos los reyes de antaño con la compasión y el amor maternal. Y, sin embargo, durante la Edad Moderna, los monarcas europeos también se caracterizaron mediante imágenes y metáforas centradas en la maternidad que pueden parecer extrañas a la mirada contemporánea.De hecho, la imagen de la madre se utilizaba como complemento simbólico del poder masculino. Así, el rey se concebía como padre de sus súbditos, pero también como una madre que alimenta, cuida y protege. Esta dualidad respondía a la necesidad de mostrar un poder que combinara la firmeza militar y la justicia, por un lado, con la ternura y la compasión, por otro.
Fuentes bíblicas y clásicas de la imagen maternal del poder
El uso de metáforas maternas para caracterizar a la realeza moderna de los siglos XVI, XVII y XVIII hunde sus raíces en tradiciones muy antiguas. La Biblia ya ofrecía precedentes claros, como el pasaje de Isaías que habla de los reyes como “padres nodrizos” y de las reinas como “nodrizas”. Estas expresiones legitimaban la idea de que los gobernantes tenían el deber de nutrir a sus súbditos semejante al de una madre con su hijo.
Por otro lado, los modelos clásicos y naturales reforzaban el simbolismo. El monarca podía compararse, igualmente, con la tierra fértil o con un río que da vida, imágenes que estaban muy ligadas a los conceptos de maternidad.

Representaciones visuales sorprendentes
El recurso a lo maternal no se limitaba al corpus textual, sino que se plasmaba también en el arte visual. Como apuntan Luis R. Corteguera e Irene Olivares en su artículo publicado en Journal of Women's History, el monarca Francisco I de Francia aparece con rostro barbado, símbolo de masculinidad, pero también con un cuerpo de rasgos femeninos. La inscripción que acompaña la obra lo celebra como alguien que “supera la naturaleza” al ser grande tanto en la guerra como en la paz. El rey es, al mismo tiempo, guerrero viril y madre nutricia, encarnando así un poder totalizador.
Función política de las metáforas maternas
Las imágenes de los reyes como madres cumplían un papel crucial en la legitimidad del poder. La figura materna, además de transmitir cercanía y accesibilidad, creaba un vínculo afectivo con los súbditos. En las peticiones dirigidas a los monarcas españoles, por ejemplo, era común invocar su intervención con expresiones que subrayaban esa capacidad de escucha y compasión. El rey-madre era protector de los débiles y proveedor de justicia, lo que reforzaba la percepción de que su autoridad no solo se avalía de la espada, sino también del afecto.
Una metáfora de alcance global
Aunque esta práctica suele asociarse, sobre todo, con la Europa de la Edad Moderna, el recurso a las metáforas maternas para representar el poder masculino aparece en múltiples culturas. En Egipto, por ejemplo, el río Nilo se representaba con pechos para enfatizar su carácter nutricio. Esa misma imagen se trasladaba a la figura del faraón. En otras regiones del mundo, desde África hasta Asia, encontramos expresiones simbólicas similares.

Reyes y dioses mesopotámicos como madres compasivas
La maternidad como metáfora de la autoridad no es un fenómeno exclusivamente europeo, sino un recurso frecuente en la imaginación política global. En la antigua Mesopotamia, por ejemplo, encontramos un paralelo revelador. Según un estudio de Lorenzo Verderame publicado en Ricerche storico-bibliche, los términos sumerio arhuš y acadio rēmu significaban tanto “útero” como “compasión”. Esta asociación lingüística muestra cómo, desde muy temprano, la compasión se entendía como un sentimiento profundamente vinculado a la maternidad y la feminidad.
En la literatura sumeria y acadia, se describía a los dioses y, en ocasiones, también a los reyes, como dotados de arhuš, es decir, de una misericordia que tenía origen en lo maternal. Incluso figuras masculinas como el dios solar Utu o el héroe Gilgamesh se ensalzaban por haber mostrado una compasión que recordaba a la de una madre. En los himnos y súplicas, el pueblo pedía a los dioses que lo trataran como una madre trata a su hijo, es decir, con protección y ternura.
Un ejemplo especialmente significativo aparece en la literatura sapiencial mesopotámica, en la que los fieles aquejados por la desgracia invocaban a Marduk. En el poema conocido como Ludlul bēl nēmeqi, el dios se describe como una madre compasiva que cuida del devoto igual que una vaca protege a su ternero. La divinidad suprema de Babilonia asume así atributos propios de las diosas madres, fusionando lo guerrero con lo maternal en una misma figura de autoridad. Este sincretismo apunta a que la metáfora de la maternidad fue un elemento central en la construcción de la relación entre divino y humano, entre soberano y súbditos.

El lenguaje de los símbolos y los emblemas
Durante la Edad Moderna, los emblemas, las alegorías y representaciones iconográficas funcionaron como medios fundamentales de comunicación política. El pueblo, en su mayoría analfabeto, comprendía el poder a través de imágenes cargadas de sentido. En ese contexto, la metáfora maternal adquiría una enorme fuerza. Un rey que se mostraba como madre en un grabado, pintura o emblema transmitía de inmediato la idea de nutrición y cuidado, algo que complementaba y suavizaba la imagen de una autoridad férrea.
Tensiones y paradojas en la imagen maternal del rey
Con todo, estas representaciones maternas del soberano no estaban exentas de ambigüedad. El modelo guerrero del rey, con su énfasis en la virilidad y la fuerza, chocaba, en ocasiones, con la ternura asociada a la maternidad. El resultado resultaba paradójico, pues un monarca debía ser, al mismo tiempo, severo y compasivo.
Esta tensión revela que las imágenes maternales del poder eran más una aspiración ideal que una descripción de la realidad. Su función era inspirar obediencia y amor, más que reflejar el carácter personal del soberano.

La metáfora materna como complemento al poder masculino
La representación de los reyes como madres en la Edad Moderna fue una estrategia política y simbólica de gran eficacia. Al recurrir a metáforas maternales, los monarcas podían transmitir cercanía, legitimidad y afecto, complementando su imagen de severidad y poder militar. Esta práctica se inserta en una tradición más amplia, compartida por culturas tan lejanas como la mesopotámica, donde el útero y la compasión eran inseparables en la concepción de la divinidad. Así, el poder masculino se revestía de atributos maternales para presentarse no solo como ejemplo de dominación, sino también de cuidado.
Referencias
- Corteguera, Luis R. e Irene Olivares. 2025. "King as Mother: Gendered Metaphors of Power in Early Modern Europe". Journal of Women's History 37.2: 12-30. DOI: 10.1353/jowh.2025.a960904
- Verderame, Lorenzo. 2025. "Dall’utero materno alla compassione divina. I termini arhus e rēmu nella tradizione mesopotamica". Ricerche storico-bibliche 37.1: 27-48. URL: https://hdl.handle.net/11573/1743246
En la historia de la ciencia ha habido tres tipos de descubrimientos importantes: los que no aportan mucho a nivel teórico, pero tienen buena utilidad en la práctica; los que no tienen mucho impacto en la práctica, pero ayudan a entender o desarrollar una teoría, y aquellos que no solo son de utilidad, sino que nos permiten esclarecer la forma en que funciona el universo. El hallazgo del efecto Compton es uno de los mejores ejemplos de esta última y trascendental categoría.
El efecto Compton debe su nombre al físico estadounidense Arthur Holly Compton (1892-1962), uno de esos personajes brillantes que protagonizaron las grandes revoluciones científicas de la primera mitad del siglo xx. Con tan solo 21 años y mientras estudiaba, ya había desarrollado el generador Compton, un aparato que permitía demostrar la rotación de la Tierra. Tras doctorarse y trabajar un par de años en la Westinghouse, pasó la Primera Guerra Mundial desarrollando instrumentos para aviones. En 1919, el físico nacido en Ohio ganó una beca para Cambridge, en Inglaterra, donde conoció a algunas de las mayores lumbreras de su época.
Estaba fascinado por la radiación electromagnética de alta energía, y más en concreto por los rayos X, la fantasmal radiación descubierta por Wilhelm Röntgen en 1895 que era capaz de atravesar cuerpos opacos e imprimir las películas fotográficas. En 1922, mientras experimentaba con estos rayos —los dirigía hacia un bloque de carbón y, tras chocar con él, se difundían en varias direcciones—, Compton se percató de que existía una relación entre el ángulo en el que los rayos se difundían y la longitud de onda que adoptaban, de modo que a mayor ángulo, mayor era la longitud de onda.
Para comprender por qué este resultado se convertiría en uno de los más importantes de toda la física moderna debemos referirnos a uno de los más profundos misterios de la teoría cuántica, que en ese momento no tenía más que un par de décadas de antigüedad y cuyos fundamentos eran todavía objeto de arduas discusiones. En efecto, a medida que avanzaba en su desarrollo la sorprendente y hermosa teoría explicaba un sinfín de fenómenos, pero en base a una serie de fundamentos contraintuitivos, alguno de los cuales se daba de bruces con lo que uno podría considerar el sentido común.

Cuantos de luz
Uno de los extraños aspectos de la teoría, quizás entre los más chocantes, era el hecho de que en determinadas ocasiones los cuantos de luz (fotones) parecían comportarse como ondas y en otras, como partículas. En la vieja mecánica clásica, esto era una especie de anatema. El mundo que nos rodea, al menos de acuerdo con nuestra experiencia cotidiana, tiene las cosas muy bien definidas: un objeto es un objeto —y una partícula es, en principio, un objeto— y una perturbación —una onda— es otra muy diferente. Las propiedades de ambas entidades no tienen nada que ver. Las ondas, por ejemplo, se difractan al encontrar un obstáculo y los objetos no lo hacen. Desde los célebres «experimentos de doble rendija» de Thomas Young a principios del siglo xix había quedado muy claro que la luz presentaba propiedades ondulatorias y ningún físico decimonónico se cuestionaba semejante cosa. Sin embargo, a partir de las graves dificultades teóricas que presentaba el problema del cuerpo negro —la famosa «catástrofe ultravioleta»—, Max Planck había presentado en 1900 la idea de que la radiación electromagnética es absorbida y emitida por la materia en forma de paquetes, o «cuantos» (del latín quantum, «cantidad»), y esos cuantos tenían un cierto aroma a partículas.
Al principio, la reacción de la comunidad científica ante las ideas de Planck fue bastante escéptica, pero la cosa cambió en 1905 cuando Albert Einstein esclarecía el efecto fotoeléctrico a base de considerar a los cuantos de luz, que él mismo bautizó como «fotones», sin duda alguna como partículas. De hecho, no había otra forma de explicar el efecto fotoeléctrico que asumir que los fotones eran partículas que chocaban con la materia transmitiéndole su energía cinética hasta el punto de sacar a los electrones de su posición. Sin embargo, la realidad es que los fotones presentaban todas las características de una onda en los experimentos de doble rendija, por no hablar de su comportamiento durante la refracción y en otros fenómenos. ¿Cómo podía entonces un fotón comportarse a ratos como una partícula y a veces, como una onda?

Discusiones entre físicos
Este embarazoso dilema hizo pensar a muchos físicos que la cuantización de la energía tal vez no fuese un fenómeno real, sino más bien un artificio matemático que funcionaba estupendamente en la práctica para resolver problemas, pero que no respondía a la auténtica naturaleza de las cosas. El propio Einstein, que tanto había contribuido al desarrollo de la teoría cuántica, mostraría a menudo sus dudas, como en aquella célebre frase de 1926 en la que se expresaba así: «…Una voz interior me dice que aún no es la buena. La teoría dice mucho, pero no nos aproxima realmente al secreto del “viejo”…». Las discusiones entre los físicos subían de tono y estaban a la orden del día, hasta el punto de que llegaron a formarse facciones entre los que afirmaban que la cuantización era real y los que apostaban porque solamente era una forma conveniente de hacer los cálculos.
Es en este punto en el que el efecto Compton terminó por dar el espaldarazo definitivo a la nueva teoría. En efecto, el aumento de la longitud de onda que se producía al incrementarse el ángulo de salida de los rayos X—que no son más que una forma de radiación electromagnética de mucha mayor frecuencia que la luz visible— tras rebotar en el bloque de carbón era interpretable como la pérdida de energía de los fotones como consecuencia de su choque con los electrones de los átomos de carbono del grafito, exactamente como sucedía en el efecto fotoeléctrico. ¡La pérdida de energía observada se ajustaba perfectamente a la ecuación de Planck, en la que la frecuencia, que es el inverso de la longitud de onda, se multiplica por la constante que lleva el nombre del físico, dando como resultado la cuantización! Unos meses después de su descubrimiento, Compton publicó en la prestigiosa revista Physical Review los resultados de sus experimentos junto con sus conclusiones, en las que asumía que cada fotón dispersado interaccionaba únicamente con un solo electrón.
Dualidad onda corpúsculo
Compton acababa de confirmar, de una forma casi definitiva, que la cuantización era un fenómeno real, pero su experimento también ponía de manifiesto otra cosa trascendente. El tipo de dispersión observado solo podía explicarse si fuesen partículas las que chocaban con los electrones, no habiendo forma de justificarlo como consecuencia de un fenómeno ondulatorio. Sus resultados causaron sensación. Como más tarde recordaría, «cuando presenté mis resultados en una reunión de la Sociedad Americana de Física en 1923, se inició la controversia científica más disputada que jamás haya conocido». Un año después, y tomando como base las evidencias aportadas por el efecto fotoeléctrico y el efecto Compton, el físico francés Louis de Broglie, que además de científico era el séptimo duque de Broglie y par de Francia, introducía en su tesis doctoral evidencias de que no solo la radiación electromagnética, sino también los mismísimos electrones, se comportaban a veces como partículas y a veces como ondas.
Desde entonces, esta sorprendente dualidad onda corpúsculo ha quedado establecida como una de las características fundamentales de la realidad cuántica, a pesar de lo extraña que pueda resultar. La luz es energía pura, por lo que intuitivamente parece que podemos aceptar que haga cosas raras, pero la idea de que un pedazo de materia, aunque sea muy pequeño, pueda comportarse como una onda según las circunstancias entra en conflicto con nuestra imagen de la realidad. Sin embargo, es exactamente lo que hacen todas las partículas materiales, tal y como ha sido comprobado en incontables ocasiones en experimentos como el de la doble rendija, en los que siempre se observa el típico patrón de interferencia característico de las ondas, incluso cuando las partículas se lanzan de una en una. De hecho, los cuerpos compuestos por un enorme número de ellas, como nosotros, también llevan asociada una onda, solo que de una magnitud tan insignificante en relación a su tamaño que los objetos macroscópicos se comportan simplemente como eso, objetos.

La primera reacción en cadena sostenida
Como es natural, los trabajos de Compton fueron galardonados con el premio Nobel de Física en 1927, igual que los de Broglie lo fueron en 1929. Convertido en profesor de dicha disciplina en la Universidad de Chicago, Arthur Compton tuvo después una destacada actuación como miembro del Proyecto Manhattan —la investigación que desarrolló las primeras bombas atómicas— dirigiendo el laboratorio metalúrgico de la Universidad de Chicago, así como supervisando la construcción, por parte de Enrico Fermi, del célebre Chicago Pile-1, el reactor nuclear en el que tuvo lugar la primera reacción en cadena sostenida de la historia. Para un hombre de profundas convicciones religiosas como era, no debió resultarle fácil a Compton participar en el panel que recomendó la utilización de las bombas atómicas contra Japón. Entre 1945 y 1953, fue rector de la Universidad de Washington, terminando sus días como uno de los físicos más reconocidos del siglo xx, y ello a pesar de ciertas críticas tardías acerca de su postura frente al racismo.
Pero, volviendo al efecto Compton, ¿tuvo alguna utilidad práctica más allá de su extraordinario valor como evidencia de que tanto la cuantización como la dualidad onda corpúsculo son reales? Desde luego que sí. Cuando los fotones interaccionan con la materia, el que se generen fenómenos como el efecto fotoeléctrico, la dispersión Compton, la producción de pares (formación de un electrón y un positrón) o la fotodesintegración depende de la energía de la radiación incidente. Así, la luz visible, de relativamente baja energía, provoca el efecto fotoeléctrico al ser absorbida del todo y expulsar un electrón, pero los rayos X y los rayos gamma de alta energía interaccionan con los átomos de los seres vivos fundamentalmente a través de la dispersión Compton y, por tanto, son de importancia primordial en radiología y radioterapia. La tomografía por emisión de positrones (PET), por ejemplo, es una técnica en la que parte de la radiación gamma que se desprende de la aniquilación de los positrones con la materia interacciona con los tejidos orgánicos mediante la dispersión Compton. Determinadas formas de este fenómeno son también de gran utilidad en estudios sobre magnetismo, física nuclear y fenómenos cuánticos, además de en astrofísica, donde se emplea la astronomía de rayos X.
Sin embargo, ninguna de las aplicaciones que el efecto Compton nos ha traído para mejorar nuestra salud y para escudriñar el universo puede compararse con el impacto que ha tenido en la historia de la ciencia, y más en concreto en nuestra comprensión de la verdadera naturaleza de la realidad a nivel atómico y subatómico. No en vano se trata de uno de los fenómenos fundamentales que ponen en evidencia la existencia de la cuantización de la energía y de la dualidad onda corpúsculo, dos de los pilares de la teoría más extraña, más fascinante y de mayor éxito de toda la historia de la humanidad.
Durante la infancia, muchos niños reciben con humor la idea de que los peces hacen sus necesidades por un orificio llamado cloaca (el equivalente a un ano). Lo que probablemente nadie imagina en ese momento es que esa estructura primitiva podría estar directamente relacionada con la aparición de los dedos humanos. Ahora, un estudio publicado en la revista Nature propone que el sistema genético que permitió el desarrollo de nuestros dedos tiene su origen en la regulación genética de la cloaca de antiguos peces. La conexión no es simbólica ni anecdótica: se trata de una relación funcional, molecular y evolutiva.
El hallazgo no solo aporta una pieza clave al complejo rompecabezas sobre cómo evolucionaron nuestras extremidades, sino que también transforma la forma en que entendemos la reutilización de mecanismos genéticos a lo largo de la evolución. Según los autores, la maquinaria genética que en los peces formaba la cloaca fue adaptada por los vertebrados terrestres para moldear los dedos. Es una demostración elegante de cómo la evolución recicla lo existente para crear lo nuevo. Tal como señala el artículo, se trata de la “cooptación de un paisaje regulador ancestral cloacal durante la evolución de los dígitos” .
Del fin al dedo: lo que une a la cloaca y las extremidades
Para entender la magnitud del descubrimiento, primero es necesario aclarar qué es la cloaca. Se trata de un orificio común a los sistemas digestivo, reproductor y excretor en ciertos animales, como peces, aves y reptiles. En los mamíferos, esa estructura se divide durante el desarrollo embrionario, formando aperturas separadas. Lo relevante es que en los peces ancestrales, esa cloaca primitiva dependía de un conjunto de genes específicos para su formación, entre ellos los del complejo Hox.
Los genes Hox, especialmente del grupo Hoxd, son conocidos por su papel en el desarrollo del cuerpo, incluyendo la formación de extremidades. Estos genes no actúan solos: dependen de “paisajes reguladores”, regiones del ADN que controlan cuándo y dónde se activan. En los vertebrados terrestres, hay un conjunto de regiones conocidas como 5DOM que activa los genes responsables del desarrollo de los dedos. Lo inesperado es que, en peces como el pez cebra, esa misma región regula exclusivamente la formación de la cloaca, y no las aletas.

Un experimento comparativo entre ratones y peces
Para comprobar esta conexión, los investigadores realizaron un experimento con peces cebra y ratones. Usaron herramientas genéticas como CRISPR-Cas9 para eliminar las regiones reguladoras 5DOM y observar las consecuencias. En ratones, la eliminación impidió el desarrollo correcto de dedos y genitales externos. En peces cebra, en cambio, la ausencia de esta región no afectó a las aletas, pero sí a la formación adecuada de la cloaca.
Además, los investigadores etiquetaron estas regiones reguladoras con marcadores fluorescentes para visualizar en qué tejidos se activaban. En embriones de ratón, las señales aparecían en las extremidades; en los peces, en la cloaca. El resultado fue contundente: las mismas regiones del ADN regulan estructuras distintas en distintos animales, dependiendo de la etapa evolutiva. O, como lo expresa el artículo original: “la actual región reguladora activa en las extremidades distales fue cooptada como un todo en los tetrápodos desde una maquinaria reguladora cloacal preexistente”.

El papel de los genes Hox13 en el desarrollo cloacal
Uno de los focos del estudio fue el gen Hoxd13, uno de los más importantes del grupo Hox. En mamíferos, su activación es crucial tanto para la formación de los dedos como para el desarrollo del seno urogenital. En peces cebra, se detectó que este gen también se expresa con fuerza en la región cloacal durante el desarrollo embrionario. Cuando los científicos eliminaron la región 5DOM, la expresión de Hoxd13 desapareció completamente en la cloaca, pero no en las aletas.
Esto demostró que, en los peces, el paisaje regulador 5DOM está especializado en controlar el desarrollo cloacal, no el de las aletas. En cambio, en los tetrápodos, ese mismo paisaje fue reutilizado evolutivamente para desarrollar estructuras nuevas, como los dedos. Según el artículo, “la conservación de más de 350 millones de años de la regulación de Hoxd13 en la región cloacal mediante secuencias localizadas en 5DOM sugiere un papel ancestral de Hoxd13 en la morfogénesis cloacal”.

Reutilización genética: una constante en la evolución
Este descubrimiento se inscribe en un fenómeno conocido como cooptación evolutiva, en el cual elementos genéticos antiguos son aprovechados para funciones nuevas. Lo interesante es que esta cooptación no ocurrió de forma parcial o aislada, sino que se reutilizó todo un bloque regulador completo, algo poco común. “En lugar de construir un nuevo sistema regulador para los dígitos, la naturaleza reutilizó un mecanismo existente, inicialmente activo en la cloaca”, señala uno de los autores.
La hipótesis que se consolida con este estudio es que el origen del control genético de los dedos y de los genitales externos está en un mismo lugar: la región 5DOM, que antes se ocupaba solo de la cloaca. Esto ayuda a entender por qué existen paralelismos genéticos entre estas partes del cuerpo, y por qué mutaciones en los genes Hox pueden afectar tanto a las extremidades como al aparato urogenital.
Implicaciones para la biología del desarrollo y la evolución
Aunque pueda parecer un hallazgo anecdótico o incluso humorístico, las implicaciones del estudio son profundas. Primero, resuelve un debate abierto sobre si los peces poseían ya mecanismos genéticos preadaptados para formar estructuras similares a los dedos. Segundo, muestra cómo los elementos reguladores del ADN pueden ser reutilizados en contextos completamente distintos, dependiendo de la especie y del momento evolutivo.
Esto también obliga a repensar la forma en que se estudian las homologías entre estructuras animales. Ya no basta con observar las formas externas o los esqueletos fósiles; hay que ir al nivel molecular. Como indica el artículo, “el panorama regulador implicado en la evolución de genitales y extremidades surgió primero para conducir la formación de la cloaca”. Desde esa plataforma, se abrió camino a nuevas formas, nuevas funciones y, finalmente, nuevas especies.
Referencias
- Aurélie Hintermann, Christopher C. Bolt, M. Brent Hawkins, Guillaume Valentin, Lucille Lopez-Delisle, Madeline M. Ryan, Sandra Gitto, Paula Barrera Gómez, Bénédicte Mascrez, Thomas A. Mansour, Tetsuya Nakamura, Matthew P. Harris, Neil H. Shubin & Denis Duboule. Co-option of an ancestral cloacal regulatory landscape during digit evolution. Nature (2025). https://doi.org/10.1038/s41586-025-09548-0.
Hoy en día, el monitor es una pieza fundamental para los gamers: garantiza un rendimiento visual de alto nivel, transiciones suaves y una inmersión que potencia cada detalle del juego.
Philips da un golpe sobre la mesa en el mundo gaming con una rebaja histórica en su monitor EVNIA 32M2C5501 de 32 pulgadas. Esta oferta exclusiva es ideal para quienes buscan un monitor gaming potente, inmersivo y a un precio mucho más competitivo.

Su precio habitual ronda los 200€ en tiendas como PcComponentes o Beep, pero ahora Lenovo, de la mano de Amazon, lo deja en solo 189 euros. Este nuevo mínimo histórico lo posiciona como una de las mejores ofertas actuales, una oportunidad perfecta para quienes buscan rendimiento al mejor precio.
Ofrece una experiencia gaming inmersiva con su panel Fast VA curvo 1500R y resolución Quad HD (2560 x 1440). Su frecuencia de actualización de 180 Hz y tiempo de respuesta de 1 ms (0,5 ms SmartResponse) aseguran fluidez extrema en escenas rápidas, reduciendo el ghosting y el tearing al mínimo. Compatible con AMD FreeSync, NVIDIA G-SYNC y VESA Adaptive Sync.
Destaca por su calidad de color avanzada, con cobertura del 120 % sRGB, 92 % DCI-P3 y soporte HDR10. Incluye tecnologías Flicker Free y reducción de luz azul para proteger la vista en largas sesiones, ergonomía ajustable en altura, giro e inclinación, y una conectividad versátil con 2 HDMI 2.0, DisplayPort 1.4 y salida jack 3,5 mm.
El Asus ROG Strix XG27ACS-W de 27" cae de precio y se convierte en una de las gangas gaming del momento
Asus refuerza su presencia en el mercado gaming con una rebaja destacada en el monitor curvo ROG Strix XG27ACS-W de 27 pulgadas. Disponible en PcComponentes por solo 249 euros, se posiciona como una de las mejores ofertas actuales frente a su precio habitual de 333€ en tiendas como Amazon, Coolmod o Beep.

Este monitor eleva el gaming competitivo gracias a su panel Fast IPS con resolución 1440p, tasa de refresco de 180 Hz y respuesta de 1 ms. Su compatibilidad con G-SYNC, FreeSync y ELMB-SYNC elimina tearing y ghosting. Mientras que DisplayHDR400 y una cobertura de color DCI-P3 del 97 % ofrecen imágenes vibrantes y realistas para una experiencia inmersiva.
Este monitor gaming ASUS añade conectividad versátil con puertos USB-C, HDMI 2.0 y DisplayPort 1.4. Además de funciones impulsadas por IA como GamePlus y Refuerzo Dinámico de Sombras. Su diseño ergonómico permite ajustar altura, giro, inclinación y pivote, con soporte compacto y compatibilidad VESA.
*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.
Durante generaciones, millones de visitantes han recorrido el interior solemne del edificio de los Archivos Nacionales en Washington D.C. para observar los venerados documentos fundacionales de los Estados Unidos. Ahí, bajo una tenue luz, descansan el pergamino de la Declaración de Independencia, las primeras páginas de la Constitución y la Declaración de Derechos. Sin embargo, lo que muy pocos sabían —y aún menos han visto— es que existe una quinta página de la Constitución, una pieza clave del rompecabezas constitucional que ha permanecido prácticamente oculta al público durante más de 230 años.
No se trata de un anexo menor ni de un apéndice olvidado. Esta quinta página es nada menos que el documento de transmisión oficial —conocido como Letter of Transmittal— que acompañó a la Constitución cuando fue enviada desde la Convención de Filadelfia al Congreso de la Confederación en 1787. Su contenido, breve pero decisivo, explica cómo debía implementarse la nueva Constitución, estableciendo el mecanismo de ratificación por parte de los estados, no a través de sus legislaturas, sino mediante convenciones populares elegidas directamente por el pueblo. Una innovación política sin precedentes que sentó las bases del sistema republicano moderno.
Firmada por George Washington en su calidad de presidente de la Convención Constitucional, esta página transmitía mucho más que instrucciones. Representaba un cambio radical en el concepto de soberanía. No serían los gobiernos existentes quienes validarían la nueva carta magna, sino el pueblo mismo, en un gesto profundamente revolucionario que anticipaba el espíritu democrático que luego se convertiría en el emblema del país.
Una página invisible a los ojos del público
La pregunta inevitable es: ¿por qué esta quinta página ha sido históricamente ignorada en las exposiciones públicas? A diferencia de las cuatro páginas principales del texto constitucional —que recogen el preámbulo y el articulado—, esta hoja fue considerada durante mucho tiempo un documento administrativo. Su papel como simple carta de presentación hizo que se almacenara en los archivos y solo haya sido exhibida una única vez hasta hace poco, durante el 225º aniversario de la Constitución en 2012.
Los conservadores de los Archivos Nacionales explican que la decisión de no exhibirla con regularidad se debe en parte a la fragilidad del documento. El pergamino original, aunque bien conservado, no está preparado para la exposición prolongada sin riesgos de deterioro. Además, el desconocimiento general sobre su existencia hizo que no se le diera el protagonismo que merece. Irónicamente, esta página contiene el procedimiento legal que dio validez al resto del texto constitucional.

En esencia, sin esa quinta página, la Constitución podría haberse quedado en un simple borrador, una propuesta sin fuerza legal. Fue ese documento el que estableció que con la ratificación de nueve de los trece estados, la Constitución entraría en vigor, lo cual efectivamente ocurrió en 1788, cuando New Hampshire se convirtió en el noveno estado en aprobarla.
Una exposición inédita
Este año, con la mirada puesta en el 250º aniversario de la independencia de Estados Unidos (que se celebrará en 2026), los Archivos Nacionales decidieron realizar algo sin precedentes: mostrar la Constitución completa, incluyendo por primera vez las cinco páginas originales, el acta de transmisión, la Declaración de Derechos y todas las enmiendas ratificadas hasta hoy. Una muestra histórica que se puede visitar hasta el 1 de octubre, en un evento considerado único en la historia del país.
La respuesta del público ha sido abrumadora. Cientos de personas hacen fila cada día para observar lo que hasta ahora se creía reservado a investigadores o expertos. El documento ha despertado una nueva curiosidad sobre los aspectos menos conocidos del proceso constitucional, y ha puesto en evidencia cómo algunos detalles aparentemente secundarios pueden alterar la narrativa histórica que creíamos conocer.

La exposición no solo incluye los documentos físicos, sino también elementos tecnológicos novedosos. Entre ellos destaca un espacio de exploración interactiva alimentado por inteligencia artificial, que permite al visitante consultar temas específicos y descubrir documentos vinculados al desarrollo histórico de la democracia estadounidense. Es la primera vez que un museo en la Explanada Nacional (National Mall) adopta esta tecnología para enriquecer la experiencia educativa.
Pero el impacto de esta exposición va más allá del edificio de los Archivos Nacionales. Filadelfia, Nueva York, Boston y otras ciudades con peso histórico están preparando sus propias muestras y eventos de cara al “semicuartocentenario”. En Nueva York, por ejemplo, la Biblioteca Pública exhibirá una copia manuscrita de la Declaración de Independencia escrita por Thomas Jefferson, mientras que el Museo de la Revolución Americana en Filadelfia abrirá una muestra centrada en los procesos de independencia estatales.
Estas iniciativas se enmarcan en un contexto más amplio: el redescubrimiento del valor de los documentos fundacionales no solo como reliquias del pasado, sino como testimonios vivos del conflicto, la negociación y los ideales que dieron forma a una nación. En ese proceso, la quinta página de la Constitución ha pasado de ser un detalle técnico a una pieza simbólica de primer orden. Representa no solo el mecanismo legal de la transición hacia una nueva forma de gobierno, sino también la intención explícita de que el poder emane del pueblo, no de las élites ni de las estructuras preexistentes.

La Constitución como símbolo renovado
Ver la Constitución en su totalidad es, para muchos visitantes, una experiencia transformadora. El documento, con su caligrafía desigual, sus manchas de tinta y los pliegues del tiempo, recuerda que la democracia no nació perfecta, sino de un proceso humano, frágil, lleno de contradicciones, pero profundamente audaz.
En una era donde el debate político está más polarizado que nunca, la exposición completa de la Constitución ofrece una pausa. Un espacio para mirar hacia atrás y reconocer el valor del consenso, el debate informado y la participación ciudadana. Porque si algo demuestra esa quinta página, olvidada durante tanto tiempo, es que la legitimidad de un gobierno se construye desde abajo, con la voz de quienes lo constituyen.
La electrificación del automóvil ya no es una promesa de futuro, sino una necesidad urgente. En este contexto, DS Automobiles, la firma premium del grupo Stellantis, ha decidido redefinir el concepto de coche urbano eléctrico con el DS 3 E‑TENSE. Este modelo no solo responde a las exigencias medioambientales actuales, sino que lo hace desde una perspectiva estética, tecnológica y de confort que lo aleja radicalmente de otros vehículos del segmento.
El DS 3 E‑TENSE representa una evolución notable respecto a su generación anterior. Con una motorización 100 % eléctrica de 156 CV, una batería de 54 kWh, y una autonomía urbana que puede alcanzar 575 kilómetros, el modelo se sitúa en una posición estratégica para atraer a usuarios que buscan algo más que un simple utilitario eléctrico. El refinamiento en el diseño, la calidad de los acabados interiores, la atención al detalle y la incorporación de tecnología de vanguardia convierten al DS 3 E‑TENSE en una propuesta única.
Pero más allá de su aspecto lujoso, este vehículo nace con una orientación profundamente funcional. Su diseño compacto lo hace ideal para el entorno urbano, mientras que su arquitectura eléctrica, basada en la experiencia de la marca en Fórmula E, garantiza eficiencia y rendimiento.
Con un precio base de 31.800 € y acceso a planes de financiación flexibles (incluyendo el Plan MOVES III), el DS 3 E‑TENSE no solo apunta al lujo, sino también a la accesibilidad progresiva de la electromovilidad. Un equilibrio entre sofisticación y responsabilidad que anticipa el futuro del automóvil urbano.
Diseño exterior: precisión y presencia en clave urbana
El lenguaje estético del DS 3 E‑TENSE destaca por su carácter distinguido. Las líneas tensas, el capó elevado y la parrilla frontal esculpida aportan una identidad visual poderosa, sin caer en la estridencia. A esto se suman los nuevos faros DS MATRIX LED VISION, con tecnología adaptativa que optimiza la iluminación sin deslumbrar a otros conductores.
Los tiradores de puerta enrasados, que emergen solo cuando se necesitan, no son solo un detalle elegante, sino también una solución aerodinámica. Este conjunto de elementos dota al vehículo de una presencia fuerte y contemporánea, ideal para entornos urbanos donde cada detalle cuenta.

Diseño interior: un habitáculo premium para el día a día
El interior del DS 3 E‑TENSE es un claro ejemplo del enfoque artesanal de la marca. Se han empleado materiales nobles, como el cuero granulado o el Alcantara (según versiones), junto a detalles metalizados y superficies suaves que crean una atmósfera acogedora y silenciosa.
Siguiendo el legado de la alta costura francesa, DS ha trasladado su saber hacer al ámbito automovilístico con elementos tan exclusivos como el bordado secreto que ahora se esconde en el interior de un coche de lujo, una muestra de cómo la estética parisina puede elevar la experiencia al volante a un nivel casi sensorial.
La consola central y el volante están diseñados para facilitar una interacción intuitiva. La pantalla táctil de 10,3” actúa como centro de mando del sistema multimedia, mientras que los mandos físicos permanecen para funciones esenciales, priorizando la ergonomía y la seguridad.

Motorización E‑TENSE: eficiencia heredada de la competición
Este modelo monta un motor eléctrico E‑TENSE de 156 CV (115 kW), con un par instantáneo que permite una aceleración progresiva, ideal para moverse con agilidad por el tráfico urbano. Se ha desarrollado a partir de la experiencia adquirida por DS Performance en la Fórmula E, lo que garantiza fiabilidad y sofisticación tecnológica.
A diferencia de otros urbanos eléctricos que se limitan a ofrecer un propulsor modesto, el DS 3 apuesta por un equilibrio entre rendimiento y confort de marcha, sin renunciar al dinamismo cuando es necesario.

Autonomía realista y aprovechamiento energético
El DS 3 E‑TENSE se beneficia de una batería útil de 50,8 kWh, lo que permite una autonomía homologada en ciclo combinado WLTP de 404 km, que se amplía hasta 575 km en uso urbano. Esta cifra lo posiciona entre los mejores de su categoría.
Además, incorpora dos niveles de recuperación de energía al frenar o desacelerar, que el conductor puede seleccionar desde la palanca de cambios. Esto no solo optimiza la autonomía, sino que modifica la experiencia de conducción hacia un estilo más fluido y responsable.

Modos de conducción para diferentes escenarios
El conductor puede elegir entre tres modos:
- ECO, que prioriza la eficiencia energética.
- NORMAL, para una conducción equilibrada en el día a día.
- SPORT, que incrementa la respuesta del acelerador para una experiencia más dinámica.
Esta capacidad de personalización es fundamental para adaptar el coche a distintos perfiles de usuario, desde el conductor ecológico al más entusiasta.

Tecnología de asistencia a la conducción
El DS 3 E‑TENSE incorpora un sistema de conducción semiautónoma de nivel 2, que combina control de crucero adaptativo con mantenimiento de carril. Esta tecnología, habitual en segmentos superiores, permite reducir la fatiga en trayectos largos o en tráfico denso.
Otros asistentes incluyen:
- Cámara 360º para maniobras en espacios reducidos.
- Detección de ángulo muerto.
- Frenado autónomo de emergencia.
- Alerta de atención del conductor.

Conectividad avanzada: la IA al servicio del conductor
El sistema multimedia DS incorpora DS IRIS SYSTEM, que se puede controlar por voz, tacto o gestos. Una de las novedades más destacadas es la integración de ChatGPT como asistente conversacional, lo que permite al usuario interactuar con el vehículo de forma natural para obtener información útil, responder dudas o planificar rutas.
Además, cuenta con conectividad Apple CarPlay y Android Auto inalámbrico, actualizaciones remotas (OTA) y navegación predictiva con información de tráfico en tiempo real.

Experiencia de conducción: silenciosa, precisa y envolvente
Gracias a su plataforma optimizada para vehículos eléctricos, el DS 3 E‑TENSE ofrece una conducción extremadamente silenciosa. La suspensión está ajustada para absorber irregularidades sin desconectarse de la carretera, y la dirección resulta precisa en ciudad.
El comportamiento dinámico está pensado para responder a distintos estilos de conducción, pero siempre manteniendo el carácter distintivo de la marca: deportividad, confort, lujo francés y tecnología de vanguardia se entrelazan para ofrecer una experiencia única, coherente con la filosofía de otros modelos de la firma como el DS 4.

Carga rápida y tiempos de recarga
Con un cargador embarcado de 11 kW en corriente alterna, el DS 3 E‑TENSE puede cargarse del 0 al 100 % en unas 5 horas desde un wallbox doméstico trifásico. En corriente continua, admite hasta 100 kW, recuperando el 80 % de la batería en solo 30 minutos. Este rendimiento lo convierte en una opción versátil tanto para uso diario como para desplazamientos ocasionales fuera de la ciudad.

Sostenibilidad en todo el ciclo de vida
Más allá de la ausencia de emisiones durante el uso, el DS 3 E‑TENSE apuesta por una fabricación sostenible. Se emplean materiales reciclados en parte del habitáculo, se optimiza el peso del conjunto, y se controla el impacto ambiental en los procesos industriales. Esto forma parte de la estrategia de DS Automobiles para convertirse en una marca completamente eléctrica en Europa a partir de 2024.

Precio, financiación y posicionamiento en el mercado
Con un precio de 31.800 €, el DS 3 E‑TENSE se sitúa como una alternativa más accesible dentro del segmento premium eléctrico. La posibilidad de aplicar el Plan MOVES III y optar por fórmulas de financiación como DS Electric Plan con cuotas desde 255 €/mes, lo convierten en una propuesta competitiva.

Frente a rivales como el Mini Electric o el Lexus UX 300e, el modelo de DS destaca por ofrecer más autonomía urbana, tecnología semiautónoma y una atmósfera de mayor refinamiento sin sobrecoste.
En el corazón salvaje del noroeste de Queensland, entre acantilados de piedra arenisca y selvas fósiles ocultas por el tiempo, un pequeño hueso ha revelado una gran historia. Se trata de un descubrimiento que, aunque diminuto en tamaño, tiene una resonancia colosal: el fósil de un antepasado terrestre de los famosos pájaros lira australianos. La pieza, una diminuta pero reveladora articulación de la muñeca, fue encontrada en el sitio fósil de Riversleigh, dentro del Parque Nacional Boodjamulla (tierra aborigen), y ha sido identificada como perteneciente a una especie completamente extinta de ave terrestre: Menura tyawanoides.
Este hallazgo, anunciado oficialmente por el Departamento de Medio Ambiente, Turismo, Ciencia e Innovación del Gobierno de Queensland, nos transporta a un ecosistema tropical que existió hace entre 17 y 18 millones de años. En aquella época, lo que hoy es un árido paisaje rocoso era un exuberante bosque lluvioso de tierras bajas, rebosante de vida, sonido y secretos. Allí caminaba este antiguo pariente de los pájaros lira modernos, un animal de gran tamaño y escasa capacidad para volar, más cercano en comportamiento a un emú que a las aves cantoras del presente.
Una reliquia de otro tiempo
El fósil encontrado no es un descubrimiento cualquiera. En paleontología, los huesos pequeños, como los de la muñeca, son a menudo clave para identificar de forma precisa a qué especie pertenece un animal, y cómo vivía. En este caso, la morfología del hueso apunta con claridad a una conexión evolutiva con los pájaros lira actuales, aves endémicas de Australia conocidas por sus colas ornamentales y su capacidad vocal casi sobrenatural, capaces de imitar desde otros pájaros hasta sonidos artificiales como motosierras o alarmas.
Pero Menura tyawanoides no era un maestro del aire. A diferencia de sus descendientes modernos, este ave caminaba sobre el suelo húmedo del bosque y probablemente pasaba la mayor parte de su vida esquivando depredadores entre la maleza densa. Sus alas estaban poco desarrolladas para el vuelo, lo que sugiere un modo de vida terrestre. Esta adaptación al suelo no solo lo emparenta con otras aves no voladoras como los casuarios o los kiwis, sino que aporta pistas sobre cómo el linaje de las aves cantoras evolucionó en Australia.

El lugar donde fue hallado este fósil no es menos extraordinario que el hallazgo en sí. Riversleigh es parte de los Sitios Fósiles de Mamíferos de Australia, declarados Patrimonio Mundial, y está considerado uno de los diez yacimientos paleontológicos más importantes del planeta. Este rincón remoto, incrustado en el árido outback australiano, ha producido miles de fósiles de mamíferos, reptiles y aves, ofreciendo una ventana casi intacta al Mioceno australiano, una época clave en la evolución del continente.
Durante millones de años, los depósitos calcáreos del lugar han conservado con asombroso detalle restos de especies ya extintas, muchas de las cuales no se conocen en ningún otro sitio del mundo. El descubrimiento de Menura tyawanoides refuerza aún más el valor científico de este sitio único, y subraya la importancia de su conservación.
El legado sonoro de un linaje perdido
La historia de este ave extinta va más allá de un simple fósil. Lo fascinante del hallazgo es que ayuda a trazar el linaje evolutivo de un grupo de aves que, millones de años después, aún fascinan por su belleza y talento vocal. Las actuales aves lira son íconos de la biodiversidad australiana, no solo por su espectacular plumaje, sino también por su comportamiento: construyen exhibiciones sonoras tan complejas que compiten con la música humana.
La existencia de un antepasado terrestre tan antiguo sugiere que el origen del canto sofisticado en las aves australianas tiene raíces más profundas de lo que se pensaba. Es posible que, antes de que evolucionaran las habilidades vocales extremas, el linaje ya contara con estrategias de comunicación acústica adaptadas al entorno denso del bosque tropical. Esto, en un contexto más amplio, podría ayudarnos a entender cómo surgió el canto en las aves en distintas partes del mundo.
Además, el descubrimiento aporta pistas valiosas sobre cómo ciertas especies han sobrevivido –o no– a las grandes transformaciones climáticas del pasado. Mientras que muchas especies no voladoras del pasado desaparecieron ante el cambio del entorno, los descendientes de Menura tyawanoides lograron adaptarse y persistir. Este linaje es un testimonio viviente de la resiliencia evolutiva, y de cómo los ecosistemas antiguos siguen resonando en las especies del presente.
Un parque lleno de tesoros… y oportunidades
Más allá del valor científico, el hallazgo tiene también implicaciones turísticas y económicas. El Parque Nacional Boodjamulla, donde se encuentra el yacimiento de Riversleigh, es uno de los destinos más espectaculares del outback australiano. Sus aguas esmeralda, acantilados de piedra y biodiversidad lo convierten en un imán para los amantes de la naturaleza y la aventura. Ahora, con este nuevo capítulo paleontológico, se suma un poderoso atractivo: el paleo-turismo.
El Gobierno de Queensland prevé que el turismo relacionado con la paleontología genere más de 80 millones de dólares en los próximos 15 años. Iniciativas como senderos educativos, museos locales y visitas guiadas a zonas fósiles buscan combinar conservación con desarrollo sostenible, fomentando un vínculo más profundo entre los visitantes y el patrimonio natural del país.
Este tipo de descubrimientos también subraya la necesidad urgente de proteger estos entornos únicos. Muchos fósiles aún yacen ocultos bajo tierra, esperando a ser desenterrados para contar su parte de la historia. Proteger estos lugares significa preservar no solo la biodiversidad presente, sino también el legado del pasado.

Mirando al pasado para entender el futuro
En un mundo marcado por la pérdida acelerada de especies y el cambio climático, entender cómo se adaptaron las especies del pasado puede ofrecer claves para el presente. Este ave ya extinta vivió en un mundo distinto, pero enfrentó desafíos similares a los que hoy sufren muchas especies en Australia: sequías prolongadas, pérdida de hábitats, incendios forestales. La historia escrita en su hueso fósil nos recuerda que la evolución es también una historia de supervivencia y transformación.
Y así, un pequeño fragmento óseo hallado en el corazón de Queensland se convierte en símbolo de algo mucho más grande: el profundo arraigo de la vida en este continente, la maravilla de su historia natural y la necesidad de conservarla para las generaciones futuras. A veces, basta un hueso para que el pasado vuelva a cantar.
La crisis hídrica que castiga el norte de Iraq ha dejado al descubierto un repertorio arqueológico de gran importancia. Se ha descubierto un conjunto de 40 tumbas helenísticas en los márgenes del embalse de la presa de Mosul, en la región de Khanke, provincia de Duhok. El descenso dramático del nivel del agua es fruto de varios años de sequía severa y de la reducción de las reservas hídricas. Esta baja histórica, que se considera la más pronunciada desde 1933, ha dejado al descubierto estructuras funerarias que, hasta ahora, había ocultado el agua.
Un descubrimiento inusual en medio de la sequía
Las tumbas se localizaron en los bordes del embalse de la presa de Mosul, al norte de Iraq. Bekas Brefkany, el director de antigüedades de la zona de Khanke, en el distrito de Duhok, ha sido la persona encargada de liderar los trabajos arqueológicos en el yacimiento.
Durante las inspecciones realizadas en 2023, ya se habían observado indicios de la posible presencia de tumbas. Sin embargo, solo cuando el nivel del agua alcanzó sus valores mínimos en 2025, pudieron los arqueólogos acceder y trabajar con mayor libertad en el área.

El significado histórico de las tumbas
Según los primeros análisis, las tumbas datan del siglo III a.C., aproximadamente, lo que correspondería al periodo helenístico o helenístico-seléucida. Entre los restos identificados, se han encontrado ataúdes de barro utilizados para enterrar a los difuntos. El hallazgo resulta de especial relevancia porque proporciona evidencias físicas de la presencia helenística en el norte de Iraq en una fase posterior a las conquistas de Alejandro Magno, cuando el Imperio seléucida extendió su influencia por vastas zonas del antiguo Oriente Medio.
Aunque la zona ya había sido el epicentro de otros descubrimientos arqueológicos, estas tumbas añaden un componente funerario hasta ahora poco visible. Según los investigadores, la información que pueda extraerse de estos enterramientos resultará esencial para comprender cómo se adaptaron las comunidades locales a la cultura helenística, tanto en aspectos materiales como religiosos y culturales.

La tragedia climática que permitió el descubrimiento
La sequía se ha convertido en un fenómeno persistente que, al menos durante los últimos cinco años, ha afectado gravemente a la agricultura, la generación eléctrica y otros aspectos vitales de la vida en Iraq. A ello se suma que la construcción de presas en los países vecinos, como Irán y Turquía, está reduciendo de manera significativa el caudal de los ríos Tigris y Éufrates, las fuentes hídricas que alimentan los embalses iraquíes.
A pesar de la dureza de la situación, el hecho de que los niveles del embalse de la presa de Mosul llegaran a un punto muy bajo permitió a los arqueólogos excavar antes de que el agua regresara a inundar nuevamente la zona. Este estrecho margen temporal añadió urgencia a los trabajos, ya que la reaparición de las aguas podría volver a cubrir las tumbas y poner en riesgo su preservación.
La intervención arqueológica y las perspectivas de preservación
El equipo, dirigido por Bekas Brefkany, ya ha comenzado a excavar de manera sistemática las tumbas descubiertas, con la intención de trasladar los restos al Museo de Duhok para su estudio y conservación. En el proceso, existe un riesgo evidente: si los niveles del agua suben de nuevo, muchas de estas tumbas podrían volver a quedar sepultadas bajo el embalse.
Se prevé analizar en detalle los ataúdes de barro para determinar aspectos funerarios clave, como la existencia de inscripciones, la presencia de objetos asociados al enterramiento o posibles restos humanos aún preservados. Estos estudios permitirán tanto vincular los elementos materiales con las comunidades que los utilizaron como arrojar luz sobre las prácticas religiosas y sociales del periodo helenístico en la región.

Impacto cultural, patrimonial y ambiental
El descubrimiento, además, pone de relieve cómo se entrecruzan arqueología, patrimonio y medio ambiente. La vulnerabilidad de los yacimientos frente al cambio climático se hace aquí evidente.
La sequía no solo genera crisis humanitarias y económicas, sino que también expone sitios arqueológicos que habían permanecido ocultos, muchos de ellos en riesgo de desaparecer si no se actúa con rapidez. Al mismo tiempo, tal inestabilidad aumenta la presión sobre las autoridades locales, que deben actuar con rapidez y movilizar recursos para documentar y conservar esos objetos revelados de manera espontánea.
El descubrimiento de estos materiales también invita a reflexionar sobre el impacto global de las infraestructuras modernas para la gestión del agua, como las presas, que alteran el paisaje y pueden modificar radicalmente tanto la vida presente como nuestra capacidad de conocer el pasado. En Iraq, donde el patrimonio histórico es uno de los más ricos del mundo, la confluencia entre crisis climática y hallazgos arqueológicos abre un debate crucial sobre las responsabilidades nacionales e internacionales.

Las perspectivas futuras
El equipo arqueológico continuará trabajando tan pronto como las condiciones lo permitan. Se espera que las nuevas excavaciones aporten materiales orgánicos o restos que puedan someterse a análisis de ADN y estudios isotópicos. El traslado de los materiales al Museo de Duhok permitirá no solo preservar lo hallado, sino también ponerlo a disposición de grupos de investigación científica.
Además, este descubrimiento podría servir de estímulo para diseñar estrategias de monitoreo sistemático en embalses y zonas inundadas de Iraq, con el objetivo de anticipar hallazgos futuros en periodos de sequía y actuar rápidamente para protegerlos. También contribuye a generar conciencia internacional acerca de cómo el cambio climático, con todas sus consecuencias negativas, puede beneficiar a la arqueología al revelar fragmentos de historia bajo las aguas.
Referencias
- 2025. "Ancient tombs discovered in Iraq due to drought after water levels in country's largest reservoir declined". CBS News. URL: https://www.cbsnews.com/news/ancient-tombs-discovered-iraq-due-to-drought/
- Rozemboin, Maital. 2025. "Iraq's water crisis reveals ancient secrets buried for 2,300 years". The Jerusalem Post. URL: https://www.jpost.com/archaeology/article-865927
Cada año, como si de un ritual celeste se tratara, la Tierra cruza un punto invisible en su órbita y todo cambia. El calor abrasador del verano comienza a desvanecerse, los días se acortan sin pausa y una luz más dorada empieza a teñir paisajes urbanos y rurales por igual. En 2025, ese instante preciso se da el 22 de septiembre a las 20:19 (hora peninsular española). No es una fecha simbólica ni una simple curiosidad astronómica. Es el momento exacto del equinoccio de otoño, cuando la duración del día y la noche se igualan y el hemisferio norte dice adiós, de forma oficial, al verano.
Un equilibrio solar que solo ocurre dos veces al año
El equinoccio es mucho más que un cambio de estación. Es un equilibrio perfecto entre luz y sombra, un fenómeno que ocurre solo dos veces al año y que marca las transiciones más significativas del calendario natural: del invierno a la primavera, y del verano al otoño. Este fenómeno sucede cuando el Sol se alinea con el ecuador terrestre, y su luz incide con la misma intensidad sobre ambos hemisferios. Por un instante, la Tierra parece neutral en su juego de estaciones. Pero es una tregua efímera: a partir de ese momento, la noche comenzará a ganar terreno.
Este equilibrio tan poético tiene un nombre con raíces clásicas: "equinoccio" proviene del latín aequinoctium, que significa "noche igual". Durante ese día, las horas de luz y de oscuridad son prácticamente idénticas, pero no por mucho tiempo.
Tras el equinoccio, el Sol saldrá cada día un poco más tarde y se pondrá antes. Se pierden, de media, casi tres minutos de luz solar diarios. Parece poco, pero basta una semana para notar el cambio en la rutina, en el ánimo y en los relojes biológicos.
Aunque solemos asociar el inicio del otoño con cambios atmosféricos —el descenso de temperaturas, las lluvias o las primeras chaquetas—, el calendario no siempre acompaña al clima. En muchos puntos de España, por ejemplo, septiembre puede ser tan cálido como julio. Lo que determina el comienzo real de la estación no es el termómetro, sino el movimiento de la Tierra. Y este 2025, el calendario astronómico no deja lugar a dudas: el otoño comienza en el preciso momento en que el planeta alcanza ese punto orbital frente al Sol.

¿Por qué no siempre cae el mismo día?
Curiosamente, este instante puede variar entre el 21 y el 23 de septiembre, dependiendo del año. No es un capricho del universo, sino una consecuencia directa de la órbita elíptica de la Tierra, la inclinación de su eje y el ajuste de los años bisiestos. A pesar de su precisión matemática, el equinoccio nunca cae exactamente a la misma hora ni en la misma fecha. Pero sí marca siempre una frontera clara: un antes y un después en la distribución de la luz solar sobre el planeta.
Y como si el calendario natural no fuera suficiente, el otoño viene con otro cambio bajo el brazo: el del reloj. El último domingo de octubre —este año, el día 26— se producirá el tradicional ajuste al horario de invierno. A las 3 de la madrugada, los relojes se retrasarán una hora y volverán a marcar las 2. Una medida que genera debate cada año, pero que se mantiene vigente en la mayor parte de Europa.
Para algunos, es una excusa perfecta para dormir un poco más. Para otros, un trastorno innecesario que altera los ritmos del cuerpo justo cuando ya se adaptaba al nuevo ciclo de luz.
El otoño: entre rutinas, meteoros y lunas llenas
Más allá de los relojes y del clima, el otoño tiene un impacto profundo en nuestro día a día. Cambian las rutinas, se reorganizan las prioridades, y el entorno comienza a enviar señales sutiles: las hojas caen, los días se encogen, y las ciudades se visten de luces más tenues. Pero también hay espacio para lo extraordinario. Esta estación es una de las favoritas para los observadores del cielo. Octubre y noviembre traen consigo lluvias de meteoros como las Dracónidas, las Oriónidas y las Leónidas. Y para quienes buscan belleza en lo cotidiano, las lunas llenas del otoño ofrecen espectáculos visuales que transforman cualquier paisaje en una postal de película.
Mientras tanto, en el hemisferio sur, ocurre todo lo contrario. El mismo equinoccio que aquí marca el comienzo del otoño señala, allá, la llegada de la primavera. Es uno de esos detalles fascinantes que nos recuerdan que el planeta es uno solo, pero su experiencia del tiempo varía según el punto desde el que se mire. La inclinación de la Tierra —unos modestos 23,5 grados— es la responsable de que medio mundo celebre la floración mientras el otro desempolva paraguas y bufandas.
Lo interesante es que, aunque el otoño puede parecer una estación de recogimiento, de finales, de ir apagando poco a poco la energía del verano, en realidad es una época de transición riquísima. En el campo, es tiempo de cosechas y vendimias. En la ciudad, de comienzos académicos, laborales, personales... Es el momento en que se vuelve al ritmo tras el caos del verano. Y en el cielo, todo se reorganiza para preparar el camino hacia el solsticio de invierno.

Una frontera invisible que aún nos asombra
Detrás de cada equinoccio hay siglos de observación, cálculos precisos y un asombro que no pierde fuerza. Los antiguos ya sabían cuándo ocurrían estos cambios. Civilizaciones como la egipcia, la maya o la griega construyeron templos y calendarios alineados con estos momentos. No lo hacían por capricho: sabían que en estos puntos del año, algo esencial cambiaba.
Hoy, tenemos tecnología para medirlo al segundo, pero la fascinación sigue intacta. Cuando este 22 de septiembre el reloj marque las 20:19, habremos cruzado una vez más esa frontera invisible. No hará falta mirar al cielo para saberlo. Bastará con sentir el aire, observar la luz o notar cómo el cuerpo, de forma casi instintiva, se acomoda a un nuevo ritmo. El otoño está a punto de llegar. Y con él, todo empieza a transformarse.
Cada año, como si de un ritual silencioso se tratase, millones de personas en España mueven las manecillas del reloj. Algunos apenas lo notan, otros lo sienten como si su mundo diera un pequeño vuelco. Hablamos del cambio de hora, una práctica que, aunque aparentemente sencilla, sigue generando dudas, debates y más de un bostezo de más en los días posteriores.
En este 2025, el esperado (o temido) cambio al horario de invierno se producirá en la madrugada del sábado 25 al domingo 26 de octubre. A las 03:00 horas, los relojes deberán atrasarse una hora, marcando de nuevo las 02:00. En términos prácticos, esa noche se duerme una hora más. Pero lo que para muchos es una pequeña victoria contra el insomnio, para otros puede suponer un pequeño desajuste físico y mental.
Y es que este cambio, aunque parezca trivial, afecta directamente a nuestro reloj biológico, nuestro ritmo circadiano y nuestra rutina diaria. Si no se gestiona adecuadamente, puede tener consecuencias más notables de lo que imaginamos.
Un cambio con historia (y polémica)
El ajuste horario no es un capricho moderno. Su origen se remonta a ideas tan antiguas como las de Benjamin Franklin, quien ya en el siglo XVIII sugería madrugar más para ahorrar velas. Pero fue en el siglo XX, y especialmente tras la crisis energética de los años 70, cuando esta medida se institucionalizó con la excusa del ahorro energético.
Desde entonces, dos veces al año —una en marzo para adoptar el horario de verano, y otra en octubre para regresar al de invierno— los relojes españoles se sincronizan con una decisión que ha cruzado fronteras, debates científicos y cambios de Gobierno.
Sin embargo, la eficacia real del cambio de hora está más cuestionada que nunca. Algunos estudios han demostrado que el ahorro energético es, en el mejor de los casos, simbólico. Y si bien en los años 70 esta medida tenía sentido para optimizar el consumo de luz, hoy las tecnologías LED, los horarios laborales extendidos y el teletrabajo han cambiado el panorama por completo.

¿Por qué se sigue haciendo?
La respuesta es más política que científica. Aunque la Comisión Europea propuso en 2018 eliminar el cambio de hora y permitir que cada país eligiera si mantener el horario de verano o el de invierno de forma permanente, los Estados miembros no lograron ponerse de acuerdo. En España, se creó una comisión de expertos que, tras estudiar el asunto, concluyó que aún no había suficiente consenso para tomar una decisión definitiva.
Por eso, al menos hasta el año 2026, seguiremos girando las agujas del reloj dos veces al año.
Cómo afecta realmente a tu cuerpo
El problema no es el reloj, sino nuestro reloj interno. El cuerpo humano está diseñado para funcionar en sintonía con la luz solar. Alterar esta sincronización, aunque sea solo una hora, puede generar síntomas similares al jet lag: fatiga, insomnio, irritabilidad, dificultad de concentración e incluso, en algunos casos, un aumento temporal en el riesgo de problemas cardiovasculares.
Aunque el cambio de octubre suele ser más "benévolo" que el de marzo (porque ganamos una hora de sueño), no todo el mundo lo lleva igual. Los niños, los ancianos y las personas con trastornos del sueño son los más vulnerables.
Además, en un país como España, cuya posición geográfica no corresponde con su huso horario actual (vivimos con el horario de Europa Central, aunque geográficamente deberíamos estar en el mismo que Reino Unido o Portugal), el desfase se multiplica. Esto hace que en invierno amanezca más tarde de lo que sería natural, lo cual complica aún más la adaptación del cuerpo.
Qué puedes hacer para que el cambio al horario de invierno no te afecte
Aunque no podemos evitar el cambio, sí podemos preparar nuestro cuerpo para adaptarse mejor. Hay formas sencillas y eficaces de suavizar el impacto, especialmente si comienzas unos días antes.
Una estrategia útil es ajustar progresivamente tu horario. No esperes al domingo para cambiarlo todo de golpe. Puedes adelantar o atrasar tus rutinas diarias —como la hora de dormir, comer o exponerte a la luz— en intervalos de 15 minutos. Así, el cuerpo se adapta poco a poco y el impacto es mucho menor.
Aprovechar la luz natural también es clave. En los días previos y posteriores al cambio, procura pasar más tiempo al aire libre por las mañanas. La exposición a la luz solar ayuda a sincronizar tu reloj biológico, favorece la producción de melatonina y mejora la calidad del sueño.

Mantén la regularidad en tus rutinas. Nuestro organismo funciona mejor cuando hay coherencia en los horarios. Intenta despertarte y acostarte siempre a la misma hora, incluso durante los fines de semana. Lo mismo aplica para las comidas y el ejercicio físico.
Y, sobre todo, si notas cansancio los días posteriores al cambio, no lo ignores. Permítete descansar más si lo necesitas, evita sobrecargarte con tareas exigentes y pospón decisiones importantes si no te sientes con energía.
¿Y si este fuera el último cambio de hora?
Cada vez más voces reclaman el fin del cambio horario. Y no solo desde la ciencia: también desde sectores económicos, educativos y sociales que consideran que vivir con un horario estable sería más beneficioso a largo plazo.
Algunos países ya han dicho adiós a esta práctica, como Rusia, Turquía o México, apostando por un horario fijo durante todo el año. En España, de momento, seguiremos esperando, aunque todo indica que la era del doble horario podría estar viviendo sus últimos capítulos.
Mientras tanto, prepárate para dormir una hora más el último fin de semana de octubre. Pero no te confíes: aunque suene bien, tu cuerpo puede tardar unos días en entenderlo.
Desde su introducción hace más de cuatro décadas, el Opel Corsa se ha consolidado como uno de los referentes del segmento B en Europa. Lo que comenzó como un utilitario práctico, ágil y asequible, ha evolucionado hasta combinar versatilidad, tecnología de punta, opciones de propulsión variadas y ambiciones de alto rendimiento. En 2025, la generación actual del Corsa no sólo ha superado la barrera del millón de unidades fabricadas, sino que también ofrece innovaciones que amplían la autonomía eléctrica, incluyen versiones visionarias de alto rendimiento y consolidan a Opel como una marca que sabe adaptarse a los tiempos que corren.
La transición hacia la movilidad eléctrica es una parte central del presente de Corsa. No se trata solo de lanzar versiones eléctricas, sino de mejorar constantemente la autonomía, la eficiencia y la usabilidad sin penalizar precio ni confort. Así, el Opel Corsa Electric con batería de 51 kWh y motor de 115 kW (156 CV) ahora ofrece hasta 429 kilómetros de autonomía (WLTP), un incremento notable que lo hace más competitivo para el uso diario y los trayectos más largos. Y lo que es más interesante: Opel ha logrado este avance manteniendo el precio de partida, lo que refuerza el compromiso de convertir la electrificación en algo accesible.
Pero Corsa no se limita a la eficiencia: también mira hacia el futuro del diseño, la emoción y la potencia. Bajo la submarca GSE, Opel ha presentado el Corsa GSE Vision Gran Turismo, un concept car que desafía los límites de lo que cabría esperar de un coche pequeño. Con 800 CV, tracción total, aerodinámica sofisticada, detalles de diseño extremo y una experiencia que cruza lo físico con lo digital (también aparecerá en el videojuego Gran Turismo 7), este prototipo deja claro que Opel quiere mantener vivo el espíritu deportivo y visionario en su modelo más popular.
Finalmente, el éxito comercial acompaña todo esto. Desde 2019, la planta de Zaragoza ha producido más de un millón de unidades de la generación actual del Corsa. El modelo ha sido el pequeño más vendido en Alemania varios años seguidos, líder en Reino Unido y Grecia, y se mantiene entre los favoritos en España. Este sólido respaldo refuerza la estrategia de Opel: ofrecer un coche pequeño que no compromete en nada, ya sea tecnología, innovación, variedad de motorizaciones o experiencia de marca.

Hitos de ventas: un millón y counting
La actual generación del Opel Corsa, lanzada en 2019, ha superado el millón de unidades producidas en la planta de Zaragoza (España). Esto marca un antes y un después: no solo demuestra la capacidad productiva, sino que evidencia que los consumidores valoran lo que Opel ofrece: diseño fresco, tecnologías modernas y amplia oferta de motorizaciones.
Además, sus matriculaciones aumentaron un 18 % en Europa (E29) en el primer trimestre de 2025 respecto al trimestre anterior. Desde 1982, cuando apareció el primer Corsa, se han vendido aproximadamente 15 millones de unidades en todo el mundo. Esa trayectoria histórica aporta peso a cada nueva versión. Así es el Opel Corsa que arrasa en Europa y no deja de reinventarse, adaptándose a las nuevas exigencias del entorno urbano, tecnológico y de sostenibilidad.

Propulsiones variadas: combustión, híbridos, eléctricos
El Opel Corsa ofrece hoy una gama muy diversa de motorizaciones para adaptarse a diferentes necesidades. Desde motores de combustión tradicionales hasta híbridos ligeros, sistemas eléctricos puros, pasando por versiones que incorporan tecnología de 48 voltios. Esto permite al cliente elegir según uso, presupuesto y conciencia ecológica.
Los valores de emisiones, consumos y eficiencia también son competitivos. Por ejemplo, el Corsa Electric con 115 kW consume 14,2‑14,4 kWh/100 km (WLTP) y emite 0 g/km de CO₂. Los híbridos ofrecen consumos de alrededor de 4,6 litros/100 km, con emisiones de CO₂ en el rango de 103‑105 g/km.

El salto del eléctrico: autonomía y precio
El modelo eléctrico de Opel, el Corsa Electric, ha dado un paso importante en 2025. Su versión con batería de 51 kWh y motor de 115 kW (156 CV) permite ahora alcanzar 429 km de autonomía (WLTP). Este aumento representa unos 24 km más que antes, sin que ello implique subir el precio de partida, lo que subraya el esfuerzo en eficiencia y en optimización técnica.
El precio base para España de la edición del Corsa Electric Edition parte de 27.400 € impuestos incluidos. El consumo medio combinado eléctrico se sitúa en 14,2 kWh/100 km, lo que lo vuelve bastante competitivo dentro de su categoría.

Diseño exterior: identidad Opel fortalecida
El diseño de la generación actual enfatiza la identidad fuerte de Opel con elementos como el frontal Opel Vizor, iluminación y detalles modernos. En el concept GSE Vision se lleva esto aún más lejos: las carrocerías más anchas, guardabarros marcados, difusores, alerones y detalles aerodinámicos hacen que la presencia sea muy llamativa.
Los materiales ligeros, combinaciones de colores contrastados (por ejemplo blanco perlado con acentos amarillos y negros en el prototipo) resaltan la apuesta estética por lo deportivo y lo diferenciado.

Aerodinámica y tecnología en pro del rendimiento
El Corsa GSE Vision incorpora múltiples soluciones aerodinámicas activas: difusor, alerón activo, cortinas aerodinámicas en guardabarros, ruedas aerodinámicas que reducen turbulencias. Estas tecnologías no solo ayudan a mejorar la eficiencia, sino que también permiten alcanzar altas velocidades y prestaciones (0‑100 km/h en unos 2,0 segundos en el concept) sin comprometer la estabilidad.
Incluso en las versiones más normales, las mejoras en tren motriz, optimización de química de batería y eficiencia energética hacen que la autonomía se incremente sin grandes sacrificios.

Interior, confort y experiencia de uso
El Corsa actual ofrece espacio para cinco ocupantes en dimensiones relativamente compactas, lo que ventaja tanto en ciudad como en trayectos interurbanos. En el interior se percibe una apuesta por materiales actuales, iluminación avanzada, sistemas de info‑entretenimiento modernos y tecnología de asistencia al conductor para hacer la conducción más fácil y segura. En el prototipo GSE Vision se exagera esta idea con volante minimalista, asiento deportivo suspendido y énfasis en lo esencial, haciendo la cabina casi un cockpit de competición.

El Corsa GSE Vision Gran Turismo: ¿qué se vislumbra?
El concept Corsa GSE Vision Gran Turismo se presenta como la visión más radical de lo que podría ser un Opel pequeño con prestaciones extremas. Potencia combinada de 588 kW (800 CV), 800 Nm de par, velocidad punta de 320 km/h y aceleración de 0 a 100 km/h en 2 segundos lo sitúan casi en otra categoría. Sin duda es más un ejercicio de estilo, ingeniería y futuro que un modelo de producción inmediato.
Tiene batería de 82 kWh y un peso sorprendentemente bajo (~1.170 kg), conseguido gracias al uso extensivo de materiales ligeros.

Estreno “phygital”: del salón al simulador
Un rasgo distintivo del Corsa GSE Vision es su doble vida: se exibe físicamente en eventos como el IAA Mobility 2025 en Múnich, pero también será jugable en Gran Turismo 7, lo que combina presencia real y digital.
Esto no es solo una estrategia de marketing: sirve para conectar con públicos jóvenes, entusiastas del automovilismo digital y para experimentar nuevos espacios de interacción marca‑cliente. La misma filosofía de fusión entre emoción y rendimiento está presente también en otros modelos de Opel, como el SUV eléctrico que Opel está usando en competición, consolidando la marca como referente en innovación aplicada tanto al día a día como a la pista.

Producción y origen: Zaragoza y la estrategia europea
La planta de Zaragoza ha sido clave: desde 2019 produce la generación actual del Corsa, y ya ha superado las un millón de unidades fabricadas. Esto no solo habla de escala, sino de la importancia de España en la estrategia de Opel para el segmento B, tanto para modelos de combustión como eléctricos.
La localización, la capacidad de adaptación de la planta, la cadena de suministro y la experiencia acumulada han permitido a Opel mantener costes razonables y tiempos competitivos de entrega y adaptación de versiones.

Precios, acceso y servicios asociados
En España, el Corsa Electric Edition parte desde 27.400 € con impuestos incluidos. Pero no solo se trata del precio base: Opel incorpora servicios como el paquete Electric All In, que incluye opciones útiles como el Wallbox doméstico (eProWallbox Move), conectividad Opel Connect PLUS, asistencia en carretera y garantía de batería, lo que añade valor real al usuario sin que ello suponga un coste mayor. Además, el aumento de autonomía se ofrece sin recargos adicionales para los clientes, lo que demuestra el compromiso de no trasladar todos los costes de mejora al consumidor.

Competencia, retos y posicionamiento en el mercado
El segmento B es de los más competitivos en Europa: allí compiten marcas con gran tradición y nuevas propuestas eléctricas. Opel tiene la ventaja de una combinación de legado, capacidad técnica, red de servicio y variedad de versiones.
No obstante, los retos son varios: mejorar aún más la autonomía real (no solo la WLTP), reducir costes de producción eléctricos, asegurar infraestructura de recarga, y mantener el equilibrio entre prestaciones y eficiencia, especialmente si versiones deportivas como GSE se acercaran a producción.
El posicionamiento del Corsa actual lo coloca como un producto equilibrado, con opciones para diferentes públicos, y con aspiraciones a liderar no solo en ventas, sino en innovación.

Mirando al futuro: qué se puede esperar
Es muy probable que Opel continúe mejorando la autonomía de las versiones eléctricas con nuevas químicas de batería, optimizaciones del tren motriz y reducción del peso.
Podrían llegar versiones GSE de producción (o versiones intermedias que capturen parte del espíritu del concept), poniendo mayor potencia, detalles aerodinámicos, ajustes deportivos sin perder homologación ni confort.
También es previsible que la integración digital aumente: conectividad más fluida, funciones avanzadas de asistencia, tal vez versiones con conducción semiautónoma mayor, y una experiencia de usuario más personalizada.

El Opel Corsa ya no es solo un coche pequeño práctico: es un producto multidimensional. Ofrece eficiencia, variedad tecnológica, estética moderna, experiencia de conducción mejorada, y ahora incluso aspiraciones de alto rendimiento con el Corsa GSE Vision Gran Turismo. Que haya superado un millón de unidades de la generación actual refuerza que las decisiones que Opel está tomando —sobre electrificación, diseño, oferta de productos y experiencia de usuario— tienen eco entre los clientes.
Para los que buscan un modelo compacto, confiable y con opciones, el Corsa actual es una propuesta muy sólida. Y para los entusiastas, la submarca GSE permite soñar con lo que podría venir. En definitiva: Opel Corsa demuestra que un coche pequeño puede dar grandes pasos, sin perder lo esencial.
La fertilidad es un campo de la medicina que combina ciencia de vanguardia con una profunda sensibilidad humana. Los avances en inteligencia artificial, big data y biotecnología han transformado las posibilidades para quienes enfrentan el reto de formar una familia, pero los tratamientos siguen siendo un proceso cargado de emociones, decisiones difíciles y expectativas personales. Para entender mejor cómo la innovación está cambiando este terreno, hablamos con el doctor Eduardo Hariton.
El Dr. Hariton es especialista en fertilidad y endocrinología reproductiva, formado en la Escuela de Medicina y en la Escuela de Negocios de Harvard, con residencia en los hospitales Brigham and Women’s y Massachusetts General, y un fellowship en la Universidad de California en San Francisco. Actualmente, combina su práctica clínica en el Área de la Bahía de San Francisco con su rol como Managing Director del US Fertility Innovation Fund, desde donde impulsa proyectos que integran la medicina reproductiva con nuevas tecnologías. Además, es investigador con más de 70 publicaciones y asesor de startups en salud.
En esta conversación, el Dr. Hariton habló sobre el potencial de la inteligencia artificial para mejorar los tratamientos de fertilidad, el valor de la empatía en la relación médico-paciente y el rol de los datos clínicos en la toma de decisiones. También compartió consejos para jóvenes estudiantes que sueñan con ingresar a instituciones de prestigio como Harvard, y un mensaje esperanzador para quienes atraviesan procesos de infertilidad.
"La fertilidad es medicina, sí, pero también es humanidad".

Doctor Hariton, su camino académico lo llevó de Caracas a Florida, luego a Harvard y después a la Costa Oeste de Estados Unidos. ¿Cómo han influido esas transiciones en su visión de la medicina y lo que requiere el paciente?
Nací en Caracas, y desde temprano viví una medicina muy humana, centrada en la relación cercana con el paciente. Al mudarme a Florida, entré en contacto con un sistema más estructurado, donde aprendí a valorar la medicina basada en evidencia y a identificar las brechas en el acceso a la salud. Luego, en Harvard —tanto en la Escuela de Medicina como en la Escuela de Negocios— desarrollé una mirada crítica, con herramientas para analizar y rediseñar sistemas de salud. Finalmente, en la Costa Oeste encontré un ecosistema de innovación que me inspira a pensar en cómo escalar soluciones sin perder de vista a la persona.
Todo ese recorrido me enseñó que la medicina no es solo una ciencia exacta, sino también una práctica profundamente contextual, humana y en constante evolución. Y, además, haber vivido y entrenado en diferentes regiones del país, ser un médico hispano y estar casado con una mujer asiática me ha dado una sensibilidad cultural real. Atender pacientes de distintas nacionalidades y contextos me ha enseñado que la atención verdaderamente personalizada también empieza por entender el trasfondo cultural de cada persona.
Usted estudió Medicina y un MBA en paralelo. ¿Cómo se combinan el rigor clínico y la visión empresarial en su día a día?
Al principio, la medicina y el MBA parecían dos mundos distintos. Pero pronto entendí que se complementan. Mi formación empresarial me ayuda a pensar en eficiencia, liderazgo y sostenibilidad, mientras que mi práctica clínica me mantiene anclado a lo más importante: el bienestar del paciente. En la práctica, eso significa buscar formas de hacer que los tratamientos sean más accesibles, que la experiencia del paciente sea más fluida y que el sistema funcione mejor para todos los involucrados.
Con el tiempo, me di cuenta de que ser médico me convierte en mejor gestor, porque entiendo de cerca los desafíos reales que viven los pacientes y los equipos clínicos. Y al mismo tiempo, ser gestor me convierte en mejor médico, porque tengo herramientas para pensar en el largo plazo, en cómo construir sistemas de salud más humanos y sostenibles. Para mí, no hay contradicción entre la clínica y la estrategia: se nutren mutuamente.
Además de su rol clínico, como Managing Director del US Fertility Innovation Fund, usted interactúa con startups y nuevas tecnologías. ¿Cuáles son los mayores focos de interés actualmente y qué podríamos esperar para los próximos años?
Desde mi rol en el US Fertility Innovation Fund tengo la suerte de trabajar con emprendedores brillantes que están tratando de resolver problemas reales. Los focos principales hoy están en tres áreas: la inteligencia artificial para apoyar decisiones clínicas, plataformas digitales que transforman la experiencia del paciente y modelos virtuales o híbridos que amplían el acceso a tratamientos de fertilidad.
Personalmente, me encanta colaborar con fundadores apasionados que quieren hacer una diferencia real en la vida de los pacientes. Esa pasión es contagiosa. A mí me toca ayudarlos a pensar cómo escalar, cómo integrarse en un sistema de salud complejo, pero sin perder la esencia de lo que los motivó a empezar. Y lo que viene será todavía más emocionante: tratamientos más personalizados, decisiones clínicas basadas en millones de datos, y experiencias más humanas gracias a la tecnología bien aplicada.
¿Cuáles son las principales áreas de la fertilidad que se están beneficiando ahora mismo de la inteligencia artificial?
La IA ya está cambiando la forma en que practicamos medicina reproductiva. Hoy la podemos usar para predecir la respuesta ovárica de una paciente y ajustar su dosis de medicación, para seleccionar embriones con mayor potencial de implantación y para interpretar historiales médicos complejos. Son herramientas que nos permiten personalizar tratamientos de forma más rápida y precisa.
Y lo más importante: son clave para mejorar el acceso a la atención sin sacrificar los resultados. Porque permiten que más médicos —incluso en lugares con menos recursos— puedan ofrecer tratamientos avanzados con base en modelos entrenados con millones de datos. Así, la calidad deja de depender exclusivamente de la experiencia individual, y se vuelve más equitativa.
"La IA ya está cambiando la forma en que practicamos medicina reproductiva".

En su campo deben trabajar con grandes volúmenes de datos clínicos. ¿Qué papel juega la calidad y la cantidad de datos del paciente en la toma de decisiones durante un tratamiento de fertilidad?
La calidad y la cantidad de los datos son igual de importantes. Un historial bien documentado y accesible permite diseñar un tratamiento más preciso, anticipar riesgos y ofrecer mejores resultados. Pero si esos datos están desorganizados o incompletos, incluso el mejor médico puede perder información crítica.
Hoy, la diferencia la hace cómo usamos esos datos. Cuando están bien estructurados y contextualizados, nos permiten ver patrones que antes pasaban desapercibidos. Por eso trabajamos constantemente en mejorar los sistemas de recolección y análisis de datos, para tomar decisiones clínicas con más respaldo y menos incertidumbre.
El uso de big data y algoritmos en medicina depende de la confianza del paciente al compartir su información. ¿Cómo se equilibra la protección de la privacidad con la necesidad de datos para mejorar los resultados?
La confianza del paciente es la base de todo. Para que podamos usar sus datos, tiene que tener la seguridad de que estarán protegidos y que se utilizarán de forma ética, transparente y con fines médicos legítimos.
Una estrategia clave que usamos es la desidentificación de los datos. Es decir, eliminamos cualquier información que permita identificar al paciente antes de analizarlos. Así protegemos su privacidad mientras conservamos el valor clínico de esos datos. La combinación de transparencia, seguridad tecnológica y educación al paciente es lo que nos permite avanzar sin perder la confianza de quienes atendemos.
Tradicionalmente, revisar el historial de un paciente podía ser un proceso largo y manual. Actualmente, la IA puede ayudar a interpretar estos historiales médicos. ¿Cómo está cambiando esto a la medicina?
La diferencia es enorme. Antes, cuando un paciente nuevo llegaba a consulta, muchas veces traía 500 o incluso 1000 páginas de registros médicos. Y entre todas esas hojas había consultas de urgencias por resfriados, radiografías de rodilla, recetas de hace años… mucho ruido, poca señal. Me tocaba “pescar” lo que realmente importaba para su fertilidad. Eso era ineficiente y, en ocasiones, podía llevar a omisiones involuntarias.
Hoy, gracias a la inteligencia artificial, tenemos la oportunidad de filtrar y resaltar automáticamente lo relevante: los antecedentes ginecológicos, los tratamientos hormonales previos, las cirugías reproductivas, los valores clave. Esto no solo mejora mi eficiencia como médico y la de mi equipo, sino que también me permite llegar más rápido al diagnóstico y enfocarme en lo que realmente necesita el paciente. Espero que esta tecnología sea adoptada más ampliamente por clínicas y médicos alrededor del mundo.
"La fertilidad es medicina, sí, pero también es humanidad".

En un campo tan sensible como la fertilidad, ¿qué rol juega la empatía? ¿Qué debería esperar un paciente de su médico y qué debería importar al médico en cada historia?
La empatía es parte del tratamiento. No es algo accesorio. El camino de la fertilidad está lleno de incertidumbre, de emociones intensas, de momentos duros. Por eso siempre digo que, si un médico no te está escuchando, cámbialo. Te mereces uno que sí lo haga.
En lo personal, hago un esfuerzo consciente por no interrumpir a mis pacientes. A veces en la medicina estamos tan enfocados en encontrar respuestas rápidas que olvidamos que escuchar ya es parte de la solución. Es importante dejar que la paciente cuente su historia completa antes de hablar. Que sienta que hay espacio para ser vulnerable. Porque una buena comunicación —basada en respeto y en presencia real— puede cambiar completamente la experiencia de un tratamiento.
Desde el punto de vista académico, ¿qué consejo daría a estudiantes que aspiran a entrar a instituciones como Harvard?
Como dice mi amiga Michelle Poler: "El primer paso es creérselo". Muchas veces creemos que esas puertas están cerradas para nosotros, pero no es así. Cuando formaba parte del comité de admisiones de la escuela de medicina en Harvard, recuerdo que me dijeron: "Harvard no busca a quienes han logrado más y tienen las mejores notas, sino a quienes han hecho más con menos". Al pasar un par de años ahí, entendí que es una estrategia muy sabia, ya que esas personas, cuando se les da una oportunidad como estudiar en Harvard, la aprovechan al máximo y logran cambiar el mundo. Mi consejo es que cuenten su historia con honestidad, que busquen mentores que los impulsen, y que no se queden con la duda de lo que podría haber sido. Intentarlo ya es un paso de éxito.
"Harvard no busca a quienes han logrado más y tienen las mejores notas, sino a quienes han hecho más con menos".
¿Y qué mensaje final le dejaría a quienes están atravesando un proceso de tratamientos de fertilidad?
Mi mensaje es sencillo: no están solos. Este camino puede ser largo, frustrante y emocionalmente agotador, pero hay opciones. Hay avances médicos reales. Y hay profesionales que de verdad están comprometidos con acompañarlos.
Y también quiero decir algo muy simple pero poderoso: si sienten que no los están escuchando, que su caso no importa, busquen otro médico. Se merecen uno que sí los escuche, que los mire a los ojos y los acompañe de verdad. La fertilidad es medicina, sí, pero también es humanidad. Y eso no lo podemos perder de vista.
"Si un médico no te está escuchando, cámbialo".