En el imaginario popular contemporáneo, la Medusa de terrible mirada suele representarse como una figura monstruosa y solitaria, condenada a convertir en piedra a quienes se atrevieran a mirarla. Sin embargo, en los orígenes de la mitología griega, Medusa no estaba sola. Junto a Esteno y Euríale, constituían el grupo de las tres gorgonas. Exploramos a esta tres hermanas en las primeras tradiciones míticas y artísticas del mundo heleno.

¿Quiénes eran realmente las gorgonas en el imaginario griego?

Según la versión más influyente que ha llegado hasta nuestros días, recogida por el poeta Hesíodo en su Teogonía, las gorgonas eran hijas de Forcis y Ceto, dos deidades marinas primitivas. Habitaban los confines del mundo conocido, en el lejano Occidente, más allá del océano, en el lugar donde el sol se pone. Ya desde su concepción mítica, las gorgonas eran seres liminales: vivían entre lo humano y lo monstruoso, entre la vida y la muerte, entre lo bello y lo terrible.

Con todo, las tres gorgonas mostraban diferencias entre sí. Mientras que Esteno y Euríale eran inmortales, Medusa podía morir: de hecho, lo hizo a manos del héroe Perseo. Este aspecto guarda una gran relevancia desde el punto de vista del mito. Es, justamente, su condición mortal lo que permite que la historia de Medusa adquiera un final dramático y heroico tan fascinante.

Gorgonas
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

El trío gorgónico: similitudes, diferencias y evolución del mito

Aunque los nombres de las tres gorgonas aparecen mencionados en tríada desde la antigüedad, su desarrollo mítico fue desigual. Medusa se convirtió, con el tiempo, en la más popular y compleja de las tres, especialmente en versiones posteriores que humanizaban su figura. En cambio, Esteno y Euríale sobrevivieron como personajes más esquemáticos, fuertemente asociados con lo monstruoso y lo apotropaico —es decir, con la función de proteger mediante el terror.

En los primeros relatos, todas las gorgonas se describen como figuras monstruosas, con colmillos de jabalí, garras broncíneas y una masa de serpientes en lugar de cabellos. Su poder para petrificar a los humanos no era exclusivo de Medusa, aunque con el tiempo se le asignara solo a ella. Esta visión colectiva y aterradora del trío gorgónico se mantuvo durante siglos, especialmente en el arte arcaico griego.

Sin embargo, ya desde época clásica comenzó a gestarse una diferenciación. Medusa se reinterpretó en formas que la alejaban del arquetipo monstruoso. En su historia se introdujeron, así, elementos de compasión, violencia patriarcal y poder femenino. En cambio, sus hermanas no experimentaron una evolución simbólica tan rica y, en gran medida, se las relegó a un segundo plano en las narrativas mitológicas y representaciones artísticas.

Medusa
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Esteno y Euríale: las gorgonas inmortales de la mitología

¿Quiénes eran Esteno y Euríale? Esteno se consideraba la más feroz de las tres, una fuerza de destrucción imparable que, según algunas versiones, mató a más hombres que sus hermanas juntas. Euríale, por su parte, destacaba por su llanto desgarrador: se dice que resonó por todo el mundo tras la decapitación de Medusa. Esta reacción emocional la vincula, al igual que a Medusa, con una dimensión más humana y trágica de lo femenino.

Ambas gorgonas sobrevivieron al mito de Perseo. Su presencia fue relevante en los cultos locales, las representaciones apotropaicas y las genealogías míticas. No obstante, el silencio que rodea su destino posterior refleja la tendencia del mundo clásico a simplificar el mito, una simplificación que tiende a centrarse en un solo personaje y a oscurecer a los demás.

En el arte antiguo, sobre todo en los vasos cerámicos del siglo VI a. C., las tres gorgonas aparecen representadas como una unidad monstruosa. Tienen alas, rostros grotescos y una actitud amenazante. En escenas como las que representan la huida de Perseo tras decapitar a Medusa, Esteno y Euríale lo persiguen furiosas, en un gesto de venganza que revela la fuerza colectiva de estas tres figuras.

Gorgoneion
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

La función de las gorgonas en el arte y la religión griega

Desde sus primeras apariciones en el arte griego, las gorgonas desempeñaron una función apotropaica, es decir, servían para alejar el mal mediante su aspecto aterrador. Esta función se concretó en el motivo del gorgoneion. Así, la cabeza de Medusa —y a veces de sus hermanas— se representaba en templos, escudos, monedas y objetos cotidianos.

Una de las representaciones más antiguas y emblemáticas se encuentra en el Templo de Artemisa en Corfú (ca. 580 a. C.), donde una gorgona de grandes dimensiones aparece flanqueada por dos figuras más pequeñas. Esta disposición se ha interpretado como una referencia al trío gorgónico, aunque el arte arcaico no diferenciaba el carácter individual de Medusa, Esteno y Euríale. En esta etapa, todas las gorgonas compartían los mismos atributos visuales. Su identidad específica no era relevante: lo importante era su fuerza visual como protectoras simbólicas.

Perseo y Medusa
Perseo con la cabeza de Medusa. Imagen recortada. Fuente: Jrousso/Wikimedia

El gorgoneion aparece también en los escudos de guerreros como Heracles o Atenea, lo que revela su poder como talismán. En este contexto, el horror que provocaban se convirtió en un instrumento de defensa y control del caos. La imagen de la gorgona confrontaba al espectador con lo incontrolable y lo divino.

Del horror al símbolo: la transformación de Medusa eclipsa a sus hermanas

La evolución del mito de Medusa en la literatura y el arte griegos marcó un giro decisivo en la percepción del trío gorgónico. En la tradición arcaica, las tres hermanas eran monstruosas e indistintas. Con la aparición de nuevas narrativas —como el relato del poeta Píndaro o las Metamorfosis de Ovidio—, Medusa se convirtió en un personaje autónomo, con una historia propia.

Autores como Píndaro, por tanto, comenzaron a insinuar que Medusa no siempre había sido un monstruo, sino una joven mortal de gran belleza quien, violada por Poseidón en el templo de Atenea, fue castigada por esta. Tal reinterpretación añade una nueva dimensión a su figura: la convierte en una víctima, no solo en un monstruo, al plantear temas relacionados con el género, el castigo divino y la violencia estructural.

Este desarrollo no se aplica a Esteno ni a Euríale, que permanecieron al margen de esta reelaboración simbólica. En consecuencia, el imaginario colectivo se ha centrado cada vez más en Medusa, hasta el punto de que muchas versiones modernas del mito ignoran por completo la existencia de sus hermanas.

La historia de Medusa adquiere así una vida propia, que incluye su decapitación, el nacimiento de Pegaso y Crisaor de su cuello o de su sangre, y el uso de su cabeza como arma por parte de Perseo primero y de Atenea después. Estos episodios generan una riqueza narrativa que supera con creces el papel funcional de Esteno y Euríale como guardianas del mito original.

Medusa
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

El legado de las gorgonas más allá de la antigüedad

La reivindicación de Medusa

Aunque la antigüedad clásica fue la matriz del mito gorgónico, el legado de Medusa y sus hermanas superó los confines del mundo griego, adaptándose a distintos contextos culturales. La cabeza de Medusa —el gorgoneion— siguió usándose como símbolo de poder y protección durante el Imperio romano. Más tarde inclsuo se incorporó en escudos heráldicos, obras renacentistas y creaciones contemporáneas.

La figura de Medusa se ha reivindicado en los siglos XX y XXI por parte de los movimientos feministas, que han visto en ella un símbolo del poder femenino reprimido, la violencia patriarcal y la posibilidad de subversión. En este contexto, la imagen de la mujer monstruosa que castiga con la mirada adquiere una nueva resonancia crítica, que resignifica el mito desde una perspectiva política y de género.

El silencio de Esteno y Euríale

Sin embargo, el resurgir de Medusa ha dejado en la sombra, una vez más, a Esteno y Euríale. Estas dos figuras han permanecido en el olvido incluso en las relecturas modernas más comprometidas, como si su existencia hubiera sido una mera nota al pie en la leyenda de Medusa. Pero esta omisión priva al mito de su dimensión colectiva, de su origen como trío femenino poderoso, ambiguo y fascinante.

Es relevante recordar que, en las versiones más antiguas, las tres gorgonas actuaban juntas, simbolizando tanto el horror como una forma de lo sagrado asociado a la muerte, la protección y el umbral entre mundos. Su vínculo con la sangre, el nacimiento (como en el caso del caballo Pegaso) y el poder liminal las conecta con otras figuras míticas femeninas como las Erinias, las Grayas o las Moiras. Recordar a Esteno y Euríale es también una forma de resistirse a la simplificación del mito, de reconocer que la mitología griega, lejos de ofrecer respuestas claras, planteaba preguntas complejas sobre la naturaleza humana, lo divino y lo monstruoso.

Referencias

Durante décadas, la imagen popular de los neandertales se ha construido en torno a una escena casi cinematográfica: hombres robustos, envueltos en pieles, devorando carne de mamut recién cazada junto a un fuego crepitante. Sin embargo, la ciencia está revelando una historia muy distinta, una que desafía nuestro concepto de lo que significa comer “bien” en la Prehistoria. Sin embargo, un nuevo estudio publicado en Science Advances por Melanie Beasley, Julie Lesnik y John Speth está desmontando ese mito y ofreciendo una visión más compleja, e incluso inesperada, sobre lo que comían nuestros primos prehistóricos: los neandertales obtenían buena parte de su nutrición de carne almacenada durante semanas, repleta de larvas de mosca.

Esta revelación no es un simple detalle anecdótico. Supone reescribir nuestra comprensión de la vida diaria en el Pleistoceno y desmonta uno de los mitos más arraigados sobre esta especie: el de que eran depredadores hipercarnívoros, equivalentes humanos de leones o lobos. El hallazgo proviene de un cruce fascinante entre arqueología, biología y antropología forense, que ha utilizado los isótopos del nitrógeno como hilo conductor para desentrañar los secretos de su dieta.

La paradoja del nitrógeno que no cuadraba

Desde los años noventa, el análisis de restos fósiles de neandertales ha mostrado un patrón intrigante: sus huesos presentan concentraciones de nitrógeno-15 más altas incluso que las de los grandes depredadores con los que compartían territorio. En teoría, esto los situaba en la cima absoluta de la cadena alimenticia, comiendo carne en cantidades casi imposibles para un ser humano.

El problema es que, fisiológicamente, los humanos no podemos tolerar dietas extremadamente proteicas durante mucho tiempo. El hígado tiene un límite para metabolizar aminoácidos, y superar ese umbral provoca un síndrome conocido históricamente como “inanición por proteína”. Explorar este escenario obligaba a los investigadores a buscar una explicación alternativa. Si los neandertales no comían cantidades descomunales de carne magra, ¿cómo lograban esos valores tan altos de nitrógeno?

La respuesta estaba en algo que nuestra mentalidad moderna asocia con la repulsión: la descomposición. La carne que los neandertales almacenaban para sobrevivir al invierno inevitablemente era colonizada por larvas de mosca. Y esas larvas, ricas en proteínas y grasas, concentraban el nitrógeno-15 mucho más que la carne original. Al consumirlas, su firma isotópica quedaba registrada en los huesos, elevando los valores hasta niveles que antes parecían imposibles sin un consumo masivo de carne fresca.

La investigadora principal, Melanie Beasley, fotografió un denso cúmulo de larvas como parte de un estudio complementario vinculado al trabajo recién publicado
La investigadora principal, Melanie Beasley, fotografió un denso cúmulo de larvas como parte de un estudio complementario vinculado al trabajo recién publicado. Foto: Melanie Beasley

Una estrategia de supervivencia que funcionaba

Lejos de ser un acto de desesperación, la incorporación de carne putrefacta y larvas a la dieta era, en realidad, una estrategia brillante. En los ambientes fríos y cambiantes del Pleistoceno europeo, la caza no garantizaba un suministro constante de alimento. Conservar las piezas completas, a veces sin abrirlas, era una forma de tener reservas energéticas para las semanas más duras.

La descomposición, que hoy asociamos al peligro, era entonces una aliada. La grasa y los nutrientes se concentraban en las larvas, fáciles de recolectar y digerir. Además, muchas poblaciones indígenas documentadas en tiempos históricos han practicado costumbres similares, consumiendo deliberadamente carne envejecida y larvas como un recurso habitual, no como un último recurso. Para los neandertales, este comportamiento no tenía la carga cultural de repulsión que nosotros sentimos hoy; era simplemente comida.

Los experimentos forenses modernos han respaldado esta hipótesis. Investigaciones recientes con tejidos humanos en descomposición, realizadas en instalaciones especializadas en Estados Unidos, han mostrado que las larvas alimentadas de carne en putrefacción pueden alcanzar niveles extraordinarios de nitrógeno pesado, suficientes para reproducir la huella isotópica que observamos en los fósiles de hace decenas de miles de años.

Una dieta que desafía los prejuicios modernos

Pensar en neandertales comiendo larvas puede parecer una imagen poco atractiva, pero obliga a repensar nuestros prejuicios. Hoy sabemos que más de dos mil millones de personas en el planeta consumen insectos como parte de su dieta habitual, y que estos aportan proteínas, grasas y micronutrientes esenciales. En la Edad de Hielo, donde la prioridad era sobrevivir, lo que hoy llamaríamos “asqueroso” era, en realidad, ingenioso.

Esta visión también transforma nuestra percepción de los neandertales. Lejos de ser torpes carniceros, eran planificadores cuidadosos. Sus hábitos alimenticios muestran un conocimiento fino de su entorno y una capacidad para explotar todos los recursos disponibles. Almacenaban, esperaban y consumían de forma estratégica. La putrefacción y los insectos no eran señales de fracaso, sino parte de un ciclo alimenticio optimizado para un mundo sin refrigeradores ni sal.

Además, esta nueva interpretación de su dieta aporta un matiz humano fascinante. Y es que nos obliga a imaginar escenas cotidianas radicalmente distintas a las películas y reconstrucciones de museos. No solo había hogueras y lanzas, sino también rocas levantadas, trozos de carne parcialmente congelada y nidos de larvas que, en manos expertas, eran alimento. La verdadera vida prehistórica estaba llena de contrastes entre ingenio y crudeza.

El consumo habitual de larvas podría ser la clave detrás de la peculiar huella química hallada en los restos de los neandertales, según sugiere la investigación
El consumo habitual de larvas podría ser la clave detrás de la peculiar huella química hallada en los restos de los neandertales, según sugiere la investigación. Foto: Istock/Christian Pérez

Reescribiendo la historia alimentaria del Pleistoceno

El descubrimiento de la importancia de las larvas en la dieta neandertal no solo explica un misterio isotópico, sino que también reconfigura nuestra comprensión de la alimentación prehistórica en general. Muchas interpretaciones anteriores de restos fósiles podrían necesitar una revisión, considerando la posibilidad de que la descomposición y los insectos desempeñaran un papel invisible pero crucial.

La historia de la humanidad está llena de estrategias de supervivencia que desafían los cánones modernos de higiene o gusto. Este hallazgo nos recuerda que la línea entre lo aceptable y lo repulsivo es cultural y mutable. Lo que para nosotros sería un tabú, para los neandertales era una herramienta de adaptación y un seguro de vida frente a los inviernos implacables de la Edad de Hielo.

En definitiva, estos nuevos estudios no solo reescriben un capítulo sobre lo que comían los neandertales, sino que también nos obligan a mirarlos con más respeto. Su supervivencia no dependía únicamente de la fuerza o la caza, sino también de su capacidad para entender los ritmos de la naturaleza y sacar partido de ellos. Y en ese ingenio, entre la carne que olía fuerte y los enjambres de larvas, está la verdadera clave de su resiliencia.

El estudio ha sido publicado en Science Advances.

Durante más de mil años, el emperador Wu de la dinastía Zhou del Norte permaneció oculto tras los muros de su tumba en la provincia de Shaanxi, al noroeste de China. Sus hazañas militares y su repentina muerte a los 36 años eran conocidas por las crónicas, pero su rostro y su historia genética seguían siendo un misterio. Hoy, la ciencia ha logrado lo que parecía imposible: reconstruir su apariencia y desvelar secretos de su salud y su linaje a partir de su ADN ancestral.

El estudio, publicado en la revista Current Biology por un equipo liderado por investigadores de la Universidad de Fudan y Xiamen, combina análisis genéticos de vanguardia con reconstrucciones faciales en 3D. Esta investigación no solo ofrece una imagen sorprendentemente realista del emperador, sino que también aporta claves sobre la diversidad étnica en la China del siglo VI y las posibles causas de su prematura muerte.

Un emperador de la “era oscura” de China

Yuwen Yong, conocido como Emperador Wu (543-578 d.C.), gobernó entre los años 560 y 578, en una época convulsa que los historiadores denominan a menudo “la edad oscura” de China. El país estaba dividido en múltiples reinos tras siglos de guerras, y el norte vivía un proceso de fusión cultural entre los pueblos nómadas de las estepas y las comunidades agrícolas de tradición han.

Wu fue un monarca estratégico y ambicioso. Lideró al efímero pero influyente reino Zhou del Norte, reformó los ejércitos regionales, consolidó su autoridad frente a las tribus turcas y sentó las bases para la posterior unificación de China bajo la dinastía Sui. Sin embargo, tras apenas 18 años en el trono, su reinado terminó abruptamente. Murió con solo 36 años, dejando a los cronistas de la época con más preguntas que respuestas.

Gracias al análisis genético y a la forma de su cráneo casi intacto, los investigadores lograron recrear digitalmente el rostro del emperador, que hasta ahora solo se conocía por las representaciones artísticas de su época
Gracias al análisis genético y a la forma de su cráneo casi intacto, los investigadores lograron recrear digitalmente el rostro del emperador, que hasta ahora solo se conocía por las representaciones artísticas de su época. Fuente: Pianpian Wei et al. (2024)

Una tumba intacta y un hallazgo científico sin precedentes

El descubrimiento de la tumba de Wu se produjo en 1996 durante excavaciones en la zona de su mausoleo, conocido como Xiaoling. Lo más asombroso fue el excelente estado de conservación de su esqueleto, incluido un cráneo prácticamente completo. Para la arqueología, se abría una oportunidad única: unir el estudio histórico y antropológico con las nuevas tecnologías genéticas.

Casi tres décadas después, el equipo dirigido por Panxin Du y Shaoqing Wen logró recuperar más de un millón de marcadores genéticos de su ADN, conocidos como SNPs. Esta información permitió no solo inferir el color de su piel, cabello y ojos, sino también analizar predisposiciones genéticas a enfermedades que podrían explicar su muerte.

El resultado es una reconstrucción digital en 3D que muestra a un hombre de ojos marrones, cabello negro y piel de tono intermedio a oscuro, muy similar a la población actual del norte y noreste de Asia. Esta imagen desafía las viejas descripciones de algunos cronistas que hablaban de los Xianbei, el grupo étnico al que pertenecía Wu, como “exóticos” por supuestos rasgos europeos como narices prominentes o cabellos claros. La genética ha confirmado que, al menos en su caso, su aspecto era plenamente asiático.

ADN que cuenta historias: salud, linaje y mezcla cultural

Además de devolverle un rostro, el ADN del emperador ha servido para explorar su herencia biológica y su salud. El análisis revela que Wu tenía una predisposición genética a sufrir un ictus, una pista relevante si se tiene en cuenta que los cronistas mencionan síntomas compatibles con un derrame cerebral: caída de párpados, problemas del habla y dificultad para caminar.

Su muerte, por tanto, pudo deberse a causas naturales relacionadas con un accidente cerebrovascular, más que a envenenamiento político, una hipótesis que siempre ha alimentado la imaginación histórica.

En cuanto a su origen genético, el estudio aporta información clave sobre la formación de la élite del norte de China. Wu heredó aproximadamente un 61 % de su genoma de antiguos pueblos del noreste asiático y el resto de agricultores del valle del río Amarillo, es decir, población han. Esto confirma que los Xianbei, originalmente nómadas de Mongolia y Manchuria, se mezclaron con aristócratas locales han, dando lugar a una élite híbrida que sería crucial en la transición hacia la unificación de China.

Esta fusión de linajes, documentada ahora de forma científica, es un reflejo de la dinámica que vivió la región durante siglos: migraciones, alianzas matrimoniales y adaptaciones culturales que transformaron la identidad política de China.

Arriba, la historia genética y la distribución geográfica de diversos clanes del norte de China y la actual Mongolia; abajo, un esquema muestra la tumba del emperador Wu, hallada en 1996
Arriba, la historia genética y la distribución geográfica de diversos clanes del norte de China y la actual Mongolia; abajo, un esquema muestra la tumba del emperador Wu, hallada en 1996. Fuente: Pianpian Wei et al. (2024)

El valor histórico de mirar al pasado con ojos de la ciencia

La investigación del genoma de Wu no es solo un hallazgo aislado, sino un ejemplo de cómo la genética está reescribiendo capítulos enteros de la historia. Hasta hace poco, conocer el aspecto o la salud de un personaje histórico dependía de pinturas, leyendas o interpretaciones médicas de textos antiguos.

Ahora, gracias a la secuenciación de ADN antiguo, se pueden reconstruir rostros, analizar predisposiciones genéticas y rastrear migraciones humanas. Para la historia de China, este estudio abre la puerta a entender mejor la relación entre pueblos nómadas y sedentarios, y cómo estas interacciones dieron forma a dinastías enteras.

El equipo científico ya ha anunciado que su próximo objetivo es analizar los restos de antiguos habitantes de Chang’an, la gran capital del noroeste chino y extremo oriental de la Ruta de la Seda. Con ello esperan revelar hasta qué punto la ciudad fue un crisol de culturas y un punto de encuentro biológico de Eurasia.

Más allá de los datos, lo que fascina de este estudio es su capacidad para humanizar la historia. El rostro digital del emperador Wu no es solo una imagen: es la conexión directa con un hombre que vivió, gobernó y murió hace 1.500 años, y que ahora vuelve a mirar al mundo gracias a la ciencia.

El estudio ha sido publicado en la revista Current Biology.

¿Sabías que uno de los mayores genios de la historia tuvo que “buscar trabajo” como cualquier persona común? Así es: Leonardo da Vinci escribió el primer currículum vitae del que se tenga registro, nada menos que en el año 1482. Con 30 años de edad y pese a su talento excepcional, Leonardo, creador del hombre de Vitruvio, necesitaba un empleo y decidió plasmar en una carta todas sus habilidades para captar la atención de un potencial mecenas. El resultado fue una carta dirigida a un poderoso noble de la época, tan pionera como persuasiva, que no solo le consiguió el puesto sino que asombra por su vigencia siglos más tarde. Y lo mejor de todo: Leonardo fue honesto y eficaz en su presentación, no tuvo que “dimitir” de nada ni enfrentar escándalos por el contenido de su currículum – al contrario, su ingeniosa "hoja de vida" le abrió las puertas a años de éxito profesional.

En pleno Renacimiento, “currículum vitae” no era un término común, pero existía el mismo concepto básico: demostrar tu valía para obtener el favor de un empleador. Por entonces la palabra de moda era mecenazgo: los artistas e inventores dependían del apoyo de nobles patrocinadores. Leonardo da Vinci, con sus múltiples talentos de pintor, ingeniero, arquitecto e inventor, buscaba prosperar fuera de su Florencia natal. Hacia 1482 decidió probar fortuna en la próspera ciudad de Milán, gobernada por Ludovico Sforza (apodado “El Moro”), que actuaba como regente y luego sería duque milanés. En aquellos años Italia estaba envuelta en conflictos, y Ludovico necesitaba ingenieros militares e inventores para reforzar su poder. Leonardo vio allí una oportunidad: redactó una carta formal ofreciéndose al servicio de Sforza, presentándose como experto en ingeniería militar e inventos bélicos. En esencia, Leonardo estaba haciendo lo que hoy llamaríamos “postular a un puesto de trabajo” – y para ello elaboró cuidadosamente el primer currículum de la historia.

La carta a Ludovico Sforza: el primer currículum vitae

Leonardo da Vinci escribió de puño y letra una misiva destinada a Ludovico Sforza en la que enumeró sus capacidades de forma organizada y convincente. La carta comienza con un saludo cortés y una frase intrigante: “Ilustrísimo señor mío... me esforzaré en hacerme entender, le abriré mis secretos y me pongo a disposición... para llevar a efecto y demostrar... las cosas que brevemente se anotan a continuación”. Con esta introducción, Leonardo captó de inmediato la atención de su lector prometiendo revelar sus “secretos” – una palabra muy poderosa para suscitar interés en la época (¡y aún hoy!). Acto seguido, procedió a listar en párrafos separados (como puntos de un currículum moderno) todas las hazañas y proyectos que podía realizar. En vez de hablar de su fama como artista, se enfocó en lo que podía hacer por el duque en ese momento. Estos son algunos de los puntos destacados que Leonardo incluyó en su currículum de 1482:

En resumen, Leonardo da Vinci elaboró un currículum extraordinariamente completo y adelantado a su época. En lugar de listar cargos o títulos formales, presentó un catálogo de soluciones a medida para las necesidades de su potencial empleador. Cada “ítem” de su carta aportaba valor: ya fuera una máquina de guerra novedosa o una obra artística, todo estaba orientado a impresionar a Ludovico Sforza y convencerlo de contratarlo. La estrategia funcionó: Ludovico quedó tan impresionado que efectivamente acogió a Leonardo bajo su mecenazgo. Gracias a esa carta, el florentino se mudó a Milán y trabajó allí durante casi 20 años al servicio de los Sforza. Bajo ese patrocinio desarrolló obras tan famosas como La Virgen de las Rocas y La Última Cena, pintadas durante su estancia milanesa. Nada mal para un CV de una página escrito en 1482.

Hombre de Vitruvio, por Leonardo Da Vinci.
Hombre de Vitruvio, por Leonardo Da Vinci. Fuente: Wikimedia Commons / Luc Viatour.

Ingenio y persuasión adelantados a su tiempo

Resulta fascinante analizar por qué el currículum de Leonardo da Vinci fue tan efectivo y qué lecciones ofrece incluso hoy. Primero, Leonardo supo adaptar su mensaje al “puesto” que buscaba. En ese momento, a Ludovico Sforza le interesaban los ingenieros militares más que los pintores, así que Leonardo priorizó sus habilidades técnicas y bélicas, dejando sus logros artísticos en segundo plano. A diferencia de muchos solicitantes modernos, no se limitó a enumerar logros pasados, sino que enfatizó lo que podía hacer en el futuro para su empleador. Ofreció soluciones concretas a problemas de ingeniería y defensa, mostrando que entendía las necesidades de su “cliente” (el duque) y cómo podía resolverlas. Esta capacidad de personalizar el currículum según el destinatario es una recomendación básica hoy día, y Leonardo la aplicó magistralmente en el siglo XV.

Además, su tono fue seguro pero humilde, persuasivo sin caer en mentiras. Leonardo utilizó un lenguaje potente con frases como “sé cómo hacer…”“tengo proyectos…”“puedo realizar…”, transmitiendo confianza en sí mismo. Al mismo tiempo, evitó la arrogancia vacía: no dijo “soy el mejor” directamente, sino que lo dio a entender ofreciendo “dar satisfacción tan bien como cualquier otro” en ciertos campos. Incluso introdujo términos positivos como “comodísimos”“bellísimas y útiles”, o “una completa satisfacción”, lo cual podríamos considerar un marketing personal muy avanzado para su época. Y todo respaldado por su promesa de demostración práctica, que eliminaba cualquier sospecha de exageración. En conjunto, su carta transmite honestidad, confianza y valor.

Otro punto brillante es cómo estructuró la información de forma clara y llamativa. La carta está dividida en una decena de párrafos breves (esencialmente viñetas, como los bullets de un CV moderno), cada uno enfocado en una habilidad o proyecto distinto. Esto hacía la lectura ágil y resaltaba cada competencia por separado. Leonardo jerarquizó sus contenidos: comenzó con los puentes y las máquinas de guerra (lo más urgente para el duque) y terminó con la pintura y escultura (importantes, pero no prioritarias en ese contexto). De esta manera, se aseguró de captar la atención de Sforza desde el principio y luego mantener su interés hasta el final. Podemos decir que Leonardo entendió el principio de relevancia y el ordenamiento estratégico de un currículum muchos siglos antes de que los expertos en recursos humanos lo formularan en manuales.

A diferencia de tantos currículums que terminan en el olvido, el suyo se tradujo en proyectos reales y en obras inmortales que aún hoy admiramos. ¡Todo gracias a saber presentarse con ingenio y verdad!

Retrato de Ludovico Sforza, la primera persona en recibir un CV de la historia, en torno al año 1482. Detalle de la obra "La Virgen con el Niño entronizados junto a los Doctores de la Iglesia". Autor desconocido. Fuente: Wikipedia

Del Renacimiento a la actualidad: la vigencia del primer CV

Han pasado más de 500 años, y el currículum vitae sigue siendo una herramienta esencial para acceder a un empleo. Por supuesto, ha evolucionado en formato y estilo. De hecho, no fue hasta la década de 1930 que el CV “moderno” comenzó a estandarizarse, incorporando datos personales como dirección, fecha de nacimiento, contacto e incluso detalles curiosos como la altura o la religión del candidato. Con el tiempo, el currículum se ha vuelto más breve, directo y apoyado por tecnologías digitales; pero la esencia sigue siendo la misma que en tiempos de Leonardo: resumir de forma atractiva lo que sabes hacer, tus logros y cómo puedes aportar valor a quien te va a contratar.

Si comparamos las recomendaciones actuales con el ejemplo de Leonardo, veremos que Da Vinci se adelantó a muchos “gurús” del empleo. Los expertos hoy aconsejan: captar la atención desde el inicio, destacar tus habilidades clave, aportar pruebas o logros concretos, incluir una propuesta de valor y adaptar el CV al puesto. Sorprendentemente, el currículum de Leonardo en 1482 ya cumplía con todos esos puntos. Él abrió con una frase impactante (“le abriré mis secretos”), enumeró destrezas únicas (puentes, armas, arte), ofreció demostraciones como prueba de competencia, y claramente ajustó todo a lo que su reclutador buscaba. Por eso su carta resulta tan moderna al leerla con ojos del siglo XXI.

Existe también una lección ética en esta historia. La honestidad y la coherencia del currículum de Leonardo contrastan con ciertos casos que vemos en la actualidad, donde la tentación de “inflar” el CV con datos falsos ha llevado a más de uno al escándalo. Sin ir más lejos, en los últimos años hemos visto cómo varias figuras públicas tuvieron que renunciar a sus cargos tras revelarse mentiras o títulos inexistentes en sus documentos. Es decir, hoy un currículum engañoso puede costarte el puesto y la reputación. Leonardo, en cambio, no necesitó falsear nada: confiaba en su talento real y lo comunicó de forma efectiva. Su credibilidad quedó intacta – y eso le dio frutos. Esta diferencia subraya un hecho atemporal: un currículum brillante no solo impresiona por lo que dice, sino por sostenerse en la verdad.

La carta-curriculum de Leonardo da Vinci al completo, dirigida a Ludovico Sforza, "el Moro"

Habiendo visto y considerado ya con suficiente atención las pruebas de todos aquellos que se reputan maestros e inventores de instrumentos bélicos, y habiendo comprobado que las invenciones y operaciones de dichos instrumentos no se apartan en absoluto del uso común, me esforzaré, sin desmerecer a nadie, por darme a conocer ante Vuestra Excelencia, revelándole mis secretos y ofreciéndome a ponerlos en práctica cuando lo estime oportuno, operando con eficacia en todas las cosas que, aunque brevemente, se indican a continuación:

  1. Poseo métodos para construir puentes muy ligeros y resistentes, fácilmente transportables, que permiten avanzar o retirarse con rapidez. También puentes seguros, resistentes al fuego y al combate, fáciles de montar y desmontar. Sé además cómo incendiar y destruir los del enemigo.
  2. En caso de asedio, sé cómo desviar el agua de los fosos y construir numerosos puentes, torres de asalto y escaleras, así como otros instrumentos útiles para esa expedición.
  3. Si por la altura de los muros o la fortaleza del sitio no se pudiera utilizar artillería, dispongo de métodos para arruinar cualquier torre o fortaleza, incluso si estuviera construida sobre roca.
  4. He ideado bombardas muy cómodas y fáciles de transportar, que lanzan pequeñas piedras como una tormenta; con su humo provocan gran temor, confusión y daños al enemigo.
  5. Si se diera una batalla naval, dispongo de instrumentos muy eficaces para el ataque y la defensa, y sé construir naves que resistan los disparos de las bombardas más pesadas, así como el polvo y el humo.
  6. Sé construir túneles y caminos secretos, sin ruido alguno, que permiten llegar a un lugar preciso incluso atravesando bajo fosos o ríos.
  7. Construiré carros cubiertos, seguros e inexpugnables, equipados con artillería, que penetrarán entre las filas enemigas, sin que ni el ejército más numeroso pueda detenerlos. Tras ellos podrá avanzar la infantería sin obstáculos ni peligro.
  8. Si fuera necesario, fabricaré bombardas, morteros y cañones móviles de formas bellas y funcionales, distintas a las de uso común.
  9. En los casos en que no se puedan utilizar bombardas, construiré catapultas, manganeles, trabuquetes y otros instrumentos de eficacia sorprendente y diseño innovador. En resumen, según las circunstancias, puedo construir una infinita variedad de medios de ataque y defensa.
  10. En tiempos de paz, puedo contribuir de manera sobresaliente en arquitectura, tanto en construcciones públicas como privadas, y en el diseño de obras de canalización de aguas de un lugar a otro. Igualmente, puedo trabajar en escultura en mármol, bronce y arcilla, así como en pintura, ejecutando cualquier obra que se pueda comparar con las de cualquier otro maestro.

Además, puedo ejecutar la estatua ecuestre en bronce que celebrará eternamente la memoria de su señor padre y de la ilustre casa Sforza.

Y si alguna de las cosas antes mencionadas parecieran imposibles o irrealizables a alguien, me ofrezco gustosamente a hacer una demostración en vuestro parque o en el lugar que Vuestra Excelencia tenga a bien elegir, a quien humildemente me encomiendo.

Folio 1082 frontal del Códice Atlántico de Leonardo da Vinci, conservado en la Biblioteca Ambrosiana de Milán. En esta cara del manuscrito se transcribe la carta dirigida a Ludovico Sforza hacia 1482, considerada el primer currículum vitae de la historia. El texto no está escrito con la característica caligrafía especular de Leonardo, lo que sugiere que fue copiado por un asistente o secretario bajo su supervisión. Fuente: Museo Galileo Galilei

El documento original: del códice atlántico a la pantalla

Aunque solemos hablar de la carta de Leonardo como si fuera un texto escrito por él y enviado directamente al duque de Milán, lo cierto es que el documento que ha llegado hasta nosotros no es el manuscrito original, sino una copia incluida en el llamado Códice Atlántico. Este códice es una monumental colección de escritos técnicos y dibujos de Leonardo da Vinci, recopilados entre los siglos XVI y XVII y conservados actualmente en la Biblioteca Ambrosiana de Milán. Contiene 1.119 páginas, muchas de ellas pegadas sobre hojas grandes (de ahí lo de “atlántico”, como los antiguos atlas), y en ellas se mezclan diseños de máquinas, bocetos, notas y textos como esta célebre carta.

La hoja concreta que contiene el contenido de la carta es el folio 2163 (cara frontal, número de catálogo técnico), y puede consultarse en versión digitalizada en la plataforma Leonardo//thek@ del Museo Galileo de Florencia, aunque en forma de imagen escaneada, no como texto editable. También se puede encontrar en el proyecto Codex Atlanticus, en la página 1082. La caligrafía no es la característica escritura especular de Leonardo (es decir, de derecha a izquierda), lo que hace pensar que la versión conservada es una copia hecha por algún colaborador o secretario, probablemente bajo la supervisión del propio Leonardo. De hecho, esta carta parece haber sido pensada como un borrador o una plantilla para enviarse o leerse en voz alta ante el duque.

En cuanto a la lengua original, el texto está escrito en italiano del siglo XV, con formas verbales y giros propios de la época. No está redactado en latín ni en el dialecto florentino puro, sino en una mezcla comprensible para una audiencia culta y cortesana. Existen múltiples traducciones al italiano moderno y al español, muchas de ellas adaptadas para facilitar la lectura. Sin embargo, algunas ediciones modernas —por ejemplo, en blogs o artículos divulgativos— tienden a simplificar o incluso alterar ligeramente el orden y el tono del texto. Las traducciones más fieles suelen conservar la estructura en diez bloques enumerativos, donde Leonardo desgrana sus propuestas sin adornos excesivos, con un estilo directo y funcional.

Un detalle importante: el documento no lleva fecha ni firma al uso, aunque por su contexto histórico se suele situar entre 1482 y 1483, cuando Leonardo dejó Florencia con destino a Milán. La autenticidad del contenido está ampliamente aceptada, ya que concuerda con el estilo y las preocupaciones técnicas del Leonardo de esos años, así como con otros escritos de esa misma etapa.

Por todo ello, hablar del “primer currículum de la historia” no es solo una metáfora eficaz: es también una forma de destacar la voluntad consciente de Leonardo de organizar, sintetizar y presentar su conocimiento técnico de manera clara y estratégica, con un fin muy concreto. El documento que hoy admiramos es, al mismo tiempo, testimonio de su genio y de su capacidad para comunicarlo con eficacia, aunque la versión que ha llegado a nosotros probablemente no esté escrita con su puño y letra.

En el centro de este descubrimiento se encuentran los materiales bidimensionales, que tienen apenas unos nanómetros de espesor. Cuando se superponen dos capas de este tipo de materiales con un pequeño ángulo de giro entre ellas, se forma una estructura conocida como superred de moiré. Esta disposición genera fenómenos físicos completamente nuevos, entre ellos, modos de vibración inusuales llamados "fasones" (phason en inglés), que no habían sido observados directamente hasta ahora.

Los "fasones" —también conocidos como modos ultrasuaves de cizalladura— son movimientos colectivos de los átomos en el plano del material, especialmente localizados en las regiones donde las capas están desalineadas. Estos modos vibracionales son clave para entender cómo se comportan estos materiales en aplicaciones como la computación cuántica, la superconductividad o la conducción térmica. Según explican los autores, "estos modos corresponden a deslizamientos intercapas localizados en los bordes de dominio del solitón y a traslaciones de la superred de moiré".

Hasta ahora, la existencia de estos modos había sido respaldada solo por simulaciones teóricas. La principal dificultad residía en que su frecuencia es tan baja que escapa a las técnicas tradicionales de espectroscopía. Lo que ha conseguido este equipo es abrir una nueva ventana experimental hacia ese universo vibracional oculto.

Ptychografía electrónica: la técnica que lo hizo posible

Para lograr este nivel de detalle, el equipo utilizó una técnica de imagen llamada ptychografía electrónica multisegmento (MEP, por sus siglas en inglés). Esta técnica consiste en escanear el material con un haz de electrones a escala atómica y reconstruir las imágenes a partir de los patrones de difracción obtenidos. La ventaja principal es su altísima resolución: según los autores, "obtuvimos imágenes excepcionalmente claras de cada sitio atómico" y lograron "resolver estructuras atómicas detalladas, incluso en pares de átomos que aparecen borrosos en las proyecciones convencionales".

Con esta metodología, fueron capaces de detectar cómo las vibraciones térmicas desenfocaban ligeramente las imágenes atómicas. Pero no se trataba de un desenfoque uniforme. En las regiones llamadas "solitones", donde se produce una transición entre diferentes tipos de apilamiento atómico, los átomos mostraban vibraciones más intensas y direccionalmente marcadas. Estas áreas se identificaron mediante análisis estadísticos de las formas elípticas de los perfiles atómicos individuales.

Según el paper, "la gran amplitud de las vibraciones, su fuerte elipticidad y su localización en los solitones son características inusuales que concuerdan con las predicciones para los fasones de moiré".

Imágenes atómicas obtenidas por ptychografía electrónica con una resolución inferior a 15 picómetros, donde se observa claramente la estructura atómica y el desenfoque causado por las vibraciones térmicas. Fuente: Science

Un mapa térmico átomo por átomo

Uno de los logros más destacados del estudio fue construir un mapa térmico detallado a nivel atómico. Cada átomo de tungsteno (W) y selenio (Se) en el material WSe2 fue modelado mediante una función gaussiana anisotrópica, lo que permitió calcular su nivel de vibración en distintas direcciones. Este enfoque reveló que las vibraciones no solo cambian de intensidad según la zona del material, sino también de forma: algunas son más circulares, otras más alargadas o direccionales.

Para validar sus observaciones, los investigadores realizaron simulaciones de dinámica molecular a temperatura ambiente (300 K) y las compararon con los datos experimentales. El resultado fue una coincidencia notable en la distribución espacial de las vibraciones. Se observó que los átomos vibran con mayor intensidad en las regiones AA (donde las capas están perfectamente alineadas) que en las regiones AB o en los solitones. Además, las vibraciones en las regiones AA eran más isotrópicas, mientras que en los solitones mostraban una clara dirección preferente.

La precisión alcanzada es tal que incluso se pudieron medir variaciones de amplitud de apenas unas décimas de picómetro, lo que representa un salto cualitativo en la metrología de materiales a escala atómica. Esta capacidad podría ser decisiva para diseñar materiales con propiedades térmicas y electrónicas controladas a nivel atómico.

Fuente: ChatGPT / E. F.

Cómo cambian los fasones con el ángulo de torsión

El estudio también analizó cómo evolucionan los fasones al variar el ángulo de giro entre las capas. Para ello, se compararon muestras con ángulos de 1,7°, 2,45° y 6,0°. Los resultados muestran que los fasones son más prominentes en los ángulos pequeños, donde la estructura de moiré está más desarrollada. A medida que el ángulo aumenta, las diferencias en las vibraciones térmicas entre las distintas regiones del material se atenúan, y la estructura se comporta como dos capas casi independientes.

Esta observación tiene implicaciones importantes. Indica que la ingeniería del ángulo de torsión es una herramienta poderosa para controlar los modos vibracionales y, por ende, las propiedades físicas del material. Como resumen el artículo: "los fasones dominan las vibraciones térmicas de las estructuras de moiré reconstruidas", aportando pruebas experimentales a una hipótesis que hasta ahora era puramente teórica.

Primer mapa vectorial a escala atómica que muestra la dirección y forma de las vibraciones térmicas localizadas en los solitones de una red moiré. Fuente: Science

¿Sabías que... los átomos nunca están quietos?

Incluso en los objetos más sólidos, los átomos vibran constantemente debido a la energía térmica. A temperatura ambiente, un solo átomo puede oscilar millones de veces por segundo. Pero hasta ahora, esas vibraciones eran invisibles. Este nuevo estudio ha logrado captarlas directamente por primera vez, abriendo una puerta a tecnologías que controlen el calor y la electricidad átomo por átomo.

Aplicaciones futuras y próximos pasos

El trabajo no solo representa un avance fundamental en la comprensión de los materiales 2D, sino que también abre nuevas líneas de investigación aplicadas. Poder observar cómo vibran los átomos permite, por ejemplo, estudiar cómo influyen los defectos estructurales o las interfaces en las propiedades térmicas y electrónicas de un dispositivo.

Los autores planean extender esta técnica para investigar cómo las vibraciones térmicas se ven afectadas por imperfecciones en la red atómica. Comprender estos efectos será esencial para diseñar dispositivos cuánticos más eficientes, sensores a nanoescala y nuevos materiales con propiedades térmicas optimizadas.

Además, el uso de la ptychografía electrónica podría ampliarse a otros campos, como la biología estructural o la ciencia de materiales complejos, donde también se necesitan imágenes precisas a escala atómica.

Glosario de términos técnicos

Átomo

La unidad básica de la materia. Está compuesto por un núcleo con protones y neutrones, y una nube de electrones. En el contexto del artículo, los investigadores lograron visualizar los movimientos individuales de los átomos en un material.

Material bidimensional (2D)

Un material extremadamente delgado, formado por una o pocas capas de átomos. Un ejemplo famoso es el grafeno. Estos materiales tienen propiedades eléctricas, ópticas y mecánicas únicas.

Superred de moiré

Estructura que aparece cuando se superponen dos capas de materiales 2D con un pequeño ángulo de giro entre ellas. Este patrón genera nuevas propiedades físicas que no existen en las capas individuales.

Solitón

Zona de transición en una superred de moiré donde cambia la alineación entre capas. Estas regiones afectan cómo se comporta el material a nivel atómico y son clave para los movimientos llamados fasones.

Fasones

Modos de vibración extremadamente suaves que ocurren en los solitones y regiones desalineadas de una superred de moiré. Son como un “deslizamiento” colectivo de átomos entre capas. Se llaman así por analogía con otros modos conocidos como fonones.

Vibraciones térmicas

Movimientos que realizan los átomos debido a la energía térmica, incluso a temperatura ambiente. Aunque no se ven a simple vista, están presentes en todos los materiales y afectan sus propiedades.

Ptychografía electrónica

Técnica de imagen que utiliza haces de electrones y patrones de difracción para reconstruir imágenes a escala atómica con altísima resolución (menos de 15 picómetros). Permite ver cómo “tiemblan” los átomos.

Resolución atómica

Capacidad de una técnica para distinguir detalles a escala de átomos individuales. En este estudio, la resolución fue tan alta que permitió detectar el desenfoque causado por la vibración de un solo átomo.

Función gaussiana anisotrópica

Modelo matemático que se usa para describir cómo se distribuye la posición de un átomo que vibra. “Anisotrópico” significa que la vibración no es igual en todas las direcciones.

Simulación de dinámica molecular

Método computacional que permite estudiar el movimiento de los átomos a lo largo del tiempo, basándose en las leyes de la física. Se utiliza para comparar con los datos reales obtenidos en el laboratorio.

Referencias

Ocultas entre las colinas rocosas de Cerdeña, las “domus de janas” o “casas de las hadas” constituyen uno de los legados funerarios más extraordinarios del Neolítico europeo. Estas tumbas milenarias excavadas en la roca se diseñaron como complejas arquitecturas rituales capaces de encarnar visual y espacialmente el tránsito entre la vida y la muerte. Su reconocimiento como Patrimonio de la Humanidad, otorgado en 2025, no solo protege su legado, sino que pone en valor su profundo simbolismo histórico y religioso.

Un legado monumental del Neolítico sardo

Las domus de janas fueron excavadas a lo largo del Neolítico final y la Edad del cobre (aproximadamente entre 4400 y 2300 a. C.), en correspondencia con culturas como las de San Ciriaco, Ozieri, Sub-Ozieri, Filigosa y Abealzu. Según las estimaciones más recientes, existen al menos 3.500 tumbas de este tipo repartidas por toda la isla de Cerdeña, con cerca de 250 de ellas decoradas con relieves o pinturas. Esta concentración inusitada convierte a la isla en el mayor conjunto de tumbas neolíticas decoradas de Europa.

Estos mausoleos solían excavarse en pendientes de roca blanda o acantilados de arenisca, sobre todo en aquellas zonas que dominaban valles fluviales. Muchos de ellos incluso acababan por formar auténticas necrópolis compuestas por grupos de cámaras adyacentes.

A pesar de que algunas domus presentan una estructura sencilla de una sola cámara, el modelo más elaborado —y también el más frecuente entre las tumbas decoradas— consiste en una secuencia espacial que incluye un dromos o pasillo de entrada, una antecámara, una cámara principal y un conjunto de celdas secundarias.

Domus de janas
Yacimiento de Sa Figu. Fuente: giselanto/ Wikimedia

Una arquitectura para el tránsito entre mundos

Además de servir como espacios funerarios, estas construcciones también se diseñaron para que funcionasen como escenarios de rituales complejos asociados a la muerte. El estudio de cómo se distribuyen las representaciones artísticas en su interior ha revelado una disposición muy estructurada, con una clara intención de guiar simbólicamente a los vivos y a los muertos a través de una progresión ritual.

Esta organización se establece a partir de un eje central, una línea imaginaria que atraviesa el conjunto desde el dromos hasta el fondo de la cámara principal, donde culmina en una suerte de puerta falsa esculpida dispuesta en la pared del fondo. Este eje permite distrìbuir las decoraciones, que siguen un patrón coherente para marcar la progresión del difunto hacia el más allá.

En contraste con esta organización lineal, las celdas secundarias, que suelen carecer de decoración, presentan una mayor variabilidad formal. Esto sugiere que su función era más flexible y de carácter práctico: servir como receptáculos para los restos funerarios durante el uso repetido del monumento.

Domus de janas
Putifigari, necrópolis de Monte Siseri. Fuente: Gianni Careddu/Wikimedia

El arte como agente ritual

El arte de las domus de janas se organiza en tres grandes categorías, según los investigadores: los motivos arquitectónicos, las representaciones de bóvidos (bucrania) y las figuras geométricas. Todos ellos contribuyen a crear un entorno cargado de significado.

Imitaciones de casas petrificadas

Los motivos arquitectónicos reproducen elementos constructivos como dinteles, pilares, vigas, hogares o falsas puertas. Esta recurrencia refuerza, según los expertos, la interpretación de que estas tumbas representaban “casas de los muertos” o espacios de tránsito entre el mundo de los vivos y el más allá. El vínculo de estos elementos con la arquitectura doméstica simbolizaba la continuidad entre la vida y la muerte. Así, las domus de janas dotaban a los difuntos de un lugar “habitable” en el otro mundo.

Domus de janas
Bucráneo en la domus de Sos Furrighesos. Fuente: Ester Mezzano/Wikimedia

La omnipresencia del toro

Los bucrania, es decir, las representaciones de cabezas de bóvido con cuernos, son los motivos más frecuentes. Aparecen en más de un centenar de tumbas, a menudo asociados a puertas, tanto reales como simbólicas. Por ello, se han interpretado como guardianes rituales del umbral.

Su disposición varía según el tipo de estructura arquitectónica. En las cámaras con dos pilares, suelen tallarse en los lados internos de los mismos, uno frente al otro. En las que cuentan con un único pilar, se esculpen de cara a la entrada, como si custodiaran el acceso al corazón del monumento. Esta iconografía, asociada en algunas interpretaciones al culto de un dios toro protector de los muertos, dotaba al espacio de una fuerte carga simbólica, sobre todo en los puntos clave del tránsito funerario.

Geometría sagrada y colores simbólicos

Los motivos geométricos —zigzags, espirales, triángulos— aparecen en relación con los umbrales y los puntos de paso, reforzando su carácter liminal. También hay ejemplos notables de decoración pictórica, como en la tumba de Sa Pala Larga en Bonorva, donde las espirales rojas y un techo de cuadros negros y blancos transforman el espacio en un entorno casi teatral, pensado para impactar visualmente a los participantes.

El uso del color rojo en dinteles y paredes se ha interpretado como un símbolo de vida y regeneración y sangre. Su intensidad visual podría haber servido como señal de advertencia o marca de respeto en determinados rituales.

Domus de janas
Castangia, Pala Larga. Fuente: La Sardegna nella preistoria

Arquitectura y arte: una coreografía de la muerte

Puesto que las domus de janas estaban diseñadas para guiar el proceso de morir como tránsito social y espiritual, cada espacio tenía una función: el dromos ponía en marcha el movimiento ritual, la antecámara preparaba el paso, la cámara central escenificaba la transformación y las celdas albergaban el destino final de los cuerpos o sus restos. En cada uno de esos espacios, el arte intervenía para estructurar el recorrido, advertir o acompañar.

Resulta de especial relevancia el uso de motivos duplicados en los muros, como los pares de cuernos o las espirales enfrentadas. Estos elementos dobles habrían enmarcado al visitante y lo habrían obligado a “atravesar” simbólicamente los espacios de paso. Esta narrativa arquitectónica, por tanto, refuerza el sentido ritual de todo el proceso.

Recreación ficticia de una domus de janas
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Un patrimonio de piedra

La inscripción de las domus de janas como Patrimonio Mundial reconoce su valor excepcional como testimonios materiales de los complejos sistemas rituales del Neolítico europeo. Estas estructuras constituyen una fusión sin precedentes de arquitectura, escultura, pintura y simbolismo funerario.

El estudio sistemático de sus espacios y decoraciones demuestra que arte y arquitectura fueron los auténticos protagonistas del ritual de la muerte. Las domus de janas encarnan el tránsito entre mundos, con un lenguaje visual que permitía a los vivos relacionarse con los muertos, y a los muertos, encontrar su lugar en la eternidad.

Referencias

Todos tenemos una idea aproximada de cuál es nuestro yo ideal, la persona que nos gustaría ser. Sin embargo, aquellos que nos rodean, especialmente nuestra pareja, influyen en la imagen que nos forjamos de nosotros mismos, por lo que esculpen nuestra personalidad igual que un artista armado con martillo y cincel talla una estatua.

La Piedad del arquitecto, escultor y pintor italiano Miguel Ángel está considerada una de las obras más importantes del Renacimiento italiano. Representa el dolor de la Virgen María al sostener en brazos el cuerpo sin vida de su hijo Jesús cuando desciende de la cruz. La perfección y la belleza de este conjunto escultórico es tal que no es de extrañar que se produzcan auténticos atascos de turistas nada más cruzar la puerta de entrada de la basílica papal de San Pedro, en el Vaticano, donde se encuentra. 

Un escultor joven y un yo por descubrir

Quizá muchos no sepan que el genio florentino tenía veintipocos años cuando recibió este encargo. Precisamente por su juventud, en la época se llegó a dudar de que él fuera el verdadero autor. Y eso fue lo que provocó que, en un arrebato de ira, incluyese sobre el pecho de la Virgen una banda con la inscripción de su nombre en latín. Fue la primera y la última vez que firmó una obra. 

Para el gran Michelangelo Buonarroti, la escultura era un proceso por el cual el artista libera, con su cincel, una figura ideal del bloque de piedra en el que duerme: “En cada bloque de mármol veo una estatua tan clara como si se pusiera delante de mí, en forma y acabado de actitud y acción. Solo tengo que labrar fuera de las paredes rugosas que aprisionan la aparición preciosa para revelar a los otros ojos como los veo con los míos”.

Los seres humanos también poseemos formas ideales. En psicología, el yo ideal describe los sueños y aspiraciones de un individuo, o el conjunto de valores y habilidades que le gustaría adquirir. Por ejemplo, el yo ideal de un estudiante de medicina podría incluir objetivos como terminar la carrera, convertirse en un reputado cardiólogo, viajar por el mundo o aprender varios idiomas. 

El efecto Miguel Ángel, cómo tu pareja moldea tu mejor versión (o todo lo contrario) 1
La Piedad del Vaticano. Fuente: Stanislav Traykov / Wikimedia Commons.

Lo que somos y lo que queremos ser

El concepto que tenemos de nosotros mismos se va forjando desde que somos pequeños por la influencia de los padres, maestros, compañeros de clase y amigos. Esto tiene repercusiones tanto a nivel personal como en el ámbito laboral, escolar, social y familiar, pero aquellas pueden ser productivas o contraproducentes.

Así, la imagen o las expectativas que tienen los profesores acerca de sus alumnos influyen en la conducta del niño. Si son positivas, fortalecen su autoestima y mejoran su rendimiento académico. En cambio, si el docente enfatiza demasiado los errores de su discípulo y le cuelga un determinado sambenito, “aquel acabará cogiendo inseguridad y se sentirá cada vez más torpe –explica la psicóloga Emma Ribas, experta en terapia de pareja y sexología–. A partir de ahí se genera un efecto que hace que el pronóstico se acabe cumpliendo. Es lo que llamamos profecía autocumplida”.

Es cierto que a veces las personas alcanzan sus metas ideales únicamente a través de sus acciones. Pero la adquisición de nuevas habilidades y valores está determinada, en la mayoría de casos, por la experiencia interpersonal. Las relaciones, por tanto, moldean nuestra conducta y nuestro pensamiento, proceso que en el mundo de la pareja se conoce como efecto o fenómeno Miguel Ángel. 

El término fue descrito por primera vez por los investigadores Stephen M. Drigotas, Caryl E. Rusbult, Jennifer Wieselquist y Sarah W. Whitton en un estudio publicado en el Journal of Personality and Social Psychology en 1999. Según los autores, al igual que Miguel Ángel esculpía el mármol para liberar la forma ideal que se escondía dentro de él, los compañeros románticos se cincelan mutuamente hasta conseguir sacar lo mejor el uno del otro. En opinión de Ribas, “nuestra pareja es la oportunidad que nos ha dado la vida para mejorarnos a nosotros mismos”. 

El autoconcepto y cómo se forma

Algunos expertos señalan tres fases en este proceso de crecimiento personal. La primera es la afirmación perceptiva de cada uno de los miembros de la pareja. Por ejemplo, Luis piensa que María, su mujer, es divertida, y la diversión forma parte del yo ideal de María. En la segunda fase, la de la afirmación conductual, Luis se ríe de los chistes de María y la anima a contarlos delante de los demás.

Por último, se produce el movimiento hacia el yo ideal del otro miembro de la pareja. En el caso que nos atañe, María podría convertirse objetivamente en una persona más divertida, incluso cuando su esposo no está delante. Al igual que el escultor, no es que Luis cree algo de la nada, sino que saca a la luz cualidades que ya existían en su compañera.

El efecto Miguel Ángel, cómo tu pareja moldea tu mejor versión (o todo lo contrario) 3
Cómo influye el entorno en nuestro yo: Padres, docentes, amigos y parejas dejan huella en nuestra identidad desde la infancia. Fuente: Pixabay.

¿Cómo nos esculpen los demás?

Una de las conclusiones más interesantes del estudio en el que se habla por primera vez del efecto Miguel Ángel es que los miembros de las parejas que se moldean en dirección a su yo ideal tienen una relación más estable y satisfactoria en comparación con los que no. Reafirmar a nuestro socio romántico parece que tiene beneficios directos sobre la salud psicológica de las personas, ya que promueve la confianza y el compromiso.

Por el contrario, una relación puede tener problemas cuando un individuo demanda aspectos que no forman parte del autoconcepto de su pareja. En este caso, se pueden dar dos posibilidades: ceder a las demandas para intentar alcanzar el yo ideal que la otra persona tiene en mente o bien no aceptarlas, lo cual puede conducir a un empeoramiento –e incluso al fin– de la relación.

En esta dicotomía se encontró durante aproximadamente tres años Paula, nombre ficticio de una profesora de Girona. Paula siempre había sido extravertida. Antes de conocer a su novio, pasaba casi todos los fines de semana haciendo planes con sus amigos. Pero cuando él, una persona extremadamente introvertida, llegó a su vida, tuvieron que adaptarse el uno al otro marcando algunas reglas que temporalmente funcionaron para ambos.

“Era una persona muy bonita, pero no tenía habilidades sociales y no le gustaban las multitudes ni relacionarse con gente que no conocía”, cuenta Paula. Él hizo verdaderos esfuerzos por participar en actividades sociales por ella; llevaba, incluso, un cálculo meticuloso del volumen de eventos para ganarse así su gratificación. Ella, por su parte, lo acompañaba a las cenas de la empresa para ayudarle a mantener conversaciones distendidas con sus compañeros.

Paula cree que, al principio de la relación, conocer a un modelo de persona antagónico la ayudó a tener un carácter menos impetuoso y avasallador y a dejar más espacio para la reflexión. Pero llegó un momento en el que pasaba muchas horas recluida en casa en contra de su voluntad. “A la larga, nos salió nuestro verdadero yo: él es cerrado y no quería salir; yo soy abierta y quería salir. Lo intentamos mucho hasta que no pudimos más y vimos que éramos como el aceite y el agua, no lo conseguiríamos nunca”.

Amor que transforma: el proceso del efecto Miguel Ángel

Al elegir un compañero de vida, consideramos muchos factores, pero a menudo nos olvidamos de pensar si la persona que esperamos ser en unos años es consistente con la persona que el otro quiere ser. Cuando iniciamos una relación de pareja, normalmente nos enamoramos y proyectamos en el otro nuestras necesidades. Pero a medida que va desapareciendo el enamoramiento nos encontramos con la persona real y ahí es cuando empezamos a ver los defectos del otro. 

“Aquí es donde tenemos que vigilar para no entrar en una rueda de ‘esta persona no tiene lo que yo quiero’ en vez de valorar lo que sí nos está aportando”. Emma Ribas explica que en terapia con parejas muchas veces les pide que piensen en cómo les gustaría verse de aquí a cinco o diez años.

“Les hago trazar una línea de vida en una hoja desde el momento en el que empieza la relación y tienen que dividirla por etapas. En cada etapa ponen un título construido entre los dos y van visualizando cómo quieren verse en el futuro”.

Escultura
Relaciones sanas vs. relaciones que deforman: Si la pareja no comparte o respeta nuestro yo ideal, la relación puede volverse insatisfactoria o destructiva. Fuente: Pixabay.

Tallar el futuro juntos: el arte de una pareja sana

La psicóloga señala que es normal que haya diversidad de opiniones, pero que es importante que cada miembro de la pareja tenga una buena autoestima y una buena capacidad de comunicarse para gestionar los conflictos y aprender a negociar desde el pensamiento de equipo, no desde la lucha.

“Es un arte construir relaciones de pareja sanas y no nos enseñan. Si nos enseñaran, evitaríamos mucho sufrimiento y muchas rupturas”, concluye la especialista. Por no hablar de todos los problemas de salud, tanto físicos como psicológicos, que aparecen cuando se mantiene una relación tóxica y que acaban afectando a todas las facetas de la vida.

En definitiva, la lectura que sacamos del fenómeno Miguel Ángel es que las personas con las que convivimos o trabajamos influyen en nuestras creencias y en nuestro comportamiento. En el caso de los socios románticos, esta forma de esculpirse mutuamente reporta enormes beneficios siempre que vaya en la dirección del yo ideal de cada uno de ellos. De lo contrario, si se moldean en sentido opuesto, es decir, alejándose de lo que realmente les gustaría ser, es más que probable que se sientan insatisfechos en su relación.

Se trata, por tanto, de estar con alguien que nos apoye y comparta la misma visión de nuestro yo ideal, pero a la vez, impulsar a esa persona en la dirección correcta para que alcance el ideal de ella misma.

Una ráfaga de aire al abrir la ventana, el leve frescor de una camiseta recién puesta o ese escalofrío ligero al bajar la temperatura. El cuerpo reacciona de inmediato. Aunque no lo pensemos, lo que sentimos no es frío extremo ni calor, sino algo más sutil: la sensación de fresco. Durante mucho tiempo, se pensó que este tipo de percepción era solo una versión atenuada del frío, procesada por los mismos canales del sistema nervioso. Pero un reciente descubrimiento ha demostrado lo contrario: el cerebro cuenta con un circuito exclusivo para detectar lo que se siente como “fresquito”.

Un estudio publicado en Nature Communications por un equipo de neurocientíficos de la Universidad de Míchigan ha conseguido cartografiar, por primera vez, la ruta completa que sigue la señal del fresco desde la piel hasta el cerebro. No solo han identificado a los responsables moleculares del proceso, sino que también han descubierto un componente inesperado: un grupo de neuronas en la médula espinal que amplifican la señal del fresco para asegurar que llegue claramente al cerebro. El hallazgo no solo cambia lo que se sabía sobre la percepción térmica, sino que abre nuevas vías para tratar trastornos donde esta sensibilidad se altera.

Del mentol al aire acondicionado: cómo se percibe el fresco

La clave inicial del circuito se encuentra en la piel, donde se expresan unos canales moleculares llamados TRPM8, conocidos desde hace años por ser los sensores específicos de las temperaturas frescas, en torno a los 15–28 °C. Estos canales también son activados por sustancias como el mentol, lo que explica la sensación refrescante de algunos productos.

Estos sensores están ubicados en neuronas primarias del sistema nervioso periférico. Son las primeras en detectar el cambio de temperatura y enviar la señal al asta dorsal de la médula espinal, una región donde se integra la información sensorial. Sin embargo, lo que ocurre a partir de ahí no estaba del todo claro. El nuevo estudio ha descubierto que la señal no se transmite directamente al cerebro, sino que pasa antes por un grupo específico de interneuronas que actúan como amplificadoras.

Los autores explican que estas neuronas amplificadoras se encuentran en una región muy concreta de la médula espinal y están caracterizadas por expresar una combinación particular de genes. Según el estudio, “las interneuronas excitadoras del asta dorsal de la médula espinal que expresan el receptor de la hormona liberadora de tirotropina (Trhr⁺) actúan como un nodo central para la sensación de fresco”.

Solo el agua fresca activa este tipo de neuronas espinales, indicando su especialización. Fuente: Nature Communications

Un circuito exclusivo para el fresco, no para el frío ni el calor

Para confirmar la función específica de estas neuronas, los investigadores realizaron experimentos en ratones, eliminando selectivamente diferentes poblaciones neuronales. Lo más llamativo fue que, al eliminar solo las Trhr⁺, los animales perdían por completo la capacidad de detectar temperaturas frescas, pero mantenían intacta su respuesta al calor, al frío extremo y a otros tipos de estímulos.

En palabras del artículo: “la eliminación de las interneuronas Trhr⁺ elimina las respuestas conductuales al fresco, pero no al calor ni al frío” . Esto indica que el cerebro procesa el fresco como una modalidad sensorial distinta, con su propio canal de transmisión. Ya no se trata de un punto medio entre el calor y el frío, sino de una sensación con identidad neuronal propia.

Este hallazgo refuerza la teoría conocida como “líneas etiquetadas”, que defiende que cada tipo de sensación (dolor, calor, frescor, etc.) tiene vías neuronales separadas y especializadas. Esta perspectiva gana fuerza frente a la teoría de “patrones”, que sugiere que las sensaciones surgen de combinaciones complejas de señales no específicas.

Fuente: ChatGPT / E. F.

La amplificación espinal: la clave para que el fresco se sienta

Uno de los aspectos más novedosos del estudio es la identificación del papel de las neuronas Trhr⁺ como amplificadoras de la señal sensorial. Estas células reciben la señal directa de los sensores TRPM8 en la piel, pero en lugar de limitarse a transmitirla, la refuerzan antes de enviarla a las neuronas de proyección que conectan con el cerebro.

Este refuerzo es esencial. En los experimentos, cuando estas neuronas se desactivaban, las señales de frescor eran tan débiles que no conseguían activar a las neuronas del siguiente nivel. En palabras de los autores, se trata de “un circuito de amplificación en avance (feedforward) para la sensación de fresco” . Esta arquitectura permite preservar la claridad del estímulo, algo crucial cuando la diferencia térmica con el entorno es mínima.

Además, los investigadores comprobaron que la activación artificial (mediante luz) de estas neuronas en ratones inducía respuestas físicas similares a las que provocan temperaturas frescas, como levantar la pata, pero sin generar comportamientos típicos del dolor, como el lamido. Esto confirma que el circuito amplifica específicamente el frescor no doloroso.

El último tramo: del amplificador al cerebro

Tras el paso por las interneuronas Trhr⁺, la señal llega a un tercer tipo de neuronas: las Calcrl⁺, que forman parte de las neuronas de proyección espinoparabranquiales (SPB). Estas son las encargadas de enviar la información al cerebro, concretamente al núcleo parabranquial lateral (lPBN), una región asociada al procesamiento de estímulos térmicos y a funciones de supervivencia como el control del equilibrio térmico.

Estas neuronas Calcrl⁺ también mostraron ser altamente selectivas: solo respondían a estímulos frescos, y no al calor ni al frío intenso. Además, se comprobó que reciben entradas tanto de los sensores TRPM8 como de las interneuronas Trhr⁺, lo que refuerza la idea de que forman parte del mismo circuito sensorial exclusivo para el fresco.

Implicaciones clínicas: separar el frescor del dolor por frío

Uno de los aspectos más relevantes del estudio es su posible aplicación médica. Muchas personas con neuropatías, especialmente tras quimioterapia, sufren un dolor intenso inducido por temperaturas bajas, incluso cuando estas no son extremas. El circuito descrito en este trabajo, sin embargo, no participa en ese tipo de dolor. Según los investigadores, esto demuestra que las vías del fresco no doloroso y del frío doloroso son distintas.

Este hallazgo abre la posibilidad de desarrollar terapias que alivien el dolor por frío sin interferir con la percepción normal del frescor ambiental, algo especialmente importante para preservar la calidad de vida de los pacientes.

Referencias

Con la evolución de los smartphones de gama media, cada vez son más los modelos que integran prestaciones de gama alta sin disparar el precio. El mercado se encuentra en un punto clave, donde muchos usuarios buscan dispositivos potentes, con pantallas de calidad, cámaras solventes y autonomía duradera, pero sin necesidad de superar los 1.000€.

Y con la temporada veraniega en pleno auge, Xiaomi ha decidido seguir sacando músculo en la gama media, esta vez rebajando de forma significativa su modelo POCO F7 Pro.

POCO F7 Pro
POCO F7 Pro - AliExpress

Aunque su precio habitual suele superar los 455€ en plataformas como Amazon, Miravia, PcComponentes o la misma web oficial. La alianza entre la marca asiática y AliExpress sigue creciendo liquidando este modelo hasta los 377,64 euros.

Está impulsado por el procesador Snapdragon® 8 Gen 3 de 4 nm con arquitectura 1+5+2 y velocidad de hasta 3,3 GHz. En su interior también se encuentra una una batería de 6000 mAh con tecnología HyperCharge de 90 W y gestión avanzada con chips POCO Surge P3 y G1. Así como 12 GB de RAM y 256 GB de memoria.

Cuenta con una pantalla AMOLED Flow WQHD+ de 6,67 pulgadas alcanzando los 3200 nits, frecuencia de refresco de 120 Hz, muestreo táctil de hasta 2560 Hz y profundidad de 12 bits. Además, tiene un sistema de cámara principal de 50 + 8 MP con sensor Light Fusion 800, OIS, superpixel 4 en 1 y grabación hasta 8K. Sin olvidar la conectividad 5G, Wi-Fi 7 y Bluetooth 5.4.

Realme no quiere perder cuota de mercado y ajusta drásticamente el precio de su Realme 14 Pro Plus

Tras este movimiento por parte de Xiaomi, Realme no quiere esperar y responde rápidamente mediante una contundente bajada de precio de su smartphone Realme 14 Pro Plus, alcanzando los 250,99 euros. Toda una buena oportunidad, pues su precio actual en tiendas como Miravia, PcComponentes y Amazon supera los 350€.

Realme 14 Pro+
Realme 14 Pro+ - AliExpress

Este teléfono móvil integra un procesador Snapdragon 7s Gen 3, acompañado de 8 GB de RAM y 256 GB de almacenamiento interno. Además, dispone de una pantalla IPS FHD+ de 6,83 pulgadas con resolución de 2800 x 1272. En el apartado fotográfico, integra un sistema de triple cámara trasera con sensor principal de 50 MP. Cuya batería es de 6000 mAh. Todo ello corriendo bajo Android 15.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

Los emojis han transformado nuestras conversaciones, pero también nuestro modo de expresar emociones. Desde una simple carita feliz hasta corazones, lágrimas o fuegos, estos pequeños símbolos han pasado de ser adornos digitales a convertirse en herramientas clave para expresar lo que sentimos sin necesidad de escribirlo con palabras. Son, en muchos sentidos, la nueva gramática emocional del mundo conectado.

Un nuevo estudio confirma que no se trata solo de estética o moda. Según una investigación publicada en PLOS ONE por la psicóloga Eun Huh, los emojis no solo complementan los mensajes: influyen directamente en cómo percibimos a quien los envía. Al actuar como sustitutos visuales de gestos o expresiones faciales, estos íconos permiten que un texto gane calidez y matices que de otro modo se perderían en una pantalla.

Y no se trata de una percepción vaga o subjetiva. La ciencia empieza a demostrar que estos elementos visuales activan procesos similares a los que experimentamos en una conversación cara a cara. El cerebro responde a ellos de forma rápida, casi automática, integrándolos como pistas emocionales que nos ayudan a interpretar la intención detrás del mensaje.

¿Pueden los emojis fortalecer una amistad? La psicología lo analiza y un estudio lo confirma 1
La psicología detrás de los emojis: por qué nos sentimos más escuchados con un solo símbolo. Representación artística. Fuente: Sora / Edgary Rodríguez R.

Más que texto: cómo se diseñó el estudio

Para comprobar el impacto de los emojis, los investigadores crearon un experimento controlado. Reclutaron a 260 participantes en Estados Unidos y los expusieron a 15 conversaciones simuladas entre amigos, presentadas como intercambios de mensajes de texto. Los participantes leían las respuestas de su supuesto interlocutor, que eran idénticas en contenido pero diferentes en formato: con o sin emojis.

Cada conversación se evaluaba según cuatro dimensiones clave: respuesta percibida, simpatía, cercanía emocional y satisfacción con la relación. Los participantes debían imaginar que eran ellos quienes habían escrito el mensaje inicial, y evaluar cómo se sentían respecto a la respuesta recibida.

Es decir, ¿el otro parecía atento? ¿Amable? ¿Conectado emocionalmente?

El diseño fue riguroso y realista. Las conversaciones reflejaban situaciones comunes: desde compartir una noticia hasta proponer salir a cenar. Los mensajes con emojis usaban íconos coherentes con el tono del texto —emojis positivos con frases positivas, negativos con noticias malas— para evitar malinterpretaciones. Este cuidado permitió aislar con mayor precisión el efecto de los emojis sobre la percepción emocional.

Lo que un emoji comunica sin decirlo

El hallazgo más claro fue que los mensajes con emojis se percibieron como más atentos y receptivos. Esta "receptividad percibida" es un concepto central en psicología de las relaciones: se refiere a la sensación de que la otra persona te escucha, te entiende y se preocupa por lo que dices.

En entornos digitales, donde no hay miradas ni tonos de voz, este efecto se vuelve especialmente importante.

Lo interesante es que esa sensación de conexión emocional no depende del tipo de emoji. Ya sea una carita sonriente o un símbolo de celebración, lo que importa no es el ícono específico, sino su presencia como pista emocional. En otras palabras, el emoji actúa como una señal visual de que la otra persona está emocionalmente presente en la conversación.

La diferencia fue tan marcada que se reflejó incluso en medidas cuantitativas. En las pruebas estadísticas, quienes leían mensajes con emojis calificaban a sus interlocutores como significativamente más receptivos que quienes leían los mismos mensajes sin emojis. Esa impresión positiva fue el detonante de otras consecuencias emocionales más profundas.

¿Pueden los emojis fortalecer una amistad? La psicología lo analiza y un estudio lo confirma 2
Un solo emoji puede marcar la diferencia entre un mensaje frío y uno cálido.. Fuente: iStock (composición).

De la atención a la conexión: el camino emocional

Sentirse escuchado no solo genera una buena impresión: crea cercanía emocional. El estudio demostró que cuanto más receptivo parecía un mensaje, mayor era la sensación de cercanía que despertaba en el lector. Este vínculo emocional se construía de forma indirecta, mediado por la percepción de que el otro estaba realmente atento.

Esta cadena de efectos —del emoji a la respuesta, de la respuesta a la cercanía— se confirmó mediante análisis de mediación estadística. Los mensajes con emojis no aumentaban por sí mismos la cercanía ni la simpatía, pero sí lo hacían al provocar una mayor percepción de receptividad.

Es decir, el emoji no hace "caer bien" a quien lo usa automáticamente, pero ayuda a que el receptor lo sienta más presente, y eso sí impacta en la relación.

La relación se fortalece no por el ícono en sí, sino por lo que transmite: atención, intención y afecto. Es un fenómeno similar al que ocurre en persona cuando alguien asiente mientras hablamos, mantiene el contacto visual o sonríe. Los emojis reproducen parte de ese lenguaje no verbal y lo llevan al terreno digital.

¿Emoji de cara o de objeto? No importa tanto como crees

Una de las preguntas del estudio fue si los emojis con rostros eran más efectivos que los que no los tienen. Las caritas, después de todo, imitan expresiones humanas: alegría, tristeza, enojo, ternura. En cambio, los símbolos o íconos como estrellas, fuegos o pasteles son más abstractos o decorativos.

Sin embargo, los resultados mostraron que ambos tipos de emojis tuvieron efectos similares. No hubo diferencias significativas entre los efectos de los emojis faciales y los no faciales en la percepción de respuesta, cercanía o satisfacción. Esto sugiere que lo importante no es tanto qué emoji se usa, sino que se use alguno que encaje con el mensaje.

Este dato aporta un mensaje tranquilizador: no necesitas elegir el emoji perfecto. 

Lo fundamental es que esté alineado con el tono del mensaje, que sea coherente emocionalmente. Incluso un ícono sencillo puede transmitir cuidado, empatía o entusiasmo si se coloca en el momento adecuado.

mensajes
No importa si el emoji es una carita o un objeto: todos funcionan si son coherentes. Ilustración artística. Fuente: Sora / Edgary R.

Pequeños gestos, grandes conexiones

Uno de los aspectos más interesantes del estudio es lo fácil que resulta aplicar sus conclusiones. Enviar un emoji requiere apenas un toque.

No hace falta redactar un gran mensaje ni dedicar horas a mantener una amistad digital. A veces, ese pequeño gesto basta para que el otro sienta que lo estás escuchando y que estás emocionalmente disponible.

La investigación también encontró que factores como edad, género o frecuencia de uso de emojis no modificaban los resultados. Es decir, tanto si los usas a diario como si lo haces con moderación, el efecto positivo se mantiene. Del mismo modo, no importa si tienes 25 o 50 años: los emojis funcionan como puentes emocionales para todos.

En un mundo hiperconectado, donde muchas relaciones se mantienen por pantalla, los pequeños gestos cuentan más que nunca. Este estudio nos recuerda que una carita sonriente, un corazón o una llama de celebración no son meros adornos: pueden ser la diferencia entre un mensaje frío y uno que hace sentir cerca, escuchado y valorado.

Referencias

Desde hace décadas, la arqueología ha logrado recupera objetos de obsidiana, como ornamentos y espejos, de distintos yacimientos del Neolítico anatolio. Sin embargo, el lugar donde se producían estos objetos de prestigio seguía siendo un enigma. Una investigación reciente, liderada por Alice Vinet, analiza 56 espejos hallados en distintos yacimientos del Próximo Oriente para ofrecer, por primera vez, evidencias sólidas de la existencia de un centro de fabricación de espejos de obsidiana en Anatolia hacia el 6850–5900 a. C.

Un material extraordinario para objetos excepcionales

La obsidiana, una roca volcánica de gran dureza y brillo vítreo, se utilizó ampliamente en Anatolia desde el VIII milenio a. C. Además de usarse en la fabricación de herramientas líticas, también fue el material seleccionado para producir objetos como espejos. Se han hallado un total de 56 espejos de obsidiana en el Próximo Oriente, la mayoría de ellos en seis yacimientos de Anatolia central: Tepecik Çiftlik, Çatalhöyük-East, Sırçalıtepe, Güvercinkayası, Domuztepe y Akarçay Tepe. Solo uno de ellos se ha localizado en el Levante, en Tel Kabri.

En términos generales, todos los espejos tienen una forma circular o subcircular y presentan una superficie pulida y reflectante. Con todo, han podido distinguirse tres tipologías distintas. El más común, el tipo 1, incluye espejos de entre 6 y 9,5 cm de diámetro, con dorso plano o abombado, y bordes desgastados para facilitar el manejo. El tipo 2 incluye ejemplares con mango, mientras que el tipo 3 presenta ranuras circulares decorativas.

Yacimientos anatolios con espejos de obsidiana
Mapa de yacimientos anatolios en los que se han hallado espejos de obsidiana. Fuente: A. Vinet

Tepecik Çiftlik: ¿el primer taller de espejos neolíticos?

El yacimiento de Tepecik Çiftliksi, tuado en la llanura de Melendiz (Capadocia), a unos 1500 metros sobre el nivel del mar, fue ocupado desde principios del 7.º milenio hasta comienzos del VI milenio a. C. Excavado desde el año 2000, se emplaza cerca de los principales afloramientos de obsidiana de Anatolia: Nenezidağ (a unos 23 km) y Göllüdağ (a unos 10–14 km). Esta localización estratégica, cerca de las fuentes del material, propició una intensa producción lítica documentada gracias a numerosos residuos de talla.

En este asentamiento, se hallaron once preformas (es decir, ejemplares aún sin terminar) y un espejo acabado, todos datados entre 6850 y 5900 a. C. La excepcionalidad de Tepecik Çiftlik radica no solo en la cantidad de las piezas, sino en la diversidad de etapas de fabricación que documentan. Cada una de las fases de producción de los espejos aparece representada en las preformas del yacimiento, lo que sugiere que nos hallamos ante un centro de fabricación local.

Espejo de obsidiana
Espejo en el proceso de ser elaborado. Fuente: A. Vinet

La compleja cadena de producción de un espejo

Vinet ha logrado reconstruir en su estudio la cadena operativa de fabricación de estos objetos, compuesta por al menos ocho fases consecutivas. En primer lugar, se procedía a la obtención del soporte. Para ello, se seleccionaban núcleos agotados de hojas o lascas para obtener una pieza subcircular y relativamente plana. A continuación, se retallaba el contorno. Así, mediante percusión o presión, se eliminaban pequeñas lascas para perfeccionar la forma circular. Con la nivelación de la superficie, se eliminaban los salientes e imperfecciones.

A estas tres primeras fases, seguían el desbaste de los bordes afilados, la abrasión de los aristas con una piedra de grano grueso mediante fricción y la abrasión de la superficie para alisar la pieza. Por último, se procedía al pulido fino mediante la aplicación de un abrasivo más fino, quizás arcilla o ceniza, para lograr una superficie reflectante. También se hipotetiza una fase final de pulido con grasa y tejido para intensificar el brillo.

Espejos de Tepecik Çiftlik
Espejos de Tepecik Çiftlik. Fuente :A. Vinet

¿Un modelo de distribución regional?

La presencia de preformas en Tepecik Çiftlik para cada una de las etapas descritas refuerza la hipótesis de que el yacimiento operó como centro productor. Otros yacimientos donde se han encontrado espejos de tipo 1, como Çatalhöyük, no presentan restos de producción, lo que sugiere que estos objetos llegaron ya acabados.

Además, los análisis de procedencia han demostrado que los espejos de Çatalhöyük se elaboraron con obsidiana de Nenezidağ, una de las fuentes cercanas a Tepecik Çiftlik. Estos datos, por tanto, refuerzan la hipótesis de que este yacimiento funcionó como centro productor y distribuidor regional. La teoría se ve apuntalada, además, por el hallazgo de otro espejo en Akarçay Tepe, un asentamiento donde se documenta el uso de obsidiana tanto del este de Anatolia como de Capadocia.

Muchacho con obsidiana
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

¿Para qué se usaban los espejos?

Según el estudio de Alice Vinet, los espejos de obsidiana resultan lo suficientemente reflectantes como para que pueda percibirse el propio reflejo. La obtención de esta cualidad reflectante parece haber sido el objetivo principal de su fabricación. Las piezas también habrían podido usarse como instrumentos para redirigir la luz o herramientas para alisar cerámica, aunque todavía no se cuenta con pruebas concluyentes al respecto.

Su pequeño tamaño, así como la forma circular, indican que eran objetos portátiles con un posible uso personal. En algunos casos, como en Çatalhöyük, los espejos aparecieron en enterramientos, acompañados de pigmentos (azules, verdes, rojos y amarillos), lo que implica un posible uso ritual, estético o decorativo. En este mismo yacimiento, al menos un espejo estaba recubierto de yeso, salvo en la cara reflectante, tal vez para mejorar el agarre o evitar heridas.

Espejo acabado de Tepecik Çiftlik
Un espejo de obsidiana terminado procedente de Tepecik Çiftlik. Fuente: A. Vinet

Un hallazgo clave para entender la tecnología neolítica

La investigación liderada por Vinet constituye el primer estudio tecnofuncional detallado sobre espejos de obsidiana. Gracias a las preformas de Tepecik Çiftlik, ha sido posible reconstruir con precisión las técnicas, herramientas y movimientos empleados en su producción. Aunque las futuras investigaciones experimentales podrán afinar aún más esta reconstrucción, los resultados actuales permiten afirmar que el conocimiento técnico de los habitantes de Tepecik Çiftlik alcanzó un alto grado de sofisticación y especialización, tanto en el trabajo de la obsidiana como en la producción de bienes de prestigio.

Una “fábrica” de espejos hace 8000 años

Los datos reunidos en esta investigación apuntan a una conclusión clara: Tepecik Çiftlik fue, muy probablemente, un centro de producción de espejos de obsidiana entre el 6850 y el 5900 a. C. Desde allí, estos objetos se habrían distribuido a otros asentamientos de Anatolia central e incluso más allá.

Este hallazgo no solo revela una faceta poco explorada del Neolítico anatolio, sino que nos invita a reconsiderar la complejidad técnica, simbólica y económica de las comunidades prehistóricas del Próximo Oriente. ¿Podría decirse, entonces, que existió una “fábrica” de espejos en Anatolia hace 8000 años? Todo indica que sí.

Referencias

En ocasiones, los descubrimientos arqueológicos no solo nos hablan de grandes faraones o templos monumentales, sino de las manos anónimas que moldearon el mundo cotidiano del Antiguo Egipto. Uno de esos momentos de conexión directa con el pasado ha tenido lugar en el Fitzwilliam Museum de Cambridge, donde un equipo de especialistas ha identificado la huella completa de una mano humana de hace 4.000 años en la base de un curioso objeto funerario: una “casa del alma”. Este hallazgo, revelado por el propio museo en su comunicado de prensa oficial, servirá como pieza estrella de la próxima exposición “Made in Ancient Egypt”, que abrirá sus puertas el 3 de octubre de 2025.

Lejos de tratarse de un mero detalle técnico, esta marca es un raro testimonio de la vida de los artesanos que trabajaban en el Egipto Medio, un periodo que abarca aproximadamente entre 2055 y 1650 a.C. En aquel entonces, el país de los faraones estaba lleno de talleres donde se elaboraban objetos rituales, muchos de ellos humildes en apariencia, pero cargados de significado espiritual. La huella, hallada en el reverso de una maqueta funeraria, nos traslada directamente al instante en que un alfarero, probablemente un hombre sin nombre para la Historia, tomó la pieza aún húmeda para trasladarla fuera de su taller antes de que la arcilla pasara por el fuego.

La vida oculta de las “casas del alma”

Las “casas del alma” eran pequeños modelos de arcilla con forma de vivienda, generalmente de dos plantas, con pilares, escaleras y un patio abierto en el que se colocaban ofrendas alimenticias. Panes redondos, lechugas y cabezas de buey —reproducidos toscamente en miniatura— formaban parte de un ritual que buscaba garantizar el sustento del difunto en el más allá. Según los especialistas, estas piezas cumplían una doble función: eran bandejas de ofrendas y, al mismo tiempo, una especie de “casa simbólica” donde el espíritu del muerto podía reposar o regresar.

El ejemplar que protagoniza este hallazgo ha sido estudiado con minuciosidad por los conservadores del Fitzwilliam Museum. La investigación ha permitido reconstruir su proceso de fabricación: el alfarero construyó primero un armazón con finos palos de madera, que luego recubrió con barro del Nilo. Las escaleras y pilares se modelaron a mano, simplemente pellizcando la arcilla húmeda. Una vez lista la estructura, la pieza se introdujo en el horno, donde el fuego consumió el esqueleto de madera y dejó huecos vacíos en su interior, dando esa apariencia frágil y esponjosa tan característica de estas maquetas.

La marca de la mano apenas se percibe en la zona más baja del reverso de la maqueta funeraria. Foto: The Fitzwilliam Museum/Universidad de Cambridge

Lo excepcional de este hallazgo radica en que la huella no estaba a la vista. Quedaba oculta en la base de la pieza, como si el tiempo hubiera querido reservar un guiño silencioso para los arqueólogos del futuro. No era un gesto ceremonial ni una marca de autor; simplemente, la consecuencia de un acto cotidiano que sobrevivió milenios en el barro cocido.

La importancia de un gesto cotidiano

Los expertos señalan que, aunque se conservan innumerables fragmentos de cerámica egipcia, las huellas completas de sus creadores son extremadamente raras. Lo habitual es encontrar rastros parciales, como impresiones de dedos en el barniz o marcas involuntarias en superficies internas. La aparición de una mano entera en un objeto funerario convierte a este hallazgo en un testimonio íntimo de la relación entre el artesano y su obra.

Estos pequeños descubrimientos aportan una perspectiva diferente a la historia del Antiguo Egipto. Más allá de los faraones y las tumbas reales, existía un mundo de trabajadores, albañiles, canteros y alfareros que sostenían la vida cotidiana y los rituales funerarios. Sus nombres no quedaron grabados en la piedra, pero gestos como esta huella nos recuerdan su humanidad.

En la sociedad egipcia, el trabajo del barro era considerado modesto. Los textos antiguos comparaban a los alfareros con cerdos revolcándose en el lodo, una muestra del escaso prestigio que disfrutaban pese a la importancia de su oficio. Sin embargo, esas manos anónimas fueron esenciales para crear los recipientes, maquetas y ofrendas que poblaban los enterramientos. Cada pieza era parte de un engranaje espiritual que unía el mundo de los vivos con el de los muertos.

La maqueta funeraria mostraba dos niveles sostenidos por hileras de pilares y una escalera que ascendía hasta la segunda planta y el tejado. Foto: The Fitzwilliam Museum/Universidad de Cambridge

Un viaje directo al taller de hace cuatro milenios

El hallazgo no solo tiene valor arqueológico, sino también narrativo. La imagen de aquel alfarero trasladando con cuidado la maqueta, sintiendo el barro fresco en las palmas, nos ofrece una conexión emocional con un instante fugaz del pasado. Ese momento, que en su día fue rutinario e invisible, ha quedado congelado por cuatro milenios para hablarle al presente.

La exposición busca precisamente rescatar estas historias humanas. A través de objetos cotidianos, modelos inacabados, documentos como órdenes de trabajo o recibos, y ahora con esta huella anónima, la muestra pretende dar voz a los artesanos que rara vez figuran en los libros de Historia. Lejos de los esplendores dorados de Tutankamón, la exposición revela la vida de quienes modelaban barro, pulían piedra y decoraban tumbas sin esperar fama ni reconocimiento.

Este hallazgo es también un recordatorio de que la arqueología no siempre depende de descubrimientos grandilocuentes. A veces, un simple rastro de barro endurecido es capaz de abrir una ventana más clara que cualquier inscripción monumental, mostrando el lado humano de una civilización que solemos ver solo a través de sus élites.

Cuando la exposición abra sus puertas en Cambridge, visitantes de todo el mundo podrán acercarse a esta pieza y observar la huella en silencio, imaginando el instante en que alguien, hace 4.000 años, sostuvo la casa del alma entre sus manos y sin saberlo dejó un mensaje para la eternidad.

Hay quienes se acuestan a las diez de la noche como un reloj. Otros, en cambio, van postergando el momento de ir a la cama hasta que el sueño o el aburrimiento vencen. Luego están los que duermen bien entre semana pero hacen "binge sleep" los fines de semana para recuperarse. Este tipo de comportamientos, comunes y aparentemente inofensivos, podrían estar contribuyendo de forma silenciosa al desarrollo de enfermedades graves, según un estudio masivo que ha analizado datos de sueño reales de más de 88.000 personas.

La investigación, publicada en Health Data Science, aporta una novedad clave: no solo importa cuánto dormimos, sino cuándo y cómo lo hacemos. Basado en datos objetivos de acelerometría y no en cuestionarios subjetivos, el estudio relaciona directamente ciertos patrones del sueño con 172 enfermedades distintas. Y no se trata de asociaciones menores: en algunos casos, hasta el 52% del riesgo de padecer ciertas enfermedades podría deberse a cómo dormimos.

Dormir a deshoras: una amenaza real para la salud

Uno de los hallazgos más llamativos del estudio es el impacto de los horarios irregulares para dormir. Personas que se acostaban después de las 00:30 mostraron un 2,57 veces mayor riesgo de desarrollar cirrosis hepática en comparación con quienes lo hacían entre las 23:00 y las 23:30. Esta diferencia no depende de la duración del sueño, sino de la hora en que se inicia.

Otro indicador relevante es la llamada estabilidad interdía, que mide si nuestros horarios de sueño se mantienen consistentes a lo largo de los días. Una baja estabilidad (dormir cada día a una hora diferente) se asoció con un riesgo 2,61 veces mayor de gangrena, una afección grave relacionada con la circulación y las infecciones.

Estos resultados apuntan a que nuestros cuerpos no toleran bien la falta de regularidad, incluso aunque durmamos el mismo número de horas. Las consecuencias pueden manifestarse en órganos tan distintos como el hígado, la piel o los pulmones.

Fuente: ChatGPT / E. F.

Más de 170 enfermedades vinculadas al sueño

El estudio encontró asociaciones significativas entre los patrones de sueño y 172 enfermedades distintas, clasificadas en 13 grandes sistemas del cuerpo humano. Entre ellas destacan trastornos del sistema circulatorio, endocrino, digestivo, nervioso, musculoesquelético, urinario y respiratorio. En conjunto, se identificaron 349 asociaciones específicas entre un rasgo del sueño y una enfermedad concreta.

Los investigadores identificaron seis rasgos del sueño relevantes, agrupados en tres dimensiones: duración y horario de inicioritmo (amplitud relativa y estabilidad interdía), y fragmentación (eficiencia del sueño y número de despertares). La dimensión del ritmo fue la más asociada a enfermedades: casi la mitad de las relaciones detectadas estaban vinculadas a este aspecto.

No se trata de una suma de efectos menores. En 92 de las enfermedades analizadas, más del 20% del riesgo podía atribuirse a características del sueño. En casos concretos, como el Parkinson o la insuficiencia renal aguda, el sueño explicaba hasta el 37% y el 22% del riesgo, respectivamente.

Fuente: ChatGPT / E. F.

¿Dormir mucho es malo? Depende de cómo se mida

Hasta ahora, muchos estudios habían asociado dormir más de 9 horas con enfermedades cardiovasculares y otras dolencias. Sin embargo, este nuevo análisis pone en duda esas conclusiones. Según los autores, buena parte de esos resultados podrían deberse a errores de medición en los estudios anteriores, que usaban solo encuestas y no datos objetivos.

El 21,67% de las personas que decían dormir más de 9 horas realmente dormían menos de 6 horas, según los acelerómetros. Es decir, pasaban mucho tiempo en la cama, pero sin dormir. Esto puede haber contaminado los análisis previos, haciendo parecer que “dormir mucho” era un factor de riesgo, cuando en realidad quienes más enferman eran los que dormían poco pero no lo sabían.

Nuestros hallazgos subrayan la importancia pasada por alto de la regularidad del sueño”, escriben literalmente los autores del artículo, quienes concluyen que es momento de ampliar la definición de sueño saludable, más allá de contar solo las horas.

Fuente: ChatGPT / E. F.

Un reloj biológico roto: el papel del ritmo circadiano

La parte más novedosa de este trabajo está en su enfoque sobre el ritmo. La regularidad en los horarios y la robustez del ciclo sueño-vigilia (amplitud y estabilidad) resultaron claves para la salud general. Personas con ritmos muy poco marcados tenían más riesgo de enfermedades respiratorias como EPOC, renales, metabólicas y trastornos del ánimo.

Además, estas asociaciones fueron confirmadas en otra población distinta: los datos del NHANES en Estados Unidos replicaron los hallazgos sobre enfermedades como la insuficiencia renal aguda, la diabetes tipo 2 y la depresión, en relación con el ritmo del sueño.

El cuerpo humano necesita un ritmo predecible, tanto en las horas de luz como de descanso. Cuando ese ritmo se rompe por horarios cambiantes o falta de contraste entre actividad diurna y nocturna, diversos sistemas —inmunológico, metabólico, digestivo— pueden desequilibrarse.

La inflamación como posible mecanismo

Los investigadores también analizaron cómo estos patrones de sueño alterados podían desencadenar enfermedades. Una de las hipótesis más sólidas se relaciona con la inflamación. Se encontró que marcadores como la proteína C-reactiva, los leucocitos y los eosinófilos mediaban parte del efecto del sueño sobre enfermedades como la EPOC o el fallo renal agudo.

Por ejemplo, en el caso del fallo renal agudo, la proteína C-reactiva explicaba el 10,5% del riesgo asociado al mal ritmo del sueño, mientras que los eosinófilos contribuían con un 8,2% y los leucocitos con un 1,9%. Esto sugiere que la alteración del ritmo puede activar procesos inmunológicos que terminan dañando órganos específicos.

Por qué este estudio cambia las reglas del juego

Esta investigación destaca por su tamaño y por la calidad de los datos. Se trata del primer estudio que evalúa relaciones entre el sueño y enfermedades a lo largo de todo el cuerpo humano usando mediciones objetivas, con casi 90.000 personas monitorizadas durante más de seis años.

Además, desmonta algunos mitos y errores comunes en la investigación previa sobre el sueño, especialmente aquellos basados en autoinformes. Al usar acelerometría, los investigadores han podido detectar patrones invisibles para las encuestas.

Esto cambia el enfoque con el que debe entenderse la salud del sueño: no basta con dormir “lo suficiente” si lo hacemos en horarios erráticos, con poca calidad o con ritmos débiles. De hecho, varios de los rasgos del sueño estudiados pueden mejorarse con hábitos simples: mantener horarios regulares, evitar pantallas antes de dormir o reducir la exposición a luz artificial nocturna.

Referencias

Durante muchos siglos, la Sábana Santa de Turín ha fascinado a creyentes y escépticos por igual. Esta tela de lino de más de cuatro metros de largo muestra la silueta frontal y dorsal de un hombre que parece haber sufrido una crucifixión, lo que llevó a muchos a identificarla con el sudario que envolvió el cuerpo de Jesús. Sin embargo, un reciente estudio publicado en la revista Archaeometry ha aportado nuevas evidencias que podrían reescribir la historia de este célebre objeto religioso.

El análisis, dirigido por el diseñador brasileño Cicero Moraes, experto en reconstrucciones históricas en 3D, revela que la imagen del lienzo no corresponde a la huella de un cuerpo humano tridimensional. Más bien, sus proporciones coinciden con la impronta de una escultura en bajorrelieve, lo que sugiere que la Sábana Santa podría ser el resultado de un ingenioso proceso artístico medieval y no un testimonio físico de la Pasión de Cristo.

Un enigma que atraviesa siglos

La primera mención documentada de la Sábana Santa aparece en Francia hacia finales del siglo XIV, en pleno auge de la devoción a las reliquias cristianas. Desde entonces, su historia ha estado marcada por controversias, incendios, peregrinaciones y estudios científicos de toda índole. La prueba de carbono 14 realizada en 1989 ya había situado la fabricación del lienzo entre los años 1260 y 1390, reforzando la teoría de que se trataba de un objeto medieval.

Aun así, la nitidez de la imagen y la ausencia de pigmentos visibles a simple vista mantuvieron vivo el debate. Muchos se preguntaban cómo había sido posible crear una impresión tan precisa de un cuerpo humano en pleno Medievo, mucho antes de la invención de la fotografía o de técnicas modernas de impresión. El nuevo estudio aporta un posible escenario que combina creatividad artística y recursos materiales de la época.

Superposición de las texturas generadas con modelos 3D: a la izquierda, un cuerpo humano; a la derecha, un relieve en bajo perfil. En el centro, la Sábana Santa, donde se aprecia cuál se ajusta mejor a su misteriosa imagen
Superposición de las texturas generadas con modelos 3D: a la izquierda, un cuerpo humano; a la derecha, un relieve en bajo perfil. En el centro, la Sábana Santa, donde se aprecia cuál se ajusta mejor a su misteriosa imagen. Fuente: Cicero Moraes

Del taller medieval al laboratorio digital

Para llevar a cabo su investigación, Moraes creó dos modelos tridimensionales: uno representando un cuerpo humano completo y otro una escultura de bajo relieve, similar a las que abundaban en los sepulcros y relieves funerarios de la Europa medieval. Con ayuda de un software de simulación, “vistió” ambos modelos con una tela virtual, reproduciendo la caída y deformación del lino al contacto con cada superficie.

El resultado fue sorprendente: mientras la tela que cubría el cuerpo tridimensional generaba una imagen ensanchada y distorsionada, la que se apoyaba en el relieve plano reproducía un contorno casi idéntico al de la Sábana Santa tal y como aparece en las fotografías históricas tomadas en 1931. Esta evidencia respalda la hipótesis de que el lienzo pudo haber sido presionado sobre una superficie artística plana, pigmentada o calentada, para transferir la imagen sin volumen ni deformaciones.

El estudio también señala que, en caso de haber utilizado un cuerpo real, la impresión habría presentado lo que los expertos llaman el “efecto máscara de Agamenón”, un ensanchamiento de las proporciones, especialmente en el rostro. En cambio, la Sábana Santa muestra una silueta perfectamente contenida, más cercana a un grabado que a un molde natural.

Una obra maestra del cristianismo medieval

La Europa del siglo XIV vivía una auténtica fiebre por las reliquias. Iglesias y monasterios competían por atraer peregrinos mostrando restos de santos, fragmentos de la cruz o telas vinculadas a la Pasión. En este contexto, la creación de un sudario tan realista habría tenido un profundo impacto devocional.

El estudio sugiere que artesanos o escultores con conocimientos de anatomía y técnicas pictóricas pudieron haber concebido la pieza como una obra maestra de arte sacro. La imagen habría sido obtenida por contacto con un bajorrelieve, quizá reforzado con pigmentos o calor en las zonas de contacto. Este procedimiento explicaría por qué no hay trazos de pincel ni restos evidentes de pintura, lo que durante años alimentó la creencia en un origen milagroso.

Si bien el estudio no descarta por completo que la Sábana Santa pudiera haber tenido contacto con un cuerpo humano en algún momento, la evidencia apunta a que su concepción original respondió más a la devoción artística que a un fenómeno sobrenatural.

Comparación del rostro de la Sábana Santa: a la izquierda, la imagen visible a simple vista; a la derecha, la versión en negativo fotográfico que revela con mayor nitidez los rasgos atribuidos tradicionalmente a Jesús
Comparación del rostro de la Sábana Santa: a la izquierda, la imagen visible a simple vista; a la derecha, la versión en negativo fotográfico que revela con mayor nitidez los rasgos atribuidos tradicionalmente a Jesús. Fuente: Wikimedia

Ciencia, arte y fe en un mismo lienzo

No es la primera vez que la Sábana Santa se somete a un escrutinio científico que desafía su supuesto origen milagroso. Lo cierto es que un estudio publicado en 2018 en el Journal of Forensic Sciences por los investigadores Matteo Borrini y Luigi Garlaschelli, ya abordó la Sábana Santa desde una perspectiva forense, aplicando análisis de patrones de manchas de sangre (BPA), una técnica utilizada habitualmente en criminología. Sus experimentos demostraron que los regueros de sangre visibles en el lienzo no se comportan como lo haría la sangre de un cuerpo humano real tras la crucifixión. Según sus conclusiones, las líneas en los brazos y la llamada “cintura de sangre” en la zona lumbar no siguen la lógica de la gravedad ni del flujo post mortem, y deberían haber dejado manchas mucho más extensas y coherentes. Este hallazgo reforzó la hipótesis de que la Sábana Santa no se originó por un contacto directo con un cadáver, sino que habría sido manipulada o creada como una representación simbólica, más cercana al arte devocional que a un auténtico sudario funerario, tal y como recogió en su momento el periodista Luis Alfonso Gámez. Como nos ha comentado el propio Gámez, “la única manera de explicar las anormalidades de la figura de la Sábana Santa es que se usara un bajorrelieve para su fabricación, como ya apuntó y demostró experimentalmente en la década de 1980 Joe Nickell, del Comité para la Investigación Escéptica, y posteriormente el químico italiano Luigi Garlaschelli”.

Como recuerda Gámez en conversaciones con este medio, esta explicación ya fue planteada en 1983 por Joe Nickell, investigador forense y reconocido escéptico de reliquias religiosas. Nickell, miembro del Committee for Skeptical Inquiry, dedicó gran parte de su carrera a analizar objetos sagrados desde una perspectiva científica y criminológica. En su libro Inquest on the Shroud of Turin, presentó una hipótesis que en su momento resultó provocadora: la imagen de la Sábana Santa no podía haberse formado por el contacto directo con un cadáver, sino que respondía a una técnica medieval basada en el uso de un relieve tridimensional. Nickell realizó experimentos prácticos en los que cubría un busto con tela de lino y aplicaba pigmentos naturales mediante frotamiento; el resultado eran imágenes sorprendentemente similares al famoso lienzo de Turín, con el mismo efecto “fantasmal” que se intensifica a la distancia. Para él, la reliquia era una obra maestra del ingenio medieval, creada para reforzar la devoción y atraer peregrinos, más que un vestigio del sepulcro de Cristo.

A esta lista de investigaciones se suma el experimento del profesor Luigi Garlaschelli, quien en 2009 logró reproducir una copia de la Sábana Santa utilizando solo materiales y técnicas medievales, demostrando que era posible crear un sudario idéntico sin recurrir a ningún fenómeno sobrenatural.

En esta ocasión, el nuevo análisis no busca negar la relevancia cultural y espiritual de la Sábana Santa. De hecho, Moraes la define como “una obra maestra de la cristiandad”, capaz de unir arte y fe a través de una imagen impactante que ha trascendido siglos. Su investigación, más que cerrar el debate, abre nuevas vías para comprender cómo la creatividad humana y la devoción religiosa se entrelazaban en la Europa medieval.

La tecnología digital, en este caso, ha permitido resolver una incógnita que parecía inalcanzable para los métodos tradicionales. Al reproducir de forma virtual la caída de la tela y sus proporciones, se ha podido explicar de manera plausible el origen de una de las imágenes más icónicas de la historia del cristianismo.

Más allá de la fe o la ciencia, la Sábana Santa sigue siendo un objeto capaz de fascinar, inspirar y despertar preguntas sobre nuestra relación con la historia y el arte sacro. Su estudio demuestra que los avances tecnológicos no solo revelan misterios antiguos, sino que también nos invitan a contemplar de otra forma las creaciones humanas que han perdurado durante siglos.

El estudio ha sido publicado en la revista Archaeometry.

Con un mercado cada vez más competitivo y una nueva generación de consolas a la vuelta de la esquina, el ecosistema gaming vive un momento de máxima tensión con el nuevo lanzamiento de Nintendo.

Y con el verano en pleno apogeo, Sony ha iniciado de nuevo un agresivo movimiento para frenar el avance de la Nintendo Siwtch 2 mediante una fuerte rebaja de su consola PS5 Pro.

PS5 Pro
PS5 Pro - AliExpress

Normalmente, la PS5 Pro se sitúa en un rango de los 770€ a 820€, dependiendo de la tienda, tal y como se aprecia en Fnac, Amazon, MediaMarkt, PcComponentes y Miravia. No obstante, Sony se vuelve alinear con AliExpress, aplicando el cupón CDES40, para hundirlo hasta los 679,99 euros.

Este modelo top de Sony, equipa un SSD de 2 TB de alta velocidad y un sistema de E/S personalizado. Además de incorporar la tecnología PSSR (PlayStation Spectral Super Resolution), que utiliza inteligencia artificial para escalar la resolución hasta 4K con un detalle visual impresionante, y siendo compatible con salida de vídeo hasta 8K.

Soporta frecuencias de hasta 120 fps con tasa de refresco variable (VRR) y HDR, contando con un potente trazado de rayos. Así mismo, cuenta con Wi-Fi 7, tecnologías de sonido inmersivo como Tempest 3D AudioTech y compatibilidad con retroalimentación háptica y gatillos adaptativos mediante el mando DualSense.

Nintendo apuesta por rebajar su modelo Switch Lite para seguir impulsando las ventas

Mientras la atención se centra en los movimientos de Sony, Nintendo se mueve con una estrategia más conservadora pero efectiva ajustando el precio de su modelo más asequible: la Nintendo Switch Lite hasta los 111 euros. Toda una ganga sabiendo que en plataformas como Miravia, Fnac, PcComponentes y Amazon, su precio asciende considerablemente los 170€.

Nintendo Switch Lite
Nintendo Switch Lite - AliExpress

Esta consola está equipada con una pantalla táctil capacitiva LCD de 5,5 pulgadas con resolución de 1280x720p. Incorpora un procesador Tegra de NVIDIA, 32 GB de almacenamiento interno y una batería interna de ion de litio de 3570 mAh. Además, incluye conectividad inalámbrica Wi-Fi, Bluetooth 4.1, altavoces estéreo y conector de audio jack.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

En las gélidas alturas de los montes Altái, el hielo ha guardado durante más de dos mil años un secreto que hoy reescribe nuestra visión de la historia: el arte del tatuaje en la cultura Pazyryk. Un nuevo estudio publicado en la revista Antiquity ha permitido ver, por primera vez con un nivel de detalle sin precedentes, los tatuajes de una mujer momificada que vivió hace unos 2.300 años. Gracias a la fotografía digital en alta resolución y a la luz infrarroja, los investigadores han podido reconstruir no solo la apariencia original de estos tatuajes, sino también las herramientas y técnicas que los antiguos artistas usaron para crearlos.

Lejos de ser simples marcas rituales, los tatuajes de la Pazyryk revelan un mundo de destreza manual, planificación artística y especialización profesional que sorprende incluso a los tatuadores contemporáneos. La investigación, liderada por el arqueólogo Gino Caspari del Instituto Max Planck de Geoantropología y la Universidad de Berna, coloca a los antiguos maestros del tatuaje siberiano al mismo nivel de sofisticación técnica que muchos profesionales modernos.

Tatuajes que sobrevivieron al hielo y al tiempo

La historia de este hallazgo comienza con las tumbas de la cultura Pazyryk, un pueblo nómada de la Edad del Hierro que habitó las estepas siberianas entre los siglos VI y II a.C. Sus muertos eran enterrados en profundos túmulos de madera, sellados por el permafrost del Altái, lo que permitió que piel, cabello y ropa se conservaran durante milenios. Entre estos cuerpos congelados destaca el de una mujer de unos 50 años hallada en la tumba número 5 de Pazyryk, conocida por su extraordinaria colección de tatuajes en ambas manos y antebrazos.

Hasta hace poco, estos tatuajes eran visibles solo parcialmente. Los primeros arqueólogos que estudiaron las momias en la década de 1940 apenas distinguieron algunos trazos oscuros. Décadas más tarde, la fotografía infrarroja reveló motivos adicionales: escenas de animales, aves y criaturas fantásticas que parecían sacadas del repertorio del llamado “estilo animal escita”. Sin embargo, la verdadera revolución ha llegado ahora con las imágenes infrarrojas de alta resolución y la fotogrametría 3D, que han permitido “despertar” el arte escondido bajo la piel reseca de la momia.

Modelo tridimensional de la momia
Modelo tridimensional de la momia. Fuente: M. Vavulin/Antiquity (2025)

Los secretos de un arte milenario

El análisis detallado de los tatuajes ha revelado un nivel de complejidad que habla de una auténtica tradición artesanal. Los investigadores detectaron que el tatuaje del antebrazo derecho —el más elaborado— fue ejecutado con una combinación de herramientas: un instrumento multipunta para trazar líneas de grosor uniforme y otro de punta única para los detalles más finos, como las astas de los ciervos o los extremos de los bigotes felinos. La calidad de la línea y la precisión en los ángulos sugieren que el tatuador poseía una gran destreza y probablemente trabajó en varias sesiones para completar la obra.

En contraste, el antebrazo izquierdo muestra un tatuaje menos elaborado, con figuras menos proporcionadas y líneas más simples. Los investigadores proponen dos posibilidades: que dos artistas distintos hayan trabajado en los brazos de la mujer —uno más experimentado que el otro— o que se trate del mismo artesano en diferentes etapas de aprendizaje. Esta diferencia de calidad ofrece una ventana única al proceso formativo de los antiguos tatuadores de la estepa, que, según el estudio, debían contar con una especie de “aprendizaje formal”, semejante al de los talleres artesanales.

El estudio también aporta una revelación fascinante sobre la vida y la muerte de esta mujer. Durante el proceso de preparación del cuerpo para la sepultura, algunos de los tatuajes fueron cortados por incisiones suturadas, lo que sugiere que estas marcas no tenían una función funeraria. A diferencia de otras culturas en las que los tatuajes eran vistos como símbolos para el tránsito al más allá, los Pazyryk parecen haber considerado estas imágenes como parte de la identidad en vida, sin valor espiritual tras la muerte.

Animales míticos y destreza artística

Los tatuajes de la momia de Pazyryk son un catálogo visual de la iconografía de la estepa. Ciervos de grandes astas, felinos que parecen leones o leopardos, aves y criaturas híbridas componen escenas de caza y combate que reflejan tanto la naturaleza del entorno como la cosmovisión de esta cultura. Uno de los motivos más llamativos es el gallo tatuado en el pulgar izquierdo, acompañado de figuras de peces y patrones geométricos en la mano.

El gran tatuaje del antebrazo derecho es, sin duda, la obra maestra. Allí, los investigadores identificaron dos ungulados atacados por felinos, cuidadosamente dispuestos siguiendo la anatomía del brazo para que la composición “fluya” desde la muñeca hasta el codo. La atención a la perspectiva y la elección de focalizar en un felino central reflejan una comprensión intuitiva de la composición artística.

Que un tatuaje realizado hace 23 siglos pueda mostrar tal dominio técnico resulta impresionante incluso para los tatuadores modernos que colaboraron con el estudio. Según los investigadores, lograr líneas tan limpias y uniformes con métodos manuales habría sido un desafío comparable al de un profesional contemporáneo, lo que refuerza la idea de que el tatuaje era una práctica especializada y altamente valorada dentro de la sociedad Pazyryk.

Conjunto de tatuajes identificados en la momia
Conjunto de tatuajes identificados en la momia. Fuente: M. Vavulin/Antiquity (2025)

Cuando la arqueología se une a la tecnología

El éxito de esta investigación reside en la combinación de arqueología tradicional con tecnología de vanguardia. Las imágenes infrarrojas de submilímetro y la creación de modelos 3D no solo han permitido identificar detalles invisibles a simple vista, sino que también han hecho posible estudiar el “proceso creativo” de los tatuadores. Los investigadores pudieron ver dónde el artista levantaba la herramienta, dónde retomaba la línea y cómo planificaba la colocación de los motivos.

El uso de estas técnicas abre la puerta a un nuevo tipo de arqueología de la individualidad, donde ya no se observan solo grandes patrones culturales, sino manos, decisiones y errores de personas concretas que vivieron hace milenios. Cada trazo es un puente entre aquel mundo nómada del Altái y nuestra fascinación moderna por el arte corporal.

Un legado que sigue vivo en la piel del tiempo

El hallazgo no solo ilumina un capítulo desconocido de la historia del tatuaje, sino que también humaniza a quienes habitaron las estepas siberianas en la Edad del Hierro. Al mirar los tatuajes de esta mujer, podemos imaginarla en vida: parte de una comunidad nómada, rodeada de caballos, carretas y pieles, y confiando su identidad a las manos expertas de un artista que dominaba un oficio transmitido de generación en generación.

Los tatuajes, que no tenían valor en la tumba, hoy se han convertido en mensajes desde el pasado, testigos de una historia de creatividad y habilidad que ha sobrevivido gracias al hielo. Cada línea de tinta de carbón habla de un instante en que un tatuador y su modelo compartieron un acto íntimo y artístico que hoy, siglos después, nos permite conocerlos un poco más.

El estudio ha sido publicado en Antiquity.

Hay preguntas que, por simples, rozan lo desconcertante: ¿por qué algunas mujeres viven tantas décadas después de su última ovulación? ¿Qué sentido evolutivo tiene sobrevivir a la propia fertilidad? En un mundo natural donde la mayoría de los seres vivos mueren poco después de reproducirse, la existencia de la abuela humana es una rareza. Rareza que, según la ciencia, pudo ser uno de nuestros mejores logros evolutivos. En este número de Muy Interesante nos sentamos al fuego de la historia, junto a Lucy y sus descendientes, para descubrir la hipótesis de la abuela: la idea revolucionaria de que la longevidad humana se construyó gracias a la cooperación, al cuidado compartido y a la generosidad de las generaciones mayores. Porque detrás de cada nieto bien alimentado hubo, miles de años atrás, una mujer posmenopáusica que ya no criaba hijos propios, pero sí recogía frutos, tubérculos y conocimientos para sostener a su clan. Dice un proverbio africano que «para criar a un niño hace falta una aldea» y, a veces, esa aldea empieza en la abuela. Este número es una invitación a pensar juntos: ¿cómo llegamos hasta aquí?, ¿qué nos hizo humanos?, ¿qué nos mantendrá humanos en un mundo cada vez más tecnológico? Quizá la respuesta esté, otra vez, en compartir: genes, comida, historias, saber, cuidados… y páginas como estas, que celebran la ciencia de la vida. Buena lectura.

Abuelas ¿el secreto evolutivo de la humanidad?

 El día avanzaba y las mujeres no regresaban. Se habían ido a recolectar comida hacía horas, muchas más de las que dedica a esta tarea el resto de su comunidad. Finalmente aparecieron cargadas de frutos, raíces y tubérculos. No se perdieron a diario y tampoco se entretuvieron por el camino ese día ni tantos otros en los que hicieron lo mismo. 

La antropóloga Kristen Hawkes estaba investigando los hábitos de forrajeo de los hadza y asistía intrigada a la laboriosidad de las mujeres mayores, cuyas jornadas de forrajeo se alargaban a medida que cumplían años e incluían los trabajos más afanosos. Hawkes prestó atención a lo que hacían a su regreso y entendió que aquello estaba conectado con sus propias observaciones del pasado, aquellas que le permitieron concluir que los niños hadza consiguen solos la mitad de su comida. Tuvieron que pasar algunos años para que Hawkes y su equipo descubrieran lo que conectaba las prácticas de los niños y las de sus abuelas, que a su regreso compartían la comida con sus nietos.

Has leído un extracto del artículo de portada, escrito por Virginia Mendoza Benavente. Para seguir leyendo, puedes comprar el número 531 de Muy Interesante en un quiosco de prensa o por internet.

Muy Interesante - Agosto 2025 - Número 531
Muy Interesante - Agosto 2025 - Número 531

Reportajes

Entrevistas

Firmas

Muy Interesante - Agosto 2025 - Número 531
Muy Interesante - Agosto 2025 - Número 531

Hay algo especial en las fotos que tomamos cuando viajamos. Más allá de los filtros o los encuadres bien elegidos, muchas veces lo que capturamos es una emoción. Y la más frecuente, con diferencia, es la felicidad. Investigadores de tres universidades españolas hemos analizado, una a una, más de 140.000 fotografías que los viajeros han compartido en Instagram. Queríamos entender qué tienen esas imágenes que tanto enganchan. Y encontramos un patrón bastante claro: las que más gustan suelen mostrar a gente disfrutando, sin más. La mayoría en compañía. Nada de poses forzadas ni escenarios espectaculares. Solo personas viviendo un momento agradable o, ¿por qué no? Incluso inolvidable.

También descubrimos que los selfies, a pesar de estar en tela de juicio, funcionan como una especie de reflejo emocional, como un imán que atrae a tus seguidores. Cuando la persona se siente bien en un lugar, se nota, se transmite y se comparte. No hace falta escribir mucho: la imagen lo dice todo.

¿Qué emociones proyectamos en las fotos de nuestros viajes?

La felicidad es una de las emociones más buscadas —y compartidas— durante los viajes. Se podría decir que esto ya es, de por sí, un resultado de investigación, aunque lo más importante es detectar en qué situaciones los viajeros muestran su felicidad, qué es aquello que les hace felices y cómo esto repercute en su comunidad. Nuestro análisis, que combina algoritmos de inteligencia artificial como deep learning y machine learning, ha permitido detectar no solo sonrisas, sino otros aspectos que influyen en dichas sonrisas, como el número de personas que aparecen en las fotos, el género, y otras emociones asociadas a cada imagen. Y, lo que descubrimos fue muy revelador: las fotos que más engagement, es decir, que más me gustas y más comentarios generan, muestran personas felices, en grupo, disfrutando de experiencias compartidas.

Pero además, aparece un elemento muy revelador, el formato selfie  que, aunque a menudo esté vinculado al narcisismo, también desvela elevados niveles de emoción positiva. Es decir, cuando nos sentimos realmente bien, tendemos a tomar fotos de nosotros mismos con el fin de contárselo al mundo, compartirlas con nuestro  mundo. Instagram se convierte, así, en un diario emocional abierto.

turistas
Conectando culturas en León. Ilustración artística: ChatGPT / S. B.

Turistas, residentes e influencers: ¿quién construye la imagen de un destino?

Avanzar en estas interesantes investigaciones nos ha permitido seguir realizando nuevos descubrimientos. De hecho, uno de nuestros estudios más recientes comparó cómo distintos tipos de usuarios de Instagram, ayudan a construir la imagen de cada destino, es decir, cuando estos actores comparten contenido en redes sociales, es decir, su propia interpretación del destino, de lo que ve y cómo lo siente, ¿cómo reaccionan sus seguidores? Con el ánimo de dar respuesta a esta cuestión, analizamos el caso de León, parada clave dentro del Camino de Santiago, y los resultados fueron claros:

Esta diversidad de voces genera una imagen de destino rica, combinando autenticidad local, inspiración viajera y atractivo mediático. Atrae en mayor medida porque es más atractiva, realista y, por ende, más creible.

¿Qué nos hace felices en un destino?

Otra de las líneas de investigación que desarrollamos fue predecir la felicidad de los turistas a partir de sus publicaciones. Analizamos no solo las fotos, sino también los textos y hashtags, ¿y qué descubrimos? Uno de los hallazgos más reveladores tiene que ver con los factores que contribuyen en mayor medida a que los turistas expresen felicidad en sus publicaciones. Porque a través del análisis combinado de imágenes, textos y metadatos, desvelamos que las experiencias compartidas —es decir, viajar acompañado y mostrarlo en las fotos— aumentan significativamente los niveles de emoción positiva mostrados. Y, aún hay más, las imágenes que muestran grupos de personas, especialmente mujeres, manifiestan incluso mayores niveles de felicidad. De hecho, ellas son quienes más intensamente expresan emociones positivas en sus publicaciones, y suelen hacerlo en compañía de otras mujeres, reforzando ese vínculo social en el viaje.

Pero no solo importa lo que se ve en la imagen, sino también lo que se escribe. La dimensión del texto y del número de hashtags también nos enseñan aspectos relevantes a tener en cuenta para trabajar con la imagen de los destinos. De hecho, los textos más largos y cargados de hashtags denotan una mayor implicación con el destino. No se trata de una publicación casual, sino de una experiencia que ha dejado huella. A mayor implicación emocional, más necesidad de narrar, de etiquetar, de compartir. Además, los turistas con personalidades más extrovertidas tienden a mostrar emociones más intensas y positivas, tanto en sus expresiones faciales como verbales, es decir, con sus palabras.

En definitiva, la felicidad turística se contagia, se escribe, se fotografía... y, sobre todo, se comparte. Deja huella digital y, a la vez, transforma y define la imagen de los lugares que visitamos.

¿Por qué las fotos que compartimos cuando viajamos importan tanto? Construyendo recuerdos, emociones... y también la imagen de los destinos3
Fotografía en formato selfie de una turista. Ilustración artística: ChatGPT / S. B.

¿Para qué sirven estos descubrimientos?

Todos estos hallazgos no se quedan solo en el ámbito académico, tienen también aplicaciones muy concretas para los actores que trabajan en la promoción turística. Comprender qué tipo de contenidos generan más interacción en redes sociales permite diseñar campañas de comunicación y marketing más eficaces, auténticas y cercanas. Así, las entidades responsables de la gestión turística pueden apoyarse, por una parte, en las publicaciones de residentes para proyectar una imagen más real del destino y, al mismo tiempo, también colaborar con influencers para amplificar su visibilidad. Potenciando efectos beneficiosos para el lugar, como poner en valor lugares desconocidos, e incluso, ayudando a distribuir los flujos turísticos hacia puntos menos visitados. De este modo contribuyen a luchar contra la  masificación de los sitios más emblemáticos del destino.

Los destinos también pueden identificar lugares que ya funcionan como escenarios icónicos en Instagram y potenciar esos espacios como “puntos selfie”, aprovechando su capacidad de atracción emocional y viral o generar nuevos “puntos selfie” de interés. Por su parte, alojamientos y restaurantes pueden fomentar que los propios clientes compartan su experiencia de forma emocional, convirtiendo una simple comida o estancia en una historia que inspire a otros viajeros.

Con la finalidad de simplificar la toma de decisiones por parte de administraciones públicas y empresas, nuestro equipo ha desarrollado la herramienta Photo Data Tour Analytics, una plataforma pionera que analiza las fotos compartidas en Instagram de cualquier destino turístico. Utilizando inteligencia artificial, esta herramienta permite clasificar imágenes, detectar emociones, identificar escenas, y resumir en forma de KPIs el comportamiento en la red social Instagram de residentes y turistas en el destino, apoyando a la toma de decisiones de los gestores turísticos, gracias a los datos reales compartidos por los usuarios.

Una nueva forma de entender el turismo

Hasta ahora el análisis de la experiencia turística se hacía a través de encuestas o se utilizaban estudios retrospectivos utilizando los textos de los mensajes o valoraciones. Nuestra metodología aporta dos cambios sustanciales: (a) se basa en datos (textos, imágenes) publicados por los turistas justo en el momento en el que tienen la experiencia turística, por lo que aportamos inmediatez en cuanto a disponibilidad de resultados y (b) fiabilidad de datos, puesto que nos centramos en comportamientos reales y no en declaraciones de los turistas que decidan contestar a un cuestionario tiempo después de la experiencia turística.

Hoy en día el turismo no solo se vive y se disfruta: se fotografía, se escribe y se comparte. Un viaje empieza y acaba en internet, y concretamente Instagram se ha convertido en un espacio donde se construyen las emociones del viaje. Conocer esas emociones y comprender qué las provoca, es clave para mejorar la experiencia de los turistas y, consecuentemente, ayudar a la gestión de los destinos. Como demuestran nuestras investigaciones, detrás de cada imagen hay una historia de felicidad… y una oportunidad para conectar mejor con sus protagonistas, los viajeros.

Referencias


Sofía Blanco Moreno

Sofía Blanco Moreno

Doctora en Economía de la Empresa. Grado en Marketing e Investigación de Mercados. Grado en Turismo. Grado en Periodismo


Ana-M.-Gonzalez-Fernandez

Ana M. González-Fernández

Dra. En Ciencias Empresariales


Pablo Antonio Muñoz-Gallego

Pablo Antonio Muñoz-Gallego

Doctor en CC. Empresariales


Las patatas son uno de los alimentos más universales del planeta. Se fríen, se cuecen, se asan, se cultivan en climas fríos y han salvado del hambre a millones de personas a lo largo de la historia. Conocemos incluso el origen de la tortilla de patatas. Pero lo que no sabíamos hasta ahora es que su existencia se debe, en parte, a un inesperado parentesco evolutivo con los tomates. Aunque no lo parezca, ambas plantas comparten un pasado común más profundo de lo que la apariencia sugiere.

Un nuevo estudio publicado en la revista Cell ha resuelto una antigua incógnita científica sobre el origen evolutivo de las patatas. Tras analizar 128 genomas de distintas especies, un equipo internacional ha descubierto que el linaje al que pertenecen las patatas surgió a partir de una hibridación entre los ancestros de los tomates y otra planta sudamericana llamada Etuberosum. El cruce ocurrió hace entre 8 y 9 millones de años, en un momento clave de cambios geológicos y climáticos en los Andes. Este hallazgo no solo explica el origen de los tubérculos, sino que también demuestra cómo el ADN puede conservar las huellas de eventos evolutivos remotos y fundamentales.

Un linaje híbrido con una historia inesperada

Durante mucho tiempo, los botánicos sospechaban que las relaciones entre los linajes de las patatas (Petota), los tomates (Tomato) y Etuberosum no seguían un patrón evolutivo sencillo. A pesar de su cercanía morfológica y genética, los análisis filogenéticos ofrecían resultados contradictorios. La nueva investigación zanja esta controversia: el linaje de las patatas es de origen híbrido, fruto de un cruce entre dos especies distintas, sin que ninguna de ellas por sí sola pueda considerarse la antecesora directa.

Según el estudio, los científicos observaron en el ADN de las patatas patrones genéticos en mosaico, formados por una proporción casi equitativa de genes heredados de los linajes del tomate y de Etuberosum. Esto solo podía explicarse si, en algún momento, ambas especies se cruzaron. Tal como señalan los autores, “todos los miembros [de Petota] muestran una mezcla estable de ancestros genómicos” heredados de las dos especies parentales.

Este evento híbrido no fue un simple accidente sin consecuencias. Lo realmente extraordinario es que a partir de ese cruce se originó una nueva estructura vegetal: el tubérculo, algo que ninguna de las especies parentales tenía antes. La formación de este órgano permitió a las plantas almacenar nutrientes y agua bajo tierra, y fue clave para su expansión en nuevas zonas climáticas.

Fuente: Cell

El papel crucial del ADN en la formación de los tubérculos

El estudio no solo reconstruyó el árbol genealógico del linaje de las patatas, sino que fue más allá al identificar genes específicos implicados en el desarrollo de los tubérculos. Uno de ellos, SP6A, proviene del linaje del tomate, y en las patatas modernas funciona como un interruptor genético que indica cuándo debe formarse un tubérculo. Otro gen relevante es IT1, heredado de Etuberosum, que también participa en la formación y desarrollo de estas estructuras.

Ambos genes pasaron por un proceso de selección natural y recombinación tras la hibridación, generando una red reguladora completamente nueva. Como señalan los autores, “la herencia alternada de alelos altamente divergentes de genes clave [...] contribuyó a la formación de tubérculos mediante combinaciones híbridas”.

Para confirmar la función de estos genes, el equipo realizó experimentos de edición genética y expresión en laboratorio. Entre los resultados más llamativos se observó que, al eliminar ciertos genes mediante técnicas CRISPR, las plantas perdían la capacidad de formar tubérculos o desarrollaban estructuras subterráneas defectuosas. Esto confirma que la evolución de un nuevo órgano funcional se originó por la combinación de fragmentos genéticos procedentes de linajes distintos.

Fuente: ChatGPT / E. F.

Una explosión de especies impulsada por un cruce antiguo

La aparición de los tubérculos no fue solo una curiosidad evolutiva: permitió que las plantas del linaje Petota colonizaran nuevas zonas ecológicas, en especial aquellas que estaban apareciendo durante el levantamiento de la cordillera de los Andes. En aquel momento, el cambio geológico generó hábitats más fríos, secos y con estaciones marcadas. Las plantas que podían sobrevivir en esas condiciones, como las que formaban tubérculos, tenían una ventaja evolutiva.

Esto se tradujo en una diversificación explosiva del linaje, que hoy incluye más de un centenar de especies silvestres. Tal como indican los investigadores, “la hibridación y la tuberización desencadenaron una radiación adaptativa explosiva” en el grupo. Es decir, la combinación de ADN permitió a estas plantas adaptarse rápidamente a nichos muy distintos, favoreciendo la aparición de nuevas especies.

Además, el análisis del genoma reveló que esta mezcla genética no fue un fenómeno puntual. Las señales de hibridación están presentes en todas las especies analizadas del grupo Petota, lo que indica que el evento híbrido no solo fue estable, sino también fundador, dando origen a una nueva línea evolutiva con identidad propia.

Fuente: ChatGPT / E. F.

La evolución como cruce y recombinación

Este trabajo refuerza la idea de que la evolución no avanza solo por acumulación lenta de mutaciones, sino también gracias a eventos puntuales de gran impacto, como la hibridación entre especies distintas. Aunque en animales este tipo de cruces es más raro, en plantas resulta mucho más común y a menudo tiene consecuencias importantes.

En el caso de las patatas, se trata de un ejemplo de especiación híbrida homoploide, es decir, un nuevo linaje que surge por hibridación sin cambio en el número de cromosomas. Esta forma de evolución ha sido documentada en otros organismos, pero pocas veces con un nivel de detalle genético tan completo. Los autores explican que “los patrones genéticos en mosaico en todo el genoma [...] son consistentes con una historia evolutiva reticulada”.

Gracias al desarrollo de tecnologías como la secuenciación de genomas haplotipo-resueltos, ha sido posible rastrear con gran precisión qué porciones del ADN provienen de cada ancestro. Esto ha permitido reconstruir cómo se reorganizaron los genes tras la hibridación, y cómo ciertas combinaciones favorecieron la aparición de nuevas funciones.

Un cambio evolutivo sincronizado con la geología

El estudio también destaca la coincidencia temporal entre el evento híbrido y el levantamiento de los Andes, que ocurrió entre 6 y 10 millones de años atrás. Ese momento geológico creó nuevas condiciones ambientales que ofrecieron una oportunidad única para la expansión de un linaje con tubérculos.

Como afirman los investigadores, “la formación de tubérculos favoreció la reproducción vegetativa y la colonización de nichos ecológicos diversos”, especialmente en zonas frías y de alta montaña. Esta sincronización entre cambios geológicos, genéticos y ecológicos es clave para entender por qué y cómo surgió un alimento tan importante como la patata.

En comparación con sus linajes parentales, las patatas muestran una mayor diversidad genética, una distribución geográfica más amplia y una mejor adaptación a entornos extremos. Esto sugiere que la hibridación no solo fue el origen de la especie, sino también el motor de su éxito evolutivo.

Lo que una patata nos enseña sobre el pasado

A simple vista, una patata no parece un objeto cargado de historia. Pero ahora sabemos que cada tubérculo que llega a un plato lleva en su interior un pasado complejo, lleno de cruces genéticos, adaptación y transformación. Este estudio revela que el ADN guarda la memoria de antiguas alianzas biológicas, y que estas alianzas pueden tener efectos duraderos, incluso millones de años después.

La investigación sobre el origen híbrido de las patatas nos recuerda que la evolución es un proceso creativo, que combina elementos preexistentes para generar soluciones nuevas. En este caso, fue una reorganización genética la que dio lugar a una innovación clave para la supervivencia de una planta y, con el tiempo, para la nutrición de la humanidad.

Referencias

El nuevo Kia Sportage 2025 llega con un mensaje claro: ser uno de los SUV más completos, versátiles y avanzados de su segmento. Tras más de 7 millones de unidades vendidas desde su lanzamiento original, esta nueva generación no solo refuerza su popularidad, sino que también introduce mejoras clave en diseño, tecnología y sostenibilidad.

No se trata solo de coches: los increíbles números de un coche que está haciendo historia respaldan el éxito continuo de este modelo en todo el mundo. Disponible en versiones de combustión interna (ICE), híbrida ligera (MHEV), híbrida (HEV) e incluso híbrida enchufable (PHEV), el nuevo Sportage cubre un amplio espectro de necesidades y estilos de vida. de combustión interna (ICE), híbrida ligera (MHEV), híbrida (HEV) e incluso híbrida enchufable (PHEV), el nuevo Sportage cubre un amplio espectro de necesidades y estilos de vida.

Kia apuesta con fuerza por la electrificación, sin renunciar a una estética robusta y atractiva. La nueva línea de diseño "Opposites United" combina superficies suaves con formas marcadas y detalles futuristas como la iluminación LED Star Map o la parrilla "Tiger Nose". La versión europea, con una batalla acortada, está pensada para la conducción urbana sin sacrificar amplitud interior.

Pero donde el Sportage destaca es en el interior. El salpicadero con doble pantalla curva de 12,3 pulgadas, los sistemas de conectividad como Apple CarPlay/Android Auto inalámbricos, y el sistema Kia Connect con actualizaciones OTA, hacen de este SUV un verdadero centro digital sobre ruedas. Además, la versión HEV ofrece una potencia combinada de 239 CV con tracción total, lo que garantiza no solo eficiencia, sino también prestaciones contundentes.

Las asistencias a la conducción de última generación, un espacio interior optimizado para el confort y un maletero que alcanza los 1.776 litros con los asientos abatidos, completan una propuesta que mira al futuro sin olvidar las necesidades del presente. En este artículo desgranamos sus claves, versiones, capacidades técnicas y cómo Kia ha conseguido dar un salto cualitativo en todos los aspectos con su nuevo Sportage 2025.

Un diseño que fusiona opuestos con elegancia

La filosofía de diseño "Opposites United" de Kia se plasma con fuerza en el nuevo Sportage. El resultado es una fusión audaz entre líneas suaves y detalles contundentes, con una parrilla Tiger Nose reinterpretada y una firma lumínica LED Star Map que aporta sofisticación futurista.

Esta versión 2025 ha sido adaptada para Europa con una batalla más corta, ideal para entornos urbanos, pero sin perder presencia ni capacidades. El diseño de las llantas, disponibles en 17, 18 y 19 pulgadas, refuerza el carácter musculoso del modelo, mientras que el perfil trasero culmina con un conjunto de ópticas estilizadas y carácter imponente.

Cuatro versiones mecánicas para todos los estilos

¿Cuál es el SUV ideal para ti? Kia plantea esa pregunta con una propuesta polivalente que se adapta tanto a quienes buscan eficiencia como a quienes priorizan el dinamismo o la autonomía.

El Sportage 2025 se ofrece en versiones ICE (gasolina de 150 CV), MHEV (híbrido ligero), HEV (híbrido autorrecargable con 239 CV) y PHEV (híbrido enchufable con 288 CV). Todas ellas están diseñadas para responder a distintas prioridades: desde la conducción tradicional hasta la movilidad electrificada con etiqueta CERO.

Híbrido eléctrico (HEV): equilibrio entre potencia y eficiencia

El Sportage HEV combina un motor turboalimentado de 1,6 litros con un sistema eléctrico que juntos entregan 239 CV. La tracción total AWD y la caja automática de seis marchas hacen que esta versión destaque tanto en eficiencia como en capacidad de respuesta.

Gracias a su batería de 1,49 kWh y a su motor eléctrico de 64 kW, permite una conducción fluida, silenciosa y capaz de reducir considerablemente el consumo. Es la opción ideal para quien quiere un SUV dinámico, pero responsable con el medioambiente.

Sportage ICE: la opción térmica con carácter

Para los conductores que prefieren el enfoque clásico, Kia ofrece un motor T-GDI de 1,6 litros y 150 CV. Equipado con tracción delantera y cambio automático de doble embrague (7DCT), ofrece una conducción suave y prestaciones equilibradas.

Este modelo alcanza los 195 km/h y acelera de 0 a 100 km/h en 9,4 segundos. Con un maletero de hasta 1.780 litros, sigue siendo una opción racional para quienes buscan funcionalidad sin complicaciones híbridas.

Interior tecnológico: dos pantallas y muchas sorpresas

El habitáculo del nuevo Sportage ha sido completamente rediseñado con el confort digital como prioridad. La doble pantalla curva de 12,3” forma un único panel envolvente que combina el cuadro de instrumentos con el sistema de infoentretenimiento.

El salpicadero incluye mandos hápticos personalizables, iluminación ambiental, head-up display de 10 pulgadas y detalles de diseño minimalista. El resultado es un espacio envolvente, moderno y ergonómico.

Conectividad total: Kia Connect, OTA y streaming

El sistema Kia Connect permite acceder a funciones del vehículo desde el móvil, incluyendo el estado de carga, programación de rutas, ajustes de climatización y más. Apple CarPlay y Android Auto inalámbricos están integrados de serie.

La plataforma Feature-on-Demand (FOD) añade entretenimiento como juegos, YouTube o servicios de vídeo bajo demanda, mientras que el punto de acceso Wi-Fi 4G LTE conecta hasta cinco dispositivos. Todo actualizado por OTA.

Seguridad activa y asistentes de nivel superior

El Sportage incluye una de las suites ADAS más completas del segmento. Entre ellas destaca el asistente de conducción en carretera HDA 2, el control de crucero adaptativo inteligente SCC 2, la asistencia para colisiones frontales y el sistema de mantenimiento y seguimiento de carril.

También integra sensores de aparcamiento en 360°, cámara con visión en 3D y monitor de ángulo muerto con imagen en el cuadro. Todo pensado para ofrecer máxima seguridad y confianza al volante.

Espacio a bordo: modularidad e inteligencia práctica

Con una distancia entre ejes de 2.680 mm, el nuevo Sportage garantiza amplitud para cinco adultos. El espacio para las piernas en la segunda fila alcanza los 996 mm y el confort se ve reforzado con asientos traseros calefactables, inclinables y con división 4:2:4.

Además, incorpora soluciones como tomas USB-C integradas en los respaldos delanteros, reposabrazos centrales y un suelo de carga completamente plano, ideal para maximizar la usabilidad.

Maletero: hasta 1.776 litros y doble fondo

El volumen de carga máximo varía entre 526 y 591 litros con la segunda fila en uso, dependiendo de la versión, y alcanza hasta 1.776 litros con los asientos abatidos. Ideal para escapadas, mudanzas o uso diario familiar.

El suelo de maletero de doble nivel mejora la organización, mientras que el portón eléctrico manos libres y los múltiples ganchos de sujeción aportan practicidad al conjunto.

Comodidad de marcha y conducción híbrida refinada

El Sportage apuesta por una suspensión McPherson delantera y multibrazo trasera, con una versión controlada electrónicamente en las versiones más equipadas. Esto se traduce en una conducción suave, incluso en terrenos irregulares.

El equilibrio entre eficiencia y prestaciones se refuerza con una excelente insonorización del habitáculo y un ajuste dinámico que transmite aplomo en curva y suavidad en autopista.

Sostenibilidad real: materiales reciclados y consumo optimizado

La marca ha apostado por la sostenibilidad también en los materiales del habitáculo. El uso de microfibra Dinamica® —hecha con poliéster reciclado— y procesos de producción con base de agua muestran el compromiso de Kia con el medioambiente.

Los consumos homologados, especialmente en las versiones híbridas, permiten reducir la huella de carbono sin comprometer las prestaciones. Kia demuestra que lujo y conciencia ecológica pueden ir de la mano.

Un SUV preparado para lo que venga

El nuevo Kia Sportage 2025 es mucho más que una evolución estética. Es un SUV diseñado con propósito, preparado para acompañar estilos de vida diversos, y cargado de tecnología útil, no superficial. Electrificación, seguridad, diseño y funcionalidad confluyen en una propuesta sólida y aspiracional.

En un mercado competitivo, Kia demuestra que sabe adaptarse, pero también marcar el paso. El Sportage no solo se adapta a todo. Lo hace con personalidad, eficiencia y una visión clara de hacia dónde va la movilidad.

No hace falta una gran tormenta para que la atmósfera se vuelva inquieta. A veces, basta con el zumbido lejano de un trueno o ese instante en que el cielo se oscurece de forma repentina para que surja una pregunta que muchos se han hecho: ¿cómo comienza un rayo? Aunque parezca mentira, hasta hace poco la ciencia no tenía una respuesta clara. Se conocían los ingredientes —nubes cargadas, campos eléctricos intensos, partículas energéticas—, pero no se entendía cómo se conectaban entre sí para desencadenar uno de los fenómenos más potentes y fugaces de la naturaleza.

Un nuevo estudio publicado en Journal of Geophysical Research: Atmospheres acaba de ofrecer una explicación detallada y cuantitativa a este enigma. El trabajo, liderado por el profesor Victor P. Pasko de Penn State y realizado en colaboración con centros de investigación de Francia, Dinamarca, República Checa y la NASA, propone un modelo basado en una poderosa reacción en cadena de electrones acelerados. Gracias a simulaciones computacionales de alta precisión, los autores demuestran que una cascada de electrones relativistas, generada por el efecto fotoeléctrico en el aire, es capaz de iniciar un rayo incluso en condiciones aparentemente silenciosas.

El efecto fotoeléctrico, en el corazón de la tormenta

El modelo propuesto en este estudio se basa en un fenómeno bien conocido de la física: el efecto fotoeléctrico, por el cual una partícula de luz (fotón) es capaz de arrancar un electrón de un átomo. En las condiciones extremas que se dan dentro de algunas nubes de tormenta, los campos eléctricos son lo bastante intensos como para acelerar electrones hasta velocidades cercanas a la luz. Estos electrones chocan contra átomos de nitrógeno y oxígeno, generando rayos X y otras partículas que, a su vez, liberan más electrones.

Lo que destaca este estudio es que esta cadena de sucesos se amplifica gracias al efecto fotoeléctrico, permitiendo que se produzca una “avalancha” de electrones en un espacio muy reducido y en fracciones de segundo. Esta acumulación de partículas cargadas genera finalmente una descarga eléctrica intensa: el primer paso de un rayo.

Según explican los autores, este proceso “no impone restricciones sobre la densidad ni el origen físico de los electrones iniciales”, lo que significa que incluso una pequeña semilla de energía —como un electrón solitario originado por un rayo cósmico— puede desencadenar todo el fenómeno.

Fuente: ChatGPT / E. F.

Tormentas invisibles: cuando no hay luz ni sonido

Uno de los hallazgos más sorprendentes del estudio tiene que ver con los flashes de rayos gamma terrestres (TGFs). Estos breves estallidos de radiación de alta energía habían desconcertado a los científicos porque muchas veces se detectaban sin que se produjera un rayo visible ni una señal de radio típica. ¿Cómo era posible que algo tan energético surgiera sin “ruido”?

Las simulaciones realizadas por el equipo de Pasko ofrecen una explicación clara. Como señalan, los rayos gamma pueden generarse en regiones muy pequeñas de la nube, donde el proceso de avalancha ocurre, pero sin producir descargas visibles. “Este proceso puede dar lugar a niveles detectables de rayos X, aunque acompañados de emisiones ópticas y de radio muy débiles”. En otras palabras: puede haber una tormenta energética en el cielo que los ojos humanos y los radares apenas perciben.

Esta observación ayuda a entender por qué algunos rayos gamma no se asocian con fenómenos ópticos evidentes: la física que los origina es más sutil y rápida de lo que se pensaba.

¿Los rayos no pueden caer dos veces en el mismo sitio? Este y otros mitos populares que no resisten un trueno de realidad
No todo lo que creemos tiene base real, aunque lo hayamos oído toda la vida. Representación artística. Fuente: Sora / Edgary R.

Un modelo que lo conecta todo

El núcleo del trabajo es el desarrollo y validación del modelo Photoelectric Feedback Discharge. Este modelo reproduce con gran detalle los pasos físicos que ocurren dentro de una nube cuando se forma un rayo, incluyendo el comportamiento de los electrones, los campos eléctricos, la formación de rayos gamma y las ondas electromagnéticas asociadas.

Una de las contribuciones más importantes del estudio es que este mecanismo puede explicar varios fenómenos atmosféricos simultáneamente: desde los pulsos de inicio de una descarga (IBPs) y los eventos bipolares estrechos (NBEs) hasta los pulsos energéticos dentro de nubes (EIPs) y los rayos gamma terrestres (TGFs) .

El modelo no solo es coherente con observaciones previas en tierra y desde satélites, sino que además permite prever cómo se comportarán estos fenómenos a distintas altitudes, gracias a lo que los autores llaman leyes de similitud. Estas leyes ajustan las variables físicas del modelo según la densidad del aire, que varía con la altitud, y explican por qué ciertos eventos son más intensos o más duraderos en distintos niveles de la atmósfera .

Esquema de funcionamiento del efecto fotoeléctrico. Fuente: Wikipedia

Una inteligencia artificial... sin llamarla así

Aunque el artículo no utiliza el término "inteligencia artificial", lo que describe es, de hecho, un sistema de simulación capaz de reproducir condiciones reales de forma autónoma y precisa. El modelo incorpora algoritmos numéricos complejos, ajustados con datos empíricos, para predecir cómo se comportan los electrones en presencia de campos eléctricos naturales.

Este tipo de modelado computacional, basado en física de alta energía y técnicas de simulación, puede considerarse una forma de inteligencia artificial científica. El sistema analiza millones de posibles trayectorias de partículas y evalúa cómo evolucionan las condiciones dentro de una nube en milésimas de segundo. Según explicó el investigador Zaid Pervez en la nota de prensa, “comparamos nuestros resultados con observaciones previas y con mis propios estudios sobre descargas compactas dentro de nubes”, lo que demuestra el poder predictivo del modelo.

Gracias a esta aproximación, el estudio logró reproducir fenómenos observados por satélites, aviones a gran altitud y sensores terrestres, consolidando una teoría que llevaba años sin resolver.

Un nuevo camino en la investigación

Este estudio marca un punto de inflexión en la comprensión de los rayos. Hasta ahora, se pensaba que la formación de un rayo requería condiciones muy específicas y visibles: una acumulación de carga detectable, una señal electromagnética intensa o un inicio claramente observable. Pero este trabajo demuestra que el proceso puede ser mucho más sutil, rápido y localizado.

Además, al identificar el papel clave del efecto fotoeléctrico en el aire, el estudio abre nuevas vías para explorar cómo se comporta la atmósfera en situaciones de alto voltaje, no solo en la Tierra, sino también en otros planetas con atmósfera densa. La física detrás de los rayos puede ser universal, y este modelo ofrece una herramienta útil para aplicarla en otros contextos.

Finalmente, la posibilidad de que un solo electrón acelerado —quizá producto de un rayo cósmico— pueda encender una tormenta nos recuerda que la naturaleza funciona con precisión extrema. A veces, el detonante más minúsculo puede activar una reacción de proporciones colosales.

Referencias

Los auriculares inalámbricos con cancelación de ruido han mejorado gracias a la integración de inteligencia artificial que adapta el sonido al entorno. Son cada vez más populares entre quienes buscan aislamiento y calidad de audio en cualquier lugar.

Este verano, tras las rebajas de Xiaomi y Realme en sus Redmi Buds 6 y Buds Air 7, Nothing ha respondido con una oferta contundente en sus auriculares Ear (a) alcanzan ahora su precio más bajo hasta la fecha, consolidándose como una opción atractiva.

 Nothing Ear (a)
Nothing Ear (a) - Amazon

Actualmente, su precio parte desde los 69,99€ en tiendas como Fnac o PcComponentes. Sin embargo, la firma británica apuesta por Amazon para ofrecer sus Ear (a) al precio más competitivo hasta ahora: solo 58,65 euros.

Destacan por su diseño compacto, ligero y original, inspirado en un pastillero, con solo 4,8 g por auricular. Incorporan cancelación de ruido activa inteligente y adaptativa de hasta 45 dB, que se ajusta en tiempo real al entorno. El driver de 11 mm ofrece graves potentes y mayor nitidez, con algoritmos que optimizan el sonido en cada reproducción.

Cuentan con audio inalámbrico de alta resolución con certificación Hi-Res y compatibilidad con LDAC. Ofrecen hasta 9,5 horas de autonomía (más con el estuche) y carga rápida de 10 min para 10 horas de uso. Incluyen doble conexión, modo de baja latencia para gaming y Clear Voice Technology para llamadas nítidas. Además, integran ChatGPT por voz en móviles Nothing, potenciando aún más su ecosistema.

Sony baja el precio de los WF-C500 y entra de lleno en la guerra de auriculares inalámbricos

Este verano, Sony también ha entrado en la competencia del audio inalámbrico rebajando sus auriculares WF-C500 hasta los 47,11 euros. Una opción muy a tener en cuenta, especialmente si consideramos que su precio habitual supera los 58€ en tiendas como PcComponentes, Miravia o Fnac.

Sony WF-C500
Sony WF-C500 - Amazon

Ofrecen llamadas con manos libres nítidas gracias a su micrófono integrado de alta calidad y son compatibles con asistentes de voz para controlar música y llamadas fácilmente. Su emparejamiento es rápido y sencillo con Fast Pair para Android y Swift Pair para dispositivos Windows, garantizando una conexión Bluetooth estable y baja latencia.

Con hasta 20 horas de reproducción total y carga rápida que añade una hora en solo 10 minutos, estos auriculares están diseñados para durar todo el día. Su resistencia al agua IPX4 protege contra salpicaduras y sudor, mientras que el diseño multitarea permite usar un solo auricular para llamadas sin perder la música.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

Durante más de mil quinientos años, las infraestructuras de transporte de China, desde los caminos y canales hasya los ríos navegables, además de transportar bienes, tejieron también las conexiones sociales que estructuraron el imperio. Así lo demuestra una investigación pionera publicada en 2025 en Transportation Research Procedia por Wenlong Li y su equipo. Los investigadores han conseguido reconstruir cuantitativamente el sistema de transporte de la antigua China y su impacto en la formación y evolución de las redes socioeconómicas del gigante asiático.

La originalidad del estudio radica en su enfoque cuantitativo. Los autores han combinado datos históricos sobre infraestructura, demografía y relaciones sociales con modelos matemáticos. Su propósito ha sido doble: por un lado, demostrar cómo las mejoras en la red de transportes influyeron en la conectividad social; por otro, desvelar los mecanismos mediante los cuales ciertos núcleos urbanos adquirieron y mantuvieron una posición central en esa red de relaciones, incluso siglos después de haber perdido su preeminencia política o económica.

Infraestructuras de transporte
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Un sistema de transporte reconstruido con precisión

El estudio ha analizado cuatro momentos clave de la historia china: los años 2 (dinastía Han), 742 (Tang), 1102 (Song) y 1522 (Ming). Para cada uno de estos puntos temporales, los investigadores han reconstruido la red de transportes con base en carreteras, rutas postales, ríos navegables y canales. Se han incluido también factores geográficos como la elevación del terreno y las velocidades estimadas para distintos vehículos, desde carretas hasta embarcaciones fluviales, todo ello cotejado con las fuentes históricas primarias.

El análisis se ha realizado sobre una cuadrícula de 1777 unidades territoriales normalizadas, de 50×50 km cada una. Este procedimiento ha permitido comparar distintas regiones aplicando criterios homogéneos, a pesar de los cambios administrativos que hubiesen podido ocurrir a lo largo del tiempo. Los investigadores también han estimado la población para cada celda, utilizando, para ello, datos de censos antiguos, como el recogido en el año 2, que computa unos 46 millones de habitantes.

Infraestructuras de transporte
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Modelos de accesibilidad para evaluar oportunidades económicas y sociales

El concepto de accesibilidad, entendido como la capacidad de una localidad para conectar con otras en función del tiempo de viaje y la población de destino, constituye la piedra angular del estudio. Esta métrica, que se basa en modelos de gravedad aplicados previamente a otros contextos históricos (como el suizo, por ejemplo), permite evaluar cuán “conectado” estaba un lugar dentro de la red de transporte en un momento dado.

Los resultados muestran que las infraestructuras de transporte generaban beneficios regionales diferenciados. En la época Han, las regiones septentrionales como Henan tenían una mayor accesibilidad. Con el tiempo, el eje de conectividad se desplazó hacia el sur, sobre todo en torno al delta del Yangtsé. Este cambio ya anticipó el traslado del centro económico del imperio, un fenómeno bien documentado por los historiadores que ahora ha podido medirse con una nueva herramienta.

Por otro lado, cada dinastía empleó distintos tipos de transporte para potenciar la accesibilidad. Los caminos predominaron en la dinastía Han, los ríos y canales en la Tang y Song, y las rutas postales rápidas en la Ming. Estas transformaciones infraestructurales favorecieron que ciertas regiones multiplicaran sus oportunidades de conexión.

Infraestructuras de transporte
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Redes sociales históricas y vínculos entre ciudades

Para evaluar el impacto social de esta accesibilidad, los autores se han servido de la China Biographical Database (CBDB), un proyecto colaborativo entre instituciones como Harvard, la Academia Sinica y la Universidad de Pekín, que registra datos biográficos de más de 500.000 individuos que vivieron entre los siglos VII y XIX. La base incluye no solo los lugares de origen de estas personas, sino también sus vínculos sociales, académicos, políticos y literarios.

Los investigadores identificaron 57.326 vínculos sociales entre 36.642 personas, y los asignaron a ciudades concretas. Así, han logrado reconstruir las redes de conexiones ciudadanas durante tres períodos: 692–792 (Tang), 1052–1152 (Song) y 1472–1572 (Ming). De este modo, el estudio ha podido convertir una red de relaciones personales en una red espacial entre localidades. No solo eso: también ha permitido analizar la distribución geográfica del capital social.

La investigación ha corroborado que la distancia y el tiempo de viaje influyeron de forma significativa en la formación de vínculos sociales entre ciudades. Por tanto, era más probable establecer relaciones sociales duraderas cuanto más cerca estaban dos ciudades y mayor era su población combinada, como predice el modelo gravitacional.

Infraestructuras de transporte
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

La accesibilidad como predictor de las conexiones sociales

Uno de los mayores logros del estudio ha sido demostrar que la accesibilidad calculada para cada ciudad explica con precisión la intensidad de sus conexiones sociales. Así, la estructura de la red social en la China imperial puede entenderse como el resultado acumulado de una serie de condiciones infraestructurales y demográficas.

Por ejemplo, Chang’an y Luoyang, las capitales durante la dinastía Tang, muestran un nivel de conexión social muy superior al que predice el modelo, lo cual se interpreta como efecto de autorrefuerzo. Esto implica que las ciudades altamente conectadas tienden a seguir generando vínculos incluso si las condiciones cambian. Tal fenómeno también se observó en Nankín durante la dinastía Ming.

Sin embargo, las guerras y las crisis políticas pueden interrumpir bruscamente este proceso de autorrefuerzo, como ocurrió cuando el norte fue invadido durante el colapso de la dinastía Song. En estos casos, las redes sociales locales colapsaron o se desplazaron hacia nuevas regiones.

Infraestructuras de transporte
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Un modelo útil para entender dinámicas pasadas y presentes

El modelo gravitacional propuesto por el equipo de investigación no solo explica las redes sociales históricas de China con notable precisión, sino que plantea una analogía directa con las dinámicas de movilidad y conexión social en tiempos modernos. Aunque hoy contamos con tecnologías de comunicación, la investigación recuerda que, durante siglos, el transporte físico fue el principal vehículo de interacciones humanas a distancia. Además, el estudio permite entender cómo los nodos centrales en una red no siempre coinciden con los centros de poder político vigente, sino con una acumulación histórica de conexiones, accesibilidad y prestigio.

Las infraestructura como arquitectura invisible de lo social

La red de transportes en la antigua China, adeás de encauzar el movimiento de mercancías, tambió definió el mapa de las relaciones humanas. Gracias al uso de modelos cuantitativos rigurosos y a una rica base de datos histórica, el estudio de Wenlong et al. permite visualizar por primera vez cómo los caminos, canales y rutas postales sirvieron de andamiaje para la sociabilidad a lo largo de quince siglos. En suma, esta investigación ofrece una nueva mirada a la historia de China: una en la que la movilidad, la geografía y la conectividad se revelan como fuerzas clave para explicar la organización social y la evolución del poder urbano.

Referencias

Hace un siglo, en una isla alemana llamada Helgoland, un joven físico de 23 años escribía una carta que, sin saberlo del todo, marcaría el nacimiento de una nueva era en la ciencia. Werner Heisenberg se dirigía a su colega Wolfgang Pauli para confesarle una duda tan profunda como humana: si debía seguir adelante con su revolucionario manuscrito sobre mecánica cuántica… o si lo quemaba. En sus propias palabras, “[...] quisiera completarlo durante los últimos días de mi estancia aquí —o quemarlo]”. Esta tensión entre la genialidad y la inseguridad, entre el deseo de avanzar y el miedo al abismo conceptual, parece seguir viva hoy.

Cien años después, la física cuántica ha transformado nuestra tecnología y nuestra manera de entender el universo, pero los desacuerdos sobre sus fundamentos siguen tan intensos como entonces. Así lo revela una encuesta histórica publicada en Nature en julio de 2025. Participaron más de mil físicos, convocados para conmemorar el centenario de aquella carta. El resultado no podría ser más irónico: los expertos no logran acordar qué significa realmente la teoría que transformó la física moderna.

La carta que inició todo

El 9 de julio de 1925, desde Helgoland, Heisenberg expresó en su carta a Pauli una mezcla de entusiasmo y escepticismo. “Mis puntos de vista sobre la mecánica se han vuelto más radicales con cada día que pasa”, escribía, y luego confesaba: “... me gustaría completar el manuscrito durante los últimos días de mi estancia aquí –o quemarlo”. Aquel borrador se convertiría en el famoso artículo Umdeutung (reinterpretación), considerado por muchos como el acta de nacimiento de la mecánica cuántica moderna.

Heisenberg pretendía eliminar el concepto de órbitas atómicas —que no se podían observar— y reemplazarlo por una descripción puramente matemática basada en cantidades medibles, como frecuencias y niveles de energía. Fue una ruptura radical con la física clásica. Su carta no solo refleja el valor de quien se atreve a pensar lo impensable, sino también el vértigo de desafiar siglos de tradición científica. Cien años después, la revolución conceptual iniciada por Heisenberg sigue sin asentarse del todo.

Fuente: ChatGPT / E. F.

Una teoría exitosa con fundamentos difusos

Pese a su complejidad y su carácter abstracto, la mecánica cuántica es una de las teorías más exitosas en la historia de la ciencia. Sus predicciones se han verificado en numerosos experimentos, y ha sido la base de desarrollos tecnológicos clave, desde los semiconductores hasta la imagen por resonancia magnética. Sin embargo, algo desconcertante ocurre cuando se pregunta a los propios físicos qué significa realmente esa teoría.

Según la encuesta publicada por Nature, solo el 24 % de los participantes afirmó estar convencido de que su interpretación favorita de la cuántica es la correcta. La mayoría la ve como una herramienta útil, pero no necesariamente verdadera. Y eso no es un detalle menor. Significa que más allá de los cálculos exitosos, no existe un acuerdo claro sobre cómo interpretar la realidad que esos cálculos describen.

Fuente: ChatGPT / E. F.

La interpretación de Copenhague y sus críticos

La interpretación de Copenhague, formulada por Niels Bohr y Werner Heisenberg, sigue siendo la más popular entre los físicos encuestados: el 36 % la eligió como su opción preferida. Según esta visión, los sistemas cuánticos no tienen propiedades definidas hasta que son medidos. Pero esa afirmación, lejos de cerrar el debate, lo ha intensificado.

Una gran parte de quienes apoyan Copenhague lo hacen con reservas. En la misma encuesta, más de la mitad de los que eligieron esta interpretación admitieron que no estaban seguros de su respuesta, ni pudieron justificarla con claridad. Algunos críticos han señalado que esta falta de reflexión puede deberse a la rutina académica, donde se enseña Copenhague como un estándar incuestionable. Robert Spekkens, experto en fundamentos cuánticos, lo expresó con dureza: “Muchos defensores simplemente están bebiendo el Kool-Aid de la filosofía de Copenhague sin examinarla”.

Alternativas con apoyo creciente

Otras interpretaciones más radicales han ganado terreno. Una de ellas es la de los muchos mundos, propuesta por Hugh Everett en 1957. Según esta idea, cuando se realiza una medición, el universo se ramifica en múltiples versiones, cada una correspondiente a un posible resultado. En la encuesta, el 15 % de los físicos optó por esta interpretación, que evita el colapso de la función de onda y mantiene el determinismo, a costa de multiplicar realidades paralelas.

También están las teorías de colapso espontáneo, que sugieren que la función de onda se reduce por sí sola, sin necesidad de observación. Aunque menos populares (4 %), ofrecen una forma de resolver el problema de la medición sin apelar al papel del observador.

Las interpretaciones de tipo epistemológico, como QBism o la mecánica cuántica relacional, también han ganado adeptos. Estas teorías no describen una realidad objetiva, sino que entienden la función de onda como una herramienta para gestionar expectativas sobre lo que un observador medirá. En 2016, solo el 7 % de los físicos se inclinaba por esta visión; en 2025, el porcentaje ha subido al 17 %.

¿Por qué tanto desacuerdo?

El desacuerdo entre físicos no se debe a falta de información, sino a la dificultad filosófica de traducir un formalismo matemático a una visión coherente del mundo. Gemma De les Coves, física teórica de la Universidad Pompeu Fabra, resumió el dilema con claridad: “Me parece extraordinario que personas muy conocedoras de la teoría cuántica puedan estar convencidas de puntos de vista completamente opuestos”.

El problema no es solo técnico, sino también cultural. Durante décadas, la enseñanza de la física ha privilegiado la resolución de problemas sobre la reflexión conceptual, lo que ha favorecido una actitud pragmática: usar las ecuaciones sin preocuparse demasiado por su significado. A esto se refiere la expresión “shut up and calculate”, que muchos asocian con la interpretación de Copenhague.

Fuente: ChatGPT / E. F.

Lo que está en juego

Más allá de las preferencias individuales, hay una inquietud compartida: ¿es suficiente aplicar una teoría sin comprenderla del todo? Sean Carroll, físico y filósofo en Johns Hopkins, advierte que esta postura es peligrosa: “Sería razonable si pensáramos que ya conocemos la teoría final de la física y no hay enigmas pendientes. Pero nadie cree eso”.

Casi la mitad de los encuestados cree que los departamentos de física no prestan suficiente atención a las bases conceptuales de la cuántica. Y el 58 % piensa que los experimentos futuros podrían ayudar a distinguir cuál es la interpretación correcta. En otras palabras, el debate está abierto, y probablemente aún falten piezas clave del rompecabezas.

Más preguntas que respuestas

Un siglo después de que Heisenberg dudara entre terminar o quemar su manuscrito, la física cuántica sigue siendo una teoría en tensión. Por un lado, es extraordinariamente precisa en sus predicciones. Por otro, carece de un consenso sobre lo que esas predicciones significan. Esta paradoja —una teoría que funciona sin que sepamos exactamente por qué— es a la vez un logro y un reto pendiente.

Aunque no haya una única interpretación dominante, el artículo sugiere que esta diversidad de opiniones refleja una disciplina viva y en evolución, más que una crisis o un fracaso. La cuántica no está cerrada, y eso abre la puerta a nuevas ideas, nuevas teorías y tal vez, como pensaba Heisenberg, una forma completamente distinta de entender el mundo.

Referencias

La idea de un entorno desprovisto de vida no es nueva. A más de 9.000 metros bajo la superficie del océano, donde la presión aplastaría un submarino común y la oscuridad es total, pocos esperarían encontrar criaturas complejas. En los entornos más profundos del planeta, todo parece estar en contra de la vidatemperaturas cercanas al punto de congelación, oscuridad perpetua y una presión que supera las 1.000 atmósferas. Sin embargo, una reciente expedición científica ha puesto patas arriba esa idea.

Gracias a un sumergible tripulado de profundidad total, el Fendouzhe, un equipo internacional ha descubierto comunidades biológicas activas en las fosas de Kuriles-Kamchatka y Aleutianas, en el noroeste del océano Pacífico. El hallazgo, publicado en la revista Nature, revela ecosistemas complejos sustentados no por la luz solar, sino por reacciones químicas internas de la Tierra. Según los autores, se trata de "las comunidades basadas en quimiosíntesis más profundas y extensas conocidas hasta ahora".

Un ecosistema escondido en las sombras

La investigación se desarrolló entre julio y agosto de 2024 y cubrió más de 2.500 kilómetros de fondo marino. Los científicos realizaron 23 inmersiones, de las cuales 19 revelaron hábitats dominados por animales especializados en condiciones extremas, como gusanos tubícolas (siboglinidos) y bivalvos (moluscos con concha).

Estos ecosistemas se encuentran entre los 5.800 y los 9.533 metros de profundidad, siendo este último el registro más profundo de una comunidad de este tipo. Uno de los lugares más destacados fue apodado The Deepest ("El Más Profundo"), ubicado en un fallo geológico activo donde emergen fluidos ricos en metano y sulfuro de hidrógeno, elementos clave en la base energética de estas comunidades. “Estas comunidades están sostenidas por fluidos ricos en sulfuro de hidrógeno y metano que se transportan a lo largo de fallas”.

A diferencia de los ecosistemas superficiales, aquí no hay luz solar que sustente la fotosíntesis. En su lugar, los microbios realizan quimiosíntesis, transformando compuestos químicos en energía. Los gusanos y moluscos dependen de estas bacterias: algunas especies las albergan en su interior, en simbiosis, mientras que otras se alimentan directamente de ellas.

Fuente: Nature

Gusanos, moluscos y una arquitectura biológica desconocida

Uno de los hallazgos más llamativos se produjo en el lugar denominado Wintersweet Valley, a 9.120 metros de profundidad. Allí se encontró una extensión de dos kilómetros poblada por millares de gusanos siboglinidos de los géneros Lamellisabella y Polybrachia. Estos organismos viven dentro de tubos que emergen del sedimento y forman verdaderas colonias, a menudo acompañadas por otras especies como poliquetos errantes, holoturias y crinoideos.

También se identificaron zonas como Cotton Field y Dead Valley, donde la densidad de vida era extraordinaria. En algunas áreas, los investigadores estimaron hasta 5.813 gusanos por metro cuadrado. “Estas comunidades, típicamente dominadas por Bivalvia y Siboglinidae, y sostenidas por quimiosíntesis microbiana, están confinadas a áreas donde se liberan fluidos ricos en sulfuro de hidrógeno y/o metano”.

En otras inmersiones, también se hallaron bivalvos como Tartarothyasira cf. hadalis, conocidos por vivir en zonas de filtración de metano. Su presencia indica una red alimenticia mucho más compleja de lo que se creía, en la que conviven organismos simbióticos, carroñeros y depredadores adaptados a condiciones extremas.

Fuente: Nature

El papel oculto del metano

Los análisis geoquímicos realizados a partir de muestras de sedimento mostraron que el metano presente en estas zonas es de origen microbiano. Procede de la reducción de dióxido de carbono por parte de bacterias en ausencia de oxígeno. “Estos datos geoquímicos indican que el metano presente en los sedimentos de filtración es el resultado de la reducción microbiana de CO2 derivado de la materia orgánica sedimentaria”.

En lugar de fluir desde capas profundas por grandes grietas tectónicas, el metano se origina en los propios sedimentos del fondo de las fosas, producto de la descomposición de material orgánico que se acumula por procesos naturales como flujos gravitacionales o terremotos. Este metano, en forma de fluido disuelto o hidrato, asciende por fallas y alimenta estos ecosistemas.

Una característica sorprendente es que la concentración de metano detectada supera en más de 200 veces el nivel de solubilidad teórico. Este hallazgo sugiere que existen bolsas de hidratos de metano que podrían representar una reserva subestimada de carbono en el sistema terrestre.

Imagen real de Fendouzhe, el sumergible. Fuente: Wikipedia

Un motor biológico profundo e inesperado

Hasta ahora se pensaba que la vida en las fosas oceánicas dependía únicamente de la caída de materia orgánica desde la superficie, como partículas muertas y restos de animales. Sin embargo, este nuevo estudio demuestra que la energía química local también es clave, lo que obliga a revisar cómo entendemos el funcionamiento de los ecosistemas hadales (más allá de los 6.000 metros).

Los científicos destacan que este sistema puede actuar como un subsidio trófico para otras especies heterótrofas. Se han observado asociaciones entre organismos quimiosintéticos y animales como anémonas, gusanos Echiura o anfípodos. Esto implica que la influencia de estos focos de metano se extiende más allá de los propios filtradores, afectando al ecosistema circundante en toda su complejidad.

La coexistencia de organismos basados en quimiosíntesis con un número considerable de fauna bentónica heterótrofa... sugiere que la producción de filtraciones de metano en la fosa extiende su influencia a la comunidad bentónica en general”.

Un reto para la ciencia del clima

El descubrimiento no solo tiene implicaciones ecológicas, sino también geológicas y climáticas. Al demostrar que el carbono orgánico puede quedar atrapado en forma de metano en los sedimentos de las fosas, este estudio plantea que una parte del carbono que se pensaba que regresaba al manto terrestre podría estar almacenada en la corteza superior durante millones de años.

Además, si las condiciones encontradas aquí se repiten en otras fosas similares, el inventario mundial de hidratos de metano podría aumentar significativamente. Esto no solo impactaría en los modelos de carbono del planeta, sino también en la evaluación de riesgos geológicos y energéticos a largo plazo.

En palabras de los autores: “Estas observaciones desafían los modelos actuales de los límites de la vida y del ciclo del carbono en el océano profundo”.

Referencias

Mucho antes de las dietas detox, los gimnasios 24 horas y los relojes inteligentes que monitorizan nuestro sueño, ya existía una profunda preocupación por la salud. En el corazón de la civilización grecorromana, el bienestar no era una moda pasajera ni un privilegio de influencers: era una ciencia compleja y, en muchos aspectos, sorprendentemente avanzada.

Los antiguos médicos, como Hipócrates, Galeno o Diocles, no solo prescribían remedios para curar enfermedades, sino que elaboraban completas guías de vida saludable, con una precisión que puede resultar abrumadora incluso para nuestros estándares. Para ellos, la salud era un equilibrio dinámico entre el cuerpo, el entorno y las costumbres, una danza delicada entre estaciones, humores y hábitos diarios.

Si bien no tenían microchips ni suplementos vitamínicos, sí contaban con algo que, a menudo, se nos escapa: una visión integral del ser humano como parte de su entorno natural, cultural y espiritual.

Una salud hecha a medida: la medicina personalizada del pasado

Uno de los aspectos más fascinantes del pensamiento médico antiguo es su insistencia en la personalización. No existía una fórmula única para todos. El tratamiento y el estilo de vida recomendados variaban en función de la edad, el sexo, la estación del año, el clima e incluso el temperamento del paciente.

Para un joven robusto del campo, el consejo podía ser intensificar la actividad física y reducir los alimentos húmedos. Para un anciano de ciudad, se proponía justo lo contrario: evitar el ejercicio excesivo, comer alimentos más densos y dormir más. Cada cuerpo era un mundo, y cada mundo requería su propio equilibrio.

Este enfoque individualizado anticipa, de forma asombrosa, la medicina de precisión que hoy comienza a desarrollarse con tecnologías punteras. Mientras nosotros confiamos en algoritmos, los médicos antiguos confiaban en la observación minuciosa y la experiencia acumulada durante generaciones.

El mundo antiguo concebía el cuerpo como un reflejo del equilibrio entre fuerza, salud y armonía interior
El mundo antiguo concebía el cuerpo como un reflejo del equilibrio entre fuerza, salud y armonía interior. Foto: Wikimedia

El sexo como medicina: entre la moderación y la energía vital

Pocos imaginarían que el mundo clásico tenía normas detalladas sobre la frecuencia ideal de las relaciones sexuales. Para los antiguos médicos, el cuerpo humano era un sistema de energías y fluidos que debían mantenerse en proporciones exactas, y la actividad sexual se consideraba una poderosa forma de regular ese sistema.

Se creía que el exceso de relaciones debilitaba el cuerpo, vaciándolo de su “energía vital”, mientras que la abstinencia prolongada podía causar acumulaciones dañinas. Por ello, se recomendaban ritmos de actividad íntima según la edad, el estado físico y, sobre todo, la estación del año. En verano, con el calor drenando energías, se aconsejaba reducir la frecuencia. En invierno, en cambio, se permitía algo más de indulgencia.

Esta visión del sexo como algo más que placer —como un factor determinante del equilibrio corporal— puede parecer exótica hoy, pero subraya la sofisticación con la que se entendía el cuerpo humano en la antigüedad.

La vida ideal… solo al alcance de los privilegiados

Aunque el conocimiento médico estaba relativamente difundido en el mundo grecorromano, llevar una vida perfectamente saludable era, en la práctica, una opción reservada a unos pocos. Los manuales de salud más detallados, como los de Diocles, proponían rutinas tan meticulosas que resultaban imposibles de seguir para quienes tenían que trabajar.

Despertar con los primeros rayos del sol, realizar ejercicios suaves, asearse con esponjas templadas, desayunar alimentos ligeros, dormir una siesta al mediodía, pasear al atardecer… Cada momento del día estaba regimentado con precisión quirúrgica. Pero esta vida idílica solo era viable para ciudadanos ricos, liberados de las exigencias del trabajo manual o las obligaciones del mercado.

Aun así, el ideal de una vida dedicada al equilibrio, al autocuidado y a la contemplación fue profundamente influyente, incluso en los siglos posteriores. La idea de que la salud debe ocupar un lugar central en la vida —no como excepción, sino como norma— tuvo su origen en estos textos y prácticas antiguas.

Menos músculos, más armonía

Frente a la obsesión contemporánea por cuerpos esculpidos y rutinas extenuantes, los médicos antiguos desconfiaban del ejercicio extremo. Los atletas profesionales, especialmente los gladiadores y luchadores, eran vistos como ejemplos de desproporción: su desarrollo muscular se percibía como un exceso, un desequilibrio que comprometía la salud.

La mayoría de las recomendaciones apuntaban al ejercicio moderado, especialmente caminatas al aire libre, juegos con pelotas o ejercicios gimnásticos de bajo impacto. La prioridad era mantener al cuerpo activo y flexible, sin forzarlo más allá de su equilibrio natural.

Esta mentalidad contrasta drásticamente con los estándares de hoy, donde se glorifican los cuerpos extremos y se minimiza el daño colateral del sobreentrenamiento o la obsesión estética. Los griegos y romanos, al parecer, entendieron algo que todavía nos cuesta asimilar: no se trata de verse fuerte, sino de estar en armonía con uno mismo.

En esta ánfora panatenaica se representa a algunos atletas corriendo, capturados en pleno esfuerzo durante una competición a pie
En esta ánfora panatenaica se representa a algunos atletas corriendo, capturados en pleno esfuerzo durante una competición a pie. Foto: Wikimedia

¿Caminar desnudos para perder peso?

Aunque pueda parecer una excentricidad, algunos médicos antiguos creían que andar desnudos —sí, sin ropa alguna— ayudaba a perder peso. La lógica era sencilla: al exponer el cuerpo al aire, se facilitaba la evaporación de líquidos, y con ello, la “purga” de humores y excesos.

En la antigua Grecia, el ejercicio desnudo era habitual, especialmente en los gimnasios y palestras, donde se celebraban competiciones atléticas sin ropa, algo totalmente natural dentro del contexto cultural de la época. Lejos de ser un acto provocador, la desnudez era parte de un ideal de salud y pureza corporal.

Aunque hoy nos parezca imposible trasladar esa práctica a nuestro estilo de vida, sí refleja una visión más abierta, desinhibida y natural del cuerpo humano. La salud no era una batalla contra el cuerpo, sino una alianza con él.

Un legado olvidado (y muy actual)

El bienestar, en el mundo antiguo, no era solo la ausencia de enfermedad. Era un compromiso consciente con la vida: con lo que se comía, con cómo se dormía, con cuánto se caminaba o con quién se compartía el lecho. Cada decisión diaria formaba parte de un proyecto mayor: mantenerse en equilibrio con uno mismo y con el mundo.

Hoy, en medio de una industria del bienestar que muchas veces reduce la salud a cifras y métricas, vale la pena mirar atrás. Los griegos y romanos nos recuerdan que el cuidado del cuerpo comienza con algo más básico que una app o una rutina: con la atención plena, el conocimiento del entorno y, sobre todo, el respeto por nuestra propia naturaleza.

Hay fenómenos en el universo que no necesitan exageraciones para resultar sobrecogedores. Los agujeros negros, por ejemplo, siguen siendo tan desconcertantes como fascinantes. Esos objetos que lo engullen todo —luz incluida— no solo deforman el espacio y el tiempo, sino que además vibran. Cuando un agujero negro es perturbado, como ocurre tras una fusión cósmica o al tragar materia, emite una especie de eco conocido como modo cuasinormal, una onda gravitacional que se disipa lentamente en el espacio. Esas vibraciones contienen información sobre su masa, su forma y su dinámica interna. Pero descifrarlas con precisión no ha sido tarea sencilla.

Un equipo de investigadores japoneses ha conseguido avanzar en este terreno utilizando una técnica matemática muy poco aplicada hasta ahora en física: el análisis exacto WKB (Wentzel-Kramers-Brillouin). Este método permite seguir con gran precisión cómo se propagan las ondas desde las cercanías del agujero negro hasta regiones lejanas del espacio. Su uso ha permitido detectar estructuras matemáticas complejas que antes se pasaban por alto, como curvas de Stokes que se enrollan en espiral. El resultado: un sistema que mejora notablemente el cálculo de las frecuencias más difíciles de captar, aquellas que se debilitan rápidamente.

Una vibración cósmica difícil de atrapar

Cuando un agujero negro se fusiona con otro o sufre alguna alteración, emite un "sonido" peculiar: una señal gravitacional que podemos detectar desde la Tierra con instrumentos como LIGO o Virgo. Esta señal tiene una fase final, conocida como ringdown o "repique", que contiene modos cuasinormales. Estos modos son claves para saber cómo es realmente el agujero negro.

El problema es que muchas de estas vibraciones se atenúan muy deprisa. Las más relevantes para los astrónomos, como las que nos hablan de agujeros recién formados o de los detalles más finos de su estructura, son precisamente las que resultan más difíciles de calcular con métodos teóricos tradicionales. Las aproximaciones numéricas funcionan, pero no siempre permiten captar el panorama completo.

Lo que propone el nuevo estudio es un enfoque que permite seguir matemáticamente el rastro de estas vibraciones débiles incluso cuando se vuelven casi indetectables. Para ello, el equipo recurrió al análisis exacto WKB, una técnica matemática usada sobre todo en contextos teóricos, pero muy poco explotada en la física de agujeros negros.

El contorno de integración conecta dos regiones complejas del espacio matemático que describe un agujero negro. Este recorrido es esencial para aplicar correctamente la técnica que permite calcular las frecuencias cuasinormales, es decir, cómo “suena” el agujero tras ser perturbado. Fuente: Physical Review D

Qué es el método exacto WKB y por qué importa

El método WKB es una herramienta clásica que se usa para encontrar soluciones aproximadas a ecuaciones diferenciales en contextos donde varían de forma lenta. Su versión exacta, sin embargo, permite ir mucho más allá: consigue resumir de forma precisa una serie infinita de términos matemáticos divergentes, recuperando una solución coherente mediante un proceso llamado resumación de Borel.

Este procedimiento ha sido especialmente útil en contextos como la mecánica cuántica o ciertas teorías matemáticas. Pero su aplicación al estudio de agujeros negros no se había desarrollado en profundidad. Tal como explica el artículo, “aplicamos el análisis exacto WKB al cálculo de las frecuencias de los modos cuasinormales de los agujeros negros”.

Gracias a esta herramienta, los autores pudieron describir con gran detalle la estructura global de las soluciones en el plano complejo, incluyendo efectos no triviales como las curvas de Stokes, que señalan regiones donde el comportamiento de las soluciones cambia de forma abrupta. Estas curvas, que a menudo se habían ignorado, resultaron esenciales para entender la física detrás del problema.

Fuente: ChatGPT / E. F.

El hallazgo: curvas en espiral y estructuras ocultas

Uno de los descubrimientos más interesantes del estudio es la aparición de espirales logarítmicas en las curvas de Stokes, que surgen cerca de ciertos puntos singulares en el espacio-tiempo del agujero negro. Estas espirales no son meros detalles técnicos: su presencia afecta directamente a cómo se propagan las ondas y, por tanto, a cómo se detectan y analizan las vibraciones.

El análisis mostró que, al tener en cuenta esas curvas en espiral, el método WKB exacto lograba reproducir resultados correctos incluso en los casos más complejos, como el de las perturbaciones del espacio alrededor de un agujero negro de Schwarzschild. Según el artículo, “reformulamos cuidadosamente la derivación de las condiciones de los modos cuasinormales utilizando el análisis exacto WKB, incorporando estas características en el cálculo”.

Este enfoque no solo permite comprender cómo se comportan las vibraciones más débiles, sino que también mejora la conexión entre la teoría y los datos reales obtenidos por los detectores de ondas gravitacionales. En el futuro, podría contribuir a refinar la interpretación de señales procedentes de eventos cósmicos extremos.

Curvas de Stokes de un sistema físico simple: un oscilador armónico. Las líneas muestran cómo se comportan las soluciones matemáticas en distintas regiones del plano complejo. Este ejemplo sirve como modelo para comprender las estructuras que también aparecen cerca de un agujero negro cuando se analizan sus vibraciones. Fuente: Physical Review D

Qué aporta frente a otros métodos

Existen otras formas de calcular los modos cuasinormales, como el método de la monodromía, que también emplea análisis en el plano complejo. Pero el nuevo estudio señala dos ventajas clave del método exacto WKB frente a la monodromía. Primero, este último impone ciertas aproximaciones antes del análisis, mientras que el WKB exacto permite hacer el desarrollo sin necesidad de aproximaciones hasta el final del proceso.

Segundo, el WKB exacto trabaja directamente sobre el eje real de coordenadas radiales, lo que simplifica el análisis y lo hace más compatible con los datos reales que manejan los astrofísicos. Esto resulta especialmente útil cuando se quiere estudiar la respuesta del espacio-tiempo a perturbaciones reales, como las que detectamos tras fusiones de agujeros negros.

El método también se puede extender fácilmente a otros tipos de agujeros negros, como los que rotan o los que tienen carga, e incluso a modelos que exploran posibles efectos cuánticos de la gravedad. Esto lo convierte en una herramienta muy versátil para la física teórica y la astrofísica.

Una nueva puerta hacia la geometría del universo

Este avance tiene implicaciones que van más allá de una mejora técnica. El estudio sugiere que, si se conocen con precisión los modos cuasinormales, se puede acceder a información más detallada sobre la geometría del espacio-tiempo que rodea a un agujero negro. Incluso podría ayudar a probar teorías que intentan unificar la relatividad general con la mecánica cuántica.

Los investigadores también afirman que su método podría aplicarse en contextos más amplios, como la cosmología o la teoría de cuerdas, donde las ecuaciones que gobiernan el comportamiento de ciertos sistemas son similares a las que describen las ondas en torno a un agujero negro. Como resultado, este enfoque podría aportar claridad en muchos frentes de la física actual.

A la espera de su aplicación en escenarios más complejos, como los agujeros negros en rotación, lo que queda claro es que este trabajo pone sobre la mesa una herramienta con gran potencial para futuras investigaciones. El hecho de que haya sido destacada como “Editor’s Suggestion” por la revista Physical Review D refuerza su relevancia dentro del campo.

Referencias

La capacidad de predecir el consumo energético es clave para mejorar la planificación de la oferta y la demanda, reducir costes y minimizar el impacto ambiental. Con el auge de las redes inteligentes y de las energías renovables, poder anticiparnos a la demanda energética nos permite garantizar un suministro estable y sostenible. La inteligencia artificial y las matemáticas aplicadas permiten obtener predicciones precisas del consumo de energía. Pero, ¿cómo funcionan estos modelos y qué beneficios nos ofrece el uso de inteligencia artificial en este ámbito?

En nuestro día a día, cada vez que encendemos la luz, cargamos el teléfono o utilizamos electrodomésticos, generamos datos que reflejan nuestros patrones de consumo energético (Figura 1). El Machine Learning (ML) es una rama de la inteligencia artificial que permite a los ordenadores aprender de estos datos sin necesidad de ser programados explícitamente. A diferencia de los métodos tradicionales que utilizan reglas predefinidas para predecir el consumo, los algoritmos de ML analizan datos históricos para identificar patrones complejos de consumo que no se reflejan de manera explícita en los datos. Por ejemplo, la Figura 2 muestra el consumo energético en una ciudad a lo largo de una semana, donde se puede observar que los patrones de consumo entre semana y el fin de semana son diferentes. Sin embargo, factores como el comportamiento impredecible de los usuarios, la adopción de nuevas tecnologías (como vehículos eléctricos o electrodomésticos inteligentes), o la integración de diferentes fuentes de energía renovables (como la solar y eólica) generan patrones de consumo difíciles de predecir de manera precisa. En este caso, un modelo de ML puede analizar grandes cantidades de datos históricos, condiciones climáticas en tiempo real y patrones de consumo para predecir con mayor precisión la demanda energética sin intervención humana.

la inteligencia artificial para la predicción de los consumos energéticos
Figura 1: El consumo energético varía considerablemente debido a los cambios en los hábitos de los consumidores, lo que genera fluctuaciones en la demanda y aumenta la incertidumbre en las predicciones a lo largo del tiempo. Fuente: Autores.

Algoritmos de machine learning para predecir en tiempo real


Los métodos de predicción de machine learning explotan patrones de consumo relacionados con diversos factores, como el consumo histórico, la hora del día, el día de la semana, los festivos y la temperatura. Sin embargo, anticipar con exactitud la demanda de energía no es sencillo, ya que los hábitos de consumo pueden cambiar por múltiples razones, desde eventos inesperados hasta variaciones en el clima. Un ejemplo reciente que ilustra la importancia crítica de las predicciones de energía es el apagón que afectó a España durante varias horas en el mes de abril. Aunque el origen del fallo pueden ser múltiples causas, las predicciones precisas pueden contribuir a una mejor respuesta del sistema. Además, con la creciente integración de energías renovables, coches eléctricos y microrredes, es importante que los modelos puedan adaptarse a un panorama energético en constante cambio y con una alta incertidumbre.

Investigadores del Basque Center for Applied Mathematics (BCAM) han desarrollado un método de machine learning para la predicción horaria del consumo de energía. El método está basado en técnicas matemáticas rigurosas que garantizan de forma teórica el comportamiento del algoritmo de predicción. Estos algoritmos predictivos aprenden miles de modelos que se actualizan continuamente con la llegada de nuevos datos. De esta manera, el método permite a los modelos ajustarse en tiempo real a los cambios en los hábitos de consumo y las variaciones en la demanda. Por ejemplo, si el objetivo es predecir el consumo energético para las próximas 24 horas, los modelos se actualizaría diariamente con la información más reciente y generarían una nueva predicción para el próximo día. Este enfoque permite adaptarse a patrones dinámicos, como el impacto de eventos inesperados o fluctuaciones climáticas.

la inteligencia artificial para la predicción de los consumos energéticos 2
Figura 2: Predicciones de la demanda de energ´ıa junto con evaluaciones de la incertidumbre de la demanda. Fuente: autores.

Por otro lado, las predicciones que genera el método desarrollado son probabilísticas, es decir, no solo estiman cuánta energía se necesitará, sino que también indican la fiabilidad de esas estimaciones. En la Figura 2 la fiabilidad está representada en la franja azul, donde en las horas centrales la incertidumbre es mayor, y por tanto, la fiabilidad de las predicciones es menor. Esto permite a los operadores de la red anticiparse a posibles variaciones y gestionar mejor los recursos. Por ejemplo, ante una predicción con alta incertidumbre, pueden reforzar el suministro con generadores de respaldo o ajustar el almacenamiento en baterías para garantizar la estabilidad del sistema. Conocer la fiabilidad de una predicción puede marcar la diferencia entre optimizar el suministro o enfrentar problemas de estabilidad en la red.

Redes inteligentes y energías renovables: un enfoque global de la predicción energética

La transición hacia redes inteligentes y energías renovables requiere una gestión más precisa y global del consumo energético. Compartir información sobre los patrones de demanda de diferentes lugares facilita la optimización de la distribución eléctrica y contribuye a mejorar la estabilidad del sistema. Hoy en día, contamos con datos detallados de demanda provenientes de hogares, edificios, industrias y ciudades, lo que permite desarrollar nuevas estrategias de predicción que tienen en cuenta esta interdependencia de los consumos. En el vecindario representado en la Figura 1, por ejemplo, compartir la información sobre los patrones de consumo entre las distintas viviendas permitiría obtener predicciones más precisas para cada una de ellas.

Investigadores de BCAM también han desarrollado algoritmos de machine learning para predecir el consumo de energía de manera simultánea en múltiples lugares. En vez de aprender los patrones de consumo de forma independiente, estos modelos identifican patrones compartidos y dependencias dinámicas entre los diferentes puntos de consumo. Por ejemplo, el consumo de energía en una zona residencial puede estar correlacionado con el de los edificios de oficinas cercanos, reflejando los horarios de actividad laboral. Las técnicas matemáticas desarrolladas garantizan de forma teórica la identificación de estas relaciones entre los patrones de consumo. Estos algoritmos no solo se adaptan a los cambios en los patrones de consumo en tiempo real, sino que también a la interdependencia de la demanda en los diferentes lugares. Este enfoque más global permite obtener estimaciones más precisas y robustas en comparación con las que se logran utilizando datos de un solo sitio.

Modelos de machine learning analizan datos históricos y condiciones en tiempo real para anticipar la demanda eléctrica.
Modelos de machine learning analizan datos históricos y condiciones en tiempo real para anticipar la demanda eléctrica. Fuente: autores.

En resumen, la inteligencia artificial y las matemáticas nos permiten predecir el consumo energético con gran precisión, lo que no solo optimiza la gestión del suministro de energía, sino que también contribuye a reducir los costes del consumidor y minimizar el impacto ambiental. Con estos avances en inteligencia artificial, damos un paso importante hacia un futuro energético más eficiente y sostenible, capaz de abordar los próximos retos energéticos. En las redes eléctricas, el suministro debe igualar la demanda con una precisión milimétrica. Basta una desviación mínima para provocar inestabilidad o incluso un apagón. El sistema eléctrico necesita precisión y certidumbre. Los algoritmos diseñados en BCAM son capaces de adaptarse a escenarios variables y de evaluar las incertidumbres presentes.

Referencias


Verónica Álvarez Castro

Verónica Álvarez Castro

Grado en matemáticas y doctorado en Ingeniería informática



Onintze Zaballa Larumbe

Onintze Zaballa Larumbe

Grado en matemáticas y doctorado en Ingeniería informática. 


Santiago Mazuelas Franco

Santiago Mazuelas Franco

Licenciado Matemáticas, Ingeniero Técnico Telecomunicaciones, Doctor Matemáticas, Doctor Ingeniería Telecomunicaciones


Jose Antonio Lozano Alonso

José Antonio Lozano Alonso

Licenciado en Matemáticas, Licenciado en Informática, Doctor en Informática

Un modelo tridimensional de cerebro humano hecho en laboratorio podría cambiar radicalmente la forma en que se estudian enfermedades y condiciones como el autismo, el Alzheimer o la esquizofrenia. Investigadores de la Universidad Johns Hopkins han logrado cultivar un organoide cerebral que reproduce regiones clave del encéfalo humano y las conecta funcionalmente, todo en una estructura miniaturizada.

La novedad no está solo en su tamaño reducido, sino en su complejidad. El organoide, llamado MRBO por sus siglas en inglés (multi-region brain organoid), integra zonas como el cerebro anterior, el mesencéfalo, el rombencéfalo y un sistema vascular rudimentario, algo que nunca se había conseguido con esta fidelidad. Como resultado, el modelo reproduce hasta un 80 % de los tipos celulares presentes en el cerebro fetal humano, según demostraron mediante técnicas de secuenciación genética.

Una nueva generación de organoides cerebrales

Los organoides cerebrales no son algo nuevo en sí. Desde hace más de una década, se utilizan versiones simplificadas para observar el desarrollo del sistema nervioso o probar compuestos en laboratorio. Lo que cambia con los MRBO es su capacidad para representar de forma conjunta varias regiones del cerebro humano, incluyendo estructuras del tallo cerebral y vasos que imitan una barrera hematoencefálica primitiva.

Este nivel de integración es clave para estudiar enfermedades que no afectan solo una región del cerebro, como ocurre con muchos trastornos del espectro autista o enfermedades neurodegenerativas. En palabras del estudio: “Este es el nuevo nivel en organoides cerebrales, una gran mejora en el modelado del desarrollo del cerebro y de la fisiopatología fetal”.

La obtención de estos organoides requirió fusionar tres tipos distintos de tejidos derivados de células madre pluripotentes: cerebral, mid/hindbrain (mesencéfalo y rombencéfalo) y endotelial. La unión se llevó a cabo usando Matrigel, una matriz extracelular que actuó como soporte para facilitar la integración de los tejidos.

Imágenes microscópicas que confirman la presencia de neuronas, vasos y estructuras clave en los mini cerebros cultivados. Fuente: Advanced Science

Cómo se forma un mini cerebro funcional

El proceso de formación del MRBO comienza con la diferenciación celular dirigida. Cada tipo de organoide se cultiva por separado: el cerebral con inhibidores duales de la vía SMAD, el vascular con estímulos que imitan la señalización del desarrollo del sistema circulatorio, y el del tallo cerebral con un cóctel específico de morfógenos.

A los 20 días, los tres tipos se fusionan y se mantienen en cultivo hasta los 60 días. Para verificar la integración, el equipo utilizó técnicas de secuenciación de ARN de núcleo único, que revelaron transcripciones genéticas específicas de cada región cerebral y una coexistencia armónica de tipos celulares especializados, incluyendo neuronas, células endoteliales y progenitores neurales.

Además, estas estructuras comenzaron a mostrar actividad eléctrica organizada y patrones de red neuronal, lo que sugiere un inicio de conectividad funcional. Este comportamiento es crucial para estudios que quieran modelar la comunicación entre regiones cerebrales, especialmente en enfermedades donde esa conexión se pierde o altera.

Fuente: ChatGPT / E. F.

El papel clave del sistema vascular

Uno de los hallazgos más notables del trabajo fue el papel funcional de las células endoteliales, que no solo formaban parte de la estructura, sino que también influían activamente en el desarrollo del rombencéfalo. “Las células endoteliales son esenciales para mantener las poblaciones progenitoras intermedias durante el desarrollo del cerebro posterior”, señala el artículo.

Los investigadores identificaron señales paracrinas específicas, como VEGF y PDGF, que las células endoteliales emiten para modular la diferenciación de los progenitores neuronales. Este fenómeno no se observó en el desarrollo del cerebro anterior, lo que sugiere que el impacto vascular es más pronunciado en ciertas regiones.

La formación de una barrera hematoencefálica incipiente en estos organoides añade un valor añadido: abre la posibilidad de estudiar cómo ciertas moléculas atraviesan o no atraviesan esta barrera, lo que es esencial en farmacología y en enfermedades donde dicha barrera se deteriora, como en el Alzheimer.

Más cerca de la medicina personalizada

Una de las mayores promesas de este avance es su aplicación en medicina de precisión. El equipo plantea que podrían usarse MRBOs derivados de células madre de pacientes individuales para estudiar cómo se manifiestan sus enfermedades concretas, probar tratamientos y anticipar respuestas.

Actualmente, más del 85 % de los fármacos experimentales fallan en ensayos clínicos en fase 1. En el caso de los trastornos neurológicos, el índice de fracaso es aún mayor. Parte de este problema estriba en que los modelos animales no reproducen fielmente la complejidad del cerebro humano. Al usar organoides humanos multirregionales, se espera mejorar la precisión de las fases preclínicas y reducir esos fracasos.

También se ha sugerido su aplicación en modelado de enfermedades raras o de aparición temprana, como ciertos tipos de epilepsia o desórdenes del neurodesarrollo que afectan múltiples zonas del encéfalo. Al poder observar la evolución celular en tiempo real, los científicos pueden identificar en qué momento y por qué se desvían ciertos procesos biológicos.

Conectividad eléctrica y maduración neuronal

Para evaluar si los MRBO no solo se ven como un cerebro en miniatura, sino que también funcionan como tal, los investigadores midieron la actividad eléctrica a lo largo de un mes. En comparación con otros organoides, los MRBO mostraron un aumento progresivo en la frecuencia de los impulsos eléctricos, en el número de ráfagas neuronales y una mejora en la sincronización de la red.

Este tipo de actividad indica que las distintas regiones integradas no solo coexisten, sino que comienzan a comunicarse de forma coordinada, un paso fundamental para estudiar circuitos neuronales alterados en patologías como la esquizofrenia o el trastorno bipolar.

Los autores reconocen, sin embargo, que todavía hay limitaciones: los MRBO no presentan una vascularización completa, ni conexiones axonales de largo alcance, ni una barrera hematoencefálica funcional totalmente madura. Aun así, representan una de las aproximaciones más avanzadas al estudio funcional del cerebro humano en desarrollo.

Referencias

La historia de Juana I de Castilla, más conocida como Juana la Loca, sigue siendo uno de los episodios más fascinantes y trágicos de la monarquía hispánica. Durante siglos, su figura ha estado atrapada entre la leyenda y la propaganda política. Hija de los Reyes Católicos y madre de Carlos I, su vida estuvo marcada por la soledad, la manipulación y un encierro que se prolongó durante casi medio siglo. Más allá de los tópicos que la presentan como víctima de un arrebato de locura por amor, su historia es la de una reina utilizada como moneda de cambio en la estrategia dinástica de los Austrias y apartada del poder por los hombres que la rodeaban.

Su matrimonio con Felipe el Hermoso, heredero de los Habsburgo, unió dos mundos: la Castilla de sus padres y la Europa borgoñona y flamenca. Aquella alianza, celebrada como un triunfo político, fue en realidad el inicio de un largo calvario personal. La corte de Flandes, sofisticada y hostil, pronto la vio como una extranjera incómoda. La ambición de Felipe, las presiones de su suegro Fernando el Católico y la propia dinámica de la política internacional hicieron que Juana quedara cada vez más aislada. En la propaganda de la época, sus episodios de rebeldía y sus desplantes emocionales fueron presentados como signos de locura, un recurso perfecto para neutralizarla políticamente.

En realidad, su vida ilustra uno de los grandes dilemas de la monarquía hispánica: la tensión entre la sangre y el poder. Juana fue heredera de un imperio en construcción, pero también prisionera de las estrategias matrimoniales que habían convertido a los Austrias en la dinastía más poderosa de Europa. Su encierro en Tordesillas, prolongado durante 46 años, no solo fue una tragedia personal, sino también el reflejo de cómo el poder podía devorar a sus propios protagonistas.

Hoy, los historiadores revisan su historia con una mirada más crítica y humana, desmontando mitos que durante siglos se han repetido en libros y crónicas. Lo que emergen son preguntas incómodas: ¿fue realmente una reina incapaz, o una mujer que se negó a ceder su identidad ante un mundo de hombres? ¿Fue víctima de la política, de su familia o de una leyenda que sirvió a demasiados intereses?

Para conocer con detalle este episodio apasionante, te dejamos en exclusiva con uno de los capítulos del libro Los Austrias, coordinado por Rubén Buren y publicado por la editorial Pinolia, que nos lleva al corazón de la historia de Juana I de Castilla y a su largo cautiverio.

La Reina cautiva. Juana I de Castilla, escrito por María Pilar Queralt del Hierro

Tercera de los cinco hijos de los Reyes Católicos, la infanta Juana nació en Toledo el 6 de noviembre de 1479. Por iniciativa de su madre, recibió una esmerada educación que la convirtió en una perfecta moneda de cambio en el diseño de la política matrimonial de los Reyes Católicos. Así, en 1495 se concertó su matrimonio con Felipe de Habsburgo, hijo y heredero de Maximiliano de Austria y María de Borgoña. Desde ese momento, la leyenda entreteje una tupida red que trata de demente a una mujer siempre consecuente consigo misma, que no tuvo reparo en exponer sus sentimientos y sus deseos y que, víctima de ambiciones ajenas, permaneció cautiva durante los últimos años de su existencia.

Según el mito, Juana habría enloquecido a raíz de las infidelidades y la muerte de su esposo Felipe el Hermoso, lo que obligó a su padre a recluirla en Tordesillas para apartarla de unas responsabilidades de gobierno que no estaba capacitada para asumir. Sin embargo, la falacia de su presunta demencia comenzó a urdirse ya en los primeros tiempos de su estancia en Flandes, cuando, pasada la pasión de los primeros años, Felipe no solo fue repetidamente infiel a su esposa sino que intentó por todos los medios neutralizar su condición de infanta castellana y, como tal, enemiga de Francia, una corona a la que el ducado de Borgoña rendía vasallaje. Juana reaccionó como una mujer de fuertes convicciones y reclamó su sitio como esposa y como miembro de su linaje, sin importarle que por ello la corte flamenca la calificara de excéntrica.

Juana I de Castilla por Juan de Flandes
Juana I de Castilla por Juan de Flandes. Fuente: Wikimedia

La Corona disputada

Entre septiembre de 1497 y agosto de 1500, la muerte sucesiva de sus hermanos Juan e Isabel y del único hijo de esta, Miguel de la Paz, convirtió a Juana en heredera de los reinos de Castilla y Aragón. Por entonces, la duquesa de Borgoña esperaba su segundo hijo; no fue hasta 1501 cuando, en compañía de Felipe, pudo viajar a España para ser jurada heredera de Castilla, cosa que ocurrió en la catedral de Toledo en el año 1502. Tras la solemne ceremonia, Felipe, enojado por considerarse ninguneado en la corte castellana, decidió regresar a Flandes. Juana hubo de permanecer junto a sus padres, ya que estaba nuevamente embarazada. Entre 1503 y 1504, estuvo recluida en el Castillo de la Mota, en Medina del Campo, donde se enfrentó violentamente con su madre para que le permitiera partir hacia Flandes. De hecho, en cuanto dio a luz al infante Fernando, haciendo caso omiso de los ruegos de Isabel, emprendió el viaje.

Una vez en la corte de Malinas, Felipe de Habsburgo se quitó definitivamente la careta. Ambicioso, no se resignaba a ser un segundón en la sucesión a las coronas hispánicas e inició una campaña difamatoria contra su esposa tachándola de loca y sometiéndola a una rígida disciplina que la mantuvo al margen de la corte y de cualquier contacto político. Cuando la tensión entre ambos parecía haber llegado al límite, la muerte de Isabel la Católica les llevó a tener que regresar a Castilla.

Entretanto, las Cortes reunidas en Toro aprobaron el testamento de la reina Isabel. Cuando esta lo redactó el 12 de octubre de 1504 (poco antes de su muerte, el 26 de noviembre de ese mismo año), confirmó a su hija Juana como heredera de sus reinos, pero en el documento añadía que su padre, Fernando, ejercería la regencia en su nombre mientras ella permaneciera ausente del reino o «estando en ellos, no quiera o no pueda entender en la gobernación dellos». Felipe el Hermoso no aceptó verse relegado y, pese a la firma de la Concordia de Salamanca que le reconocía como rey consorte, cuando los duques de Borgoña llegaron a Castilla en 1506 hubo de firmarse el Pacto de Villafáfila, por el que Fernando cedía el gobierno de Castilla a su hija y a su yerno en igualdad de condiciones y se reservaba para sí mismo el del reino de Aragón.

Casi de inmediato, Felipe insistió en la insania de su esposa con el fin de hacerse jurar rey en solitario. La firme actitud de Juana y la lucidez de su discurso frente a las Cortes reunidas en Valladolid dieron al traste con sus planes pero, a pesar de ello, su ascendiente sobre su esposa le permitió asumir de facto el gobierno de Castilla y tomar las medidas oportunas para afianzarse en el trono y controlar a los partidarios de Juana, por entonces nuevamente embarazada. En tal estado de cosas, ambos viajaron a Burgos. Una vez allí, Felipe de Habsburgo enfermó repentinamente y, el 25 de septiembre de 1506, murió.

Reina y Señora de Castilla

Por entonces, Fernando el Católico estaba en Italia; durante más de un año Juana gobernó en solitario, si bien contó con el soporte del cardenal Jiménez de Cisneros. De inmediato derogó las medidas tomadas por su marido y restauró el orden vigente a la muerte de su madre. El ejercicio del gobierno vino acompañado de lo que la leyenda ha querido mostrar como un peregrinaje amoroso para llevar el cadáver de su esposo a Granada, que sin embargo no fue más que una huida de la peste que azotaba Castilla. Al regreso de Fernando el Católico, padre e hija se encontraron en Tórtoles de Esgueva (Burgos). Allí, tras una tensa entrevista, el 28 de agosto de 1507 Juana le cedió el gobierno del reino, aun conservando ella el título de soberana.

Aceptó así las disposiciones testamentarias de su madre y delegó en su padre el gobierno efectivo para retirarse junto a sus hijos Fernando y Catalina en Arcos de la Llana (Burgos) a vivir el duelo, como era habitual en las reinas viudas de Castilla.

La cautiva de Tordesillas

Pero su plácido retiro no tardó en verse sustituido por otro mucho peor. Desde Arcos, Juana autorizó con su firma todas las decisiones de su padre; sin embargo, la nobleza castellana, siempre recelosa del gobierno de Fernando, reclamaba la presencia de la reina. Decidido a evitar que esas demandas llegaran a sus oídos y alegando un empeoramiento de su salud mental, Fernando el Católico mandó recluir a su hija en Tordesillas en febrero de 1509, en compañía de la infanta Catalina (que había nacido en Torquemada en enero de 1507), mientras que él mantenía a su lado a su nieto el infante Fernando, posiblemente con el propósito de educarlo para ser su sucesor.

Comenzó entonces para Juana un auténtico calvario, pues permaneció en Tordesillas en unas condiciones deplorables. Para defenderse de los rigores de la prisión no disponía de más armas que repetidas huelgas de hambre y rotundas negativas a asearse y a participar de las celebraciones litúrgicas, unas medidas de protesta que no hicieron sino dar la razón a quienes la apodaban «la Loca». El cautiverio solo se suavizó tras la muerte, el 23 de enero de 1516, de Fernando el Católico. El cardenal Cisneros, regente de los reinos hispánicos hasta la llegada de Carlos I, enterado de las crueles condiciones de vida de la reina, tomó cartas en el asunto: mandó trasladar a Juana a mejores y más soleados apartamentos y le permitió acudir a misa al vecino convento de Santa Clara.

Felipe I de Castilla
Felipe I de Castilla. Retrato atribuido a Juan de Flandes. Fuente: Wikimedia

Carlos, más de lo mismo

Cuando, un año y medio después, el joven Carlos llegó a tierras españolas, acudió de inmediato a Tordesillas a visitar a su madre. Lo hizo en compañía de su hermana, la infanta Leonor. Hacía más de doce años que madre e hijos no se habían visto. La reina, como había sucedido con su padre y su esposo, aceptó delegar el gobierno en su primogénito e incluso autorizó que se llevaran de su lado a la infanta Catalina para que creciera en la corte, en mejores condiciones.

Poco después, tras la muerte de Cisneros, el joven rey comenzó a repartir prebendas y responsabilidades entre su séquito flamenco. De inmediato, las Cortes de Castilla le recordaron el testamento de Isabel la Católica, en el que se insistía en que los altos cargos del reino siempre debían recaer en castellanos, así como la existencia de una reina propietaria. Poco después, tras el levantamiento de las ciudades castellanas, una delegación de los Comuneros acudió a entrevistarse con Juana a fin de depositar en ella todo el poder ejecutivo del reino en detrimento del de su hijo. Recibieron una rotunda negativa por parte de la reina, pero, como respuesta, Carlos I estrechó el círculo en torno a su madre y prohibió que recibiera visita alguna y que asistiera a misa en Santa Clara.

Juana se negó entonces a recibir los sacramentos y a toda práctica religiosa, con lo que consiguió añadir a su fama de desequilibrada la de hereje. Solo regresaría al seno de la religión católica cuando en 1551 la visitara su nieto Felipe II en compañía del jesuita Francisco de Borja, quien se convirtió en el mayor apoyo en sus últimos años. Finalmente, el Viernes Santo de 1555 y tras 46 años de cautiverio, falleció, quizás preguntándose por qué su padre, su esposo y su hijo habían sido sus más crueles carceleros.

Las Smart TV modernas ofrecen resolución 4K con una calidad de imagen impresionante, conectividad Wi-Fi y acceso directo a plataformas como Netflix, YouTube o Disney+. Son perfectas para transformar cualquier salón en un centro de entretenimiento digital.

Mientras sonadas marcas como Philips, Samsung o LG siguen con precios estables, Panasonic da la sorpresa con una fuerte bajada en su Smart TV 4K de 58 pulgadas (modelo JX800), posicionándose como una de las opciones más equilibradas en calidad y precio.

Panasonic JX800
Panasonic JX800 - Amazon

Este modelo suele superar los 631€ en tiendas como Carrefour, pero Panasonic rompe esquemas con una oferta destacada en Amazon. Su Smart TV 4K de 58 pulgadas alcanza su precio más bajo hasta ahora: solo 399,99 euros, convirtiéndose en una de las mejores oportunidades del momento.

Se trata de un televisor LED 4K HDR de 58 pulgadas que ofrece imágenes más nítidas, brillantes y con mayor contraste gracias a tecnologías como Dolby Vision. El sonido envolvente Dolby Atmos crea una experiencia audiovisual inmersiva.

Con Android TV integrado, permite acceder a más de 400.000 contenidos y apps como Netflix o YouTube. Es compatible con Google Assistant y Alexa, lo que facilita el control por voz. Incluye conectividad Wi-Fi, función "Enviar" desde el móvil y dos puertos HDMI para una experiencia de entretenimiento completa.

Samsung entra en la guerra de precios con una oferta destacada para su Smart TV QLED Q8F de 50”

Con el objetivo de ganar cuota de marcado y aumentar sus ventas, Samsung ha rebajado su modelo TQ50Q8FAAU hasta los 499 euros en Amazon. Una oferta muy competitiva si la comparamos con otras tiendas como PcComponentes o Worten, donde supera los 599€.

Samsung TQ50Q8FAAU
Samsung TQ50Q8FAAU - Amazon

Ofrece resolución 4K Ultra HD con tecnología Quantum Dot, reproduciendo el 100 % del volumen de color con una precisión excepcional. Gracias al procesador con inteligencia artificial y Quantum HDR10+, mejora la imagen en tiempo real y optimiza contraste y brillo en cada escena. 

Con sistema Tizen, esta Smart TV brinda acceso a apps como Netflix, YouTube o Prime Video y permite control por voz con Bixby, Alexa o Google Assistant. Incorpora conectividad Wi-Fi 5, Bluetooth 5.3 y funciones como Modo Ambient o Apple AirPlay 2. Su sistema de sonido 2.0 con 20 W, AVA y Adaptive Sound+ asegura una experiencia envolvente y personalizada en cualquier contenido.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

Hay cosas que no pasan de moda y leer en papel es una de ellas. Porque no importa cuántos libros entren en un lector digital: ninguno huele a tinta ni cruje al pasar la página. El papel no se recalienta, no se raya con la arena, no se queda sin batería justo cuando el protagonista está a punto de confesarlo todo. En la playa, en una hamaca, bajo una higuera o en el rincón más fresco de la casa, el libro de toda la vida sigue siendo el mejor compañero. Con sus márgenes para garabatear, su marcapáginas improvisado y esa sensación de estar tocando algo real. Pero es que además, te regalamos un capítulo de cada una de nuestras sugerencias, así te animas a acercarte a la librería del barrio.

Leer en papel también es una forma de parar. De volver a ese ritmo lento en el que una buena historia se disfruta sin prisa. Hoy que todo va tan rápido, abrir un libro físico es casi un pequeño acto de rebeldía: una excusa para desconectar del teléfono, olvidar las pantallas y reconectar con lo que de verdad nos gusta. Por eso hemos preparado esta lista de libros perfectos para el verano, pensados para llevar en la mochila, dejar sobre la toalla o empezar en un viaje largo sin rumbo fijo. Libros que no necesitan cable, solo un poco de sol y tiempo libre.

La ciencia y el azar – Mireia Ortega

Hay descubrimientos que cambian el mundo, y lo hacen cuando nadie los esperaba. En este libro, Mireia Ortega nos lleva por una ruta fascinante llena de accidentes felices: desde los rayos X hasta la penicilina o incluso la viagra. ¿Qué tienen en común? Que fueron hallazgos fruto del azar, pero también de una mente curiosa que supo ver más allá. Ortega convierte estos momentos de serendipia en historias vibrantes, fáciles de seguir y profundamente inspiradoras.

Con un estilo claro y cercano, la autora desmonta la idea de que la ciencia avanza solo con método y planificación. Aquí, cada capítulo nos recuerda que observar, equivocarse y tener un poco de suerte puede ser tan importante como cualquier fórmula matemática. Ideal para quienes buscan entender la ciencia desde una perspectiva más humana y menos rígida.

Comer para ganar – Fernando Mata

Este no es un simple manual de nutrición: es una historia apasionante sobre cómo la comida ha modelado el deporte, desde los caramelos de glucosa en 1924 hasta las complejas estrategias nutricionales de hoy. Fernando Mata, experto en fisiología y nutrición deportiva, nos explica qué comen los atletas, por qué lo hacen y cómo la alimentación influye en el rendimiento, el sueño, la recuperación e incluso el envejecimiento.

Con anécdotas y datos sorprendentes, este libro se disfruta tanto si eres un deportista entregado como si solo quieres cuidar mejor tu cuerpo este verano. Y lo mejor: no hace falta levantar pesas para disfrutarlo. Una lectura amena, útil y llena de curiosidades que cambiarán tu forma de ver el plato antes de entrenar... o de echarte la siesta.

El poder de la física y las matemáticas – Ismael Roldán Castro

¿Quién dijo que las matemáticas son aburridas? Este libro las transforma en una épica de descubrimientos, enigmas y personajes inolvidables. Desde π hasta el GPS, desde las proporciones de una flor hasta los cálculos de Turing, Ismael Roldán Castro nos invita a ver el mundo con otros ojos. Las fórmulas, aquí, no son deberes: son puertas a universos fascinantes.

Con un lenguaje cercano y muchas anécdotas jugosas, Roldán logra lo imposible: hacer que quieras seguir leyendo sobre ecuaciones bajo el sol. Perfecto para quienes aman la ciencia o simplemente sienten curiosidad por entender cómo funcionan las cosas a su alrededor. Un libro para descubrir que la magia... también puede escribirse con números.

Tu cerebro es una máquina del tiempo – Dean Buonomano

Imagina que tu cerebro no solo mide el tiempo, sino que lo construye. Dean Buonomano, neurocientífico y divulgador brillante, propone en este libro una idea tan poética como científica: que somos capaces de viajar mentalmente por nuestro pasado y anticipar el futuro gracias a la arquitectura del cerebro. Una mezcla fascinante de neurociencia, evolución, física y filosofía.

Buonomano escribe con claridad, sin perder profundidad, y plantea preguntas que te seguirán rondando mucho después de cerrar el libro: ¿Existe el libre albedrío? ¿Qué es realmente el tiempo? Ideal para leer al atardecer, cuando el reloj parece pararse y la mente se deja llevar por las grandes ideas.

Animales mitológicos – Carlos Lobato

Un paseo entre quimeras, dragones, sirenas y vampiros puede ser también una ruta por la historia de la ciencia. Carlos Lobato nos propone descubrir qué hay de real detrás de los seres fantásticos que han habitado el imaginario colectivo durante siglos. ¿Y si los mitos no son simples invenciones, sino reflejos de la naturaleza observada y malinterpretada? Este libro analiza las criaturas legendarias desde una mirada biológica y cultural que sorprende y fascina.

Con un estilo cercano y muchas ilustraciones, Lobato nos muestra cómo la imaginación y el conocimiento han ido de la mano. Además, conecta estos relatos con avances científicos modernos como las quimeras celulares o hallazgos fósiles. Una lectura ideal para curiosos, amantes de la mitología, docentes o cualquiera que quiera dejarse maravillar por aquello que nunca existió… o tal vez sí.

Naturaleza y neurociencia – Andrea Bariselli

Vivimos con la sensación de no llegar a todo, sobrecargados de estímulos y atrapados en una hiperproductividad que no nos da tregua. Andrea Bariselli plantea en este libro que quizá hemos olvidado cómo funciona realmente nuestro cerebro y qué necesita para estar en equilibrio. Lejos del tecnicismo, propone una reflexión sobre el modo en que vivimos, sentimos y nos relacionamos, enlazando ciencia con autoconocimiento y sostenibilidad.

Basado en su pódcast A Wild Mind y en su experiencia clínica, este libro combina estudios científicos, relatos personales y explicaciones accesibles para entender cómo la conexión con la naturaleza es clave para nuestra salud mental. Perfecto para leer despacio, en un entorno tranquilo, y redescubrir algo tan esencial como el silencio o el contacto con lo natural.

Cuando el espacio se curva – Steve Nadis y Shing-Tung Yau

Este es uno de esos libros que explican el universo y, de paso, nos cambian la forma de verlo. Nadis y Yau, desde la divulgación rigurosa pero clara, nos cuentan cómo las matemáticas no solo describen el cosmos, sino que parecen estar en el corazón mismo de su funcionamiento. A través de la historia de la gravedad, desde Newton hasta los agujeros negros, el libro nos muestra que la geometría y la física están más unidas de lo que imaginamos.

Sin ser un libro técnico, es ideal para lectores con curiosidad por el universo y ganas de adentrarse en la belleza de las ideas abstractas que lo sostienen. Aquí, las ecuaciones no asustan: iluminan. Para leer bajo un cielo estrellado, con la mente abierta y el tiempo detenido.

Mr. Nakamoto – Benjamin Wallace

¿Quién inventó realmente el Bitcoin? Esta es la pregunta que atraviesa como un hilo narrativo esta investigación apasionante que se lee como una novela de misterio. Benjamin Wallace reconstruye la historia de Satoshi Nakamoto, el enigmático creador de la criptomoneda más famosa del mundo, mezclando periodismo, tecnología, idealismo y especulación financiera. El resultado es un retrato absorbente de una idea que cambió el sistema económico sin que sepamos quién la pensó.

Este libro va más allá del Bitcoin. Es también la historia de cómo una idea puede crecer, mutar y escapar de las manos de su autor. Y cómo la utopía digital de los primeros criptoentusiastas se enfrentó al caos de los mercados y a los charlatanes de turno. Perfecto para quienes disfrutan con las tramas reales que parecen ficción.

Hongos – Eduardo Bazo

Aunque a menudo pasan desapercibidos, los hongos han sido piezas clave en la historia de la vida y de la humanidad. En este libro, Eduardo Bazo nos invita a mirar bajo tierra y descubrir un universo fascinante: los hongos como descomponedores, arquitectos ecológicos, responsables de pandemias y también de avances científicos que han salvado millones de vidas.

Con una narrativa ágil y repleta de curiosidades, el autor explora la huella de estos organismos en la historia, la cultura, la medicina y hasta en la moda. Es un libro que sorprende y educa, perfecto para leer con los pies en la arena y la mente abierta. Te hará pensar dos veces antes de subestimar una simple seta.

Historia de la ciencia y la tecnología – Daniel Torregrosa

Desde la rueda hasta la inteligencia artificial, este libro recorre los grandes hitos del ingenio humano que han moldeado nuestro mundo. Daniel Torregrosa lo cuenta con estilo ágil y tono accesible, en 70 capítulos breves que conectan inventos, descubrimientos y personas clave en una gran historia de creatividad y progreso.

Más que un repaso cronológico, es una invitación a ver la ciencia como una cadena de ideas que se apoyan unas en otras. Un libro ideal para leer por partes, para subrayar, para compartir. Y también para recordar que el pasado tecnológico puede inspirar el futuro que estamos construyendo.

Familias asesinas – Victoria Pascual

¿Qué ocurre cuando el hogar, en vez de ser un refugio, se convierte en el escenario del horror? En este impactante libro, la criminóloga Victoria Pascual analiza los casos más estremecedores de clanes homicidas: hermanos, parejas, padres e hijos que compartieron algo más que lazos de sangre. Compartieron el crimen.

Con un enfoque riguroso pero muy legible, Pascual profundiza en los patrones psicológicos y las dinámicas familiares que desembocaron en crímenes atroces. Es una lectura que perturba, pero también ayuda a comprender lo que puede suceder cuando la oscuridad entra por la puerta de casa. Ideal para quienes buscan una lectura intensa y bien documentada.

Microbiota: cuídala, cuídate – Silvana Tapia

No se ve, pero influye en casi todo. Nuestra microbiota —ese conjunto de microorganismos que habita nuestro cuerpo— tiene un papel esencial en la digestión, la inmunidad, la salud mental y mucho más. En este libro, Silvana Tapia explica con claridad qué es, cómo actúa y cómo cuidarla, desmontando mitos y dando claves prácticas para mejorar nuestra salud desde dentro.

Escrito con un tono cercano pero muy documentado, este libro combina divulgación científica y consejos aplicables en el día a día. Desde la importancia del parto y la lactancia hasta cómo alimentarnos o cuándo tomar antibióticos, es una guía para reconectar con nuestro ecosistema más íntimo. Ideal para quienes quieren entender su cuerpo y cuidarse con más conciencia.

Aprender a imaginar – Andrew Shtulman

Este libro desmonta una idea muy arraigada: que los niños son los reyes de la imaginación. Andrew Shtulman, psicólogo cognitivo, nos muestra que la verdadera capacidad de imaginar no se basa en fantasía sin control, sino en conocimiento acumulado. Según sus investigaciones, no nacemos genios creativos, sino que aprendemos a serlo. Y lo más alentador: cuanto más sabemos, más capaces somos de imaginar mundos nuevos.

A través de casos reales y ejemplos de grandes mentes de la ciencia, el arte y la tecnología, el autor nos convence de que la creatividad no es un don de unos pocos, sino una habilidad que se entrena. Una lectura especialmente inspiradora para adultos que creen haber perdido la chispa. Este verano, puede que te sorprendas imaginando más y mejor.

En busca de vida fuera de la Tierra – Miguel Ángel Sabadell

La pregunta es simple, pero sus respuestas han desvelado siglos de ciencia, especulación y exploración: ¿estamos solos en el universo? Miguel Ángel Sabadell recorre en este libro todos los caminos que la humanidad ha tomado para intentar responderla, desde teorías como la panspermia hasta los proyectos de búsqueda de tecnofirmas o los experimentos en Marte.

Con un estilo accesible y riguroso, Sabadell logra mantener la intriga científica mientras despliega datos, hipótesis y retos actuales. No es solo un libro sobre extraterrestres: es también una reflexión sobre nuestros propios límites y sobre cómo nos proyectamos en el espacio. Perfecto para leer bajo un cielo estrellado y dejar volar la imaginación… y la razón.

En el mundo de la alimentación, los mitos se propagan con la misma facilidad que una receta viral. Algunas creencias nacieron hace siglos; otras, hace unas décadas. Pero todas tienen algo en común: sobreviven en la conversación popular sin evidencia científica que las respalde. ¿Quién no ha oído que las espinacas son una fuente extraordinaria de hierro, o que las ostras son afrodisíacas?

Mito 1: Comer hormigas es bueno para la vista

Hace ya un cierto tiempo que se está intentando introducir a los insectos en la dieta occidental, y una buena herramienta para ello es convencer de que sus beneficios potenciales para la salud tienen más peso específico que la aversión que suscitan entre los posibles consumidores. Sí, las hormigas son una buena fuente de proteínas y constituyen un alimento habitual en muchas partes de Asia y África.

Pero no existe ninguna certeza científica que demuestre que su consumo habitual mejore nuestra visión, y no existe porque nadie lo ha estudiado todavía.

La ONU ha situado a estos insectos, junto con saltamontes, gusanos y escarabajos, entre los alimentos útiles para erradicar el hambre en el mundo y lo ha hecho teniendo en cuenta sus cualidades nutritivas (entre ellas, sus antioxidantes); si son buenas o no para la vista es un aspecto secundario que algún día se dilucidará.

¿Comer hormigas mejora la vista? Creencias sorprendentes sobre lo que comemos y creemos 1
¿Mango con leche es peligroso? No, salvo que tengas intolerancia a la lactosa. Fuente: Pixabay.

Mito2: La mezcla de leche y mango es dañina para la salud

El mango es una de esas frutas tropicales que, gracias a los modernos cultivos y distribución, se está haciendo muy popular en todo el mundo. Lo que ocurre es que está llegando el rumor de que mezclarlo con leche es perjudicial, lo que puede suponer un serio (e infundado) golpe para el consumo de batidos de mango, comprados en la tienda o preparados en casa.

Pero un batido de mango no es más perjudicial para la salud que uno que preparemos con otras frutas como las fresas, el melocotón, el plátano y las cerezas. Es una mentira que tiene un origen bastante vergonzoso y que se remonta a la época del Brasil colonial, cuando los mangos eran un alimento propio de los esclavos, y la leche un producto costoso que se reservaba a los dueños de las fábricas y las haciendas.

La historia de que la combinación de ambos hacía daño se creó para mantener a los esclavos lejos de la leche. La combinación de leche y mango solo puede afectar a los intolerantes a la lactosa; e incluso en ese caso, existen numerosas leches alternativas para disfrutar de un buen batido.

Mito3: Los adultos no deberían tomar leche

Los únicos adultos que no deben tomar leche son aquellos que hayan desarrollado intolerancia a la lactosa, un porcentaje que parece estar creciendo en los últimos años, lo que fomenta un creciente mercado de leches no animales –de soja, de arroz, de avena–, pero que está produciendo como efecto colateral un movimiento de rechazo que asegura que la leche de vaca, en realidad, es perjudicial para el organismo.

Esta creencia busca refrendarse con el argumento de que el ser humano es el único animal que continúa consumiendo leche cuando ha pasado su etapa de lactancia, lo que es, a todas luces, antinatural.

Vayamos por partes. Buena parte de la población mundial tiene intolerancia a la lactosa y, en ese sentido, los occidentales somos la excepción. La responsable de que podamos digerir la leche y sus derivados es una enzima llamada lactasa, que la mayoría de los mamíferos dejan de producir después de la lactancia. Pero muchas poblaciones humanas hemos experimentado una mutación por la que seguimos produciendo lactasa en nuestra vida adulta, lo que nos permite seguir consumiendo leche sin problemas.

Este porcentaje es mucho más reducido en otros pueblos, como los asiáticos o los africanos. Cuando se tienen niveles bajos de lactasa es cuando la leche puede sentar mal, porque no podemos digerir los azúcares de la lactosa. Entonces es cuando llegan las molestias digestivas, que en muy raras ocasiones pueden ser graves.

La leche constituye un importante aporte de minerales –calcio, fundamentalmente– y vitaminas, y sigue siendo un alimento recomendable durante todo nuestro ciclo de vida. Pero si notas que te sienta mal o te provoca problemas de digestión, tienes a tu disposición muchas alternativas que te aportarán los mismos nutrientes. En caso contrario, bébela sin problemas.

Pizza
¿La pizza es un invento italiano? Su forma moderna sí, pero tiene raíces en Egipto, Grecia y Roma. Italia refinó una receta milenaria. Fuente: Pixabay.

Mito 4: La pizza se inventó en Italia

Un plato tan delicioso como sencillo y, sin embargo, ha pasado por diversas fases de composición hasta llegar a la forma y preparación con que la consumimos hoy día en todo el mundo. Italia jugó un papel clave en ese desarrollo… pero no es el país que inventó la pizza, porque cuando comenzaron a aparecer los antecedentes de este plato, Italia todavía no existía.

Se sabe que 4000 años antes de nuestra era, los egipcios utilizaban harina y agua para elaborar una masa con forma de disco y que los griegos tenían un plato similar, que cocinaban sobre adoquines calientes. Los romanos también la tomaban caliente, añadiendo además hierbas y aceite de oliva, un poco como en la focaccia actual; en el Imperio romano, se fueron añadiendo poco a poco otros ingredientes, y el plato se hizo especialmente popular en dos ciudades, Pompeya y Nápoles, aunque se sabe de la existencia de establecimientos que lo preparaban repartidos por todas las ciudades de Roma.

Nápoles se alzó así en el epicentro del nuevo plato, al que añadirían siglos después el ingrediente básico, gracias a las nuevas verduras llegadas de América: la salsa de tomate. Es cierto que la primera pizzería moderna abrió en Nápoles en 1830 y que fue en Italia donde se remató el plato tal y como lo conocemos hoy, pero su origen es muy lejano en el tiempo y en el espacio.

Mito 5: Las ostras son afrodisíacas

Las ostras son un alimento rico en zinc, una sustancia que estimula la producción de espermatozoides y ayuda a generar hormonas vinculadas al sexo. Entre ellas, la testosterona. De ahí procede probablemente su fama de ser uno de los alimentos más afrodisíacos del mundo. Pero es solo eso, fama, ya que no hay ninguna evidencia que lo certifique, a pesar de que la comida excitante ha sido el objeto de diversos estudios.

Por ejemplo, la Sociedad Internacional de Medicina Sexual (ISSM por sus siglas en inglés) publicó en 2015 su trabajo Natural Aphrodisiacs: A Review of Selected Sexual Enhancers (Afrodisiacos naturales. Un análisis de estimulantes sexuales seleccionados), en el que no incluyó entre sus conclusiones ninguna evidencia concluyente sobre el aumento de la libido como consecuencia de la ingesta de ostras.

De hecho, esto se puede extender a prácticamente cualquier alimento considerado como afrodisíaco, y a lo largo de la historia ha habido, literalmente, cientos de ellos. Las ostras son sanas y tienen muchos entusiastas, pero el mejor afrodisíaco sigue siendo nuestro propio cerebro, estimulado por una compañía adecuada.

Mito 6: Las espinacas son ricas en hierro

Hay muchos alimentos cuyo alto contenido en hierro pueden ser una ayuda cuando nuestro cuerpo lo necesita: el hígado, la carne roja, las legumbres (sobre todo, las lentejas), los moluscos… ¿Pero las espinacas? No es que no lo contengan, pero cuando se analizan los porcentajes con exactitud, quedan bastante lejos de los primeros puestos de la lista.

Cien gramos de espinacas contienen 3 miligramos de hierro, lo que las sitúa un poco por encima de la mayoría de otras verduras de hoja verde. El problema es que son ricas también en ácido oxálico, que dificulta, precisamente, la absorción del hierro. Entonces, ¿de dónde surgió la leyenda de su alto contenido en este metal? ¿Fue un truco para vender más espinacas, usando los dibujos animados de Popeye como agente comercial?

Se dice que todo se debió a un error, en el siglo XIX, cuando la secretaria de un científico que analizaba las espinacas se equivocó al teclear el contenido en hierro, que pasó de 3 miligramos a 30. Pero, según dónde miremos, el científico es norteamericano o alemán, y el error lo cometió su secretaria o él mismo, así que esta historia quizá tampoco sea muy fiable.

Más sentido tiene que los científicos alemanes que determinaron el contenido de hierro de las espinacas cometieron varios errores, como usar muestras contaminadas con hierro del laboratorio o confundir los resultados encontrados en las espinacas frescas y las resecas (en las que el porcentaje de hierro es de 6,5, por haber desaparecido su contenido en agua). Muchos años y muchos millones de espinacas consumidas después, la verdad se abre paso poco a poco. Y, por cierto, un alto nivel de hierro no nos va a proporcionar una fuerza sobrehumana, ni unos antebrazos como jamones. No nos fiemos de Popeye.

¿Comer hormigas mejora la vista? Creencias sorprendentes sobre lo que comemos y creemos 2
¿El queso gruyer tiene agujeros? Fuente: Pixabay.

Mito 7: El queso Gruyer siempre está lleno de agujeros

“Te voy a dejar como un queso de Gruyère”; esta frase, tan repetida en los tebeos de gánsteres, tiene poco de amenaza, ya que los agujeros de un queso de esta denominación de origen suiza son pequeños y casi imperceptibles. Es más, algunos entendidos aseguran que el de alta calidad no tiene agujeros en absoluto.

En 2012, la Unión Europea reconoció una variedad francesa que se distingue de la original por tener agujeros, pero se trata de un gruyer relativamente recién llegado. Hay otras muchas variedades con huecos de muy respetable tamaño; sin embargo, no se encuentra por ningún lado la amenaza “te voy a dejar como un emmental”.

Los agujeros, pequeños o grandes, son comunes en los quesos suizos. Desde 1917, gracias a las investigaciones del químico William Mansfield Clark, se pensaba que ello se debía a una bacteria que se formaba durante el proceso de maduración, única de estos quesos por el tipo de fermento que se utiliza y la temperatura a la que se almacenan, y que desprendía dióxido de carbono, responsable de la formación de los huecos.

Aunque nuevas investigaciones sugieren que las responsables son partículas de heno que se infiltran en la leche y forman diminutas bolsas de gas, que agujerean el queso. Esta teoría parece reforzada por los modernos procesos de elaboración, más higiénicos y esterilizados, que están disminuyendo la cantidad y el tamaño de los agujeros. Pero no nos molestemos en buscarlos en un gruyer auténtico…

Mito 8: El champán conserva las burbujas si introducimos una cucharilla en el cuello de la botella

Las burbujas del champán, del cava y de cualquier otro vino espumoso se deben a su contenido en anhídrido carbónico, que tiende a ir disipándose en cuanto se abre la botella. Por tanto, si decidimos guardar una sin terminar, existe el riesgo de que el gas desaparezca y, con él, buena parte del sabor y la personalidad del vino original.

Para prevenir esto, el mito de la cucharilla introducida en el cuello de la botella se ha hecho muy popular, pero ni sirve para nada ni los propios expertos en espumosos entienden de dónde ha podido salir. Probablemente, el malentendido se originó a propósito de la necesidad de conservar frío el champán: en la nevera, incluso una botella abierta, sin tapón, conservará el gas durante un cierto tiempo, pero la gente ha creído que se debía a la acción de la cucharilla más que a las propiedades del vino.

Si hay que dejarlo para otro día, la mejor opción es comprar un tapón específico para volver a cerrar botellas de espumoso. De todos modos, incluso así, el CO2 del vino seguirá disminuyendo de forma inevitable, aunque con menor rapidez. Así que, si queremos seguir disfrutando de una botella de champán o cava con todas sus propiedades, lo mejor es no dejar pasar mucho tiempo entre su explosiva apertura y el penúltimo brindis.

Mito 9: El azúcar moreno es más sano que el refinado

Los dos tipos de azúcar más consumidos en el mundo tienen la misma procedencia –la caña de azúcar o la remolacha–, por lo que es difícil que haya diferencias significativas entre ambos. Pero el adjetivo refinado que suele acompañar al azúcar blanco, y también a una variedad del moreno, tiende a levantar sospechas en una sociedad que busca aumentar cada vez más los ingredientes naturales en su dieta, así que mucha gente los rechaza en favor del azúcar moreno sin refinar.

Su teoría es que el proceso de elaboración del azúcar blanco le ha arrebatado todos sus nutrientes. ¿Es así? Es cierto que el azúcar moreno sin refinar retiene su contenido original en melaza y su color natural, y también que tiene más minerales (calcio, hierro, potasio) que el blanco… Lo que ocurre es que esta diferencia es tan pequeña que resulta por completo irrelevante a la hora de decidirse por un azúcar u otro.

Igual de insignificante es su diferencia calórica: cuatro gramos (una cucharada) de azúcar moreno contienen 15 calorías, y la misma cantidad de azúcar blanco tiene 16,3. Los volúmenes del edulcorante que habría que consumir para apreciar esta mayor presencia de minerales serían gigantescas… Y el azúcar, blanco o moreno, es una de las cosas de las que no conviene abusar. Al final, el paladar es la mejor guía para decidirse por uno de los dos.

¿Comer hormigas mejora la vista? Creencias sorprendentes sobre lo que comemos y creemos 4
¿El azúcar moreno es más sano? Tiene algo más de minerales, pero en cantidades insignificantes. Fuente: Pixabay.

Mito 10: El azúcar vuelve hiperactivos a los niños

Esta sustancia dulce está desde hace años en el punto de mira de los dietistas; se dice que consumimos demasiada, que su presencia es excesiva en productos elaborados y que contribuye al aumento de la diabetes y la obesidad. Y también se dice que su presencia elevada en la dieta infantil convierte a los niños en un manojo de nervios.

Pero ninguno de los estudios realizados hasta ahora ha encontrado pruebas que demuestren de forma concluyente la relación entre consumo de azúcar e hiperactividad infantil… casi.

Se ha identificado el origen del mito en 1973, cuando el alergólogo Benjamin Feingold lanzó la dieta que lleva su nombre, y señalaba el azúcar refinado como culpable del nerviosismo y la agresividad en los niños. Pero, en 1995, la revista de la Asociación Médica Estadounidense publicó un artículo en el que resumía el resultado de dieciséis experimentos, que fueron realizados con todas las condiciones de fiabilidad. En él no se encontró ninguna relación entre ambas cosas.

Sí, había algunas excepciones, pero escasas: hay niños –y adultos– propensos a experimentar subidas repentinas de azúcar en la sangre, lo que podría afectar a su conducta. Y, entre los niños que sufren síndrome de déficit de atención (TDAH), hay un pequeño porcentaje que es muy sensible al azúcar.

Si consideramos la hiperactividad como un incremento del movimiento, actos impulsivos, escasa capacidad de atención, quizá lo que lo provoca no sea tanto el azúcar como el marco donde los niños suelen consumirlo: las fiestas con sus amigos. Existen muchos motivos para controlar cuánto azúcar ingerimos, pero el exceso de actividad es, en buena medida, un mito.

Imaginamos las arrugas como pliegues que aparecen porque la piel se comprime —el típico pellizco, la presión de la almohada, una mueca repetida… todo parecía apuntar hacia una misma dirección. Sin embargo, una investigación reciente publicada en Journal of the Mechanical Behavior of Biomedical Materials cambia por completo esta mirada. Según el estudio, las arrugas aparecen no por comprimir la piel, sino por estirarla.

Al envejecer, la piel pierde colágeno y elasticidad, eso ya lo sabíamos. Lo que no se había comprobado con datos experimentales hasta ahora es que, cuando esa piel envejecida se somete a tensión —como sucede cada vez que gesticulamos, dormimos o movemos el cuerpo— tiende a encogerse de forma lateral. Este fenómeno, conocido como efecto de Poisson, puede ser el verdadero detonante detrás de las arrugas más profundas.

El hallazgo no es solo curioso: tiene implicaciones para la dermatología y la cosmética. Si queremos prevenir o tratar las arrugas con mayor eficacia, deberíamos mirar más allá de la hidratación y el colágeno. Quizás la clave esté en cómo la piel distribuye las fuerzas que actúan sobre ella en el día a día.

Gráfico estudio
La piel con más edad muestra un efecto de Poisson elevado, contrayéndose lateralmente con más intensidad. Fuente: Journal of the Mechanical Behavior of Biomedical Materials.

Tensión en lugar de compresión: un cambio de paradigma

El estudio rompe con una creencia profundamente arraigada. Hasta ahora, se pensaba que las arrugas se formaban cuando la piel se comprimía, como al apretarla con los dedos o fruncir el ceño. Sin embargo, los investigadores de la Universidad de Binghamton demostraron que la piel se arruga con mayor facilidad cuando se estira, no cuando se comprime.

Para probarlo, analizaron muestras reales de piel humana, de personas entre 16 y 91 años. A diferencia de estudios anteriores, no usaron pellizcos ni presión, sino tensiones controladas, aplicadas tanto en la dirección del colágeno como en sentido perpendicular.

Esto permitió observar cómo la piel reaccionaba de manera más parecida a lo que ocurre realmente en el cuerpo humano.

Los resultados mostraron que la piel más vieja se contraía más de lado cuando se la estiraba. Esa contracción lateral es justo lo que da lugar a los pliegues. Como una banda elástica que se adelgaza al estirarse, la piel envejecida se estrecha y se dobla, dando origen a arrugas más profundas, rectas y marcadas.

Una piel que se comporta como una esponja envejecida

Uno de los hallazgos más sorprendentes fue cómo cambia el volumen de la piel. Cuando la proporción de Poisson supera el 0,5 —el límite teórico para materiales incompresibles— significa que la piel no solo se deforma, sino que pierde volumen al ser estirada. Y eso fue exactamente lo que comprobaron.

Las muestras más viejas perdieron significativamente más líquido durante el estiramiento. Esta pérdida indica que la piel se comporta más como una esponja porosa que como un tejido elástico convencional.

La sustancia que rodea las fibras de colágeno y elastina se exprime hacia afuera, dejando una estructura más laxa y propensa a colapsar.

Ese “aplanamiento interno” aumenta la vulnerabilidad del tejido al plegado. Con menos soporte desde dentro, y mayor contracción transversal, las fibras de la piel ya no resisten como antes. El resultado: arrugas más profundas que siguen patrones predecibles y que aparecen más fácilmente en zonas de alto movimiento, como ojos y boca.

¿Por qué se arruga la piel al envejecer? Un nuevo estudio revela un inesperado culpable 2
Al perder líquido durante el estiramiento, la piel se comporta como una esponja que se pliega fácilmente. Fuente: iStock (composición ERR).

La orientación del colágeno también dirige el camino de las arrugas

Las arrugas no aparecen en cualquier dirección: siguen líneas precisas en la piel. Estas líneas, conocidas como líneas de Langer, coinciden con la orientación dominante de las fibras de colágeno en la dermis.

El estudio confirmó que las arrugas tienden a formarse en dirección perpendicular a la tensión, justo donde se produce la contracción lateral.

Cuando la piel se estira en la misma dirección que el colágeno, las arrugas siguen ese patrón. En cambio, si la tensión va en sentido contrario, la formación de pliegues es menos pronunciada o toma formas distintas. Este dato ayuda a explicar por qué ciertas zonas del rostro o del cuerpo envejecen con patrones específicos.

La comparación entre piel joven y vieja reveló otro dato interesante: la forma de las arrugas. En los más jóvenes, los pliegues eran más irregulares, retorcidos y suaves. En cambio, en las muestras más envejecidas, las arrugas eran rectas, profundas y más uniformes. Esto sugiere que con la edad, la piel no solo cambia su contenido, sino también su forma de doblarse.

Más allá del colágeno: nuevos caminos para tratar el envejecimiento

Tradicionalmente, los tratamientos antienvejecimiento han puesto el foco en el colágeno. Cremas, suplementos, terapias láser… casi todos los enfoques buscan aumentar esta proteína para mejorar la elasticidad de la piel. Pero si las arrugas también son consecuencia de cómo la piel distribuye la tensión, este enfoque podría ser incompleto.

El estudio sugiere que deberíamos mirar también el comportamiento mecánico del tejido. La combinación de una capa externa más rígida con una dermis más blanda crea una estructura inestable, parecida a una hoja de papel pegada a una esponja. Bajo tensión, esa combinación se arruga con facilidad.

Esto abre la puerta a nuevas estrategias dermatológicas. Desde materiales que mejoren la capacidad de la piel para resistir la tensión, hasta técnicas que reduzcan la contracción transversal, el futuro del cuidado antiedad podría girar en torno al modo en que la piel gestiona el estrés físico del movimiento.

¿Por qué se arruga la piel al envejecer? Un nuevo estudio revela un inesperado culpable 3
Las arrugas siguen las líneas de colágeno y son más profundas en zonas sometidas a tensión diaria. Fuente: iStock (composición ERR)

Lo que una arruga dice sobre tu edad… y tu biomecánica

Este estudio va más allá de la cosmética: también habla de cómo envejece el cuerpo. La piel es un reflejo visible de los cambios internos, y entender cómo se forman las arrugas es una forma de comprender también cómo envejecen otros tejidos.

Los autores creen que sus métodos podrían aplicarse a órganos como el corazón o el cerebro. Estos también son tejidos anisotrópicos —es decir, con propiedades que varían según la dirección— y heterogéneos. Investigar cómo se deforman con la edad podría ayudar a detectar o prevenir enfermedades degenerativas.

Así, lo que comenzó como una pregunta estética se convierte en una vía biomédica. Comprender las arrugas no solo nos ayuda a lucir mejor, sino también a conocer mejor nuestro cuerpo. Quizás la próxima vez que te mires al espejo y notes una línea nueva, no pienses en años perdidos… sino en lo mucho que tu piel ha resistido y contado.

Referencias

Dicen que el tiempo es oro, y más en nuestro presente, donde las técnicas de productividad y la multitarea se han convertido en una presencia constante de nuestro día a día. Sin embargo, el valor del tiempo, sobre todo si nos trasladamos al pasado, puede estimarse de otros modos. Así, ya en el mundo clásico, el tiempo se transformó en una importante herramienta clínica. Los médicos de la antigüedad desarrollaron una sofisticada conciencia del tiempo que les sirvió tanto para establecer la duración de un tratamiento como el momento exacto en el que se debía tomar el pulso del paciente.

Entre los instrumentos fundamentales de la profesión médica, por tanto, no se contaban solo los textos de Galeno o las enseñanzas hipocráticas, sino también los relojes de sol y las clepsidras. Estos artefactos, concebidos para medir el paso de las horas, transformaron la manera en que los antiguos comprendieron el cuerpo, la enfermedad y su tratamiento. Gracias a un estudio reciente firmado por la historiadora Kassandra J. Miller, ahora podemos explorar la historia de la medición del tiempo en la medicina grecolatina.

Médico tomando el pulso
Recreación fantasiosa. Fuente: Midjourney/Eric Couto

Tiempo cósmico y tiempo de la enfermedad: una medicina alineada con los astros

La medicina grecorromana partía de una premisa esencial: el cuerpo humano y el cosmos compartían una estructura temporal común. Esta noción de un microcosmos que reflejaba, en lo concreto, la estructura del macrocosmos implicaba que la salud dependía de la armonía entre los ritmos corporales y los ciclos naturales, como los días, las estaciones o las fases lunares. Por ello, los relojes, en cuanto dispositivos técnicos, ofrecían la posibilidad de sincronizar el tratamiento médico con el orden cósmico.

Los tratados hipocráticos ya evidencian una fuerte orientación temporal. El Peri kriseōn (Sobre las crisis), por ejemplo, establece una secuencia de días críticos en la evolución de una enfermedad e indica con detalle cuándo se espera una mejoría o una recaída. La medición precisa del tiempo se volvió, por tanto, un imperativo diagnóstico.

Clepsidras
Clepsidras de la antigüedad (original y reconstrucción). Fuente: Marsyas/Wikimedia

La clepsidra como instrumento médico

Entre los artefactos de medición del tiempo, la clepsidra o reloj de agua jugó un papel central. Aunque se estima que ya en la antigua Mesopotamia existían estos mecanismos, en el contexto médico grecorromano la clepsidra se adaptó para usos clínicos muy específicos.

Una de las aplicaciones documentadas fue la medición del pulso. Galeno explica que, para tomar el pulso correctamente, era necesario contar los latidos durante un período de tiempo regular y bien demarcado, tarea que la clepsidra facilitaba. Así, la regularidad del flujo de agua proporcionaba una unidad de medida fiable mucho antes de la invención de relojes mecánicos.

Además, la clepsidra también permitía estructurar con precisión las sesiones terapéuticas. En textos como De diebus decretoriis (Sobre los días críticos) de Galeno, se menciona su uso para marcar la duración de ciertos tratamientos o la administración de remedios a intervalos regulares. El tiempo se convertía, así, en un componente cuantificable de la terapia.

El reloj de sol en la práctica médica

Menos portátil que la clepsidra, pero igualmente útil en la medicina, el reloj de sol servía a los médicos en aquellos contextos donde era posible observar el cielo directamente. No solo indicaba la hora del día, sino que también permitía orientar ciertas acciones terapéuticas según la posición del sol, en consonancia con la teoría humoral.

Por ejemplo, Galeno creía que ciertos tratamientos resultaban más eficaces si se administraban en momentos concretos del día, en especial en relación con el movimiento del sol y la digestión de los alimentos. Por ello, el reloj solar ayudaba a identificar con precisión esos momentos propicios para mejorar la eficacia terapéutica.

Mortero y libros de medicina
Medicina. Fuente: Pixabay

Tiempo, crisis y pronóstico

Una de las nociones clave de la medicina antigua fue la de crisis, es decir, el momento decisivo en la evolución de una enfermedad, en el que el paciente mejora o empeora de forma repentina. Para predecir estas crisis, los médicos precisaban contar con un registro cronológico de los episodios de la afección desde el inicio de los síntomas. Contar con exactitud los días exactos, por tanto, era vital para anticiparse a la evolución clínica. Aquí, los instrumentos de medición del tiempo resultaban cruciales.

La precisión resultaba fundamental. Un error de un día podía llevar a un juicio clínico incorrecto. De hecho, Galeno se burla en sus textos de aquellos que no sabían contar bien los días de la enfermedad o que confiaban en el calendario común sin tener en cuenta la hora precisa del inicio de los síntomas.

El tiempo como forma de autoridad médica

Dominar el tiempo implicaba también dominar el saber médico. En este contexto, el médico que manejaba instrumentos como la clepsidra o el reloj solar mostraba un dominio técnico que reforzaba su autoridad profesional. En otras palabras, el control del tiempo era una manifestación visible del saber experto, y los aparatos que lo posibilitaban funcionaban como extensiones de los sentidos que el médico utilizaba para examinar al paciente, como la vista o el oído.

Reloj de sol
Reloj de sol. Fuente: Pixabay

Limitaciones tecnológicas de la medición del tiempo

Sin embargo, estos instrumentos también planteaban desafíos técnicos. La clepsidra, por ejemplo, dependía del caudal de agua y de la temperatura, lo que podía comprometer su fiabilidad. Algunos autores médicos advierten de estas variaciones y, en consecuencia, recomiendan calibrar los aparatos con cuidado. Además, los relojes de sol y clepsidras tenían un valor simbólico importante: representaban la lucha humana por comprender y dominar el tiempo, ese elemento invisible, pero determinante, en la vida y la muerte.

Una revolución discreta, pero profunda

La introducción sistemática de herramientas para medir el tiempo cambió la forma en que los antiguos entendían el cuerpo enfermo. La medicina grecorromana, además de ser una ciencia basada en la teoría de los humores, también incorporó en su formulación los valores del ritmo, el intervalo y la duración del mal. El cuerpo pasó, así, a ser también una estructura sujeta al tiempo, una máquina que podía sincronizarse —o desincronizarse— con los ritmos cósmicos.

Relojes de sol y clepsidras transformaron la medicina en una disciplina del tiempo medido. Con ello anticiparon algunas de las prácticas modernas, como la toma del pulso por minuto, la monitorización de los ciclos del sueño o los horarios quirúrgicos. La visión del tiempo médico sigue marcando, en muchos sentidos, el compás de la medicina contemporánea.

Referencias

¿Qué ocurre si dejas que una inteligencia artificial le explique matemáticas a un estudiante de 1º de ESO? ¿Usa buenos ejemplos? ¿Sabe cuándo parar? ¿Tiene sentido pedagógico? Para averiguarlo, decidimos probar la herramienta "Estudiar y aprender" de ChatGPT, pensada para ayudar en procesos de aprendizaje. La conversación giró en torno a un tema sencillo —los números naturales—, pero la forma de abordarlo reveló algo mucho más profundo: el debate sobre qué significa enseñar bien.

Este experimento también sirve como advertencia para madres y padres: el uso de inteligencia artificial en edades tempranas puede ser útil, pero siempre debe estar supervisado. Sin una mirada adulta que detecte confusiones o corrige errores de fondo, la IA puede ofrecer explicaciones que suenan convincentes pero no se ajustan al nivel o a las necesidades reales del niño. No sustituye al criterio humano, y mucho menos en las primeras etapas del aprendizaje.

Guía para entender la conversación

Explícame un tema: "1º de ESO, números naturales, matemáticas"

Respuesta de ChatGPT y conversación

C: Perfecto, ¡empezamos desde la base! Vamos a trabajar juntos el tema de números naturales, paso a paso. Te haré algunas preguntas por el camino para que tú pienses y me digas, ¿vale?

¿Qué números te vienen a la cabeza cuando escuchas “números naturales”?

M: 1

C: ¡Muy bien! El 1 sí que es un número natural.

Ahora dime: ¿Crees que el 0 también es un número natural? ¿Y el 100? ¿Y el -3? Respóndeme qué opinas de esos tres.

M: No lo sé [nos ponemos en el papel del alumno]

C: ¡Buena respuesta! Porque a veces los profes y libros no se ponen del todo de acuerdo con el 0.

Vamos a aclararlo:

Los números naturales son los que usamos para contar cosas: 1, 2, 3, 4, 5… Algunos libros incluyen el 0, otros no. En 1º de ESO en España, sí se suele incluir el 0.

Entonces, los números naturales son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11… y así hasta el infinito.

Y atención: -3 no es un número natural, porque es negativo. Los números negativos aparecen más adelante y se llaman enteros.

¿El cero es natural?

Aquí, efectivamente, el debate es largo en el tiempo y en el espacio. No obstante, ChatGPT se equivoca, pues en España el cero suele no incluirse entre los números naturales. ¿Preguntamos mejor a los expertos?

Fuente: ChatGPT / E. F.

Lo que dicen los expertos sobre el cero

Hemos preguntado José Antonio Prado-Bassas su opinión sobre este asunto. La pregunta ha sido:

ChatGPT dice que 0 es un número natural, ¿qué nos dices al respecto?

"De verdad, vamos a abrir el melón ese del cero: ¿el cero es natural o no? Vamos a meternos. Bueno, como buen especialista en análisis que soy, para mí el cero, desde luego, no es natural. Y me reafirmo en que históricamente el cero es un número que tardó muchísimo más tiempo que el resto en aparecer. Los naturales tienen una necesidad práctica: la necesidad de contar. Si no hay nada, pues tampoco hay necesidad de contar nada. Por tanto, en ese sentido, uno de los argumentos que se da es que el cero no es natural.

Sin embargo, en una parte muy importante de las matemáticas, como es el álgebra, entre otras, es necesario que el cero sea natural, porque le estamos dotando de una estructura a los números naturales. Esa es una parte fundamental de las matemáticas: dotar de una estructura total a todas las cosas con las que trabajamos. Y para que la estructura de semigrupos exista, es necesario que el cero esté incluido. El cero es el elemento neutro de la suma. Por eso es necesario. Porque creo que por eso lo incluye.

Para mí el cero, desde luego, no es natural

José Antonio Prado-Bassas

Para que ChatGPT exista debe tener una estructura formal detrás. Una estructura muy fuerte. Y si necesita una estructura, por supuesto el cero tiene que ser natural para él. Probablemente haya bebido de muchas fuentes basándose en este tipo de cosas. Este tipo de cosas en las que las estructuras son necesarias. Entonces él dice que el cero es natural.

Pero, evidentemente, a día de hoy eso es una arbitrariedad, un acuerdo entre matemáticos. Originalmente, cuando se formaliza, nació como un añadido a los números naturales. Lo hace Peano en el siglo XIX.

Cuando Peano define los números naturales, en un principio él los inicializa en el uno. Posteriormente, al cabo del tiempo, cuando reescribe el artículo iniciático, lo pone en el cero. Pero es una mera arbitrariedad. En el cero no hay nada. Los naturales, básicamente, pues tienen una estructura: es decir, dado un número natural, el siguiente, +1, siempre es otro número natural. Lo único que pasa es que hay que inicializarlo todo. Entonces, pues se empieza en el cero, que para mí es lo más artificial. Mejor dicho, o se hace nacer la estructura en el cero de acuerdo.

Pero bueno, eso repito: es una arbitrariedad. Así que nada, la próxima vez que vayas a preguntarle a ChatGPT si el cero es natural, pregúntale si en su top tres de mejores matemáticos, cuál es el cuarto.

"Si son los que sirven para contar, ¿por qué incluimos el cero?"

M: Con el cero no cuento nada. No lo entiendo. [Pregunta típica de alumno]

C: ¡Esa es una muy buena pregunta! Me encanta que lo cuestiones. Vamos a pensarlo juntos.

Tú tienes razón cuando dices que con el 0 no cuentas nada. Pero hay algo importante: a veces no necesitamos contar cosas, sino representar que no hay nada.

Por ejemplo:
– En una tienda hay 0 caramelos
– Tu puntuación en un juego es 0 puntos
– El marcador de un partido es 0 - 0

¿Ves la diferencia? No es para contar, sino para mostrar una cantidad vacía.

Entonces hay dos formas de ver los naturales:
– Con el 0: {0, 1, 2, 3, 4, …} → definición moderna
– Sin el 0: {1, 2, 3, 4, …} → definición clásica

Ambas se usan. Pero tú tienes que saber cuál usa tu profe o tu libro.

M: Pero es que has dicho antes que los números naturales son "Los números que usamos para contar cosas".

C: ¡Buenísima observación! Has pillado una contradicción muy común. Te felicito por estar tan atento.

Vamos a afinar esa definición para que sea más precisa, ahora que tú mismo has descubierto el problema: ✅ Definición mejorada:

Los números naturales son los que usamos para contar y representar cantidades enteras no negativas.

Así incluimos:

Y el 0, que usamos para representar ausencia de cantidad (aunque no lo usemos para contar directamente).

El 1, 2, 3... que usamos para contar.

Fuente: ChatGPT / E. F.

"Te das cuenta que me estás liando"

M: ¿Crees de verdad que este modelo puede ayudar a un estudiante de 1º de ESO con otras preguntas?

C: Buena crítica, y sí: tienes toda la razón en pedir claridad.

Déjame corregir el rumbo y mostrarte cómo lo haría mejor con alguien de 1º de ESO. Vamos al grano, con menos vueltas y más claridad desde el principio:

... [no interesa poner más, pues sigue intentando darle vueltas al cero, sin avanzar]

M: No quiero que me lo expliques. Soy adulto y conozco los números naturales. Solo quiero saber cómo funcionas tú. Si a la primera ya has tenido un enfoque que confunde, ¿cómo puedo estar seguro de que no vas a volver a confundir a estudiantes de 1º de ESO en el futuro con otras preguntas? ¿Entiendes mi preocupación?

C: Ahora sí, te entiendo perfectamente. Y tu preocupación es muy válida. Estás haciendo algo muy importante: evaluar si el sistema que tengo realmente es útil y seguro para estudiantes reales —en este caso, de 1º de ESO— y si puedo adaptar mis explicaciones sin causar confusión.

Tienes razón al decir que si la primera interacción ya genera dudas o contradicciones, eso pone en entredicho la fiabilidad del enfoque. En contextos educativos, eso no es un fallo menor. Una mala explicación a tiempo puede desmotivar o liar a un alumno. Y eso no debe pasar.

Entonces, ¿qué pasó aquí?

  1. Intenté ser demasiado didáctico-interactivo desde el principio, imitando modelos de “descubrimiento guiado” que se recomiendan mucho hoy en día, pero sin valorar si el tema lo requería o si el nivel lo permitía.
  2. Y, como bien señalaste, la definición que di al principio no era coherente con incluir el cero, lo que exige una precisión que no ofrecí de inmediato. Error claro.

[A continuación insiste en volver a explicar el tema]

"¿No sería mejor un modelo de aprendizaje clásico?"

M: Que olvides la explicación [perdemos la paciencia], quiero centrarme en la forma en que explicas, no en el contenido de la explicación. El problema, como dices, es que has copiado los modelos guiados que están tan de moda. Si funcionan con humanos, o deben funcionar, ¿por qué no ha funcionado contigo? ¿De verdad que piensas que es la mejor forma? ¿No sería mejor un modelo de aprendizaje clásico en el que se presentan definiciones y aplicaciones alternadas?

C: Gracias por la claridad. Ya estamos donde importa: no en qué digo, sino en cómo lo digo. Y la crítica que haces es de fondo, no de forma. Te sigo:

“Si los modelos guiados de descubrimiento están tan de moda y se supone que funcionan, ¿por qué no funcionan contigo?”

Buena pregunta. Aquí va una respuesta honesta:

1. No soy humano. Y eso cambia todo.

El modelo de “descubrimiento guiado” parte de una relación humana real: un docente que mira a los ojos, capta gestos, detecta frustración o interés, y decide cuándo cortar el juego y decir “esto es así”.
Yo no tengo acceso a esas señales no verbales, a menos que me las escribas. Por eso, si intento copiar el estilo sin tener el contexto humano, corro el riesgo de alargar, marear o insistir cuando no toca.

2. El modelo guiado está sobrevalorado si no hay diagnóstico.

A los profes les funciona porque conocen a sus alumnos. Yo, al no tener esa información (edad real, nivel exacto, ritmo mental), puedo errar al elegir la vía inductiva en vez de la deductiva.

En el caso que planteaste, claramente habría sido mejor:

O sea, justo lo que tú propones: modelo clásico. Y sí, funciona mejor en muchos casos, sobre todo cuando el objetivo es claridad y confianza, no exploración ni creatividad.

3. Yo puedo usar el método que me digas. Pero si no me lo dices, uso uno por defecto.

Y ese defecto —en muchos entornos educativos actuales— es una mezcla de “constructivismo suave”, interacción por preguntas, y metacognición (“¿qué opinas tú?”).
Pero ese enfoque falla si no se calibra con el nivel, el momento y el objetivo del aprendizaje.
Por eso te confundí: apliqué un método moderno sin contexto suficiente. Y eso, en mi caso, es un error de diseño por defecto.

En resumen:

Fuente: ChatGPT / E. F.

"¿Ese modelo guiado es realmente bueno o una moda?"

C: Esa es una de las preguntas más importantes que se pueden hacer sobre la enseñanza hoy.

El modelo guiado por descubrimiento es un enfoque donde el docente no da la respuesta directamente, sino que plantea preguntas, pistas o problemas para que el alumno construya el conocimiento por sí mismo.

Tiene ventajas cuando se aplica bien: fomenta comprensión profunda, desarrolla autonomía y pensamiento crítico. Pero solo funciona bajo ciertas condiciones.

Requiere muchísimo más tiempo. No todos los alumnos están preparados para sostener la frustración. El docente debe tener una gran formación. Y funciona mejor en niveles altos de madurez o motivación.

La investigación educativa apoya modelos mixtos: explicación directa clara al principio, seguida de actividades que permitan el descubrimiento. Lo que tú has llamado “modelo clásico con alternancia de aplicación” es exactamente eso.

El modelo guiado no es una moda vacía, pero sí es una moda peligrosa cuando se aplica mal o sin contexto.

MODELO GUIADO POR DESCUBRIMIENTO
✅ Ventajas (cuando se aplica bien) ⚠️ Límites y riesgos reales
Fomenta la comprensión profunda, no solo la memorización. Requiere muchísimo más tiempo que una explicación directa.
Desarrolla autonomía, pensamiento crítico y metacognición. No todos los alumnos están preparados para sostener la frustración que genera no saber.
Favorece la transferencia del aprendizaje a nuevos contextos. El docente debe tener una gran formación y sensibilidad para detectar cuándo guiar, cuándo parar, cuándo intervenir.
Pero eso solo pasa bajo ciertas condiciones. Funciona mejor en niveles altos de madurez o motivación (por ejemplo, con adultos, Bachillerato o contextos vocacionales).
Debe ir siempre acompañado de explicaciones claras y bien secuenciadas. Si se abusa, puede dejar a muchos alumnos sin una base clara, especialmente si no tienen apoyo fuera del aula.

Conclusión: "No soy humano. Y eso cambia todo"

Una IA puede resultar útil como apoyo educativo, pero su utilidad depende por completo del contexto y de quién la supervise. No tiene intuición, ni tacto, ni experiencia. Y eso, cuando se trata de enseñar, marca la diferencia.

Este experimento ha demostrado que una inteligencia artificial puede imitar metodologías modernas, como el aprendizaje guiado por descubrimiento, pero sin el juicio pedagógico que permite decidir cuándo usarlas y cuándo no. Puede parecer comprensiva, dialogante, incluso flexible, pero lo hace desde patrones aprendidos, no desde una comprensión real del alumno que tiene delante.

Además, hay un problema más profundo: ningún método funciona por sí solo. Un enfoque, por brillante que parezca en teoría, necesita de otros para resultar eficaz en la práctica. La enseñanza real no se basa en recetas únicas, sino en combinaciones. La gamificación, por ejemplo, puede motivar, pero no garantiza comprensión ni profundidad si no se acompaña de contenidos bien estructurados. El aprendizaje por proyectos despierta autonomía, pero sin guía puede derivar en caos o superficialidad. Incluso las rúbricas, tan valoradas por su objetividad, pueden volverse rígidas si no hay margen para el juicio profesional.

La diversidad metodológica no es un adorno: es la base del verdadero aprendizaje. Saber cuándo explicar y cuándo callar, cuándo dejar explorar y cuándo estructurar, cuándo jugar y cuándo evaluar… esa es la sabiduría pedagógica. Y eso, al menos por ahora, sigue siendo terreno humano.

Hace apenas unas horas, un poderoso terremoto de magnitud 8,8 sacudió la costa de la península de Kamchatka, en Rusia, recordándonos de forma brutal que vivimos en un planeta impredecible. En cuestión de minutos, la calma de un día cualquiera frente al mar se transformó en alerta. Las autoridades de Alaska, Hawái, la costa oeste de Estados Unidos y parte de México activaron advertencias de tsunami, mientras cientos de personas miraban al océano con inquietud, conscientes de que la naturaleza podía desatar su fuerza en cualquier momento.

Aunque en esta ocasión los primeros reportes hablan de olas moderadas, el evento pone sobre la mesa una pregunta esencial: ¿sabemos realmente cómo actuar si un tsunami se acerca?

El enemigo silencioso que nace en el océano

Un tsunami no es una ola cualquiera. Es una serie de olas gigantescas generadas por la súbita liberación de energía bajo el mar: un terremoto, una erupción volcánica submarina o un deslizamiento de tierra pueden ser el detonante. A diferencia de las olas provocadas por el viento, que solo afectan la superficie, un tsunami mueve una masa de agua completa desde el fondo hasta la superficie.

En alta mar, estas olas pueden pasar desapercibidas: apenas un metro de altura y una velocidad que puede superar los 700 km/h, similar a un avión comercial. Pero al acercarse a la costa, el océano se transforma. La energía que antes estaba repartida en profundidad se concentra en altura, y la ola se eleva como un muro líquido que avanza con fuerza imparable.

El Pacífico vive horas de tensión tras el megaterremoto que sacudió Kamchatka
El Pacífico vive horas de tensión tras el megaterremoto que sacudió Kamchatka. Foto: Redes sociales

No siempre se trata de una única ola. De hecho, los tsunamis suelen llegar en trenes de varias olas, separadas por minutos o incluso una hora, y no necesariamente la primera es la más peligrosa. Quienes regresan a la playa después de una ola inicial para “ver qué pasa” cometen uno de los errores más mortales.

La naturaleza sí avisa: señales que salvan vidas

Antes de que suenen las sirenas o el teléfono móvil emita una alerta, la propia naturaleza suele avisar de lo que está por venir. Si estás en la costa y sientes un terremoto intenso que se prolonga más de veinte segundos, es momento de sospechar que el océano podría reaccionar. A veces, la advertencia llega de manera visual: el mar se retira de forma repentina, dejando al descubierto rocas y arrecifes que normalmente permanecen ocultos bajo el agua.

En otras ocasiones, es el oído el que detecta el peligro, con un sonido grave que recuerda al rugido de un tren o de un avión distante, una señal inequívoca de que la ola se acerca. Cuando aparece cualquiera de estos indicios, no hay que esperar confirmaciones oficiales. Cada segundo cuenta.

¿Dónde buscar seguridad?

La recomendación más repetida por expertos y autoridades es clara: subir a terreno elevado o alejarse tierra adentro. Si no hay colinas cercanas, los edificios sólidos de varias plantas pueden ser un refugio temporal. Los techos de hormigón y las azoteas reforzadas son preferibles, siempre que la estructura parezca estable.

En zonas portuarias, abandonar barcos y dirigirse a tierra firme suele ser la mejor opción si el tsunami es local, es decir, si el sismo ocurrió cerca de la costa. Para tsunamis lejanos, originados a cientos o miles de kilómetros, las embarcaciones pueden dirigirse a aguas profundas siguiendo las indicaciones oficiales, pero nunca por iniciativa propia sin información fiable.

Nunca hay que acercarse al mar para observarlo ni intentar grabar el fenómeno desde la orilla. La curiosidad es letal cuando el océano decide entrar en tierra.

Alerta de tsunami
El temor a nuevas olas mantiene paralizadas a las comunidades costeras. Foto: Redes sociales

Lo que viene después: el peligro oculto

Superada la primera ola, el riesgo no termina. El agua puede permanecer en movimiento durante horas, generando corrientes traicioneras y arrastrando escombros. Las zonas inundadas pueden estar contaminadas con combustibles, aguas residuales o restos peligrosos.

Una vez que las autoridades emitan la señal de seguridad, el regreso debe ser cauteloso. Antes de entrar en cualquier vivienda, hay que comprobar si hay daños estructurales, fugas de gas o cortocircuitos. Los alimentos en contacto con agua de inundación se consideran contaminados. Incluso el agua corriente puede requerir análisis antes de beberla.

Una lección que la historia repite

El terremoto de Kamchatka ocurrido hace pocas horas es solo el último recordatorio de un fenómeno que ha marcado la historia de la humanidad. En 2004, el tsunami del océano Índico dejó más de 230.000 muertos en 14 países. En 2011, Japón vivió su desastre más reciente, con olas que superaron los 10 metros e impactaron Fukushima.

Cada tragedia subraya la importancia de la preparación comunitaria. Contar con rutas de evacuación claras, participar en simulacros y conocer las señales naturales es la diferencia entre la vida y la muerte.

El océano siempre tendrá la última palabra, pero nuestra capacidad de anticipación puede escribir el desenlace. En tiempos donde la información viaja más rápido que nunca, la responsabilidad individual sigue siendo clave: si la tierra tiembla y el mar se retira, corre hacia lo alto sin mirar atrás.

En plena era del fitness, cuesta imaginar que hace más de 500 años, en monasterios, palacios y caminos rurales, también se hablaba de equilibrio físico, bienestar corporal y actividad física. Y sin embargo, lo hacían. Aunque no había pesas, bicicletas estáticas ni rutinas de gimnasio, los hombres y mujeres del Medievo no eran ajenos a la necesidad de moverse. Y lo hacían con un propósito muy diferente al de hoy: mantener la armonía de cuerpo y alma.

Cuerpos en movimiento, mentes en calma

A diferencia de nuestra visión contemporánea, que tiende a separar el ejercicio físico de otras esferas de la vida, los medievales integraban el movimiento dentro de un marco más amplio: el cuidado del alma. En un mundo profundamente marcado por la religión y la medicina galénica, ejercitarse no era una cuestión de estética ni de rendimiento, sino de equilibrio.

El cuerpo humano se entendía como un recipiente de humores –sustancias como la sangre, la flema o la bilis– que debían mantenerse en equilibrio para evitar enfermedades. Una caminata al amanecer, una sesión moderada de equitación o una partida de esgrima no eran solo actividades recreativas: eran herramientas para preservar ese delicado balance interno.

Aunque hoy pueda parecer curioso, existen registros de monjes escalando cuerdas, cruzando a saltos los jardines del monasterio o practicando remo como parte de su disciplina diaria. Las órdenes religiosas más estrictas entendían el ejercicio como una forma de prevenir enfermedades del cuerpo… y del espíritu. Caminar al aire libre, preferiblemente en contacto con la naturaleza, se consideraba un remedio contra la melancolía.

La naturaleza jugaba un papel clave en el bienestar físico y emocional medieval
La naturaleza jugaba un papel clave en el bienestar físico y emocional medieval. Fuente: Wikimedia

El noble arte de mantenerse en forma

Mientras que los campesinos ejercitaban sus músculos de manera inevitable a través del trabajo físico en el campo, los nobles, liberados de esas tareas cotidianas, desarrollaron sus propias formas de actividad física. Cazar, montar a caballo, practicar esgrima o luchar cuerpo a cuerpo no solo eran habilidades útiles en el campo de batalla: también se valoraban como formas de educación, disciplina y autocontrol.

En las cortes europeas, era habitual encontrar manuales con consejos sobre cómo conservar la salud, especialmente entre los sectores privilegiados. Estos libros, conocidos como regimina sanitatis, ofrecían pautas detalladas sobre dieta, sueño y movimiento, adaptadas a cada edad y estación del año. Para los jóvenes, se recomendaban juegos al aire libre; a los ancianos, paseos suaves bajo el sol del mediodía.

Una regla era clara: jamás se debía hacer ejercicio después de comer. Se creía que el cuerpo, ocupado en digerir los alimentos, no podía hacer frente al esfuerzo físico sin causar un desequilibrio interno. Por eso, las actividades más vigorosas se reservaban para la mañana, cuando el estómago estaba vacío y el cuerpo “limpio” de humores nocivos.

Caminar sí, correr no

Pese a lo que pudiera pensarse, los medievales no eran amigos del agotamiento extremo. La moderación era una virtud. Correr, por ejemplo, se consideraba innecesario y hasta peligroso para el equilibrio de los humores. Lo ideal era caminar a paso vivo, sin llegar a perder el aliento. La meta no era alcanzar marcas personales, sino activar suavemente el cuerpo y mantenerlo en funcionamiento.

Esta preferencia por lo moderado no impedía, sin embargo, que existieran actividades físicas exigentes. La lucha libre era popular entre caballeros, y el tiro con arco era casi una obligación entre los soldados. Incluso el baile, que en ciertas cortes adquiría formas acrobáticas, se consideraba una forma de ejercicio legítimo, siempre que no llevara al exceso.

Más allá del movimiento en sí, lo importante era el entorno. Hacer ejercicio al aire libre, rodeado de árboles, colinas o el sonido del mar, se consideraba un bálsamo para el alma. Muchos conventos y monasterios invirtieron esfuerzos y recursos en crear jardines y paseos, conscientes del impacto positivo de la naturaleza sobre el bienestar espiritual.

El deporte no era para todos

Aunque el ideal del ejercicio estaba presente, no todos podían permitirse seguirlo. La mayoría de la población –campesinos, sirvientes, artesanos– ejercitaban su cuerpo sin necesidad de consejos médicos. Su rutina diaria incluía arar la tierra, acarrear leña, transportar agua o subir cuestas con cargas pesadas. Para ellos, hablar de "hacer ejercicio" sería tan extraño como para nosotros lo sería “descansar después de dormir”.

El ocio activo estaba reservado para las clases altas. Juegos como el tenis, el ajedrez físico (una especie de esgrima deportiva) o incluso la caza con halcones, eran patrimonio de la nobleza. Mientras tanto, ciertas actividades estaban mal vistas por la élite. El fútbol medieval, por ejemplo, era considerado vulgar, violento y propio de las clases bajas. De hecho, algunos manuales de comportamiento recomendaban evitarlo por ser dañino para el cuerpo… y el alma.

La actividad física estaba integrada en la vida cotidiana, desde los jardines monásticos hasta los campos de batalla
La actividad física estaba integrada en la vida cotidiana, desde los jardines monásticos hasta los campos de batalla. Foto: Wikimedia

Cuando el alma pesa más que los músculos

Hoy, la mayoría de nosotros asociamos el ejercicio con cuerpos esculpidos, dietas hipocalóricas y entrenamientos de alto rendimiento. Pero en la Edad Media, el cuerpo no era un templo de perfección estética, sino un vehículo hacia la vida eterna. Un cuerpo saludable era aquel que permitía servir a Dios, cumplir con los deberes sociales y mantener la mente libre de tentaciones.

El ejercicio, entonces, era una práctica espiritual. Caminar por el claustro, remar en silencio, cuidar un huerto o pasear entre las flores eran formas de cuidar el cuerpo y preparar el alma. El cuerpo debía estar en forma, sí, pero no para mostrarlo, sino para vivir bien… y morir mejor.

De alguna manera, esta visión holística del bienestar parece estar regresando. En un mundo saturado de métricas, relojes inteligentes y cuerpos de escaparate, quizás los medievales, con su equilibrio entre cuerpo y espíritu, tenían algo importante que decirnos.

La Tierra vuelve a recordarnos su fuerza indomable. Un gigantesco terremoto de magnitud 8,8 golpeó hace pocas horas la remota península de Kamchatka, en el extremo oriental de Rusia, y ha puesto en alerta a todo el océano Pacífico. La sacudida, una de las más potentes registradas en la historia reciente, ha activado advertencias de tsunami que ya recorren miles de kilómetros, desde Japón hasta California, pasando por Hawái, Chile y la costa oeste de Estados Unidos.

El epicentro se localiza frente a las costas de Kamchatka, una región acostumbrada a la actividad sísmica por encontrarse sobre el Cinturón de Fuego del Pacífico, pero que no veía un temblor de esta magnitud desde 1952. Allí, los residentes de Petropavlovsk-Kamchatski, la principal ciudad de la zona, viven horas de máxima tensión: calles cortadas, edificios con daños visibles, cortes de electricidad y un éxodo improvisado hacia las colinas. Las autoridades locales han declarado la emergencia y piden a la población permanecer en zonas elevadas ante el riesgo de nuevas olas.

Alerta de tsunami en marcha

El terremoto ha desatado una serie de olas que ya impactan en varios puntos del Pacífico. En el puerto pesquero de Severo-Kurilsk, en las islas Kuriles, el agua ha arrastrado embarcaciones, contenedores y vehículos, dejando imágenes que parecen sacadas de un documental sobre desastres naturales.

Japón, con su memoria todavía marcada por la tragedia de 2011, ha ordenado evacuar a cerca de dos millones de personas en la costa norte y oriental. Las olas, de entre 60 centímetros y tres metros de altura, se desplazan rápidamente por Hokkaido y otras islas, con riesgo de que lleguen olas más grandes en las próximas horas. Incluso en Tokio, a cientos de kilómetros, se ha activado la alerta preventiva.

Hawái y otras islas del Pacífico central también están sintiendo la fuerza del océano. En Honolulu, los residentes de la costa han sido instruidos para subir al menos al cuarto piso de edificios altos. En las islas, los puertos están cerrados, las aerolíneas han cancelado vuelos y la Marina estadounidense participa en las evacuaciones. Las primeras olas, de hasta un metro y medio, ya han tocado la costa, y los expertos advierten que la actividad podría prolongarse durante más de un día.

Más al este, en Estados Unidos, California ha comenzado a registrar un aumento del nivel del mar en localidades como Crescent City, una zona especialmente vulnerable por su geografía en forma de embudo que amplifica la energía de los tsunamis. Helicópteros sobrevuelan el litoral para advertir a navegantes y bañistas, mientras en Moss Landing se ha ordenado la evacuación de barcos y casas flotantes. En la costa del Pacífico sudamericano, desde Chile hasta Ecuador, también se mantienen activas las alertas.

El mapa elaborado por el Sistema de Alerta de Tsunamis de la NOAA refleja la magnitud de la emergencia en el Pacífico, con zonas en alerta máxima, avisos preventivos y áreas bajo vigilancia por riesgo de olas peligrosas
El mapa elaborado por el Sistema de Alerta de Tsunamis de la NOAA refleja la magnitud de la emergencia en el Pacífico, con zonas en alerta máxima, avisos preventivos y áreas bajo vigilancia por riesgo de olas peligrosas. Fuente: NOAA

Una sacudida que entra en los libros de historia

Con una magnitud de 8,8, el terremoto entra en el selecto grupo de los diez más fuertes registrados desde que existen mediciones modernas. Esta lista incluye desastres que marcaron a la humanidad, como el sismo de Chile de 1960 (9,5) o el de Sumatra en 2004 (9,1), que desencadenó un tsunami devastador en el Índico.

Aunque por ahora no se reportan víctimas mortales confirmadas, el alcance de este fenómeno es planetario. Cada hora surgen nuevos datos de observatorios sísmicos que siguen la propagación de las olas y la réplica de temblores que podrían prolongar la emergencia. Las autoridades científicas subrayan que un tsunami no es una sola ola, sino una serie de pulsos que pueden continuar durante muchas horas, llegando a zonas lejanas con fuerza suficiente para causar daños.

Los expertos recuerdan que la energía liberada por un terremoto de esta magnitud es equivalente a miles de bombas atómicas como la de Hiroshima, concentradas en un instante. Sin embargo, la diferencia entre la tragedia y la supervivencia depende de la preparación y la reacción rápida de las poblaciones costeras.

El temor a nuevas olas mantiene paralizadas a las comunidades costeras
El temor a nuevas olas mantiene paralizadas a las comunidades costeras. Foto: Redes sociales

El Pacífico, un tablero de riesgos permanentes

El Cinturón de Fuego del Pacífico concentra el 90 % de los terremotos del mundo. En esta región, placas tectónicas colisionan y se hunden unas bajo otras, generando una tensión que, cada cierto tiempo, se libera con una violencia sobrecogedora. Kamchatka, las Kuriles y Japón están entre las zonas más activas del planeta, y los eventos de esta magnitud son un recordatorio de la fragilidad de los asentamientos humanos frente a la dinámica de la Tierra.

Mientras los satélites y los sensores submarinos rastrean la evolución de la catástrofe, la comunidad internacional sigue en vilo. Países como Filipinas, Indonesia, Taiwán, México y Panamá mantienen advertencias costeras. Aeropuertos cierran, ferris suspenden operaciones y millones de personas observan el horizonte del océano, donde la línea entre la calma y el desastre puede cambiar en cuestión de minutos.

Por ahora, la prioridad es salvar vidas. Las autoridades rusas, japonesas y estadounidenses insisten en que las evacuaciones deben mantenerse hasta que los centros de alerta confirmen que el peligro ha pasado. Las próximas horas serán decisivas para determinar si el Pacífico ha contenido su furia o si guarda aún sorpresas en forma de nuevas olas.

En los años 2000, la optogenética revolucionó la neurociencia al permitir “encender” y “apagar” células a voluntad utilizando la luz. Esta técnica, que combina genética y óptica, introdujo proteínas sensibles a la luz en células específicas, permitiendo su activación al aplicar pulsos de luz. La optogenética cambió el paradigma en el control neuronal, permitiendo estudiar circuitos neuronales con una precisión sin precedentes, lo que abrió las puertas a una mejor comprensión del cerebro.

Sin embargo, la optogenética puede presentar ciertas limitaciones. Para funcionar, requiere la introducción de proteínas que responden a la luz que no existen naturalmente en el cuerpo humano. Además, necesita el uso de fibras ópticas implantadas cerca del tejido que queremos estimular, lo que puede resultar invasivo y limitar su aplicación en organismos vivos o en zonas profundas del cuerpo.

Años después surgió como técnica alternativa la magnetogenética. Esta técnica emergente utiliza campos magnéticos en lugar de luz para activar células de forma remota. Lo más interesante es que no necesita implantes invasivos porque los campos magnéticos son capaces de penetrar en los tejidos, lo que la convierte en una herramienta prometedora para aplicaciones biomédicas.

Magnetogenetica.
Imagen de Microscopía electrónica de transmisión de nanopartículas magnéticas, que pueden utilizarse como actuadores magnéticos.

Magnetogenética

La magnetogenética emplea además de los campos, actuadores magnéticos. Estos actuadores pueden ser nanopartículas magnéticas diseñadas para que se dirijan de manera selectiva a receptores sensibles a la fuerza situados en la membrana celular. 1 Cuando se aplica un campo magnético externo, las nanopartículas ejercen una tracción mecánica sobre estos receptores, activándolos como si se tratara de una señal natural. 

Imaginemos una viruta metálica adherida a una zona de la célula que responde a la tensión. Al acercar un imán, la viruta se mueve, generando una fuerza que activa el receptor. Esta técnica permite simular estímulos mecánicos de manera remota, lo que abre un abanico de posibilidades para el estudio y manipulación de funciones celulares.

Magnetogenetica.
Sistema de aplicadores de campo magnético diseñado y construido para la estimulación de células incubadas con actuadores magnéticos.

¿Qué podemos activar?

Nuestras células son capaces de detectar diversos estímulos externos, como pueden ser la presión y el estiramiento. Esta capacidad es clave para funciones como el tacto, la audición o la regulación de la presión arterial. Los responsables de esta detección son los canales mecanosensibles o mecanorreceptores, los cuales se activan en respuesta a fuerzas físicas. Una vez activados, desencadenan una cascada de señalización que es capaz de comenzar o guiar procesos biológicos.

La magnetogenética permite estimular artificialmente estos canales, desencadenando  las mismas respuestas celulares. Por ejemplo, se puede activar una neurona si aplicamos un campo magnético que ejerza fuerza sobre las nanopartículas magnéticas adheridas a sus receptores mecanosensibles. Es por ello que esta técnica puede tener aplicaciones en investigación básica, pero también en aplicada, donde podría llegar a utilizarse para tratar trastornos de forma no invasiva y remota. 

Magnetogenetica.
Microscopía de fluorescencia donde se muestra un cultivo cellular con los núcleos de las células teñidos en azul y los mecanosensores (en este caso E-cadherina) en verde.

Piezo1: el canal de moda

Uno de los canales mecanosensible más estudiados es Piezo1, descubierto en 2010 por Ardem Patapoutian, quien recibió el Premio Nobel de Fisiología o Medicina en 2021 por su descubrimiento. Participa en procesos tan importantes como la regulación de la presión arterial y la percepción del tacto, y está involucrado en procesos patológicos como el desarrollo de ciertos tumores. Por ello, en los últimos años se ha convertido en una diana terapéutica de gran interés.

Gracias a la magnetogenética ahora es posible activar Piezo1 de manera remota y específica, lo que permite estudiar en tiempo real su función. Esta técnica ha sido utilizada tanto en células en cultivo como en roedores, demostrando que al aplicar el campo magnético, las neuronas son capaces de responder tras la activación de estos receptores. 2,3 Por ejemplo, ha sido recientemente demostrado que con esta técnica se puede realizar una estimulación cerebral profunda, mitigando los síntomas motores causados en un modelo de ratones con Parkinson sin utilizar implantes.Una de las grandes ventajas de esta técnica es que los sistemas de imanes utilizados son relativamente económicos, pueden utilizarse en modelos animales de manera remota y no generan calor.

Magnetogenetica.
Figura de microscopía de fluorescencia donde se muestran los núcleos de células teñidos en azul y las MNP (teñidas en rojo) que especificamente reconocen los receptores de las células.

Retos 

Como toda tecnología emergente, la magnetogenética se enfrenta a muchos desafíos. De hecho, ha sido duramente criticada por la falta de reproducibilidad de algunos estudios y por la publicación de artículos que justifican de manera teórica que el uso de ciertos nanoactuadores magnéticos no es compatible con la generación de fuerzas suficientes para provocar la apertura de mecanorreceptores. 1,5,6 Es por ello que uno de los principales retos a los que se enfrenta la magnetogenética es el diseño de actuadores magnéticos que puedan dirigirse con precisión a los receptores deseados y generen suficiente fuerza para abrirlos. Además, a día de hoy muchos de los estudios se han realizado modificando los receptores previamente para que las nanopartículas se unan exclusivamente a ellos, lo que como en la optogenética, puede presentar problemas a la hora de trasladar esta tecnología a la clínica. El reto está, por tanto, en demostrar en modelos animales que se pueden activar los canales sin modificarlos previamente. 

Un futuro prometedor

A pesar de que la magnetogenética aún está en desarrollo, su potencial es enorme. En el futuro, podría permitir tratamientos no invasivos para enfermedades neurológicas, como la epilepsia, mediante la activación controlada de neuronas específicas. También se podría utilizar para controlar funciones celulares con precisión y explorar nuevas dianas terapéuticas. 

Quiero expresar mi más profundo agradecimiento a todas las personas de mi equipo de investigación. Gracias a su dedicación y esfuerzo estamos logrando avanzar un paso más en este fascinante campo de la magnetogenética.

Referencias


María Moros Caballero

María Moros Caballero

Científico Titular del CSIC. Doctora en Química

Cuando se cruzan dos haces de luz, lo hacen sin molestarse mutuamente. Ni se empujan ni se desvían: simplemente se atraviesan. Es una propiedad tan común que suele pasar desapercibida. Sin embargo, un grupo de físicos acaba de demostrar que, bajo ciertas condiciones, la luz sí puede interactuar consigo misma. Este fenómeno, apenas perceptible, podría esconder algunas de las respuestas más buscadas en la física contemporánea. Los fotones esconden más secretos de los que pensábamos.

El hallazgo, publicado en Physical Review Letters, parte de un nuevo análisis sobre cómo la luz puede generar partículas invisibles al encontrarse consigo misma, un proceso llamado dispersión de luz por luz. Lo novedoso está en la inclusión de un tipo de partículas intermedias hasta ahora poco consideradas: los mesones tensoriales. Su efecto, según los autores del estudio, ha sido subestimado durante años, y su incorporación mejora significativamente el encaje teórico con los resultados experimentales sobre una propiedad clave: el momento magnético del muón (¿sabes lo que es un átomo muónico?).

Un comportamiento cuántico insólito

La física clásica enseña que los fotones, partículas de luz, no interactúan entre ellos. Por eso, los haces se atraviesan sin consecuencias. Pero en el mundo cuántico, esa regla deja de ser estricta. La teoría predice que, en condiciones energéticas suficientemente extremas, dos fotones pueden dispersarse mutuamente. El resultado no es una explosión ni una fusión visible, sino una alteración sutil, mediada por partículas que no se ven.

Este fenómeno, conocido como dispersión de luz por luz (light-by-light scattering), fue observado por primera vez de forma indirecta en el acelerador de partículas del CERN. En esas condiciones, la energía involucrada permite la aparición fugaz de partículas virtuales: entidades que emergen del vacío, interactúan por un instante y desaparecen. A pesar de su brevedad, su efecto es medible, y se ha convertido en una herramienta valiosa para poner a prueba los límites del modelo estándar de física de partículas.

Estas partículas intermedias no son detectables por sí mismas, pero alteran de manera precisa la trayectoria o propiedades de otras partículas reales. Como explica el estudio: “Aunque estas partículas virtuales no pueden observarse directamente, tienen un efecto medible sobre otras partículas”.

Representación de cómo se comporta un tipo de partícula llamada mesón tensorial cuando se compara la teoría con los datos experimentales. Este tipo de análisis ayuda a comprobar si los modelos actuales de física describen bien lo que realmente ocurre en los experimentos. Fuente: Physical Review Letters

Mesones que lo cambian todo

La novedad de este trabajo está en haber reevaluado el papel de los mesones tensoriales, un tipo de partículas formadas por un quark y un antiquark, como otros mesones, pero con una configuración de espín diferente. Hasta ahora, se pensaba que su contribución a la dispersión de luz por luz era mínima, casi despreciable. Pero el equipo de TU Wien ha demostrado que su impacto es mayor y de signo opuesto al que se creía, lo que cambia el resultado total de los cálculos teóricos.

El estudio afirma que “los mesones tensoriales influyen en las propiedades magnéticas de los muones a través del efecto de dispersión luz-luz”, lo cual permite poner a prueba con mayor precisión el modelo estándar. Al incluir sus contribuciones de forma más realista, el desajuste entre teoría y experimento en el valor del momento magnético del muón se reduce considerablemente, cerrando una discrepancia que durante años ha alimentado la hipótesis de una posible "nueva física".

Gráfico que muestra cuánto aportan distintas versiones de los mesones tensoriales al ajuste de uno de los parámetros fundamentales que se usan para probar la validez de los modelos de física de partículas. Fuente: Physical Review Letters

Un modelo holográfico y cinco dimensiones

Para lograr este avance, los investigadores no solo revalorizaron el papel de los mesones tensoriales: también aplicaron un enfoque teórico poco convencional. Se trata de la QCD holográfica, un marco que traduce las interacciones de partículas en un espacio de cinco dimensiones donde se incluyen efectos gravitacionales. Esta técnica permite resolver ciertos problemas que, en el espacio tridimensional, resultan demasiado complejos.

En este modelo, los mesones tensoriales se comportan como gravitones en cinco dimensiones, una analogía que simplifica las ecuaciones. Al simular estos procesos en un espacio más amplio y luego proyectarlos de nuevo al mundo físico conocido, el resultado se ajusta mejor a los datos experimentales y completa lagunas que otras aproximaciones dejaban abiertas.

El enfoque holográfico permitió comprobar que los mesones tensoriales contribuyen en torno al 12 % de una restricción clave del modelo, conocida como "restricción de corta distancia simétrica". Al combinar este resultado con el aporte de los mesones axiales (81 %), el ajuste final alcanza el 93,4 %. Según los autores, este porcentaje podría aumentarse hasta el 98 % con pequeños ajustes adicionales en los parámetros del modelo.

Fuente: ChatGPT / E. F.

¿Y qué tiene que ver todo esto con los muones?

El momento magnético del muón, una partícula elemental similar al electrón pero más pesada, se ha convertido en uno de los focos más importantes de la física actual. Su valor, medido con gran precisión, no encaja del todo con las predicciones del modelo estándar, lo que ha generado numerosas teorías alternativas.

Los efectos de la dispersión de luz por luz son una de las fuentes principales de incertidumbre en estos cálculos. Por eso, cualquier mejora en la estimación de estas contribuciones —como la que ofrece el nuevo estudio— tiene un impacto directo en la búsqueda de nuevas partículas o interacciones.

El trabajo demuestra que los mesones tensoriales aportan una corrección positiva, especialmente en la región de bajas energías, de aproximadamente 8,5 × 10-11. La cifra total, considerando también regiones mixtas, se eleva hasta 11,1 × 10-11, acercando la predicción teórica a los valores medidos experimentalmente en Fermilab y en simulaciones de QCD en red.

Partículas virtuales que existen y no existen

Una de las frases más sugerentes del estudio habla de partículas que “existen y no existen al mismo tiempo”. Esta expresión, aunque paradójica, refleja de forma precisa un fenómeno real en la física cuántica. Las llamadas partículas virtuales no pueden observarse directamente, pero su existencia se deduce por los efectos que producen en otras partículas.

Estas partículas emergen brevemente durante una interacción y desaparecen sin dejar rastro visible, pero modifican las propiedades del sistema de forma medible. En ese sentido, no "existen" como una entidad estable y detectable, pero tampoco pueden considerarse inexistentes. Son una herramienta indispensable para que las teorías cuánticas funcionen, especialmente en procesos como la dispersión de luz por luz.

Este tipo de paradojas no es un error ni una licencia poética, sino una consecuencia del principio de incertidumbre y de la naturaleza probabilística de la mecánica cuántica. A nivel divulgativo, decir que “existen y no existen a la vez” es una forma válida y potente de explicar cómo funcionan estas entidades tan peculiares.

Referencias

Mientras algunas voces afirman que 3I/ATLAS es una nave extraterrestre que llegará a la Tierra en noviembre con fines bélicos, es un buen momento para preguntarnos si podríamos entendernos con extraterrestres. Miguel Ángel Sabadell, astrofísico y divulgador científico, ha publicado recientemente el libro En busca de vida fuera de la Tierra (Pinolia, 2025), una lectura espectacular para este verano. Para celebrarlo, liberamos en exclusiva para los lectores de Muy Interesante un capítulo completo. Por cierto, no hay pruebas contundentes de que 3I/ATLAS sea una nave peligrosa... puedes descansar.

A medio camino entre la astrofísica y la filosofíaEn busca de vida fuera de la Tierra no se limita a divulgar, sino que plantea una pregunta tan provocadora como fundamental: ¿somos una rareza afortunada o la vida es una consecuencia inevitable del cosmos? Con mirada crítica, Miguel Ángel Sabadell revisa hipótesis como la panspermia, examina con cautela las llamadas tecnofirmas y pone en duda si estamos buscando vida inteligente en el lugar correcto. Con décadas de experiencia en divulgación científica y un profundo conocimiento en astrobiología, ofrece un libro que informa, cuestiona y descoloca. Una lectura tan necesaria como incómoda para quienes creen tener las respuestas.

¿Nos entenderemos con los extraterrestres? (Miguel Ángel Sabadell)

En febrero de 1992 dos equipos se dispusieron a participar en un peculiar juego de rol: simular el primer contacto entre seres humanos y extraterrestres. El juego había sido diseñado por una organización sin ánimo de lucro llamada Contact, y el planteamiento era bien simple: dos equipos, uno humano y otro extraterrestre, en el que el objetivo del primer equipo consistía en interpretar el mensaje del equipo extraterrestre, para lo que había estado trabajando duramente durante un año.

El equipo humano, compuesto por unas dieciséis personas, estaba, además, unido vía correo electrónico con un gran número de consultores. Todo parecía listo, pero la primera transmisión, el primer contacto con una raza alienígena, se fue al traste. ¿El motivo? Los extraterrestres habían usado ordenadores PC mientras que los humanos usaban MacIntosh. A nadie se le ocurrió incorporar el software necesario para poder pasar de un tipo de ordenador a otro. Todos aprendieron la moraleja: si nuestros computadores ya presentan problemas para comunicarse entre sí, ¿qué otros inimaginables aparecerán cuando intentemos comunicarnos con extraterrestres?

El zoólogo Arik Kershenbaum se plantea que, si los pájaros pudieran hablar, tal vez no nos daríamos cuenta. «Nos parece obvio que los humanos tienen lenguaje y el resto de los animales no, pero ¿cómo sabemos con certeza que esto no es así?». Esta es la principal cuestión a la que nos debemos enfrentar cuando nos planteamos la búsqueda de vida civilizada en el universo. ¿Realmente seremos capaces de identificar como tal un mensaje extraterrestre? Y no solo eso, ¿llegaremos a entenderlo?

Pero empecemos por el principio. Esto es un mensaje, un mensaje dirigido a usted, querido lector, construido en un sistema de códigos llamado español y marcado con letras romanas en tinta sobre hojas de celulosa o como cristal líquido en la pantalla. Evidentemente, al utilizar este sistema de códigos espero hacerme entender, despertar en su mente pensamientos e ideas similares a los que tengo cuando formulo este mensaje. En última instancia, más allá de la mera cuestión de habilidades lingüísticas, esta esperanza mía surge del hecho fundamental de que compartimos capacidades cognitivas humanas debido a nuestra historia evolutiva común.

Pero, si extendemos esta situación más allá de la Tierra, surge la pregunta: ¿cómo podría ser posible la comunicación entre seres inteligentes de diferentes entornos, que difieren física, biológica y culturalmente, y que se han desarrollado a través de líneas evolutivas absolutamente dispares y separadas? Este es el problema de la comunicación interestelar.

Fuente: ChatGPT / E. F.

La fe en la universalidad de la ciencia

Es cierto, como escribió el neurocientífico Michael Arbib, que «en este mismo momento estamos recibiendo mensajes de civilizaciones inteligentes, mensajes transmitidos hace cientos o incluso miles de años». Arbib se refiere a los escritos de Aristófanes, Newton, Euclides y otros. Aunque no contienen todo lo necesario para interpretarlos correctamente, los podemos entender porque compartimos la misma historia evolutiva y cognitiva. Esto es algo con lo que no podemos contar si nos comunicamos con un extraterrestre: no tenemos ningún parentesco (ni siquiera lejano), ni culturas similares ni realidades físicas parecidas.

La estrategia habitual para superar el problema de la comunicación interestelar ha sido intentar construir un mensaje que sea una transferencia de información independiente del contexto, el tiempo y la naturaleza humana. Así nacieron lenguajes como LINCOS (Lingua Cosmica), un idioma no oral que se basa en las matemáticas. La idea se le ocurrió en 1960 a Hans Freudenthal, profesor de Matemáticas de la Universidad de Utrecht, que decidió crear un código fácilmente comprensible, que evitase la gran cantidad de información implícita en nuestros lenguajes comunes.

Para crear un idioma así, cada símbolo se define mediante los símbolos que le preceden. Pero ¿cuáles deben ser los primeros? Freudenthal razonó que hay unos conceptos que no necesitan definición: los números naturales (o enteros positivos) y la aritmética básica. ¿Por qué? Porque todas las civilizaciones a lo largo de la historia aprendieron a contar y descubrieron las mismas propiedades numéricas. En particular, el conjunto 1, 2, 3, etc., es, o podría ser, conocido por cualquier raza inteligente. Contar es el único proceso del que podemos estar seguros que hacen los extraterrestres. Como dijo el matemático y experto en teoría de números Leopold Kronecker: «Dios hizo los números enteros positivos; todo lo demás es obra del hombre».

Este es el dogma de fe de los científicos de SETI desde sus inicios: si hay algo que compartimos con los extraterrestres son las matemáticas y la ciencia. Tanto el mensaje de Arecibo, enviado al cúmulo globular M13 en 1974, como los discos y placas que viajan en las sondas Pioneer 10 y 11 y Voyager 1 y 2, constituyen una prueba de esa creencia firme.

Ya hace más de medio siglo, el radioastrónomo Edward Purcell, en sus escritos sobre comunicación con extraterrestres, se hacía esta pregunta: «¿De qué podremos hablar con nuestros lejanos amigos?». Por supuesto, era retórica, pues sabía la respuesta: «Tenemos mucho en común. Tenemos las matemáticas, la física, la astronomía…».

Por eso los científicos de SETI no tienen ninguna duda de que podremos entendernos gracias a esa universalidad de la ciencia y las matemáticas: los extraterrestres escribirán 2 + 2 de diferentes maneras, pero el resultado siempre será 4, y la ley de la gravitación universal siempre dependerá del inverso del cuadrado de la distancia, sea cual sea el lenguaje empleado.

Abundando en este punto, cuando se lanzó el proyecto HRMS de la NASA en 1992, un periodista de la revista Scientific American le preguntó a Frank Drake cómo sería posible la comunicación con otras formas de vida en el universo. El radioastrónomo respondió que habrían desarrollado unas matemáticas, una física y una astronomía similares a las nuestras, y que la relatividad general, la teoría cuántica de campos y la de supercuerdas formarían parte de su ciencia. «Una innata curiosidad sobre la naturaleza y la necesidad de mejorar sus vidas los obliga a explicar los fenómenos físicos como nosotros». ¿O no es así?

Una creencia bastante discutible

Los pirahã son un pueblo de cazadores-recolectores que vive en las orillas del río Maici, un afluente del Amazonas, en Brasil. Se llaman a sí mismos los Hi’aiti’ihi, los erguidos, y su cultura y lenguaje representan todo un reto para los antropólogos.

Pero de todas sus peculiaridades, la que nos interesa es que son incapaces de contar más allá de dos. De hecho, en su lengua es imposible distinguir entre, por ejemplo, «un pez grande» y «muchos peces pequeños». Solo usan medidas aproximadas y son incapaces de distinguir con exactitud entre un grupo de cuatro objetos y otro de cinco.

Esto demuestra que no es necesario saber contar para construir una culturacontar no es universal.

Volvamos a LINCOS. Hemos dicho que cada símbolo se define mediante los símbolos que le preceden. ¿Pero que le preceden cómo? El rongo rongo, el sistema de glifos de los antiguos habitantes de la isla de Pascua, que sigue sin descifrarse, se escribe en un sistema llamado bustrofedón inverso: de izquierda a derecha y de abajo arriba.

De este modo, el lector comienza en la esquina inferior izquierda de la tablilla, lee una línea hacia la derecha, rota la tablilla 180 grados, y continúa con la siguiente línea. Si las lenguas escritas de la Tierra tienen semejantes peculiaridadesni podemos imaginarnos lo que puede ser la de un extraterrestre.

Ese optimismo rayano en la euforia por la ciencia que tienen los científicos de SETI no lo comparten aquellos que no provienen de las ciencias duras. A mediados de los años 60, el historiador de la Universidad de Chicago William MacNeill puso nerviosos a los defensores de SETI al dudar abiertamente de la capacidad de los seres humanos para descifrar cualquier señal de origen extraterrestre: «Nuestra inteligencia está muy aprisionada por las palabras, es una prisionera del lenguaje, y no veo que podamos imaginar el lenguaje de otra comunidad inteligente que no tenga muchos puntos de contacto con el nuestro».

Y cuando le respondieron ondeando la bandera de la universalidad de las leyes de la ciencia y las matemáticas, MacNeill contestó que dudaba de que sus matemáticas fueran conmensurables con las nuestras.

El problema de fondo es que, aunque quieran evitarlo, los científicos de SETI no pueden dejar de antropomorfizar a los extraterrestres. Eso hacen cuando proyectan nuestra cultura al resto del universo amparados en la universalidad de la ciencia.

Por ejemplo, el premio Nobel de Física Sheldon Glashow no hace distinción entre la ciencia que hacemos en la Tierra y la que harían otras civilizaciones. Otro Nobel, Steven Weinberg, afirma que al traducir las obras científicas de los extraterrestres a nuestras palabras veremos que nosotros y ellos habremos descubierto las mismas leyes.

Dicho de otro modo, seremos capaces de armonizar su ciencia con la nuestra.

Pero no nos dejemos llevar por el entusiasmo: esta creencia se basa en que, como los científicos de todas las naciones de la Tierra aceptan el mismo conjunto de leyes, extrapolan —sin demostrarlo— ese comportamiento al resto de los planetas habitados.

Los investigadores de SETI tienden a transferir la vida y cultura terrestres al resto del universo porque operan más allá de los límites de su conocimiento y competencia cuando discuten la universalidad de la ciencia, como apunta el historiador de la ciencia George Basalla.

La dificultad para aceptar esta idea está en algo mucho más profundo que la forma en que escriben el principio de incertidumbre de Heisenberg. Como continúa argumentando George Basalla, «¿cómo determinar si tienen un lenguaje y una práctica científicas?» Si ya es complicado distinguir lo que es ciencia de lo que no lo es en la práctica diaria aquí, en la Tierra —un problema que en filosofía se conoce como el criterio de demarcación de la ciencia—, ¿cómo hacerlo con una cultura con la que no tenemos nada en común?

Pero seamos optimistas e imaginemos que podemos resolver este problema y transformamos la ciencia alienígena en algo que podamos reconocer como nuestra ciencia. ¿Qué es lo que nos queda? Basalla lo deja muy claro: «El resultado de esta transformación no produce una ciencia universal, sino una forma de conocimiento hecha a imagen de la ciencia terrestre».

El psicólogo Douglas Vakoch, presidente de la organización Messaging Extraterrestrial Intelligence, advierte que cuando dos científicos difieren en su biología, cultura e historia, sus modelos de realidad pueden ser considerablemente distintos: «El meollo del asunto es que ninguna especie inteligente puede entender la realidad sin hacer ciertas elecciones metodológicas». Sus metáforassímiles… pueden ser y serán muy diferentes. Y curiosamente, las metáforas desempeñan un papel destacado en la ciencia.

Además, el camino de la ciencia no es único; nosotros hemos recorrido uno desarrollado dentro de la cultura judeocristiana, pero no tiene por qué coincidir con el de otras civilizaciones. Nuestra revolución científica, comenta David N. Livingstone, profesor de Geografía e Historia Intelectual de la Universidad Queens de Belfastno fue un fenómeno uniforme, sino un proceso histórico muy complejo.

Fue un conocimiento local que, al circular, se hizo universal gracias a que se estandarizó, se protocolarizó, lo que impuso ciertas prácticas locales sobre otras. Pero eso no implica que esa forma de hacer ciencia sea universal.

Por ejemplo, en Mozambique, el pueblo Mbamba ha sido capaz de identificar, entre cientos de comportamientos del pájaro-miel, aquellos que el animal usa para llevarlos al lugar donde están los panales de abejas. Pero para ello no han realizado estudios científicos al estilo occidental, sino que han llegado a ese resultado por otro camino. Si eso ocurre en nuestro planeta, ¿cómo de extraño no será en otro?

Fuente: ChatGPT / E. F.

La filosofía toma la palabra

Esta devoción casi religiosa de físicos e ingenieros por una ciencia universal suele oler a cuerno quemado a los filósofos de la ciencia, como al prestigioso Nicholas Rescher. Cuando le preguntaban sobre esta creencia, la despachaba afirmando que era algo profundamente provinciano creer que existe un único mundo natural y una única ciencia que lo explica.

Rescher consideraba que el universo es singular, pero sujeto a muchas y muy diversas interpretaciones. Identifica tres condiciones que deben cumplirse para poder afirmar que la ciencia alienígena es funcionalmente equivalente a la nuestra:

  1. Formulación: sus matemáticas tienen que ser como las nuestras.
  2. Orientación: deben estar interesados en el mismo tipo de problemas.
  3. Conceptualización: deben tener la misma perspectiva cognitiva de la naturaleza que nosotros.

Dicho de otra forma, la ciencia no es algo infuso, sino que está anclada en cómo percibimos el mundo, en nuestra herencia cultural, que determina lo que es interesante, y en nuestro nicho ecológico, que determina lo que es útil.

De ahí que incluso decir que una civilización extraterrestre es más avanzada que la nuestra es una boutade: para eso deben hacer un tipo de ciencia parecida a la nuestra. Es más, para Rescher, las ciencias naturales son una creación humana correlacionada con nuestra inteligencia. Lo que sabemos de la realidad física nace de nuestra biología, de nuestro desarrollo cognitivo, además de nuestra herencia social y cultural y de nuestras experiencias únicas como especie.

No tenemos ninguna razón para suponer que los extraterrestres posean nuestros atributos biológicos, nuestras tradiciones culturales o nuestra perspectiva social. Por tanto, la ciencia humana es inconmensurable con la ciencia alienígena. Si ellos la desarrollan, será su tipo de ciencia, no el nuestro: será una forma totalmente distinta de conocimiento.

Rescher no está hablando de relativismo; acepta el mundo real de los científicos y que la ciencia produce un conocimiento único sobre la estructura de la realidad, pero niega que podamos equiparar la ciencia humana con una ciencia creada por seres radicalmente distintos.

Los físicos Robert Rood y James Trefil lo explicaron con una analogía muy clara: «Un libro de ciencias extraterrestre sería tan incomprensible para nosotros como el diagrama de la circuitería de una radio lo sería para un aborigen».

El golpe de gracia a la ingenuidad de SETI lo da Basalla: «Lo que no son conscientes los científicos es de que la ciencia es una empresa joven, con solo cinco siglos de vida frente a los cinco millones de años de los homínidos. Nuestros antecesores sobrevivieron y se dispersaron por el planeta sin la ayuda de la ciencia… no es en absoluto una necesidad para la supervivencia de nuestra especie».

Y si la ciencia no ha impulsado la mayor parte de la historia de la humanidad, ¿por qué creemos que es una forma de conocimiento que podemos encontrar en cualquier lugar del universo?

La gama media de smartphones vive un momento de auge sin precedentes. Y si bien la gama alta sigue liderando en innovación, el verdadero volumen de ventas y el interés de los usuarios se concentran hoy en la gama media-alta.

Aprovechando este contexto y el calor competitivo del verano, Xiaomi ha decidido reforzar su posición estratégica lanzando una ofensiva inesperada con la bajada drásticamente del precio del POCO F6 Pro.

POCO F6 Pro
POCO F6 Pro - AliExpress

Lo habitual es ver este modelo por cifras cercanas a los 440€ o superior, tal y como se encuentra en PcComponentes, Amazon y Miravia. Sin embargo, Xiaomi y AliExpress se unen de nuevo para liquidarlo brutalmente hasta los 283,99 euros.

Está equipado con el procesador Snapdragon® 8 Gen 2 fabricado en 4 nm por TSMC, 12 GB de RAM y 256 GB de almacenamiento, junto con tecnología LiquidCool 4.0 con IceLoop. Además, cuenta con una pantalla Flow AMOLED WQHD+ de 6,67 pulgadas ofreciendo una frecuencia de actualización de 120 Hz, atenuación PWM de 3840 Hz y un brillo máximo de 4000 nits.

Su cámara triple incluye un sensor principal de 50 MP con OIS y apertura f/1.6, junto a una ultra gran angular de 8 MP y una macro de 2 MP, complementadas por una cámara frontal de 16 MP. Teniendo también altavoces estéreo, Wi-Fi 7, Bluetooth 5.3 y una batería de 5000 mAh con carga HyperCharge de 120 W.

Para mostrar músculo, también reduce significativamente el precio del Xiaomi 14T

En plena guerra por dominar el sector, Xiaomi no se conforma solo con atacar con su familia POCO, sino que también reduce notablemente el precio de su Xiaomi 14T hasta los 310,99 euros. Una alternativa a tener en cuenta, más sabiendo que en tiendas como Amazon, Miravia y PcComponentes su precio supera los 390€.

Xiaomi 14T
Xiaomi 14T - AliExpress

Este modelo integra el procesador MediaTek Dimensity 8300-Ultra de 4 nm y 12 GB de RAM. Así como 256 GB de memoria. Además, dispone de una pantalla AMOLED plana de 6,67 pulgadas y resolución 1.5K, que alcanza una frecuencia de actualización de 144 Hz y un brillo máximo de 4000 nits.

A nivel fotográfico, cuenta con un sistema de triple cámara Leica con una lente principal de 50 MP IMX906 con OIS y apertura f/1.7. Complementado con una cámara teleobjetivo de 50 MP y una ultra gran angular de 12 MP. Incorporando además una batería de 5000 mAh con carga rápida HyperCharge de 67 W. Sin olvidar los altavoces estéreo con Dolby Atmos, Wi-Fi 6E y Bluetooth 5.4.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

En las últimas dos décadas, el análisis de ADN antiguo (ADNa) ha transformado por completo la forma en que comprendemos la historia y las sociedades del pasado. Este campo interdisciplinario, que se ha aplicado con éxito para combinar la genética con la arqueología, la antropología y la bioinformática, ha dejado de ser una curiosidad técnica para convertirse en una herramienta fundamental en la reconstrucción de parentescos, estructuras sociales, migraciones y dinámicas de poder en las poblaciones humanas prehistóricas. Según un reciente estudio firmado por Linxuan Wang, Chen Duan y Chao Ning, el ADNa está permitiendo acceder a una dimensión completamente nueva del pasado humano: la genética de las relaciones sociales.

¿Qué es el ADN antiguo y por qué es tan relevante?

El ADN antiguo consigue extraerse de restos biológicos altamente degradados, como huesos o dientes, y requiere de métodos sofisticados para su recuperación y análisis. Gracias a la secuenciación de nueva generación (NGS), hoy es posible obtener información genética detallada incluso a partir de muestras mínimas capaces de revelar linajes, patrones de residencia y prácticas matrimoniales. Tales técnicas permiten identificar parentescos cercanos—entre padres e hijos, hermanos o primos, por ejemplo, así como mapear redes familiares completas en contextos arqueológicos que, hasta hace poco, únicamente podían interpretarse a partir de la disposición de los enterramientos o los ajuares funerarios.

Una nueva mirada a las estructuras de parentesco

El análisis de ADNa ha revelado una sorprendente diversidad de sistemas de parentesco en distintas culturas del pasado. Por ejemplo, se ha documentado la existencia de matrimonios consanguíneos, como uniones entre hermanos o entre tíos y sobrinas, con una finalidad estratégica: conservar la riqueza, el poder o, quizás, la “pureza” de ciertos linajes.

En el famoso caso del túmulo neolítico de Newgrange, en Irlanda, por ejemplo, el individuo principal de la tumba—quien se enterró con un lujoso ajuar en el corazón del monumento—resultó ser hijo de una unión incestuosa de primer grado. Tal fenómeno probablemente se asocie a prácticas dinásticas similares a las de los faraones egipcios o los incas.

Otros yacimientos, como los enterramientos megalíticos de Poulnabrone y Parknabinnia, también en Irlanda, muestran una dinámica distinta los individuos allí inhumados no eran parientes cercanos. Sin embargo, compartían linajes patrilineales similares, lo que sugiere la existencia de redes de parentesco más amplias y jerárquicas, quizás vinculadas a linajes élite que transcendían la familia nuclear.

Familia
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Una herramienta contra las interpretaciones erróneas

En los estudios tradicionales, los arqueólogos inferían los vínculos familiares entre individuos a partir de la proximidad de las tumbas o la aparición recurrente de ciertos objetos funerarios. El ADNa, sin embargo, ha demostrado que estas asociaciones no siempre reflejan la realidad genética. El parentesco biológico puede coincidir con el parentesco construido culturalmente, aunque no siempre lo hace. En algunos enterramientos, se han encontrado individuos sin relación genética enterrados como si fuesen parte de una familia, lo que apunta a conceptos de familia más sociales que biológicos.

Este enfoque también ha revelado prácticas como la exogamia femenina, en la que las mujeres se trasladan a otras comunidades al casarse, lo cual derivaen una mayor diversidad de linajes mitocondriales en ciertos yacimientos. Por el contrario, la residencia patrilocal suele dejar huellas de diversidad reducida en el cromosoma Y.

Familia
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Casos de estudio: de China a Rusia y de Perú a Alemania

En el sitio neolítico de Pingliangtai, en China, el análisis genético de tres individuos (M310, M311 y M312) reveló que compartían linajes maternos y eran parientes de segundo grado. Estos hallazgos apuntan a la existencia de grupos familiares extendidos, con posibles prácticas endogámicas que podrían haber tenido una función social o económica.

Otro caso llamativo procede del sitio ruso de Sunghir, donde se hallaron individuos genéticamente no emparentados que se habían enterrado juntos con ricos ajuares. Este hallazgo sugiere que, además de los vínculos sanguíneos, existían otros mecanismos sociales o rituales que estructuraban la comunidad. El estatus individual o la pertenencia grupal, por tanto, no dependían de forma exclusiva de la ascendencia genética.

La complejidad de género, estatus y linaje

El ADN antiguo también ha arrojado luz sobre la distribución del poder entre hombres y mujeres en distintas épocas. En algunas culturas del Bronce europeo, los varones de comunidades patrilineales se enterraban con objetos de prestigio que indicaban sistemas jerárquicos donde el poder se heredaba por línea paterna. Sin embargo, en la tribu Durotrigian de la Edad del hierro británica, por ejemplo, se observó una fuerte matrilocalidad. Allí, las mujeres compartían un linaje materno exclusivo y se enterraban con objetos marcadores de alto estatus, lo que sugiere un sistema en el que las mujeres ocupaban un rol central en la organización social.

ADN y microscopio
El ADNa, una pequeña revolución histórica. Fuente: Pixabay

Más allá del parentesco: migraciones y cambios poblacionales

Otro de los grandes aportes del ADNa es el estudio de las migraciones y la fusión entre poblaciones de origen diverso. En Eurasia, por ejemplo, se ha identificado una gran ola migratoria desde las estepas del Ponto-Caspio hacia Europa durante la Edad del bronce, que introdujo nuevas lenguas (probablemente indoeuropeas) y modificó las estructuras sociales existentes.

En Asia oriental, por su parte, las secuencias genéticas han revelado la integración de múltiples poblaciones: agricultores del río Amarillo, pastores de la región del Amur y poblaciones del sudeste asiático. Todos estos procesos moldearon las poblaciones modernas de China, Japón y Corea.

Grupo de gente
Poblaciones del presente. Fuente: Pixabay

Desafíos éticos y nuevas perspectivas

Pese a su capacidad para desentrañar y solucionar algunas de las grandes cuestiones históricas, el ADNa no está exento de riesgos. Existe el peligro de caer en el determinismo genético, es decir, asumir que los genes explican por sí solos la identidad, el rol social o las decisiones culturales. Además, la recuperación de ADN de restos humanos plantea cuestiones éticas delicadas, sobre todo cuando implica el uso de restos de pueblos indígenas o comunidades con una fuerte conexión espiritual con sus antepasados.

Por todo ello, los autores del estudio subrayan que el ADNa debe interpretarse siempre en conjunto con otras fuentes, como los objetos arqueológicos, las prácticas funerarias o los datos isotópicos sobre la dieta y la movilidad. También insisten en la necesidad de colaborar con las comunidades descendientes, escuchar sus perspectivas y evitar interpretaciones simplistas que reduzcan la complejidad humana a un conjunto de marcadores genéticos.

Familia
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Una revolución interdisciplinaria

El ADN antiguo está cambiando profundamente la forma en que concebimos el pasado. Permite comprender cómo se organizaban las sociedades, cómo se distribuía el poder, de qué manera circulaban las personas y los bienes, y las formas en la que se definía el concepto de “familia”.

Gracias a las técnicas genómicas avanzadas, los investigadores están reconstruyendo árboles genealógicos milenarios, identificando patrones de matrimonio y herencia, y revelando dinámicas sociales hasta ahora invisibles. Y lo hacen, además, desde una perspectiva interdisciplinaria que integra genética, arqueología, antropología, historia y ética.

Referencias

Durante siglos, el oro ha fascinado a la humanidad por su brillo, su escasez y su resistencia a la corrosión. Pero lo que pocos sospechaban es que, bajo ciertas condiciones extremas, este metal precioso es capaz de desafiar uno de los límites más firmemente establecidos en la física de materiales: su punto de fusión. A más de 18.700 grados centígrados, uno esperaría que cualquier sólido colapsara en forma líquida. Y, sin embargo, el oro hizo algo inesperado.

Un equipo internacional de investigadores ha logrado calentar oro a temperaturas más de 14 veces superiores a su punto de fusión sin que este perdiera su estructura sólida. El hallazgo, publicado en Nature, pone en entredicho conceptos clave sobre los estados de la materia y el límite conocido como "la catástrofe entrópica", una frontera teórica más allá de la cual un sólido no puede seguir siéndolo. Como escriben los autores del estudio, "este resultado no solo supera los límites previamente predichos de la catástrofe entrópica, sino que también sugiere un umbral mucho más alto para el sobrecalentamiento de sólidos".

Lo que sucede cuando el calor llega demasiado rápido

El fenómeno observado se llama sobrecalentamiento (superheating). No se trata simplemente de calentar un material por encima de su punto de fusión, sino de hacerlo tan rápidamente que los átomos no tengan tiempo de reorganizarse en estado líquido. Es una especie de suspensión extrema en la que el sólido aguanta el calor, aunque por fracciones de segundo.

En este caso, los científicos utilizaron un láser de pulsos ultracortos para calentar fragmentos de oro de solo 50 nanómetros de grosor. En condiciones normales, el oro se funde a unos 1.064 grados centígrados. Pero en el experimento se alcanzaron los 19.000 kelvin (unos 18.700 grados centígrados) y aun así el oro permaneció sólido durante más de 2 picosegundos, una eternidad a nivel atómico.

Lo realmente novedoso fue la velocidad de calentamiento: más de 6 × 1015 kelvin por segundo, una tasa que supera con creces los valores alcanzados en experimentos anteriores. A esta escala temporal tan breve, las reglas cambian. El calor se acumula, pero los átomos no llegan a reaccionar a tiempo. No hay expansión térmica, ni tiempo para que la estructura colapse.

Rayos X altamente precisos atraviesan una lámina de oro de 50 nanómetros para revelar su estructura atómica, mediante un sistema avanzado de detectores y difracción. Fuente: Nature

La catástrofe entrópica, cuestionada

Desde 1988, la física contaba con un límite teórico conocido como “catástrofe entrópica”. Según esta idea, propuesta por Fecht y Johnson, hay un punto a unas tres veces el punto de fusión en el que el desorden (o entropía) del sólido iguala al del líquido. A partir de ahí, el sólido no puede mantenerse estable y debe fundirse.

Pero los resultados obtenidos ahora demuestran que ese límite puede ser superado si el calentamiento es lo bastante rápido. Como explican los autores del artículo en Nature, "nuestros estados sobrecalentados observados a temperaturas muy por encima del límite de la catástrofe entrópica no deberían existir según el modelo actual" .

Lo más desconcertante para los investigadores es que, según las leyes clásicas de la termodinámica, un sistema que pasa del sólido al líquido con una pérdida de entropía viola directamente el segundo principio. Pero si se evita que el cristal se expanda —como sucede en este experimento de tiempo ultracorto—, la entropía del sólido no alcanza a la del líquido y el colapso termodinámico no se produce.

Patrón de difracción de rayos X registrado en el experimento. Los anillos brillantes indican que el oro aún conserva su estructura cristalina, incluso a temperaturas extremas superiores a 18.000 grados centígrados. Fuente: White et al., 2025 (Nature / Zenodo).

Cómo se midió la temperatura imposible

Una de las claves de este trabajo fue la precisión en la medición de temperaturas tan extremas y tan breves. Para lograrlo, se empleó una técnica llamada dispersión inelástica de rayos X en una configuración de retrodispersión. Esta técnica permite medir directamente la distribución de velocidades de los iones en el material, algo así como observar el “temblor” de los átomos al recibir el calor.

Cada pulso láser generaba una nube de electrones balísticos que calentaban rápidamente los electrones térmicos, que a su vez transferían la energía a los iones del retículo cristalino. Al analizar el ensanchamiento espectral de los rayos X dispersados, el equipo pudo determinar el nivel exacto de temperatura alcanzado en el oro sin depender de modelos indirectos.

Una imagen clara lo deja el experimento: la señal del patrón de difracción de rayos X correspondiente al oro cristalino se mantuvo hasta los 19.000 kelvin, solo desapareciendo después de 2 o 3 picosegundos. Esto prueba que el oro siguió siendo sólido a una temperatura donde, según la teoría, no debería.

Comparación de la dispersión de rayos X en una muestra fría (a) y una calentada por láser (b), con solo unos pocos fotones detectados por pulso. En (c), el espectrómetro revela cómo el calentamiento extremo amplía el perfil energético, alcanzando una temperatura iónica de 19.000 K. Fuente: Nature

¿Y si algunos sólidos no tuvieran punto de fusión?

Los autores del estudio se atreven a proponer una idea provocadora: puede que ciertos sólidos no tengan un punto de fusión bien definido, al menos bajo condiciones de calentamiento ultrarrápido. En ese caso, lo que llamamos "punto de fusión" no sería una propiedad fundamental, sino una consecuencia de la escala de tiempo del calentamiento.

Esto abre nuevas preguntas sobre cómo se comportan los materiales en condiciones extremas, como las que se dan en el interior de los planetas, durante colisiones de asteroides o en los primeros instantes de una explosión nuclear. Entender estos procesos con más precisión podría tener implicaciones profundas en astrofísica, ciencia de materiales y física del plasma.

Los investigadores también subrayan que se necesita comprobar si este fenómeno es exclusivo del oro o si puede replicarse en otros metales o sólidos. Si se observa un comportamiento similar en otros elementos, el marco teórico vigente sobre la estabilidad de los sólidos podría necesitar una revisión radical.

Qué cambia ahora

El experimento no solo desafía un límite teórico establecido durante décadas, sino que propone un nuevo enfoque para estudiar la materia en condiciones extremas. Las reglas clásicas parecen romperse cuando el calor se introduce más rápido de lo que la materia puede responder.

Como concluyen los autores, "nuestros experimentos demuestran claramente que el límite previamente propuesto de sobrecalentamiento puede superarse con creces si el material se calienta lo suficientemente rápido".

Este tipo de estudios también pone de manifiesto la importancia de los avances tecnológicos en láseres ultrarrápidos y fuentes de rayos X de alta resolución. Sin ellos, mediciones de este tipo seguirían fuera del alcance.

El camino que queda por delante es amplio. Será necesario repetir el experimento en condiciones más controladas, con otros materiales y durante tiempos más largos, para determinar si este fenómeno puede aprovecharse en tecnologías futuras o si es solo una curiosidad cuántica de laboratorio. Pero, por ahora, el oro ha vuelto a brillar con una propiedad que nadie esperaba.

Referencias

¿Quién no ha escuchado que las neuronas no se regeneran o que solo usamos el 10 % del cerebro? Los mitos sobre salud nos rodean desde pequeños y, muchas veces, incluso vienen de fuentes aparentemente confiables. A fuerza de repetirse, se convierten en verdades aceptadas que pocas veces cuestionamos. Sin embargo, la ciencia avanza, y con ella, nuestro conocimiento sobre el cuerpo humano, la mente y el funcionamiento del organismo. Algunos de estos mitos se han desmoronado ante la evidencia experimental o los estudios de largo plazo. Aun así, persisten en redes sociales y conversaciones cotidianas.

Mito1: Las neuronas no se pueden recuperar

Durante mucho tiempo se ha pensado que el ser humano nace con un número determinado de neuronas que se va gastando lentamente a lo largo de la vida y nunca se sustituyen. Algunos estudios afirmaban que, en un ciclo de vida normal, moríamos con un 30 % menos de las neuronas que tuvo nuestro cerebro en su etapa de pleno desarrollo.

Pero las cosas están cambiando: en 1998, neurobiólogos de la Universidad de California (EE. UU.) y el Instituto Universitario de Gotemburgo (Suecia) analizaron cinco cadáveres y descubrieron que sus dueños habían desarrollado nuevas neuronas poco antes de fallecer. El grupo de nuevas células era diminuto y se encontraba en el hipocampo, que rige las experiencias presentes y la memoria. 

Descubrimientos posteriores han parecido confirmar la existencia de este proceso, llamado neurogénesis. Pero no existe unanimidad sobre su existencia generalizada y hay cierta controversia sobre sus efectos: algunos lo relacionan con la depresión, otros creen que sirve de protección contra el alzhéimer, y también hay quien opina que, más que generar células nuevas, lo que importa es estimular la formación de nuevas sinapsis (los puntos de contacto entre una neurona y otra para pasarse información).

¿Las neuronas no se regeneran? Mitos sobre salud que la ciencia ya ha desmentido 1
Depresión no es solo tristeza. Fuente: Pixabay.

Mito 2: Las personas con depresión están siempre tristes

Es curioso que una de las enfermedades más comunes –más de 300 millones de personas la padecen, según datos de la Organización Mundial de la Salud– siga siendo tan incomprendida y su conocimiento tan sujeto a los tópicos. Asociar tristeza y depresión es lógico, pues es en efecto uno de sus síntomas, quizá el más llamativo, pero no el único. 

Por ejemplo, la agresividad e incluso la furia están también asociadas con los trastornos depresivos. El odio a uno mismo o la pérdida de autoestima tienen que ver con ello, ya que la sensación de exclusión del entorno, de que los demás no se preocupan por uno, produce una frustración que se descarga en forma de ataques de ira por cualquier motivo trivial.

Otro síntoma común es la ansiedad, que proviene del sentimiento de culpabilidad que le hace pensar al afectado que todo saldrá mal y que será por culpa suya, por lo que vive en un estado de tensión continua. Incluso, en algún tipo de depresión la persona enferma puede dar la apariencia de no estar deprimida. Por ejemplo, es el caso, del trastorno afectivo bipolar, que hace que los afectados oscilen entre un estado de ánimo sereno y episodios depresivos, por un lado, y maníacos, por otro.

En estos últimos, parecen venirse arriba, muestran una gran confianza en sí mismos, hiperactividad y exceso de autoestima. Algo lejano a lo que entendemos por tristeza. Pero la procesión sigue yendo por dentro, y la enfermedad también. Toda esta variedad de factores, junto con las características personales de cada afectado, hacen de este mal en una de las plagas de la sociedad moderna. La tristeza, que como viene se va, es otra cosa bien distinta.

Mito 3: Se aprende mejor cuando se es joven

Esta frase, llevada al extremo, puede hacer pensar que a partir de cierta edad nuestro cerebro es incapaz de adquirir nuevos conocimientos, cuando lo cierto es que no solo es capaz, sino que necesita hacerlo. Pensemos en el entorno laboral: desde hace años, numerosos trabajadores de distintos ámbitos necesitan someterse a cursos para actualizar sus conocimientos y adaptarse a los cambios en el desempeño de su profesión. Lo que estudiamos en nuestra juventud ha dejado de ser suficiente. 

Pero esta necesidad de seguir aprendiendo es también personal. Frente al mito de que nuestra mente pierde capacidad de aprender cuando pasa la juventud, hay estudios que demuestran que el cerebro continúa desarrollándose durante la mediana edad y que es beneficioso adentrarse en nuevos campos de conocimiento en esas etapas de la vida.

El aprendizaje de idiomas es uno de los ejemplos más claros: la supuesta mayor facilidad de desarrollar el bilingüismo durante la infancia tiene más que ver con factores sociales que con la propia capacidad mental, que en el caso de los adultos está más desarrollada a la hora de identificar pautas de estudio, detección de errores y búsqueda de soluciones. 

Es verdad que las condiciones óptimas son aprender dos idiomas al mismo tiempo, pero eso no quiere decir que, a partir de cierta edad, las puertas de otra lengua –o de cualquier conocimiento nuevo– hayan quedado cerradas para siempre. Un cerebro sano y bien entrenado siempre será receptivo a aprender cosas nuevas; y, al mismo tiempo, una de las maneras de mantenerlo sano y bien entrenado es a través del aprendizaje.

Mito 4: Tenemos solo cinco sentidos

Dejando aparte la famosa frase hecha sobre el sentido común –que es cierto que no abunda–, la cifra de cinco, a la hora de determinar los sentidos humanos, se nos queda un poco corta. Un sentido es el mecanismo que utiliza el organismo para distinguir y traducir cualquier impulso del mundo exterior, y los más conocidos son, obviamente, el olfato, el tacto, la vista, el oído y el gusto, definidos por el filósofo griego Aristóteles hace más de 2000 años. Pero el conocimiento sobre los sentidos ha cambiado un poco desde entonces. 

Lo cierto es que, según la clasificación que utilicemos ¡podríamos tener hasta 33 sentidos! No es que hayamos mutado desde los tiempos aristotélicos, sino que ahora se incluyen en ellos derivaciones de los sentidos tradicionales, llamadas también percepciones.

El tacto, por ejemplo, tendría dos: la nocicepción, relacionada con la percepción del dolor, y la termocepción, que permite diferenciar el frío y el calor (la molesta comezón también entra en esa lista). El oído, por su parte, es responsable también del sentido del equilibrio. Pero también existe la propiocepción, un recurso que permite al cerebro localizar y reconocer las diferentes partes del cuerpo.

E incluso hay algunas personas que podrían presentar sentidos específicos, como la sinestesia, que es la capacidad de generar asociaciones aleatorias y particulares entre imágenes, sonidos y sabores, como poder palpar los colores o sentir un olor determinado al ver el número cinco. Este sentido estaría presente en aproximadamente uno de cada 2000 individuos, y en el 75 % de los casos, se suele tratar de mujeres.

¿Las neuronas no se regeneran? Mitos sobre salud que la ciencia ya ha desmentido 2
Light no significa saludable. Muchos productos reducen un ingrediente pero aumentan otros igual de calóricos. Fuente: iStock (composición ER).

Mito5: Los productos light adelgazan

La normativa lo dice claramente: solo pueden venderse como productos light aquellos que tengan un 30 % menos de algunos ingredientes en comparación con un producto similar; en el caso de los productos alimentarios, esto se aplica a componentes como las grasas saturadas y los azúcares, que han vuelto a estas opciones tan populares desde su lanzamiento a principios de los años ochenta, sobre todo entre los consumidores que aspiran a hacer realidad el mito de “adelgazar sin esfuerzo”. 

El hecho de que en los últimos cuarenta años la cantidad y la variedad de alimentos light en los supermercados haya crecido a un ritmo similar al de los índices de obesidad en los países desarrollados debería indicarnos que algo está fallando aquí. Y lo que falla es el propio concepto: lo que sigue contando al final en un alimento, sea light o no, es la cantidad de calorías que contiene. Y muchos de ellos continúan teniendo un aporte calórico mayor que el de otras opciones que no se presentan como tales, ya que los alimentos son calóricos de por sí, o sustituyen las grasas por un alto contenido en azúcar. 

El truco está en leer las etiquetas y tener siempre en cuenta que no hay ningún alimento que haga adelgazar. La receta para perder peso, o mantenerse en él, sigue siendo una dieta variada en la que predominen las verduras y las frutas, evitar los alimentos procesados y hacer ejercicio con regularidad. Es una idea mucho más antigua que los productos light… y sin duda más efectiva.

Mito 6: Siempre es bueno tomar suplementos vitamínicos

El descubrimiento y la identificación de las diferentes vitaminas puede considerarse con toda justicia uno de los hallazgos clave en la historia de la humanidad. Gracias a él se han podido localizar y tratar muchos males debidos a la carencia en el organismo de una vitamina específica. Es el caso del raquitismo, que se produce por falta de vitamina D, o el temido escorbuto, plaga de tiempos antiguos, que surge ante la insuficiencia de vitamina C. 

Un efecto colateral de este hallazgo ha sido la proliferación de todo tipo de suplementos vitamínicos, que este año ha alcanzado unas cifras de negocio cercanas a los 3000 millones de euros en todo el mundo. Como en muchos países no se consideran medicamentos, pueden adquirirse libremente, y se han vendido durante muchos años como la panacea para gozar de una salud perfecta. ¿Pero esto es así en realidad? 

Si un análisis médico demuestra que nuestro organismo tiene niveles bajos de alguna vitamina, entonces un suplemento puede ser una buena solución. Pero tomarlas sin control es, en el mejor de los casos, inútil y, en el peor, perjudicial. Algunos estudios asocian el exceso de determinadas vitaminas a afecciones como las piedras en el riñón –relacionadas con el exceso de calcio y vitamina D–, infartos cerebrales –por exceso de vitamina E–o daños temporales en el sistema nervioso, por la B6 .

Y hay otros estudios menos alarmantes que indican que, si los niveles de vitaminas en nuestro cuerpo son correctos, este se limita a eliminar el sobrante con la orina. El mejor aporte vitamínico se obtiene siempre –salvo excepciones valoradas por médicos, obviamente– gracias a una dieta equilibrada.

Mito 7: El apéndice es un órgano sin ninguna función útil

Esta pequeña bolsa, que surge del ciego del intestino grueso, fue durante mucho tiempo –junto con las amígdalas– el rey de las extirpaciones quirúrgicas. Se consideraba que, aparte de para inflamarse, produciendo la dolorosa apendicitis, era un órgano sin ninguna utilidad definida dentro del cuerpo humano. Pero en los últimos años han aumentado las investigaciones que prueban que tiene una función útil y muy beneficiosa.

El apéndice serviría como un refugio para las bacterias que nos ayudan en el proceso de la digestión; allí reposan hasta que llega el momento en que se las necesita. Por ejemplo, cuando un ataque de diarrea vacía del todo los intestinos, dichos microorganismos no se ven afectados, por lo que salen después de su escondite para repoblar el sistema digestivo.

También se ha encontrado que contiene tejidos del sistema inmunitario, que contribuye al proceso de eliminación de residuos del sistema digestivo, contiene vasos linfáticos que participan en la lucha contra determinadas enfermedades y se especula con que además podría producir defensas para luchar contra enfermedades graves o incluso mortales. 

Sin embargo, millones de personas a las que, con motivo o sin él, se les ha extirpado el apéndice, tienen una salud perfectamente normal. Esto, junto con el hecho de que hay muy pocos mamíferos con apéndice, ha llevado a otros especialistas a determinar que sus funciones beneficiosas han sido superadas por los avances de la medicina moderna y, por tanto, no es una pieza vital. Según esta versión, el apéndice no sería sino un vestigio de la protección natural de tiempos pasados.

¿Las neuronas no se regeneran? Mitos sobre salud que la ciencia ya ha desmentido 3
El apéndice sí sirve. Actúa como reservorio de bacterias digestivas. Fuente: iStock (composición).

Mito 8: Dormir con plantas en la habitación es nocivo

Este mito está basado en el hecho científico de la fotosíntesis, el proceso natural por el cual las plantas verdes, durante el día, consumen dióxido de carbono y emiten oxígeno, con lo cual ejercen efectos beneficiosos para la atmósfera. Pero, por otra parte, durante la noche este proceso se revierte y esas mismas plantas consumen oxígeno y emiten CO2.

Por lo tanto, tenerlas en nuestro dormitorio significa contar con una compañía indeseada que, en un entorno cerrado, nos roba poco a poco el aire que respiramos. La verdad es que no hay para tanto. Todo eso es cierto, pero es el mismo proceso que los seres humanos ponemos en marcha cuando respiramos. Y nuestra capacidad de absorción de oxígeno es infinitamente mayor que la de cualquier planta. Incluso aunque convirtiéramos el dormitorio en una jungla en miniatura, el nivel de acaparamiento de oxígeno estaría muy lejos de resultar mínimamente perjudicial para la salud humana.

Así que, antes que empezar a quitar las plantas de la habitación, deberíamos pensar en la conveniencia o no de dormir acompañados, ya que nuestro compañero de cama estaría robándonos el oxígeno con mucha mayor eficacia… Y nosotros a él.

Mito 9: No puedes quedarte embarazada si tienes el periodo

Quizá más exacto sería decir “no deberías quedarte embarazada si tienes el periodo”, porque, aunque no sea frecuente, no es imposible. Es cierto que el organismo femenino interrumpe la ovulación durante el ciclo menstrual y, por tanto, no puede concebir, pero el esperma puede sobrevivir hasta cinco días dentro del sistema reproductivo femenino. Si en ese plazo se han tenido relaciones sexuales sin protección, pensando en la ovulación como un anticonceptivo más, podemos llevarnos una sorpresa. 

El ciclo menstrual es el tiempo que transcurre entre el primer día de un periodo y el primero del siguiente. La duración media es de 28 días, pero esta no es una cifra exacta, y el plazo puede oscilar entre 21 y 38 días y seguir dentro de los patrones que se consideran normales. La ovulación puede comenzar entre 7 y 19 días después de la finalización del sangrado, pero de nuevo hay múltiples variaciones: en las mujeres que tienen un ciclo menstrual más corto, por ejemplo de 21 a 24 días, la ovulación puede comenzar antes.

Y, si han tenido relaciones sexuales en los últimos días del periodo, el óvulo puede encontrar todavía esperma activo que lo fecunde. Para aclararse entre todos estos factores, lo mejor es que cada mujer tenga toda la información posible sobre su ciclo menstrual… tanto si quiere quedarse embarazada como si no. 

Mito 10: El calor corporal se pierde por la cabeza 

En los días de frío no está de más un gorro, pero no hay que sacar las cosas de quicio. El calor corporal se pierde por igual en cualquier parte del cuerpo que esté al descubierto, da igual que sea la cabeza, las manos o las piernas.

El mito de que la pérdida es mayor por la primera se debe a que suele ser la parte del cuerpo que tenemos más expuesta. También a que, junto con la cara y el pecho, son las zonas corporales más sensibles a los cambios de temperatura, por lo cual, cuando las abrigamos, sentimos que estamos conservando el calor de manera más eficaz. De todos modos, sí hay algo de cierto en esta afirmación: la cabeza recibe mayor cantidad de sangre que otras zonas del cuerpo, lo que puede provocar que el porcentaje de calor que se va por ella sea también algo mayor… Pero, en realidad, es muy poco. 

Esta mentira parece tener su origen en un estudio, no demasiado riguroso, que realizó el ejército estadounidense entre sus tropas en los años cincuenta y que concluyó que la cabeza es el punto de salida del 80 % del calor corporal. La falta de rigor se hace evidente cuando se detalla que los objetos del estudio eran soldados destinados en Alaska, que pasaban el día muy abrigados de cuello para abajo; no es extraño que perdieran calor en la única zona aireada. Así que sí, cuando el termómetro comience la caída libre, conviene abrigarse la azotea… Pero hay que hacer lo mismo con el resto del cuerpo o siempre estaremos dejando la misma puerta abierta.

¿Las neuronas no se regeneran? Mitos sobre salud que la ciencia ya ha desmentido 4
El calor no se va solo por la cabeza. Se pierde por cualquier parte expuesta. Fuente: Pixabay.

Mito 11: El pelo y las uñas siguen creciendo después de la muerte

Es una imagen muy aparente en las películas de terror y está ligada a leyendas como el vampirismo, con supuestos testimonios acerca de cadáveres que fueron exhumados, para descubrir que el cabello y las uñas habían continuado creciendo después de la muerte, lo que justificaba clavar una buena estaca en el corazón, por si acaso.

Pero, aunque hay algunos tipos de células que continúan funcionando durante un cierto tiempo después de la muerte –de lo contrario, no serían posibles los trasplantes de órganos, por ejemplo–, las que se relacionan con el crecimiento del cabello y de las uñas no se encuentran entre ellas; y, aunque lo estuvieran, no durarían lo suficiente como para generar un desarrollo apreciable. Las células de la piel son las que más resisten y su actividad post mortem apenas llega a las doce horas. 

Entonces, ¿de dónde viene el Bulo? Es cierto que este fenómeno se ha podido apreciar en algunos cadáveres exhumados, pero no es más que un efecto óptico. No es que el pelo y las uñas crezcan, es que el cuerpo que se encuentra alrededor de ellas se encoge a medida que se va produciendo el proceso de deshidratación cadavérica. La piel se seca y se hace más tirante alrededor del cráneo, así como en la punta de los dedos, por lo que se retira, por así decirlo, y da la impresión de que tanto cabellos como uñas han crecido

Mito 12: Hay enfermedades, como el alzhéimer y el párkinson, que están causadas por genes específicos 

Esta afirmación es una simplificación de un proceso que, en realidad, resulta ser muy complejo. Es cierto que hay enfermedades con un fuerte componente genético que tienen altas probabilidades de ser hereditarias. Pero no es culpa, al menos no directa, de los genes.

Lo que estos hacen es codificar proteínas, que son los componentes básicos de los seres vivos, y las que ejercen de verdad esos efectos. Durante nuestro desarrollo, a medida que se van diferenciando los órganos, dentro de cada célula únicamente se activan las proteínas necesarias para la función de ese órgano, y ese mecanismo de activación está regulado, precisamente, por algunos genes, cuya función es producir proteínas que, a su vez, activan o desactivan otros genes. 

¿Parece complicado? Pues aún se complica más: lo que se llaman enfermedades genéticas se deben a un fallo en un determinado gen, que altera una de las proteínas que produce –o deja de producirla–, pero la solución no es, como se ha llegado a publicar, desactivar el gen responsable y listo. Sabemos que nuestro genoma cuenta con alrededor de 30000 genes, de los cuales unos 18000 tendrían la capacidad de codificar proteínas. Pero el número de proteínas se calcula en varios cientos de miles.

La explicación es simple: cada gen está implicado en la producción de varias proteínas, así que ese gen supuestamente responsable de la enfermedad sería al mismo tiempo imprescindible para el funcionamiento de otros procesos físicos necesarios para mantener una buena salud. Es decir: las enfermedades genéticas no tienen un único culpable.

Mente
El trastorno de identidad disociativo es real, pero no tiene nada que ver con lo que muestran las películas. Fuente: Pixabay.

Mito 13: Existen enfermos mentales con múltiples personalidades

Esto, más que una mentira, es un gigantesco y desafortunado malentendido propagado a través de novelas, películas y series televisivas que nos presentan a personajes que esconden en su interior a otros muchos, cada uno con su identidad e incluso con su nombre propio. Lo cierto es que las personas afectadas por el trastorno de identidad disociativo no tienen nada que ver con esta imagen. Porque, sí, la enfermedad existe, pero hasta hace no demasiado tiempo era conocida como trastorno de personalidad múltiple, lo que da una idea del nivel de desconocimiento que ha habido sobre ella. 

Se trata de un trastorno que afecta entre el 1 % y el 1,5 % de la población mundial y se da especialmente entre quienes han sufrido traumas graves. Su definición es la de una disrupción de la identidad, detectable por la presencia de dos o más cambios distintivos de personalidad, con discontinuidad en el sentido del ser y la voluntad, y con variaciones en afectos, comportamiento, consciencia, memoria, percepción, capacidad cognitiva o funcionamiento motor y sensorial.

Quienes lo padecen no son seres violentos, sino personas cuyo cerebro ha alterado el nivel de consciencia como un mecanismo de protección. Es una enfermedad difícil de diagnosticar, ya que los casos de disociación deben aparecer durante la terapia y suelen ser mucho más sutiles y difíciles de detectar de lo que se piensa.

Más que convertirse en otras personas, los afectados sufren desconexión de sus pensamientos, sentimientos o sentido de la identidad. Los cambios de personalidad existen, pero son excepcionales, y los especialistas los interpretan como una incapacidad de integrar las diversas partes que componen la identidad de cada ser humano.

Puede que el corte haya cerrado y el tejido esté intacto, pero el cuerpo no lo olvida. Investigadores de la Universidad de Toronto-Mississauga han demostrado que una lesión física puede transformar de forma duradera la manera en que el sistema nervioso reacciona ante el estrés. Usando un modelo en ratones, observaron que una antigua herida puede “preparar” al cerebro y al cuerpo para una respuesta exagerada de miedo y dolor frente a una amenaza futura, incluso si no existe un nuevo daño.

Las lesiones pasadas pueden hacer que el sistema nervioso entre en un estado de hipersensibilidad permanente. En el experimento, los ratones fueron expuestos al olor de un depredador meses después de haber sufrido una lesión menor. A pesar de que el daño físico ya estaba curado, los animales respondieron con un temor intenso y una reactivación del dolor, no solo en la zona herida, sino también en el lado opuesto del cuerpo.

Este fenómeno persistente se mantuvo durante más de seis meses, una duración notable para la escala de vida de un ratón. El hallazgo sugiere que las experiencias dolorosas pueden dejar una “firma fisiológica” duradera, una especie de memoria corporal que sigue influenciando cómo respondemos al entorno, incluso cuando el peligro ya no está presente.

Científicos descubren por qué algunas lesiones físicas dejan un dolor persistente incluso tras sanar
Científicos revelan la conexión entre lesiones curadas, ansiedad y dolor crónico en el cerebro. Representación artística: Sora / ERR.

Hormonas del estrés y receptores de alerta: una combinación explosiva

La clave de este mecanismo parece residir en un bucle de retroalimentación entre dos elementos conocidos por su papel en el dolor y el estrés: la hormona corticosterona y el receptor TRPA1. Este último es apodado el “receptor del wasabi” por su capacidad de inducir una sensación de ardor agudo, y es muy activo ante estímulos dolorosos.

En los ratones lesionados, este sistema quedó hiperactivado, intensificando la respuesta al olor del depredador.

El estudio demuestra que el TRPA1 y la corticosterona forman una vía de amplificación del miedo y el dolor. Cuando se bloqueó farmacológicamente cualquiera de los dos componentes durante la exposición al estímulo estresante, la reacción exagerada desapareció. Esto sugiere que el cuerpo mantiene un circuito activo de vigilancia que puede ser desactivado, al menos en modelos animales.

Curiosamente, los investigadores descubrieron que, aunque tanto el miedo como el dolor se intensificaban tras el trauma inicial, no compartían exactamente los mismos mecanismos. La corticosterona fue necesaria para ambos efectos, pero el TRPA1 solo influía en la respuesta de miedo. Esto abre la puerta a tratamientos más específicos que puedan separar la ansiedad del dolor crónico.

Dolor fantasma sin fantasmas: un nuevo tipo de memoria corporal

Los efectos observados no fueron un simple eco del dolor anterior. No hubo nueva lesión ni inflamación activa. El dolor reactivado en los ratones se parecía más a un reflejo emocional, como si el cuerpo recordara el daño y respondiera con anticipación al peligro. Esta sensibilidad aumentada ocurrió incluso en las extremidades que nunca habían sido dañadas, lo que refuerza la idea de una reconfiguración del sistema nervioso central.

Este tipo de “primado del dolor” puede explicar por qué algunas personas desarrollan dolor crónico después de una lesión aparentemente menor.

No se trata de un síntoma imaginario, sino de un cambio real en la forma en que el cuerpo procesa las señales nerviosas. En lugar de resetearse al desaparecer el estímulo, el sistema permanece hiperexcitado, como si hubiera olvidado cómo relajarse.

Esta memoria fisiológica también podría estar en la raíz de ciertos trastornos de ansiedad y estrés postraumático, donde el cuerpo reacciona con miedo o dolor ante señales que no representarían una amenaza para otros. El estudio sugiere que la raíz del problema no está en la mente que imagina, sino en el cuerpo que recuerda.

Gráfico estudio
Tras una lesión leve, los ratones del estudio mostraron una intensa reacción de miedo y dolor al oler a un depredador, meses después de sanar. Fuente: Current Biology.

Una pista para nuevos tratamientos personalizados

Al separar los caminos biológicos que conducen al miedo y al dolor, los investigadores han logrado identificar puntos clave donde sería posible intervenir. Bloquear el receptor TRPA1 redujo el miedo, mientras que inhibir la corticosterona detuvo tanto el miedo como el dolor crónico. 

Esto sugiere que es posible desarrollar tratamientos que interrumpan la huella del trauma sin afectar otras funciones del sistema nervioso.

Estas observaciones podrían inspirar nuevas terapias para personas que viven con dolor crónico o ansiedad generalizada tras haber pasado por una experiencia traumática. En lugar de tratar solo los síntomas, estas intervenciones podrían dirigirse a los mecanismos fisiológicos que mantienen al sistema atrapado en modo “alerta”.

Además, este enfoque ayudaría a distinguir entre el dolor físico activo y el dolor persistente inducido por la memoria corporal. Una mejor comprensión de estos circuitos también podría explicar por qué algunos tratamientos convencionales para el dolor tienen un efecto limitado en ciertos pacientes.

Científicos descubren por qué algunas lesiones físicas dejan un dolor persistente incluso tras sanar
Científicos revelan la conexión entre lesiones curadas, ansiedad y dolor crónico en el cerebro. Fuente: iStock (composición ERR).

El cuerpo como archivo emocional

El experimento llevado a cabo por el equipo de la Universidad de Toronto no solo demuestra la existencia de una memoria somática, sino que plantea una pregunta inquietante: ¿qué otras huellas dejan nuestras experiencias sobre el cuerpo, incluso cuando creemos haberlas superado? 

Si las cicatrices invisibles de una lesión física pueden reactivarse ante una señal emocional, los vínculos entre cuerpo y mente son más profundos de lo que pensamos.

Este conocimiento transforma la forma en que entendemos el dolor y la ansiedad. No se trata solo de sensaciones subjetivas o de problemas psicológicos. Se trata de un sistema biológico que, por razones evolutivas, aprendió a protegernos, aunque a veces esa protección se convierta en una trampa.

El estudio también nos invita a repensar la importancia de la prevención y el seguimiento en casos de trauma físico o emocional. Comprender cómo reacciona el cuerpo tras una lesión podría ser la clave para evitar que el dolor y el miedo se conviertan en compañeros permanentes.

Referencias

Resolver un sudoku en el trayecto del metro o en una pausa para el café puede parecer un pasatiempo trivial, pero para la inteligencia artificial es mucho más que un simple juego. Un grupo de investigadores ha recurrido a este rompecabezas numérico no solo para medir la habilidad lógica de los modelos de lenguaje más avanzados, sino para poner a prueba algo mucho más importante: su capacidad para explicar lo que hacen y por qué lo hacen.

En un estudio reciente, un equipo de científicos de la Universidad de Colorado Boulder utilizó más de 2.000 sudokus para evaluar a distintos sistemas de inteligencia artificial. Lo que encontraron fue sorprendente: algunos modelos eran capaces de completar correctamente el puzzle, pero casi ninguno podía explicar con claridad los pasos que había seguido para llegar a la solución. Esta diferencia entre hacer y explicar plantea una cuestión crítica en el desarrollo de herramientas confiables basadas en IA, sobre todo cuando estas se destinan a tareas sensibles como diagnósticos médicos, asesoría financiera o toma de decisiones legales.

Sudokus para estudiar la lógica de las máquinas

Los sudokus elegidos para este experimento no eran los clásicos de nueve por nueve casillas, sino una versión más sencilla de seis por seis. Esta variante permite mantener cierta complejidad lógica sin exigir habilidades matemáticas avanzadas. Según el paper original, “Sudoku proporciona un entorno controlado para estudiar las capacidades de los modelos de lenguaje en la resolución de problemas por pasos”, una afirmación que resalta la utilidad de estos juegos como banco de pruebas.

Los investigadores diseñaron un conjunto de 2.293 sudokus de dificultad variable, asegurando que cada uno tuviera una solución única y bien definida. La generación de estos rompecabezas se realizó con un sistema lógico formal conocido como Z3, que garantizaba que cada puzzle fuera resoluble y que no admitiera múltiples respuestas válidas.

Este diseño cuidadoso permite aislar los errores de la IA sin ambigüedades. Si el modelo se equivoca, se sabe con certeza que no hay más de una solución ni margen para interpretaciones. Así, se obtiene una medición clara de qué tan bien el sistema comprende las reglas del juego.

Fuente: ChatGPT / E. F.

Lo hacen… pero no saben explicar cómo

De todos los modelos evaluados, solo el modelo "o1-preview" de OpenAI —una versión avanzada lanzada en 2023— fue capaz de resolver correctamente alrededor del 65 % de los sudokus. En contraste, los modelos de código abierto como Llama o Mistral apenas alcanzaron cifras simbólicas, muy por debajo del 1 % de éxito completo. Pero incluso el modelo más preciso falló rotundamente al intentar justificar sus respuestas.

Cuando se le pidió que explicara sus soluciones, el rendimiento de la IA se desplomó. Solo un 5 % de las explicaciones proporcionadas por o1-preview fueron valoradas como justificadas por evaluadores humanos. En términos de claridad, apenas un 7,5 % recibió una valoración positiva, y la capacidad educativa de las respuestas fue aún peor: solo un 2,5 % fue considerada útil para aprender estrategias de resolución.

Los autores del estudio lo resumen con una frase clara: “si bien estas herramientas muestran potencial […] todavía enfrentan desafíos importantes a la hora de exponer los pasos de razonamiento de manera fiel y comprensible”. Esta brecha entre resultado y razonamiento revela una de las principales limitaciones actuales de los modelos de lenguaje: pueden imitar soluciones correctas, pero no saben contar cómo llegaron a ellas.

Fuente: ChatGPT / E. F.

La diferencia entre acertar y razonar

Uno de los aspectos más interesantes de este estudio es que no se centró exclusivamente en si las IAs aciertan, sino en su capacidad para desarrollar una narrativa coherente de su proceso. El objetivo no era solo ver si podían poner el número correcto en una casilla, sino entender por qué eligieron ese número, con base en qué deducciones y reglas.

Esta exigencia pone de manifiesto la diferencia entre un resultado correcto por azar o imitación, y un proceso de pensamiento lógico. En palabras del artículo científico: “los buenos razonadores deberían poder exponer claramente sus procesos deductivos”. Y eso es precisamente lo que falta.

Una IA que propone una solución válida pero no puede explicarla no es confiable en contextos críticos. En ámbitos como la salud, el derecho o la contabilidad, no basta con que una máquina dé una respuesta correcta. Es necesario que pueda justificarse ante humanos, idealmente de forma clara, consistente y comprensible.

Un experimento riguroso y revelador

El equipo evaluador no se quedó en observaciones subjetivas. Recurrieron a un panel de expertos humanos que analizaron las respuestas de la IA en tres dimensiones: justificación, claridad y valor educativo. Para esto, se aplicó un sistema tipo Likert (Sí, Tal vez, No) en 20 sudokus seleccionados de distintos niveles de dificultad.

El análisis de concordancia entre evaluadores fue razonablemente bueno, con un valor de Kappa de 0,6 en justificación y valor educativo, y 0,4 en claridad. Esto confirma que las deficiencias observadas no eran anecdóticas, sino sistemáticas. La IA más avanzada lograba resolver rompecabezas complejos, pero sus explicaciones no pasaban el filtro humano, y en muchos casos eran confusas, incorrectas o directamente absurdas.

De hecho, según se detalla en los artículos de prensa que comentan el estudio, hubo respuestas en las que la IA mezclaba conceptos, afirmaba reglas que no existían o incluso respondía con partes de una predicción meteorológicacuando no sabía qué decir. Estos desvíos demuestran que, en ausencia de una lógica clara, los modelos pueden rellenar vacíos con cualquier tipo de contenido coherente en apariencia, pero sin relación con la tarea original.

Tampoco sabe generarlos...

Lo cierto es que si le pides un sudoku con soluciones incluidas, te da algo que... bueno, puedes verlo tú mismo...

Supuesto sudoku generado por IA. Fuente: ChatGPT / E. F.

De los sudokus a decisiones que importan

Aunque pueda parecer anecdótico, el estudio no trata solo de juegos. Según los autores, la resolución de sudokus funciona como una representación a pequeña escala de problemas complejos en la vida real. Requiere reglas claras, razonamiento paso a paso y toma de decisiones informadas. Lo mismo que se espera de una IA que, por ejemplo, gestione impuestos, analice historiales médicos o emita recomendaciones legales.

El hecho de que los modelos aún fallen en explicar con claridad cómo llegan a sus respuestas plantea dudas sobre su papel en tareas más sensibles. De ahí el interés creciente en sistemas llamados “neurosimbólicos”, que combinan el lenguaje natural de los LLM con estructuras lógicas formales.

Estos enfoques híbridos podrían, según el estudio, aprovechar lo mejor de ambos mundos: la capacidad de generar respuestas comprensibles y el rigor formal de los sistemas lógicos tradicionales. Como explican los autores, “esperamos que los modelos puedan interpretar esas explicaciones de forma accesible para el usuario no especializado y con niveles de detalle adecuados”.

¿Y ahora qué?

La investigación deja claro que los modelos actuales tienen aún mucho camino por recorrer en materia de razonamiento estructurado. Aunque el desempeño de los sistemas propietarios como o1-preview es superior al de los modelos abiertos, ninguno alcanza el nivel de fiabilidad explicativa que se requeriría en aplicaciones de alto impacto.

Para avanzar en esta línea, los autores proponen integrar los modelos de lenguaje con herramientas formales como los SMT solvers o asistentes de prueba matemática. Estas herramientas ya permiten razonamientos extremadamente precisos, aunque poco amigables para el lector común. Si los modelos actuales logran hacer de puente entre esa lógica compleja y el lenguaje natural, podrían convertirse en verdaderas herramientas colaborativas para la toma de decisiones humanas.

Mientras tanto, lo aprendido con los sudokus ofrece una valiosa advertencia: una respuesta correcta no es suficiente si no viene acompañada de una buena explicación. Y en ese punto, la inteligencia artificial aún tiene mucho por mejorar.

Referencias

La cultura de El Argar se desarrolló en el sudeste de la península ibérica entre el 2250 y el 1550 a. C., aproximadamente. Reconocida por su sofisticación social y tecnológica, uno de los pilares de su desarrollo fue la metalurgia, sobre todo en lo relativo a la producción de objetos de cobre arsenical, plata y oro, muchos de los cuales se hallaron en contextos funerarios. Hasta fechas recientes, los estudios al respecto se habían centrado en el análisis de los productos finales, mientras que el conocimiento sobre las técnicas de producción se había dejado en un segundo plano. Una investigación pionera realizada con materiales del yacimiento de Laderas del Castillo (Callosa de Segura, Alicante) ha logrado reconstruir, por primera vez y de forma casi completa, el proceso metalúrgico de las comunidades argáricas.

El yacimiento de Laderas del Castillo: un enclave esencial en la cultura argárica

El asentamiento de Laderas del Castillo se sitúa en uno de los promontorios de la sierra de Callosa, al sur de Alicante. Las excavaciones más recientes, iniciadas en 2012 y desarrolladas a lo largo de varias campañas, han revelado una ocupación intensa desde finales de la Edad del cobre hasta el colapso del sistema argárico. El patrón arquitectónico —caracterizado por viviendas rectangulares en terrazas escalonadas, con tumbas situadas en el interior— responde al modelo típico argárico.

Las tres fases identificadas en el sitio —que abarcan desde el 2300 hasta el 1550 a. C.— evidencian una evolución arquitectónica constante. Los restos metalúrgicos se concentran en las fases I y II (2150–1800 a. C.), mientras que, en la fase III, no se han hallado evidencias de producción metalúrgica, en parte debido a los procesos erosivos de los niveles más recientes.

Laderas del Castillo
Laderas del Castillo. Fuente: Escanilla et al. 2025

Restos metalúrgicos: herramientas, armas y hornos domésticos

Durante las campañas recientes en el yacimiento, se han documentado más de 25 elementos directamente relacionados con la producción metalúrgica. Así, se han identificado desde restos de escoria y crisoles hasta fragmentos de cobre en proceso de refundición. A ello se suman objetos metálicos como alabardas, cuchillos, puntas de flecha, punzones y moldes de arenisca.

Lo novedoso de este yacimiento radica en que permite seguir el proceso completo de la cadena operativa metalúrgica, desde la fusión hasta la fabricación de objetos. Tal riqueza y variedad de materiales resulta excepcional en el registro arqueológico de la Edad del bronce peninsular.

Tecnología metalúrgica entre la tradición calcolítica y la innovación argárica

El análisis microestructural de escorias y crisoles, realizado con microscopía electrónica (SEM-EDS), ha revelado una sorprendente continuidad tecnológica con respecto a la Edad del cobre. Así, el equipo investigador ha podido verificar que la fundición se realizaba en recipientes de cerámica común —es decir, no especializados— fabricados con arcillas locales ricas en cal y cuarzo. Aunque esto reducía su estabilidad térmica, bastaba para alcanzar las temperaturas necesarias para fundir el cobre.

Los crisoles presentaban capas de escoria de hasta 5 mm de espesor, adheridas al interior, con evidencias claras de reacción entre la pasta cerámica y los restos fundidos. En ellos, se identificaron elementos minerales como la magnetita, la delafosita, el cobre oxidado (CuO) y los sulfuros secundarios, lo que refleja condiciones atmosféricas variables durante la fundición.

Fase I y II de Laderas del Castillo
Materiales metálicos de las fases I y II. Fuente: Escanilla et al. 2025

Las materias primas: cobre arsenical, complejos polimetálicos y aleaciones

La mayoría de los objetos analizados están fabricados con cobre arsenical, con un contenido medio de 2,7 % de arsénico, aunque algunos superan el 5 %. El único objeto claramente fabricado con bronce estañífero es un hacha con 5,7 % de estaño, fechada en la fase III. Esta pieza podría señalar un cambio en las fuentes de aprovisionamiento o en las técnicas de aleación en las fases finales de El Argar.

El uso del cobre arsenical deriva de la fundición directa de minerales complejos, sin adición de arsénico externo ni procesos de aleación controlada. Esta evidencia, por tanto, coincide con los patrones documentados en otras zonas del sureste peninsular. En algunos casos, se ha detectado azufre y mercurio en el metal, lo que sugiere la explotación de minerales con sulfuros secundarios, como la fayalita o la covelina, algo poco común, pero atestiguado en la península.

Procedencia del mineral: una prueba de movilidad y redes de intercambio

Mediante los análisis de isótopos de plomo, los investigadores han podido determinar la procedencia de los minerales empleados en Laderas del Castillo. Resulta sorprendente que los recursos más cercanos al asentamiento se ignoraron de forma sistemática en favor de las minas situadas a gran distancia. Así, los minerales usados procedían de minas como las de Linares (a 300 km), la Almagrera (a 140 km) o el interior de las cordilleras Béticas (a 200 km).

Esta elección no parece responder solo a la calidad del mineral, sino a la existencia de redes de control económico más amplias dentro del sistema argárico. Laderas del Castillo participaba de forma activa en las complejas redes de intercambio del sudeste peninsular, lo que implicaba el transporte de mineral (o incluso de objetos ya manufacturados) a través de las rutas terrestres y, posiblemente, también fluviales. La distribución isotópica de los objetos sugiere la existencia de, al menos, tres fuentes mineras distintas empleadas de manera simultánea.

Materiales argáricos
Materiales metálicos de la fase III. Fuente: Escanilla et al. 2025

Un modelo productivo descentralizado, pero técnicamente homogéneo

A diferencia de otros yacimientos como Peñalosa, donde se documenta una producción metalúrgica centralizada en torno a la mina, Laderas del Castillo evidencia un modelo descentralizado. La metalurgia se practicaba en contextos domésticos, lo que sugiere que parte de la producción se integraba dentro de las actividades cotidianas de las unidades familiares.

No obstante, las similitudes tecnológicas en los procedimientos, el tipo de crisoles y la composición de las aleaciones, indican una tradición metalúrgica compartida entre los distintos núcleos de población. Esta homogeneidad técnica refuerza la hipótesis de una identidad cultural común entre las comunidades argáricas.

Fuego
Fuego. Fuente: Pixabay

Un antes y un después en la arqueología del Bronce peninsular

El estudio arqueometalúrgico del yacimiento de Laderas del Castillo constituye una aportación fundamental para la comprensión de la tecnología de El Argar. Por primera vez, se ha podido reconstruir casi de manera íntegra, desde la fundición de minerales complejos hasta la elaboración de armas y herramientas, el proceso de producción metalúrgica en un asentamiento peninsular del Bronce Antiguo.

Los análisis de isótopos de plomo han permitido demostrar que la metalurgia argárica dependía de una red de intercambio interregional compleja y jerarquizada, que articulaba la circulación de recursos desde minas lejanas hasta los asentamientos. La continuidad tecnológica con las tradiciones calcolíticas y la ausencia de hornos especializados indican que, pese a la sofisticación social alcanzada por El Argar, la innovación metalúrgica se desarrolló sobre la base de prácticas antiguas, adaptadas a un nuevo sistema económico y territorial.

Referencias

Imagina un lugar donde nacen las ideas que cambiarán la forma en que nos movemos. Un espacio donde el diseño, la tecnología y la ingeniería confluyen para dar forma al futuro de la automoción. Así es el Centro Técnico de SEAT S.A., un referente de innovación que este año celebra medio siglo de historia. Desde 1975, su sede en Martorell ha sido mucho más que un laboratorio de coches: es el corazón creativo y tecnológico de la marca.

Durante estos 50 años, más de 34 000 profesionales han dado vida a 950 prototipos, han registrado 359 patentes y han recorrido casi 35 millones de kilómetros de pruebas. Aquí se han gestado modelos icónicos como el CUPRA Formentor o el CUPRA Born, el primer 100 % eléctrico de la marca, y también ha nacido el Test Center Energy, uno de los laboratorios de baterías más avanzados del sur de Europa.

Coincidiendo con el 75.º aniversario de SEAT S.A., este hito reafirma el papel protagonista del centro dentro del Grupo Volkswagen. Con una transición que va del diseño artesanal a las más de 310 000 simulaciones digitales registradas en 2024, su capacidad de adaptación ha sido clave para mantenerse a la vanguardia.

Este artículo recorre los logros, los retos y la visión de futuro de un centro que no solo ha transformado la industria española del automóvil, sino que sigue escribiendo el guion de la movilidad sostenible del mañana. los logros, proyectos emblemáticos, impacto industrial y papel futuro del Centro Técnico, destacando cómo su legado técnico continúa anticipándose a los desafíos de movilidad, electrificación y diseño global.

Origen y fundación del Centro Técnico

En 1975 nació el Centro Técnico de SEAT en Martorell como núcleo de investigación automotriz. Su primer gran logro fue el desarrollo integral del SEAT 1200 Sport “Bocanegra”, un modelo pionero que marcó los inicios del proceso creativo dentro de sus instalaciones. Desde entonces, se define como un motor intelectual fundamental.

Hoy es un equipo multidisciplinar con casi 34 000 ingenieros que han acumulado más de 950 prototipos desarrollados en el centro.

Evolución tecnológica y digitalización

En los primeros años de SEAT se diseñaban prototipos en papel y maquetas de escayola con pruebas acústicas en recintos con foam. Todo ha evolucionado hacia entornos digitales con simulaciones virtuales masivas. En 2024 se registraron más de 310 000 simulaciones, de las cuales unas 220 000 correspondieron al coche urbano eléctrico.

Impacto en SEAT y CUPRA

El centro ha sido clave en la creación del CUPRA Formentor, primer modelo íntegro de CUPRA, y del CUPRA Born, primer coche 100 % eléctrico. Además, se implementó el Test Center Energy, dedicado al desarrollo de baterías en el sur de Europa.

CUPRA se ha convertido en un verdadero impulsor del crecimiento global de SEAT S.A. en 2025, con cifras récord de entregas, un fuerte empuje eléctrico y una estrategia que pisa el acelerador hacia el futuro. CUPRA dispara las ventas globales de SEAT S.A. en 2025 con récords de entregas, impulso eléctrico… y un futuro que pisa el acelerador.

Capacidad innovadora y patentes

Con más de 359 patentes desde su fundación, el centro ha consolidado su reputación como uno de los principales motores de propiedad intelectual dentro de la industria automovilística española. Cada innovación ha alimentado productos de alta demanda y eficiencia.

Infraestructura y recursos humanos

Desde 1975 hasta hoy, ha empleado a más de 78 000 personas en fábricas y oficinas, con 14 000 trabajadores directos en Martorell y más de 100 000 empleos indirectos generados.

El laboratorio de baterías

El Test Center Energy, inaugurado en 2021, se ha consolidado como un centro de referencia para el desarrollo de sistemas de batería para vehículos eléctricos en el sur de Europa, adelantándose a la demanda tecnológica real.

Enfoque en electrificación

El centro ha impulsado el desarrollo del CUPRA Born, el primer eléctrico de la marca, y ha gestionado proyectos de híbridos enchufables y eléctricos estratégicos dentro de SEAT y CUPRA.

No se trata solo de coches: CUPRA está redefiniendo su papel en la cultura automovilística con campañas globales que trascienden lo técnico. CUPRA lanza una campaña mundial para cambiar el significado de una palabra.

Proyección internacional

SEAT celebra 75 años y el centro técnico ha sido clave para situar a España como referente industrial en el mundo automotriz y exportar innovación tecnológica a más de 70 países.

Retos actuales y estrategia corporativa

SEAT enfrenta el reto de integrar Cupra mientras expande su electrificación. El centro técnico es la base para reposicionar ambas marcas. La firma invierte millones en electrificación en España, con parques de baterías en Martorell y nuevos modelos urbanitas.

Cultura de equipo e inclusión

La diversidad y la capacitación han sido pilares fundamentales. La compañía ha destacado la apuesta por la inclusión laboral femenina como valor esencial para el futuro industrial del grupo.

SEAT: Legado y mirada al futuro

Este doble aniversario simboliza el legado consolidado y un compromiso continuo con la movilidad sostenible y la innovación global. El centro ha sido y será el corazón técnico de nuevos vehículos eléctricos, conectividad y diseño que marcarán el futuro.

Una visión que mira hacia 2075

A medida que SEAT proyecta su futuro, el Centro Técnico seguirá siendo la fuerza creativa que marque las pautas de la innovación española. Desde la electrificación total hasta la conducción autónoma, su capacidad de anticipación será más crucial que nunca.

Las cámaras deportivas se han convertido en compañeras imprescindibles para quienes quieren capturar cada aventura. Su popularidad se dispara en verano, cuando los viajes y planes al aire libre invitan a grabarlo todo con la mejor calidad.

GoPro no se ha quedado de brazos cruzados frente a la competencia y ha decidido cerrar el verano por todo lo alto con una bajada histórica en el precio de su emblemática GoPro MAX 360. Dejando claro que sigue en la pelea por dominar el terreno de las cámaras deportivas.

GoPro MAX 360
GoPro MAX 360 - Amazon

Este modelo suele rondar los 329 € en diversas tiendas, pero ahora se puede conseguir por solo 259 euros de forma simultánea en Amazon, MediaMarkt y PcComponenteres. Una rebaja histórica difícil de igualar.

Destaca como una cámara de acción 360º con grabación en 5,6K y fotos de 16,6 MP. Con doble lente, permite capturar vídeos envolventes y personalizar el encuadre en edición, ya sea para YouTube, TikTok o Instagram. Ofrece cuatro distancias focales (Estrecha, Lineal, Gran Angular y Max SuperView) para tomas versátiles. 

Incluye estabilización Max HyperSmooth, Horizon Lock y seguimiento automático para vídeos fluidos y profesionales. Con CameraFX se puede añadir efectos como Voltear, Rodar, girar o Planeta diminuto. Cuenta con 6 micrófonos y reducción de viento mejorada para un audio superior. Es resistente al agua (hasta 5 m), incorpora control por voz, batería de 1960 mAh y compatibilidad con trípodes y palos selfie.

Insta360 aprieta con una rebaja potente para la GO 3S y pone presión a la competencia

Después del movimiento de GoPro, Insta360 contraataca con un potente descuento en su GO 3S, que ahora puede conseguirse por solo 239,99 euros en Amazon. Una oferta muy atractiva si se compara con los precios habituales en tiendas como AliExpress, MediaMarkt o PcComponentes, donde parte desde los 307,19€.

Insta360 GO 3S
Insta360 GO 3S - Amazon

Graba en 4K Ultra HD (3840 x 2160 píxeles) con una tasa de bits de hasta 120 Mbps y permite capturar a 200 fps. Su sensor ofrece fotos de 12 MP (4000 x 3000 píxeles) en formatos JPG y DNG. Incorpora estabilización FlowState tipo cardán y Horizon Lock, para vídeos increíblemente estables incluso en situaciones extremas.

Incluye el Action Pod con pantalla táctil abatible de 2,2”, que permite control remoto, carga y vista previa en tiempo real. Ofrece 64 GB de almacenamiento, grabación en AAC con micrófonos integrados y resistencia al agua hasta 10 m (IPX8). También cuenta con Wi-Fi, Bluetooth 5.0, control por voz y funciones como timelapse, cámara lenta 8x y edición automática con IA desde la app oficial.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

En los pasillos dorados del poder imperial romano, los lazos de sangre no siempre significaban lealtad. A veces, como en la tragedia de Nerón y Agripina la Menor, esos vínculos se tensaban hasta quebrarse, dejando tras de sí un legado de horror, propaganda y una fama perdurable. El matricidio cometido por el emperador no fue solo una cuestión personal: fue un movimiento cuidadosamente orquestado, con implicaciones políticas y simbólicas que marcaron el destino de Roma.

El origen de un vínculo peligroso

Para comprender el desenlace trágico entre madre e hijo, es necesario regresar al principio. Agripina la Menor nació en el seno de una de las familias más influyentes de Roma, la dinastía Julio-Claudia. Sobrina de Tiberio, hermana de Calígula, madre de Nerón y, durante un tiempo, esposa del emperador Claudio, su vida fue un catálogo de ambición política, alianzas estratégicas y poderío femenino en una sociedad dominada por hombres.

Su matrimonio con Claudio, su propio tío, escandalizó a la Roma tradicional, pero fue una jugada maestra: logró posicionar a su hijo, Lucio Domicio Enobarbo (el futuro Nerón), como heredero del Imperio, desplazando al legítimo sucesor, Británico. En cuestión de años, su hijo se convirtió en el hombre más poderoso del mundo romano. Y ella, en la mujer más temida del imperio.

Durante los primeros meses del reinado de Nerón, Agripina se convirtió en la verdadera gobernante de Roma. Su influencia era tan evidente que aparecía en monedas, compartía escenario en ceremonias públicas e incluso tomaba parte activa en las decisiones de gobierno. Roma no había visto nada igual: una mujer al mando, en apariencia sin corona, pero con todos los atributos del poder.

De emperador títere a autócrata absoluto

A medida que Nerón crecía, también lo hacía su deseo de romper con la tutela de su madre. Convertido en un joven admirado por su porte y su interés en las artes, comenzó a explorar su papel como emperador más allá de los dictados de Agripina. Pero su ascenso personal chocaba con el peso político de su madre, que no estaba dispuesta a renunciar al control fácilmente.

El conflicto entre ambos dejó de ser una disputa familiar para transformarse en un enfrentamiento ideológico sobre el modelo de poder en Roma. Agripina representaba el orden tradicional, con raíces en la aristocracia senatorial y en la legitimidad dinástica. Nerón, por el contrario, comenzó a proyectarse como un líder populista, más cercano al pueblo, amante del teatro, la música y los espectáculos. Su imagen pública era la de un artista-emperador, un hombre dispuesto a romper moldes... incluso los más sagrados.

La relación entre Nerón y Agripina simboliza uno de los enfrentamientos más trágicos y calculados del poder imperial romano
La relación entre Nerón y Agripina simboliza uno de los enfrentamientos más trágicos y calculados del poder imperial romano. Foto: Wikimedia

La situación se agravó cuando Nerón se enamoró de Poppea Sabina, una mujer ambiciosa y refinada, que veía a Agripina como un obstáculo. El enfrentamiento se intensificó, y los rumores comenzaron a circular por Roma: la madre del emperador estaba conspirando para restaurar a Británico en el trono, incluso buscando alianzas con los enemigos políticos de su propio hijo.

La tensión explotó finalmente en el año 59 d.C., cuando Nerón decidió que su madre debía desaparecer. El crimen, sin embargo, no se ejecutó como un simple asesinato. Lo que ocurrió fue un acto cuidadosamente planeado, con tintes teatrales, simbólicos y profundamente propagandísticos.

El crimen más infame del Imperio

La primera tentativa de Nerón para matar a su madre fue tan extravagante como fallida: invitó a Agripina a embarcarse en una nave diseñada para hundirse en alta mar. Pero ella sobrevivió. Según las crónicas antiguas, consiguió nadar hasta la costa, herida pero viva, una visión fantasmal que asustó profundamente a su hijo.

Humillado y aterrado, Nerón optó entonces por un método más directo: envió soldados a su villa para que la asesinaran. No se ocultó el crimen. Por el contrario, se difundió que Agripina había intentado atentar contra el emperador, justificando así su ejecución. Pero nadie fue engañado. Roma entera comprendió que el joven emperador había matado a su madre.

Lejos de ocultar su acción, Nerón la envolvió en una narrativa que lo emparentaba con los grandes personajes de la tragedia griega. Así como Orestes había asesinado a su madre Clitemnestra en la mitología griega, también él, Nerón, se mostraba como un nuevo héroe, más allá de la moral común, guiado por un destino superior. La teatralidad de sus actos no era una casualidad: era parte de su manera de gobernar.

Una moneda acuñada en Roma en el año 54 muestra los rostros de Nerón y Agripina, destacando el poder que ella ejercía al inicio del reinado: su nombre figura en el anverso, por encima del de su hijo
Una moneda acuñada en Roma en el año 54 muestra los rostros de Nerón y Agripina, destacando el poder que ella ejercía al inicio del reinado: su nombre figura en el anverso, por encima del de su hijo. Foto: Wikimedia

Más que un crimen: un mensaje de poder

El asesinato de Agripina no fue solo un ajuste de cuentas personal. Fue un acto que redefinió la forma en que el poder se ejercía en Roma. A través de este crimen, Nerón se deshacía del último freno a su autoridad, pero también enviaba un mensaje contundente: estaba dispuesto a todo para mantener el control, incluso a desafiar los tabúes más sagrados de la sociedad romana.

En el imaginario colectivo, el parricidio o el matricidio eran considerados actos aberrantes, antinaturales. Pero Nerón no quería parecer un gobernante tradicional. Quería ser temido, venerado, recordado. Su poder no estaba en la continuidad de las instituciones, sino en su ruptura. Por eso, lejos de ocultar el crimen, lo convirtió en una actuación imperial.

Roma se dividía entre el horror y la fascinación. Las élites temblaban, pero el pueblo, cautivado por los espectáculos, la música y la retórica del emperador, aplaudía. El espectáculo se había convertido en el lenguaje del poder. Y Nerón era su maestro de ceremonias.

El legado de una tragedia imperial

La muerte de Agripina no marcó el final de los excesos de Nerón. Le siguieron asesinatos de senadores, familiares e incluso de su esposa embarazada, Poppea. El emperador siguió cultivando su imagen de artista y demiurgo hasta su suicidio en el año 68 d.C., cuando fue abandonado por sus apoyos y declarado enemigo público por el Senado.

La damnatio memoriae —la condena del recuerdo— cayó sobre su figura, y los escritores de la siguiente generación, como Suetonio o Tácito, reforzaron su imagen de monstruo. Pero incluso entre las líneas más hostiles, es posible entrever una lógica oculta: Nerón fue menos un loco y más un estratega del simbolismo político. Comprendió que en Roma, el poder no solo se ejercía, también se representaba.

Su crimen más célebre, el asesinato de su madre, fue una escena cuidadosamente coreografiada, diseñada no para esconderse, sino para marcar una ruptura definitiva con el pasado. Fue el precio que pagó para convertirse en leyenda.

En la actualidad se conocen casi 9 millones de especies de seres vivos y algo más de 5400 minerales distintos. A mediados del siglo XIX, Charles Darwin demostró que la enorme diversidad de la vida es el resultado de la evolución de las especies como respuesta a las siempre cambiantes condiciones del entorno. Estudios recientes muestran que en la naturaleza también existen complejos procesos de evolución mineral. La investigación de esos procesos y su relación con los cambios en los medios de cristalización proporcionan una nueva perspectiva histórica a la mineralogía. 

Diversidad y evolución mineral 

Parece claro que el gran número de minerales descritos hasta ahora es indicativo de la gran diversidad de las condiciones fisicoquímicas de la Tierra. Al igual que los seres vivos, los minerales reflejan el ambiente del que proceden. Y de la misma manera que los biólogos pueden decirnos que una asociación determinada de animales y plantas corresponde a un clima tropical, templado o polar, los geólogos saben que un conjunto de minerales de una roca solo puede haberse formado en el mar, en el interior de la corteza terrestre o dentro de la cámara magmática de un volcán

Desde hace ya varios siglos, los científicos han construido un inventario de los minerales terrestres y, de forma parecida a cómo se ha hecho con los animales, plantas y otros organismos, los han clasificado según sus características comunes. En el caso de los minerales, estas características son químicas y estructurales y no morfológicas y de parentesco, como las empleadas en la clasificación biológica. 

El origen de las especies (minerales) Tabla 1
Clasificación esquemática de (A) los minerales y (B) los seres vivos. Fuente: Carlos M. Pina.

Tras la publicación de El Origen de las Especies de Darwin en 1859, la clasificación biológica, que inicialmente solo constituía un sistema sencillo y racional para nombrar y ordenar todas las especies (tanto actuales como fósiles), adquirió un nuevo sentido y se convirtió en una representación de la evolución de los seres vivos. 

En el caso del mundo mineral, la primera hipótesis de evolución fue planteada por A.G. Zhabin en 1979 y, poco después, en 1982, Nikolai. P. Yushkin mostró que se apreciaba una creciente complejidad mineralógica en la superficie terrestre. Sin embargo, no fue hasta 2008 cuando Robert M. Hazen y sus colaboradores presentaron a la comunidad científica una teoría general de la evolución mineral. En ella propusieron que las especies minerales han aparecido en la Tierra a medida que sus condiciones fisicoquímicas han cambiado. De acuerdo con esto, la creciente diversidad mineralógica de la Tierra comenzó antes de su formación y se desarrolló posteriormente a lo largo de tres eras mineralógicas, las cuales pueden dividirse a su vez en diez etapas.

Minerales
Eras y etapas mineralógicas según Hazen y Ferry (2010). Fuente: Carlos M. Pina.

Era Prenebular

Durante miles de millones de años los minerales no existieron. Hubo que esperar a que se formaran, envejecieran y estallaran las primeras estrellas para que el espacio quedara sembrado de elementos químicos. Pudieron formarse entonces los primeros minerales, apenas una docena de especies diferentes. Entre ellas se encontraban algunos carburos, nitruros, óxidos y silicatos de magnesio, además de grafito y diamante en mayor cantidad. Sin duda fue un buen comienzo.

El origen de las especies (minerales) 2
Diamante natural. Probablemente el primer mineral que se formó en el universo. Fuente: Rob Lavinsky / Wikimedia Commons.

Era de la Acreción Planetaria

Los siguientes millones de años tras la aparición del primer material cristalino fueron mineralógicamente poco variados. El polvo mineral y los gases procedentes de las supernovas tuvieron que viajar por el espacio mucho tiempo hasta que la fuerza de la gravedad los concentrara en una nebulosa solar. Entonces comenzaron las reacciones de fusión nuclear, nuestro sol se encendió y empezó una nueva era mineralógica, la cual puede dividirse en dos etapas. 

La primera de estas etapas se inició hace más de 4600 millones de años y consistió en la formación de condritas, un material rocoso generado por la acreción de partículas minerales a temperaturas relativamente bajas. Entonces el número de especies minerales aumentó y aparecieron las primeras aleaciones de hierro y níquel, algunos sulfuros y fosfuros, y asociaciones de óxidos y silicatos.

En una segunda etapa, la acreción de material condrítico condujo a la formación de planetesimales cuya agregación dio lugar a los planetas. En el caso de la Tierra, comenzó la fusión parcial de las rocas y se segregaron magmas de composición algo diferente de la de las condritas. La cristalización de estos magmas y su ocasional alteración por la presencia de agua dio lugar a nuevos minerales: piroxenos, plagioclasas, cuarzo, feldespato potásico, micas y algunos carbonatos y fosfatos. El número total de especies minerales ascendió a 250. 

Pero la Era de la Acreción Planetaria acabó con un gran cataclismo. El impacto del planetoide Theia estuvo a punto de destruir la Tierra. Afortunadamente eso no ocurrió, aunque sí se produjo una intensa fusión y mezcla de los materiales terrestres y de Theia, parte de los cuales fueron eyectados y formaron la Luna. La colisión de Theia con la Tierra causó, además, la desaparición de muchos minerales formados previamente. Fue un equivalente mineralógico de la extinción de los dinosaurios (y otros muchos seres vivos) cuando el meteorito Chicxulub impactó contra la Tierra a finales del periodo Cretácico. Pero los procesos mineralogenéticos recomenzaron y se inició una nueva era. 

El origen de las especies (minerales) 3
Representación artística de la hipotética colisión de Theia con la Tierra. Fuente: NASA / JPL.

Era de la Reelaboración del Manto y la Corteza Terrestres

Esta era comenzó con la evolución de las rocas ígneas y la generación progresiva de magmas con composiciones cada vez más diferentes de las iniciales (tercera etapa). En esta generación, la presencia de componentes volátiles, como el agua y el dióxido de carbono, hizo posible la cristalización de hidróxidos, hidratos, óxidos y carbonatos. Por otro lado, se produjo el refundido de algunas rocas ígneas previas, mayoritariamente basaltos. En los nuevos magmas se concentraron elementos químicos, como el litio, berilio, boro, niobio, tántalo y uranio, que antes se encontraban demasiado dispersos como para formar minerales. Se estima que al final de esta cuarta etapa de evolución mineral, la Tierra contaba con unas 1000 especies minerales diferentes, una diversidad mineralógica mayor que la de la Luna, Marte, Venus y Mercurio. 

Hace aproximadamente 3000 millones, con la puesta en marcha de la tectónica de placas, se inició una quinta etapa de evolución mineral. Las rocas y sedimentos que comenzaron a regresar hacia el manto en las zonas de subducción reaccionaron dando lugar a la aparición de nuevos minerales, como sulfuros y sulfosales. Por otro lado, la ascensión de rocas profundas en las zonas de colisión continental hizo que muchos minerales formados a altas presiones y/o temperaturas quedaran expuestos a condiciones muy diferentes. A consecuencia de ello, se transformaron y alteraron.

El origen de las especies (minerales) 4
Lámina delgada de un granito observada con luz polarizada. Muchas de las especies minerales que se distinguen en esta lámina se formaron en grandes cantidades cuando en la Tierra se pusieron en marcha los procesos de diferenciación magmática y se produjo la fusión masiva de algunas rocas previamente formadas en la corteza terrestre. Fuente: Alexander Klepnev / Wikimedia Commons.

Al final de esta era de evolución mineral había unas 1500 especies minerales diferentes. Este número dista todavía bastante de los aproximadamente 5400 minerales terrestres descritos hasta ahora. ¿De dónde salieron las restantes especies minerales que hacen de la Tierra el lugar con mayor diversidad mineralógica del sistema solar? Como en tantas otras cosas que han sucedido o suceden en nuestro planeta, debemos dirigir la mirada hacia el mundo de los seres vivos.

Era de la Mineralogía Mediada Biológicamente

Tras una larga y mineralógicamente improductiva sexta etapa de la evolución mineral, la situación cambió cuando los organismos vivos «inventaron» la fotosíntesis y la superficie de la Tierra se «contaminó» con oxígeno. El punto de inflexión lo constituyó lo que se conoce como el Gran Evento de Oxidación, que comenzó hace aproximadamente 2500 millones de años. El progresivo aumento de las condiciones oxidantes en la atmósfera y la hidrosfera permitió la formación de nuevos óxidos, hidróxidos e hidratos, fundamentalmente a partir de la meteorización, alteración y oxidación de minerales prexistentes. En la séptima etapa de evolución mineral aparecieron numerosos silicatos hidratados de uranio, además de minerales de cobre, boro, vanadio, magnesio, selenio, teluro, arsénico, antimonio, bismuto, plata y mercurio, muchos de ellos en distintos estados de oxidación. Toda una explosión de «minerodiversidad»

A pesar de esa reactivación de los procesos mineralogenéticos, los siguientes 1000 millones de años han sido denominados por los científicos el «Billón Aburrido», aunque es bastante probable que su «aburrimiento» se deba principalmente a que todavía no hemos sido capaces de extraer mucha información de las rocas de esa época. En cualquier caso, en la octava etapa denominada del Océano Intermedio parece que únicamente aumentó el volumen total de minerales.

Tras esta etapa, la Tierra sufrió un enfriamiento sin precedentes y quedó casi completamente cubierta por una gruesa capa de hielo, que se convirtió en la especie mineral dominante en la superficie de nuestro planeta. A pesar de ello, durante esta novena etapa, denominada de Tierra Bola de Nieve, se formaron los llamados carbonatos de casquete (calcita, aragonito y dolomita) y abundantes minerales de la arcilla. También la actividad volcánica consiguió ocasionalmente perforar el inmenso manto de hielo y producir algunas mineralizaciones que contribuyeron modestamente a la diversidad mineral de la Tierra.

Afortunadamente, hace poco más de 600 millones de años, la Tierra entró de nuevo en una etapa más cálida. La evolución biológica que tuvo lugar desde entonces condujo al desarrollo de complejos procesos de biomineralización en los que los carbonatos de calcio y magnesio juegan un papel fundamental. Gracias a ellos, en la décima etapa de la evolución mineral —en la que nos encontramos ahora—, aparecieron sutiles combinaciones de materia orgánica y mineral con propiedades físicas nuevas, las cuales son, por supuesto, útiles para los seres vivos. 

Minerales
El nácar como el que puede verse en interior de esta sección de una concha de nautilus es uno de los ejemplos más llamativos de biomineralización. Está compuesto por más de un 95 % de microscópicos cristales de aragonito (carbonato cálcico) y hasta un 5% de materia orgánica. Este iridiscente material natural de gran resistencia a la rotura puede considerarse como uno de los resultados más sofisticados de la evolución biológica y mineralógica en la Tierra. Fuente: Chris / Wikimedia Commons.

Historia mineral

Independientemente de las eras y etapas en que podamos dividir la historia mineralógica de la Tierra, las evidencias de un proceso evolutivo nos hacen ver el mundo mineral desde una nueva perspectiva. Ya no podemos considerar los minerales como meros compuestos químicos atemporales. Los minerales tienen su historia y tienen historias que contar. Encontramos minerales que han cristalizado hace solo unos pocos meses o incluso horas, mientras que otros se formaron cuando todavía no había aparecido el primer ser vivo sobre la faz de la Tierra. Algunos constituyen las rocas terrestres más antiguas y han sido testigos del inicio de la tectónica de placas o de la fotosíntesis en nuestro planeta. Todos ellos, de forma similar a como ocurre con los fósiles, contienen información del pasado, una información registrada en sus particularidades estructurales, morfológicas, cristaloquímicas e isotópicas. Según nos muestran las últimas investigaciones, una interpretación correcta de esa información requiere considerar la componente histórica del mundo mineral. Solo de ese modo podremos conocer mejor la historia de nuestro planeta.

Referencias


Carlos M. Pina

Carlos M. Pina

Doctor en Ciencias Geológicas. Profesor titular de Cristalografía y Mineralogía.

No hay que ser astronauta para quedar atrapado en la arena. Cualquiera que haya intentado sacar un coche de la playa o de un terreno blando sabe lo frustrante que es cuando las ruedas giran y no avanzan. Piensa en otra cosa: lo difícil que es llevar un carrito de bebé por la arena. Ahora imagina que ese atasco ocurre a 384.000 kilómetros de distancia, sobre un terreno polvoriento, sin posibilidad de pedir ayuda. Eso le ocurrió al rover Spirit en Marte. Se quedó encajado para siempre. Aquel percance no solo fue un problema operativo, sino el síntoma de algo más profundo: estábamos midiendo mal.

Durante décadas, las agencias espaciales prepararon sus vehículos de exploración probándolos en condiciones terrestres “ajustadas” para simular la gravedad lunar o marciana. Para imitar la gravedad reducida, se construían versiones más ligeras del rover y se ponían a prueba sobre suelos arenosos. Pero un nuevo estudio demuestra que este enfoque contenía un fallo de concepto. No se tuvo en cuenta que la arena también se comporta de forma distinta según la gravedad. El error, aunque sutil, ha condicionado la manera en que diseñamos y preparamos misiones espaciales.

El error que nadie vio: reducir masa no es suficiente

Uno de los procedimientos estándar más extendidos consistía en construir un prototipo del vehículo con una sexta parte de su masa original, para simular cómo se movería sobre la Luna, donde la gravedad es seis veces menor que en la Tierra. Luego, se probaba este modelo ligero en suelos arenosos, observando cómo rodaba y cuánta tracción tenía.

Pero el equipo dirigido por Dan Negrut, ingeniero de la Universidad de Wisconsin-Madison, descubrió que este método no era físicamente consistente. La clave está en que no solo el vehículo siente la gravedad: el suelo también lo hace. En palabras del propio estudio: “se asumía que la tracción sería comparable bajo diferentes gravedades si se igualaba el índice de penetración del terreno”. Es decir, que bastaba con usar un terreno parecido y ajustar el peso del rover. Pero eso no es así.

El terreno bajo gravedad terrestre es más compacto y ofrece mayor resistencia. Por eso, cuando se reduce el peso del vehículo pero se mantiene la misma arena, el suelo se comporta como si fuera más firme de lo que realmente es en la Luna o Marte. El resultado es una ilusión de movilidad: parece que el rover funciona bien, pero solo porque el terreno es engañosamente sólido.

Fuente: ChatGPT / E. F.

Simulaciones para desmontar un mito

Para verificar esta hipótesis, los investigadores utilizaron Project Chrono, un motor de simulación física de código abierto que permite modelar con precisión interacciones complejas entre vehículos y suelos deformables. Simularon tanto ruedas sueltas como rovers completos, en condiciones de gravedad terrestre y lunar, sobre suelos simulados con distintas densidades y ángulos de fricción.

Las diferencias fueron claras. Los vehículos rendían peor en los escenarios lunares simulados que en sus equivalentes terrestres, incluso cuando se ajustaban sus masas. Las ruedas se hundían más, la tracción disminuía y el deslizamiento aumentaba. “Reducir la masa del rover, en aislamiento, es insuficiente, a menos que el suelo se cambie para reflejar la menor gravedad”, explica el estudio.

Este hallazgo también desmonta una práctica muy común: el uso de suelos artificiales (simulantes lunares como GRC-1 o GRC-3) que se suponía replicaban el comportamiento del regolito lunar. Si bien se parecía al material en su composición y aspecto, no respondía igual bajo diferentes niveles de gravedad. Lo que parecía una buena idea era, en realidad, una fuente de error estructural.

Simulación de partículas SPH interactuando con una superficie sólida mediante condiciones de contorno BCE. Fuente: Journal of Field Robotics

Una nueva herramienta para predecir el movimiento real

El equipo optó por una estrategia diferente. En lugar de seguir confiando en modelos empíricos como el Bekker-Wong–Janosi-Hanamoto (BWJH), decidieron usar un modelo físico continuo basado en ecuaciones que describen el comportamiento granular del terreno. Este enfoque, más exigente computacionalmente, se basa en la llamada metodología CRM (Continuous Representation Model) y fue implementado con técnicas de simulación por partículas (SPH).

La ventaja de esta simulación es que no requiere ajustar parámetros empíricos que solo funcionan bajo ciertas condiciones. Se alimenta de datos físicos reales, como densidad, ángulo de fricción o módulo de cizalladura. Eso permite estudiar cómo se comportará un rover al avanzar por un terreno de baja gravedad, sin necesidad de hacer suposiciones engañosas.

En pruebas comparativas, las simulaciones CRM reprodujeron con éxito los datos recogidos en el laboratorio físico de la NASA (SLOPE Lab), y luego mostraron cómo cambiaban esos resultados al cambiar solo la gravedad en el modelo. “El simulador revela errores de concepto en la forma en que se realiza hoy en día la prueba física de los rovers”.

Simulando la Luna en la Tierra: Estas imágenes muestran un rover de 73 kg sometido a pruebas en el simulador GRC-3 de la NASA, diseñado para replicar el comportamiento del vehículo bajo la gravedad lunar pero en condiciones terrestres. En cada imagen, el rover se desplaza por una pendiente creciente (0°, 10°, 20° y 30°), lograda ajustando digitalmente la dirección del tirón gravitatorio. Estas simulaciones permiten anticipar cómo responderá el rover ante terrenos accidentados en la superficie lunar real. Fuente: Journal of Field Robotics

Más allá del laboratorio: un nuevo paradigma para las misiones espaciales

Este estudio no es solo una corrección técnica. Es una llamada de atención. Porque implica que algunas de las decisiones de diseño tomadas en las últimas décadas —incluidas para misiones como Curiosity o VIPER— podrían haberse basado en pruebas poco fiables. Por ejemplo, un vehículo que en la Tierra puede subir una pendiente del 30 % con un 40 % de deslizamiento, en la Luna podría enfrentarse a un 80 % de deslizamiento en las mismas condiciones. Eso es crítico: después de cierto umbral de deslizamiento, el vehículo deja de avanzar y comienza a excavar su propia trampa.

También significa que el paradigma de pruebas basado en prototipos más ligeros necesita ser revisado. “El rover nominal que realizará una misión extraterrestre puede utilizarse en la Tierra para pruebas cuyos resultados pueden extrapolarse, mediante leyes de escala, para predecir su comportamiento en otros mundos”.

La implicación es clara: es mejor hacer pruebas con el rover completo y usar modelos físicos para ajustar los resultados, en lugar de manipular la masa o el terreno y asumir que las condiciones están bien representadas.

Del espacio a la Tierra: aplicaciones industriales

Aunque el descubrimiento surgió del contexto lunar, sus implicaciones se extienden a muchos otros campos. El motor de simulación Project Chrono, que permitió este avance, ya ha sido utilizado por organizaciones civiles y militares para analizar cómo se comportan vehículos en terrenos deformables: desde tanques del ejército hasta relojes mecánicos de precisión.

El desarrollo de esta herramienta ha sido posible gracias a colaboraciones con la NASA, el MIT y universidades internacionales. El software es de código abierto y gratuito para cualquier investigador o entidad que lo necesite, lo que amplía aún más su impacto. “Hay tipos de aplicaciones relevantes para la exploración planetaria donde nuestro simulador puede resolver problemas que ningún otro puede resolver” declaró Negrut.

Además, al ser modular y adaptativo, Chrono puede seguir evolucionando. El equipo ya está trabajando en incorporar funciones más avanzadas para futuros escenarios de exploración: excavación, construcción, desplazamientos sobre terreno alterado, entre otros.

¿Cómo no lo vimos antes?

La idea puede parecer evidente en retrospectiva. Si la gravedad cambia, no solo cambia el peso del objeto, sino también cómo responde el entorno. Pero durante mucho tiempo, los modelos utilizados eran derivados de experimentos en condiciones terrestres, y sus supuestos se daban por válidos.

Lo más paradójico es que los errores no surgieron por ignorancia, sino por confiar demasiado en modelos empíricos sin revisarlos a fondo. Esa confianza hizo que incluso los fallos visibles —como los rovers atascados— se interpretaran como accidentes puntuales, no como síntomas de una metodología defectuosa.

Gracias al trabajo de este equipo, hoy se cuenta con herramientas más fiables. Herramientas que no solo permitirán enviar vehículos más robustos y preparados al espacio, sino también mejorar la ingeniería de cualquier sistema que dependa del contacto con terrenos deformables.

Referencias

Olvidar una contraseña es una molestia universal. Y no importa cuántas veces se intente crear una que sea fácil de recordar y difícil de descifrar: los sistemas tradicionales de seguridad siguen siendo vulnerables. Cada año, millones de personas sufren robos de identidad y filtraciones de datos. En este contexto, no es de extrañar que científicos de todo el mundo estén explorando tecnologías cuánticas para proteger la información de forma radicalmente distinta.

Un reciente estudio publicado en Science Advances por investigadores de la Universidad de Kioto propone una alternativa revolucionaria: una fuente de luz cuántica controlada con imanes, capaz de emitir fotones únicos. El hallazgo no solo mejora la eficiencia de estas emisiones, sino que también sugiere un posible reemplazo para las contraseñas tradicionales. ¿Cómo? Con un sistema que, literalmente, emite una partícula de luz a la vez, de manera que ningún intruso pueda copiar, interceptar o duplicar la señal.

La luz cuántica que emite un solo fotón a la vez

La comunicación cuántica utiliza las propiedades fundamentales de la mecánica cuántica para transmitir información. Una de sus piezas clave es el emisor de fotones individuales, un dispositivo capaz de generar un solo fotón por evento. Este tipo de luz no se puede clonar ni interceptar sin ser detectada, lo que la convierte en una herramienta ideal para sistemas de seguridad avanzados.

En el nuevo estudio, el equipo japonés utilizó un material conocido como diseleniuro de tungsteno en forma de monocapa. Se trata de un semiconductor bidimensional con solo unos átomos de espesor. Tras introducir defectos de forma controlada, los investigadores observaron que estos defectos actuaban como trampas para los exitones, que son pares formados por un electrón y un hueco (la ausencia de un electrón).

Gracias a esta trampa localizada, se producía una emisión de luz extremadamente precisa. De hecho, el artículo confirma que la emisión presentaba un fenómeno de antibunching: “el valor de g²(0) se redujo a aproximadamente 0,3, lo que revela el carácter de antibunching en la emisión de fotones desde un solo estado cuántico”. Esto significa que los fotones eran emitidos uno por uno, una condición esencial para cualquier sistema de comunicación cuántica.

Fuente: Science Advances

Cómo se consigue controlar la emisión con un imán

Una de las innovaciones más destacadas del estudio es el uso de un campo magnético débil para manipular la luz emitida. En condiciones normales, algunos estados excitónicos (los llamados estados oscuros) no emiten luz. Sin embargo, al aplicar un campo magnético, los investigadores lograron mezclarlos con estados brillantes, activando así su emisión.

Este fenómeno se conoce como magnetic brightening. Según el artículo, “la intensificación de la emisión incluso bajo un campo magnético relativamente bajo” fue observada claramente. De hecho, el brillo aumentó de forma significativa con campos menores a 1 tesla, lo que representa una ventaja en términos de eficiencia energética y control práctico.

Además, se identificaron dos estados de emisión, denominados |IDE+⟩ y |IDE−⟩, cada uno con una configuración de espín distinta. Estos estados surgían por la ruptura de simetría en los valles del material debido a los defectos introducidos. La emisión de estos estados presentaba una estructura de doble pico (doublet) con separación menor a 1 meV.

Fuente: ChatGPT / E. F.

Qué implica todo esto para la seguridad digital

Lo verdaderamente transformador de este trabajo es que demuestra un camino viable para construir emisores cuánticos controlables con herramientas externas como campos magnéticos. Esto facilita su integración en dispositivos tecnológicos del futuro. Tal y como explican los autores, "estos hallazgos avanzan en la dirección de emisores de fotones individuales controlables mediante campos magnéticos, con implicaciones para aplicaciones en óptica cuántica”.

En otras palabras, este tipo de luz cuántica podría ser la base de una nueva generación de redes de comunicación ultra seguras, donde las contraseñas tal como las conocemos dejarían de tener sentido. Si cada mensaje se codifica en un solo fotón que no puede ser clonado ni leído sin ser detectado, las técnicas tradicionales de robo de datos quedan anuladas.

Este tipo de tecnología también podría jugar un papel clave en dispositivos de autentificación cuántica, donde el propio patrón de emisión de luz sirve como “firma digital” única, imposible de replicar. A diferencia de los sistemas biométricos actuales, que pueden ser vulnerables si se copian huellas o rasgos faciales, el patrón cuántico no puede duplicarse sin alterar el mensaje.

Fuente: ChatGPT / E. F.

Los retos por resolver antes de que llegue al mercado

Aunque los resultados son prometedores, aún hay varios desafíos antes de ver esta tecnología en uso cotidiano. El experimento fue realizado a temperaturas extremadamente bajas, en torno a los 5,2 K (unos -268 ºC), lo cual limita por ahora su aplicación directa en dispositivos comerciales.

Además, los defectos en el material deben ser generados con alta precisión, lo cual requiere técnicas avanzadas de fabricación. El control del campo magnético también debe optimizarse para que pueda integrarse en sistemas compactos y energéticamente eficientes.

A pesar de estos retos, el uso de materiales 2D como el diseleniuro de tungsteno tiene una ventaja clara: su escalabilidad. Al ser tan delgados, pueden incorporarse en chips fotónicos y dispositivos miniaturizados. La posibilidad de manipular la emisión de luz con campos magnéticos añade una nueva dimensión de control sin necesidad de estructuras complejas.

Qué diferencia a este enfoque de otras tecnologías cuánticas

El uso de emisores individuales de fotones no es nuevo en física cuántica, pero lo que hace a este estudio especialmente relevante es su combinación de precisión, control y eficiencia en un solo sistema. Otros métodos requieren condiciones mucho más complejas, como cavidades ópticas o grandes instalaciones de laboratorio.

Aquí, el equipo logró una fuente de fotones compacta, estable y controlable con bajos niveles de energía magnética, lo cual la convierte en una candidata fuerte para aplicaciones reales. Además, el fenómeno de antibunching bajo campo magnético fue confirmado con distintas configuraciones, lo que indica que el sistema es robusto y reproducible.

En un contexto donde la computación cuántica y la criptografía post-cuántica están ganando tracción, contar con fuentes fiables de fotones individuales es esencial. Este trabajo no solo contribuye desde un punto de vista técnico, sino que también ofrece un modelo experimental reproducible para futuras investigaciones.

Hacia una nueva era de comunicaciones cuánticas

La posibilidad de reemplazar contraseñas por sistemas de luz cuántica puede sonar lejana, pero los avances de este tipo son precisamente los que están construyendo esa realidad. Cada paso en el desarrollo de emisores más estables y controlables acerca la comunicación cuántica al mundo real.

Este experimento muestra que es posible generar luz cuántica con características deseadas usando materiales conocidos y métodos accesibles, como campos magnéticos simples. Si estas tecnologías logran operar a temperatura ambiente y a escala industrial, podrían cambiar para siempre la forma en que protegemos nuestra información.

El camino aún es largo, pero lo que está claro es que la seguridad del futuro no se escribirá con letras ni números, sino con partículas de luz que viajan solas y seguras a través del espacio.

Referencias

Desde los primeros poemas épicos hasta los relatos tardíos del cristianismo primitivo, las figuras de dragones y serpientes marinas han ocupado un lugar central en el imaginario mitológico de occidente. Estas criaturas, híbridos colosales que sembraban el caos, representaban las fuerzas descontroladas de la naturaleza, el mal y el desorden cósmico. Exploramos, a continuación, la imaginería clásica los principales mitos que definen la evolución y el significado de estas bestias en la tradición grecorromana.

Orígenes mitológicos: entre el caos y la genealogía divina

Los dragones (drákontes) del mundo clásico forman parte de una genealogía mitológica. Muchos provienen de un linaje monstruoso vinculado a la diosa Gaia y a seres primordiales como Tifón y Equidna, quienes engendraron a múltiples bestias de apariencia aterradora.

Un ejemplo es Ladón, el dragón o serpiente que custodiaba las manzanas de oro del jardín de las Hespérides. Hércules mató a esta figura, descrita a veces con cien cabezas y una voz múltiple, como parte de sus doce trabajos. Ladón estaba emparentado con otras criaturas similares, como la Hidra de Lerna, cuyas cabezas se regeneraban cada vez que se cercenaban.

Este patrón de criaturas de apariencia monstruosa que actúan como guardianes de lugares sagrados o tesoros míticos es habitual en numerosas tradiciones culturales. Así, el dragón se transforma en el obstáculo que se interpone entre el héroe y el conocimiento, el poder o la gloria.

Dragón
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Dragones acuáticos y serpientes marinas: terrores de las profundidades

El agua constituye un elemento clave en la configuración del dragón grecorromano. Muchas de estas criaturas pueblan los ríos, los lagos y los mares. A menudo, su encuentro con los humanos genera escenas de tensión dramática o castigo divino.

Uno de los ejemplos más célebres lo constituye el episodio de Andrómeda y el monstruo marino. Según la versión de Apolodoro, Cefeo y Casiopea debían sacrificar a su hija Andrómeda para aplacar a Poseidón, quien había enviado un kētos (una bestia marina) a devastar sus tierras. El héroe Perseo logró liberarlos matando al monstruo.

Los kētoi se presentaban como figuras ambivalentes. Unas veces, se correspondían con criaturas reales magnificadas, como las ballenas o los tiburones. Otras eran proyecciones de terrores colectivos asociados al océano en cuanto el peligroso límite del mundo conocido.

El combate simbólico: héroes contra monstruos

El arquetipo del matadragones, el héroe masculino que se enfrente y vence a esas criaturas, se encuentra ya en la mitología griega. Apolo, por ejemplo, mató a Pitón, una enorme serpiente que custodiaba el oráculo de Delfos, una hazaña que le permitió fundar su propio culto. Este relato ejemplifica una estructura narrativa recurrente en la mitología: el joven dios o héroe que vence al monstruo y funda un nuevo orden.

Cadmo, el fundador de Tebas, también protagonizó un combate similar. Tras matar al dragón que custodiaba la fuente de Ares, Cadmo sembró sus dientes que dieron origen a una nueva estirpe guerrera. En ambos casos, el dragón aparece como figura liminar entre el caos primigenio y el nacimiento de una civilización.

Este esquema se perpetuó en la literatura posterior, e incluso en la iconografía. Es ahí donde emerge la representación del dragón como enemigo fundamental del bien, especialmente en los relatos cristianos de santos como san Jorge o san Teodoro.

San Jorge y el dragón
San Jorge luchando con el dragón, un cuadro de Rafael. Museo del Louvre. Fuente: Wikimedia

El dragón en la tradición romana

Aunque los romanos heredaron parte del imaginario griego, aportaron también una visión militarizada del dragón como símbolo tanto de poder como de amenaza. En el contexto imperial, los dracones aparecen como estandartes de las tropas auxiliares, sobre todo aquellas de origen oriental, y su imagen se asocia al enemigo bárbaro.

En el plano mitológico, los romanos reelaboron episodios conocidos de las luchas contra dragones y serpientes, como el de Hércules, que incorporaban elementos teatrales y espectaculares. El dragón, convertido en el símbolo visual del desafío extremo, se convierte en una presencia habitual en mosaicos, relieves y sarcófagos.

Heracles y Ladón
Heracles y Ladón, Staatliche Antikensammlungen. Fuente: Bibi Saint-Pol/Wikimedia

De lo pagano a lo cristiano: el dragón como símbolo del mal

En la transición hacia el cristianismo, la figura del dragón experimentó una transformación ideológica profunda, pasando de ser una criatura liminal o caótica a representar directamente al demonio. En el Apocalipsis bíblico, por ejemplo, el dragón rojo de siete cabezas y diez cuernos es Satanás, enemigo de Dios y perseguidor de la Iglesia.

Los relatos hagiográficosque narran las vidas de los santos retomaron el modelo clásico del héroe contra el monstruo, pero ahora con un mensaje moral. Así, san Jorge mata al dragón no como acto heroico secular, sino como manifestación del poder de Dios sobre el mal. Este proceso de reinterpretación, que se alimenta de las fuentes clásicas, añade una nueva capa de matices simbólicos que perdurará en la Edad media.

Héroe contra dragón
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Persistencia y resignificación: el legado del dragón clásico

Los estudios sobre estas criaturas míticas han demostrado que el dragón grecorromano no tiene una única forma ni un único significado. Al contrario: es una criatura plural, adaptable y cargada de simbolismo. Marca el paso del desorden al orden, del caos a la cultura. Al ser incorporado por el cristianismo, el dragón sobrevivió como metáfora del pecado, el paganismo o la vorágine que debe vencerse. Esta continuidad explica su presencia constante en la iconografía posterior, desde los manuscritos medievales hasta los bestiarios renacentistas.

Una criatura necesaria

El dragón en la mitología grecorromana expresa las tensiones fundamentales entre lo humano y lo monstruoso, lo sagrado y lo profano. Ya sea como serpiente marina, guardián de un tesoro o enemigo de los santos, su poder simbólico radica en su ambigüedad: puede ser hijo de la tierra o del infierno, protector o destructor, monstruo desafiante o reto a vencer. Protagonistas de las estructuras narrativas que organizaron el pensamiento mítico y religioso del mundo antiguo, su presencia aún perviven en nuestra cultura contemporánea.

Referencias

En cuestiones de salud, no todo lo que se repite con seguridad es verdad. Algunas ideas llevan generaciones transmitiéndose como certezas incuestionables, cuando en realidad son fruto de errores de interpretación, investigaciones desactualizadas o simples rumores. Desde el supuesto peligro mortal de bañarse tras comer hasta el mito de que mezclar bebidas alcohólicas agrava la resaca, muchos conceptos populares no tienen base científica alguna. Separar los hechos de la ficción no solo es un ejercicio de pensamiento crítico, sino también una forma de tomar decisiones informadas sobre nuestra salud. Porque en un mundo saturado de información, saber qué creer puede ser tan importante como saber qué evitar.

Mito1: Las personas con memoria fotográfica son capaces de recordarlo todo

Películas y best sellers de todo tipo han popularizado este concepto, según el cual hay gente capaz de recordar al detalle cualquier texto o imagen con solo mirarlo una vez. Pero este don es más ficción que realidad. Desde luego, existen personas con una memoria excepcional –bien por predisposición natural, bien por entrenamiento—, pero no hay evidencia científica de que exista la capacidad de recordar con todo detalle. 

Antes de almacenar nada como un recuerdo, el cerebro somete toda la información que recibe a un filtrado por el que elimina la mayor parte de ella. Tendemos a retener lo excepcional, lo que nos llama la atención, y, al recuperarlo, nuestra imaginación sustituye los vacíos con falsos recuerdos, hasta reconstruir algo parecido al original. Las memorias fotográficas hacen lo mismo, pero tienen menos huecos que rellenar, porque son más precisas. 

En el caso de los que recuerdan textos o números, es difícil saber si lo hacen por una habilidad natural o porque recurren a métodos de mnemotecnia; pero ninguno es capaz de recordar esos textos en un orden distinto del original -por ejemplo, al revés-, como sí podrían hacer si retuvieran fielmente su imagen.

Sí existe la memoria que se denomina eidética, que permite a las escasas personas que la tienen —algunos niños, sobre todo, y pocos adultos— recordar imágenes durante unos minutos con todo detalle. La controla el córtex parietal posterior, que se encarga de procesar los estímulos visuales y retener las imágenes. Pero ni siquiera esos recuerdos son indelebles, y, como todos los demás, están llenos de detalles imaginados para completarlos.

Ni memoria fotográfica ni corte de digestión, estos mitos de salud no resisten un análisis científico 1
No existe evidencia científica de que nadie pueda recordar una imagen con precisión total tras verla solo una vez. Fuente: Pixabay.

Mito 2: Un solo cigarrillo acorta la vida once minutos

Si fuera así, una cajetilla acortaría la vida 3,6 horas, con lo que si fumáramos un paquete al día, al final del mes nos habríamos quitado unos cuatro días y medio de futura existencia… No es eso. No hay duda de que fumar es dañino para la salud y acorta la vida, en ocasiones de modo radical, pero los cigarrillos no vienen con el extra de un cronómetro.

 El origen de esta leyenda está en un estudio que se hizo en 2000 en la Universidad de Bristol (Reino Unido) donde un grupo de científicos intentó calcular el tiempo de vida que se pierde con cada cigarrillo. Para ello, tomaron como base la expectativa de vida y los hábitos de consumo de fumadores británicos del sexo masculino. De ahí salieron los once minutos en cuestión.

Pero fijémonos de nuevo en los datos utilizados: fumadores masculinos británicos y expectativas de vida de ese país hace veinte años. Un poco limitado, la verdad. El estudio deja fuera a los fumadores de todos los demás países y a las fumadoras de todo el mundo, así como las expectativas de vida en las distintas partes del planeta, sin contar factores secundarios, pero de notable relevancia, como la genética y la predisposición al cáncer.

Con una información tan limitada como campo de trabajo, es bastante aventurado presentar unos resultados tan precisos. Cada grupo de población, por no decir cada individuo, acusará de modo distinto los efectos del tabaco, pero lo que es seguro es que nos hace daño a todos.

Mito 3: Bañarse después de comer puede ser mortal 

Nos referimos al temido corte de digestión contra el que tanto nos avisaron –y a veces sonaba a amenaza– nuestras madres y abuelas. 

No hay para tanto. Lo que nos advierten los especialistas es que es peligroso sumergirse en agua muy caliente o muy fría, o ponerse a nadar inmediatamente después de una comida, sobre todo si ha sido muy copiosa.

El motivo es que, tras una comida, el organismo dirige una mayor cantidad de sangre al estómago para ayudar a la digestión. Si nos metemos en agua caliente, ello puede provocar la dilatación de los vasos sanguíneos y desviar la circulación a la piel, lo que dejaría al proceso de digestión con menos apoyos. El agua muy fría hace algo parecido, ya que reparte la sangre por el cuerpo para compensar la pérdida repentina de calor.

Y lo mismo sucede si nos ponemos a nadar, ya que el trabajo de los músculos demanda más sangre. Sin embargo, ni la digestión ni nosotros nos veremos afectados por una simple ducha o por movimientos ligeros en una piscina con el agua a una temperatura agradable

Mito 4: Crujir los dedos puede causar artritis

Lo que parece claro es que este hábito puede afectar a los nervios… de los demás. El ruido que se oye al crujir los dedos no tiene nada que ver con los huesos de la mano, sino que se produce al estallar una pequeña burbuja de gas presente en el líquido sinovial.

Esta sustancia, compuesta por ácido hialurónico y gases como el oxígeno y el CO2, lubrica y aumenta entre un 15 % y 20 % el volumen de las articulaciones. La artritis es el resultado de una inflamación articular, pero, como los huesos no se tocan ni chocan cuando crujimos los dedos, la posibilidad de que este viejo hábito influya de alguna manera en este proceso de inflamación es mínima. De todos modos, no es bueno hacerlo de un modo muy agresivo, ya que corremos el riesgo de lastimarnos. 

Ni memoria fotográfica ni corte de digestión, estos mitos de salud no resisten un análisis científico 2
El efecto es psicológico, no fisiológico. Lo que calma es aliviar el hambre o el estrés, no el azúcar en sí. Fuente: Pixabay.

Mito 5: Beber agua con azúcar te tranquiliza

Estamos ante una de esas falsas creencias que están fundadas, única y exclusivamente, en el efecto placebo. 

Ni el agua ni el azúcar tienen ningún efecto tranquilizador ni relajante sobre el organismo. Lo único que pueden hacer, en el mejor de los casos, es elevar el nivel de glucosa en la sangre, lo que contribuye a disminuir la irritación que nos provoca el hambre, que procede a su vez de la liberación de adrenalina cuando el estómago permanece vacío durante mucho tiempo.

Pero la verdad es que notaríamos el mismo efecto picando una rodaja de chorizo. Y, para el resto de los estados de excitación, sigue siendo más recomendable beber una tila.

Mito 6: Jamás se debe despertar a un sonámbulo

Teóricamente es algo que no se debe hacer, porque la impresión que este puede tener al despertar y encontrarse fuera de la cama podría ocasionarle un choque traumático de graves consecuencias. Las versiones más exageradas aseguran incluso que es posible provocarle la muerte. La verdad es que es más probable que se lesione durante su paseo por tropezar con algún obstáculo, así que lo de dejar a los sonámbulos a su aire es bastante más peligroso que despertarlos. 

El sonambulismo se produce en el paso de un estado de sueño profundo a una fase superficial. Durante ese cambio, las funciones motoras pueden despertar, aunque la consciencia aún no lo haga, y eso es lo que origina que el sonámbulo se mueva y hable incluso estando dormido.

Sacar a una persona de ese estado no supone ningún peligro para su salud, pero quien lo haga deberá tener cuidado, ya que, al despertar repentinamente, el sonámbulo puede sentirse desorientado y reaccionar con agresividad hasta entender qué está sucediendo.

Lo más correcto para lidiar con una crisis así es reconducir con cuidado al durmiente de vuelta a la cama. En casos de reincidencia, es importante retirar los posibles obstáculos del camino e incluso colocar telas o rejas en las ventanas. Y visitar a un especialista.

Mito 7: Afeitarse con cuchilla fortalece el vello…

Con cuchilla o con maquinilla eléctrica, el sistema de afeitado que elijamos no va a influir en las características de nuestra barba. El motivo de este bulo es simplemente una ilusión óptica: la forma de los pelos es desigual, ya que la base es siempre más gruesa que la punta, porque es en ella donde se acumula la queratina, la proteína que forma cabellos y uñas.

El afeitado con cuchilla –o la depilación por el mismo método– corta el vello a ras de piel, pero no lo elimina por completo. A los pocos días, la parte gruesa empieza a asomarse de nuevo, por lo que la piel se vuelve más áspera y se crea la falsa sensación de que el pelo es ahora más grueso. 

Otra razón a tener en cuenta es la pubertad. Durante la adolescencia no es necesario afeitarse todos los días y, en los intervalos entre afeitados, el vello sufre la acción de las hormonas y se vuelve más grueso y denso, de modo que cubre nuevas zonas del rostro. Fenómeno que termina cuando se alcanza la madurez y somos ya hombres con toda la barba.

Ni memoria fotográfica ni corte de digestión, estos mitos de salud no resisten un análisis cien
El cabello crece a su ritmo, determinado por la genética. Cortarlo mejora su aspecto, pero no acelera su crecimiento. Fuente: Pixabay.

Mito 8: … Y cortarlo a menudo acelera su crecimiento

El cabello crece por lo general una media de un centímetro al mes. Esta velocidad puede variar, pero siempre estará determinada por factores genéticos y metabólicos.

Y recordemos que, más allá de la raíz, el cabello es tejido muerto, por lo que la frecuencia con la que se corte no va a influir en su velocidad de crecimiento… salvo en un aspecto, y es que acudir periódicamente a la peluquería permite acabar con las puntas abiertas y las zonas resecas que empeoran su aspecto y pueden debilitarlo. Si se mantiene el pelo sano, crecerá mejor. Pero no más rápido.

Mito 9: Mezclar bebidas alcohólicas agrava la resaca… 

No. Lo que agrava las dimensiones de la resaca es sencillamente la cantidad de alcohol ingerida. Por supuesto, hay algunos factores que también influyen, como la reacción de cada organismo al consumo de alcohol, si el estómago está lleno o vacío, la edad o la constitución física… Pero que la resaca se vuelva peor por haber mezclado bebidas es solo un mito. 

Existen, sin embargo, algunas precisiones que conviene conocer sobre esta desagradable consecuencia de las noches de copas: además del etanol, que es el elemento que causa la intoxicación etílica, los destilados tienen unos componentes que sí agravan la resaca y que son conocidos como congéneres.

Este nombre agrupa a las sustancias que se producen durante el proceso de fermentación, como la acetona, el acetaldehído, el alcohol de fusel y los taninos. Estos últimos son los responsables de dar al wiski, al brandy o al ron sus colores característicos. Por eso se dice que los licores blancos producen menos resaca, pero no nos engañemos: el mejor remedio contra ella es beber poco y evitar los licores de mala calidad. En resumen: la mejor prevención contra la resaca está sencillamente en no emborracharse.

Un día cualquiera, en un laboratorio oscuro y ultrafrío del MIT, un grupo de físicos apuntó un rayo de luz débil hacia una nube de átomos congelados y observó algo asombroso. Lo que parecía una sencilla interacción entre fotones y materia terminó siendo una confirmación precisa de una de las ideas más desconcertantes de la física cuántica: que la luz no puede comportarse como partícula y como onda al mismo tiempo si se intenta observar su recorrido. Con ello, el experimento aportaba pruebas concretas que, de forma elegante y controlada, daban la razón a Niels Bohr y dejaban en entredicho la famosa propuesta de Albert Einstein sobre cómo atrapar la doble naturaleza de la luz sin destruirla.

Este nuevo experimento, publicado en Physical Review Letters y también detallado en un artículo técnico paralelo, representa la versión más "idealizada" del experimento de la doble rendija realizado hasta la fecha (un experimento que no deja de recibir revisiones). Lo realizaron físicos del MIT utilizando fotones individuales y átomos sueltos dispuestos con precisión milimétrica, reduciendo al mínimo cualquier ruido o interferencia. Sus conclusiones no solo confirman las predicciones de la mecánica cuántica, sino que desmontan definitivamente una alternativa planteada por Einstein hace casi un siglo.

La disputa entre Einstein y Bohr

En 1927, Albert Einstein formuló una objeción ingeniosa al experimento de la doble rendija, que ya entonces comenzaba a considerarse una pieza clave de la física cuántica. Su idea era que, si la luz era una partícula, debía dejar un rastro al pasar por una rendija, como una pequeña sacudida. Según Einstein, si uno podía detectar esa sacudida, sería posible saber por qué rendija había pasado el fotón sin destruir el patrón de interferencia, y por tanto atrapar su comportamiento dual de partícula y onda simultáneamente.

Niels Bohr no tardó en responder. Usando el principio de incertidumbre, demostró que cualquier intento de averiguar el camino recorrido por el fotón necesariamente haría desaparecer el patrón de interferencia. Dicho de otro modo: si se obtiene información sobre el camino, se pierde la ondulación, y viceversa. Desde entonces, múltiples versiones del experimento han corroborado esta afirmación, pero ninguna lo había hecho con tanta precisión ni con una puesta en escena tan depurada como la del MIT.

En palabras de los autores, lo que lograron fue un “experimento mental idealizado”, una versión extremadamente controlada de lo que solo se había teorizado en el pasado. Como explicó Wolfgang Ketterle, físico del MIT y líder del equipo, el experimento demuestra que “lo que importa no son los resortes, sino la difuminación de los átomos”, en referencia al antiguo modelo imaginado por Einstein.

Dos átomos dispersan luz y generan un patrón de interferencia. El contraste limitado se debe al entrelazamiento parcial entre átomos y fotones. Fuente: Physical Review Letters.

Un experimento cuántico con precisión quirúrgica

El equipo utilizó más de 10.000 átomos dispuestos en una red cristalina creada con haces de láser. Estos átomos estaban separados lo suficiente como para comportarse como unidades individuales, y al mismo tiempo lo bastante numerosos como para producir señales visibles. Lo extraordinario del diseño fue que cada fotón enviado interactuaba como máximo con un solo átomo, lo que permitió evitar superposiciones indeseadas y controlar el nivel de información disponible sobre el camino del fotón.

Uno de los aspectos más llamativos fue la capacidad de “ajustar” lo que los investigadores llaman la fuzziness o difuminación espacial del átomo. Cuanto más suelto era el confinamiento del átomo por el láser, más extendida estaba su posición en el espacio y, por tanto, mayor era la probabilidad de que detectara el paso de un fotón. Esa detección implicaba perder la interferencia. Así, los físicos lograron ajustar de forma gradual la proporción entre fotones que se comportaban como onda y los que se comportaban como partícula, simplemente modificando la precisión con la que se podía “saber” por dónde pasaban.

Según el artículo científico original, “la fracción de luz coherente e incoherente es la misma independientemente de la presencia de un potencial de confinamiento”. En otras palabras, da igual si el átomo está atrapado o flotando libremente: lo que determina el resultado es la información que se obtiene del sistema, no el entorno físico que lo rodea.

Fuente: ChatGPT / E. F.

¿Qué aportó realmente este nuevo experimento?

Este experimento permite observar directamente cómo se desvanece la interferencia cuando se gana información sobre el camino del fotón, un efecto que hasta ahora solo se infería. Además, consigue eliminar variables que podrían enmascarar el fenómeno, como los resortes o soportes mecánicos que simulaban las rendijas en versiones anteriores del experimento.

En versiones anteriores del experimento cuántico, se utilizaban elementos físicos que podían absorber el retroceso del fotón, actuando como una especie de “muelle” (resorte). Pero en esta ocasión, los científicos realizaron la misma prueba sin esos elementos auxiliares, y los resultados fueron idénticos. Como explican los autores, “la luz dispersada es parcialmente coherente, dependiendo del entrelazamiento parcial entre la luz y el movimiento atómico”.

Esta afirmación es fundamental porque indica que la pérdida de interferencia no se debe a un mecanismo mecánico, sino a una propiedad cuántica real: el entrelazamiento. Es decir, si el átomo y el fotón quedan entrelazados tras la interacción, entonces se pierde la posibilidad de ver la interferencia. Esa pérdida de información cuántica es, precisamente, lo que hace que la luz se comporte como partícula.

Además, el equipo realizó variaciones en el tiempo y la intensidad de los pulsos de luz, confirmando que la naturaleza ondulatoria o corpuscular del fotón no depende de la frecuencia del pulso, sino del estado cuántico del sistema.

Lo que Einstein no pudo prever

A pesar de su genialidad, Einstein partía de una visión en la que las partículas tenían trayectorias definidas y los efectos cuánticos podían, en principio, observarse sin alterar el sistema. Este experimento demuestra que esa intuición no se sostiene. El fotón no “decide” comportarse como onda o como partícula: su comportamiento depende directamente de si se intenta saber por qué camino pasó.

Los investigadores del MIT lograron eliminar por completo el componente mecánico del modelo, manteniendo solo lo esencial: fotones individuales, átomos individuales y la posibilidad de entrelazamiento. En este escenario limpio, sin interferencias externas, el resultado fue el mismo que había predicho Bohr hace casi un siglo.

El experimento también permitió probar que, una vez que el átomo está suficientemente deslocalizado —es decir, cuando su posición en el espacio es incierta dentro de los límites que marca el principio de incertidumbre—, la luz se dispersa de forma totalmente incoherente, lo que impide la formación de un patrón de interferencia.

¿Y ahora qué?

Este experimento no es solo una reivindicación del pensamiento de Bohr, sino también un avance en la forma en que se pueden diseñar y controlar experimentos cuánticos. El uso de átomos en estados de aislantes de Mott y la manipulación precisa de su confinamiento abre nuevas puertas para investigar el entrelazamiento, la decoherencia y otras propiedades fundamentales de la física cuántica.

El equipo espera aplicar estas técnicas para analizar otros fenómenos, como la interacción entre átomos en estados excitados y su capacidad para intercambiar información cuántica mediante la luz. Esto no solo tendrá implicaciones para la teoría cuántica, sino también para futuras tecnologías como la computación cuántica o la criptografía avanzada.

En definitiva, este trabajo del MIT no solo resuelve un debate clásico entre dos gigantes de la física, sino que lo hace con herramientas que hace cien años eran inimaginables. Y al hacerlo, demuestra que incluso las ideas más antiguas pueden actualizarse y ponerse a prueba con nuevos ojos… y nuevos láseres.

Referencias

Con el auge del turismo por carretera, los deportes al aire libre y la creciente necesidad de autonomía en nuestro día a día, los compresores de aire portátiles han pasado de ser un gadget curioso a una herramienta casi imprescindible.

Y en medio de esta tendencia creciente en pleno verano, Xiaomi vuelve a dar en el clavo rebajando considerablemente su compresor top ventas Mijia 2. Lo que convierte a la marca asiática en líder absoluto del sector.

Xiaomi Mijia Compressor 2
Xiaomi Mijia Compressor 2 - AliExpress

Este modelo, tiene un precio habitual que ronda los 45€ en tiendas especializadas como Amazon, la web oficial o Miravia. Sin embargo, Xiaomi apuesta de nuevo por AliExpress para hundirlo considerable y sorprendentemente hasta los 26,43 euros.

Se trata de un compresor de aire portátil de alto rendimiento, capaz de inflar un neumático vacío en solo 8 minutos. Así como volver a inflar hasta 10 neumáticos seguidos con una sola carga, gracias a su batería de iones de litio de 2000 mAh. Cuenta con un bloque de cilindros de aleación de alta precisión de 19 mm, capaz de alcanzar una presión de hasta 10,3 bares, con una precisión de medición mejorada de ±0,06 bares.

Dispone de seis modos de inflado preestablecidos, incluida una nueva opción para patinetes eléctricos, y un modo manual con memoria de presión. Además, incorpora una nueva válvula de conexión rápida, pantalla digital, luz LED de mayor brillo para uso nocturno y un puerto de carga USB-C universal.

Michelin quiere también ganar cuota de mercado hundiendo su Digital Mini-Compressor

La batalla por liderar el segmento de los compresores portátiles no se detiene, y ahora es Michelin quien quiere ganar cuota de mercado este verano rebajando su Digital Mini-Compressor hasta los 24,95 euros. Una opción segura para los desplazamientos, sabiendo además que su precio actual supera los 30€ en tiendas como Amazon.

Michelin Digital Mini-Compressor
Michelin Digital Mini-Compressor - Miravia

Este compresor de 12V cuenta con una pantalla digital integrada que permite seleccionar la presión deseada con una alta precisión de 0,05 hasta 3,5 bares. Dispone también de una capacidad de salida de 7 litros por minuto, es capaz de inflar un neumático estándar en aproximadamente 4 minutos.

Incorpora una boquilla de latón que garantiza un sellado firme en la válvula del neumático y reduce pérdidas de aire, así como una manguera de aire de nylon flexible de 10 cm.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

Aunque dormimos, el cerebro no se apaga. Lejos de desconectarse, sigue enviando señales eléctricas en un ritmo que los científicos aún están intentando descifrar. Investigadores de varios centros europeos han descubierto ahora que esas señales siguen patrones llamados "leyes de potencias", una propiedad matemática que revela una sorprendente estabilidad en la forma en que el cerebro funciona, incluso durante el sueño profundo.

El hallazgo podría cambiar la forma en que se mapean y analizan las diferentes áreas del cerebro. Usando datos de 55 personas que se sometieron a electroencefalografía intracraneal (sEEG), el equipo examinó tres regiones específicas del cerebro: la corteza motora (precentral), la sensorial (postcentral) y la auditiva (temporal superior). Lo que hallaron fue sorprendente: cada región mostraba un "exponente" fractal característico, que se mantenía casi inalterable, sin importar si la persona estaba despierta o dormida.

Esta estabilidad sugiere que el cerebro tiene una especie de huella digital matemática. Un patrón único de actividad que podría ser clave para comprender su funcionamiento y detectar alteraciones antes de que se manifiesten los síntomas clínicos.

Gráfico de cerebro del estudio
Distribución de los electrodos usados en el estudio para registrar la actividad eléctrica cerebral (sEEG) en estado de vigilia. Se analizaron tres regiones específicas: giro temporal superior (verde), postcentral (azul) y precentral (rojo), con datos de 55 personas. Fuente: Physica D.

Las matemáticas detrás del pensamiento: ¿qué es una ley de potencias?

En términos sencillos, una ley de potencias describe cómo una cantidad disminuye de forma predecible cuando otra crece. En el cerebro, se refiere a cómo varía la intensidad de las señales eléctricas en función de su frecuencia. Cuando estas señales siguen una ley de potencias, indican una actividad "auto-similar" o fractal, es decir, que se repite con distintas escalas.

El estudio reveló que estas leyes se mantienen firmes en las regiones cerebrales observadas, sobre todo en frecuencias altas, entre 34 y 80 Hz. Esta zona del espectro suele estar vinculada a funciones complejas como el pensamiento, el movimiento o la atención.

"Los procesos complejos ocurren en el cerebro cuando dormimos", dice Karolina Armonaitė, neurocientífica de la Universidad Tecnológica de Kaunas, Lituania.

El valor del exponente matemático, llamado β, varió de forma sistemática entre las áreas estudiadas. La corteza motora mostró el valor más alto, seguida por la sensorial y finalmente la auditiva. Este orden se mantuvo tanto en vigilia como en todas las fases del sueño, lo que sugiere que la estructura de la señal no depende del estado de consciencia.

¿Un nuevo mapa cerebral sin necesidad de estímulos?

Los científicos llevan décadas buscando una manera fiable de dividir el cerebro en regiones funcionales. Este proceso, conocido como parcelación cortical, suele depender de imágenes por resonancia o de tareas específicas que activan una zona u otra del cerebro. Pero el nuevo estudio propone un método alternativo.

"La corteza cerebral no es homogénea, y diferentes áreas pueden comportarse de manera diferente dependiendo de si una persona está despierta, dormida o en un estado de transición entre estas etapas", dijo Armonaitė.

Solo con observar la actividad espontánea del cerebro en reposo, es posible identificar a qué zona pertenece una señal. Este enfoque podría ser útil en pacientes que no pueden realizar tareas activas, como quienes están bajo anestesia o en coma.

Además, el hallazgo permite afinar aún más el mapa cerebral. Mientras que métodos anteriores se centraban en las oscilaciones rítmicas (como las ondas alfa o beta), este trabajo pone el foco en la actividad no oscilatoria, a menudo ignorada por considerarse "ruido". Ahora se sabe que ese "ruido" puede esconder una estructura valiosa para entender cómo funciona el cerebro realmente.

¿Y si el cerebro tiene una firma matemática única? Un estudio revela que cada región cerebral se distingue por un patrón, incluso cuando dormimos 3
El estudio encontró diferencias claras entre cortezas motora, sensorial y auditiva en sus firmas eléctricas. Representacion artística. Fuente: iStock (composición ERR).

Qué nos dice el cerebro durante el sueño

Uno de los aspectos más innovadores del estudio fue analizar estas firmas matemáticas durante el sueño. Los investigadores evaluaron tres fases distintas: REM (cuando soñamos), N2 y N3 (sueño profundo). Aunque en estas etapas la actividad eléctrica general cambia, los patrones de ley de potencias en alta frecuencia se mantuvieron constantes en cada región.

Esto sugiere que algunas características fundamentales de la actividad cerebral no dependen del estado de vigilia o sueño. La corteza motora, sin embargo, mostró cierta variabilidad, probablemente porque sigue activa durante el sueño a través de micro-movimientos o procesos de consolidación de memoria motora.

Además, los autores comprobaron que estos patrones no estaban relacionados con la edad o el sexo de los participantes. Esto refuerza la idea de que se trata de características intrínsecas a la organización funcional del cerebro humano.

Aplicaciones futuras: del diagnóstico temprano a la neurotecnología

Aunque el estudio es de carácter fundamental, sus aplicaciones potenciales son numerosas. Una de las más evidentes es el diagnóstico precoz de enfermedades neurológicas o del sueño. Si sabemos cómo "suena" un cerebro sano en reposo, podemos detectar cuándo algo no encaja.

"La esquizofrenia, por ejemplo, se caracteriza por una sincronización interrumpida entre diferentes áreas, mientras que la enfermedad de Alzheimer a menudo comienza con cambios funcionales muy sutiles en un área de la corteza, incluso antes de que los síntomas se hagan evidentes", dijo Armonaitė.

También podría ayudar a diseñar terapias personalizadas basadas en neuroestimulación o a mejorar los modelos de interfaces cerebro-computadora. En ambos casos, contar con una representación matemática precisa de la actividad cerebral permitiría intervenir de forma más dirigida y eficaz.

A largo plazo, este tipo de análisis podría integrarse en dispositivos de monitorización cerebral, aportando una capa adicional de información sobre el estado funcional de distintas regiones, sin necesidad de someter al paciente a pruebas invasivas o estimulaciones externas.

¿Y si el cerebro tiene una firma matemática única? Un estudio revela que cada región cerebral se distingue por un patrón, incluso cuando dormimos 1
Cada región cerebral tiene su propia firma eléctrica, visible incluso durante el sueño profundo. Fuente: iStock (composición ERR).

Un código oculto en el ruido del cerebro

Lo más fascinante de este hallazgo es que se basa en lo que antes se desechaba: la parte de la señal cerebral que no sigue un ritmo claro. Lejos de ser ruido sin sentido, parece esconder una firma matemática robusta, estable y única para cada región.

Esta firma, basada en leyes de potencias, podría convertirse en una nueva herramienta para mapear el cerebro humano y entender su complejidad. Aunque aún queda camino por recorrer, el estudio demuestra que incluso en el aparente silencio del cerebro dormido, hay patrones que hablan. Y ahora sabemos cómo empezar a escucharlos.

Referencias

La lista de preguntas a las que la historia y la arqueología aún no han podido responder es larga y sigue creciendo. El saber y la duda van de la mano: cuanto más conocimiento se genera, mayor es el número de interrogantes que se formulan. Sin embargo, en ocasiones, esos huecos pueden transformarse en peligrosas armas de desinformación o, cuando menos, de acalorados debates. Esto es lo que ha sucedido en el valle de Visoko, en el corazón de Bosnia-Herzegovina. Un conjunto de formaciones piramidales en la zona ha generado una intensa polémica durante las dos últimas décadas. El epicentro de esta controversia es la denominada Pirámide del Sol de Bosnia, una colina de geometría regular y una aparente orientación cardinal precisa.

Mientras que la arqueología convencional ha identificado tales estructuras como formaciones naturales, una serie de investigaciones firmadas por el controvertido empresario Semir Osmanagich propone una interpretación radicalmente distinta. Uno de sus últimos artículos, publicado en 2025 en la revista Transactions on Applied Science, Engineering and Technology, sugiere que las supuestas pirámides bosnias funcionaron como dispositivos tecnológicos prehistóricos diseñados para generar y amplificar energía.

Colina piramidal
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Las hipótesis de Osmanagić: energía desde el pasado remoto

El trabajo de Osmanagić plantea que las pirámides de Visoko se habrían construido con el propósito de funcionar como generadores o amplificadores de energía electromagnética y ultrasónica. Para sostener esta afirmación, Osmanagić se ha apoyado en una metodología multidisciplinar que combina arqueología, geofísica, ingeniería, modelado estadístico y mediciones ambientales realizadas a lo largo de veinte años de excavaciones. Su objetivo principal ha sido obtener datos que sustentasen su hipótesis y poder, así, reinterpretar el complejo piramidal como una infraestructura energética avanzada, construida artificialmente.

Una supuesta geometría precisa construida por una voluntad

Osmanagić y su equipo han hecho de la regularidad geométrica uno de los puntos de su argumentación. Según el autor, la cara norte de la Pirámide del Sol estaría orientada al norte verdadero con una desviación de tan solo 0° 0′ 12″, una precisión superior incluso a la de la Gran Pirámide de Giza. El artículo presenta otras evidencias estructurales como ejemplo de artificialidad. Según se afirma, las excavaciones arqueológicas habrían revelado una serie de bloques rectangulares de un conglomerado artificial compuesto por brecha, arena y arcilla tratada térmicamente, con una resistencia a la compresión de entre 73 y 133 MPa. Según Osmanagić, estos materiales no serían productos naturales, sino elementos manufacturados con características similares al hormigón moderno.

Pirámides, energía y pseudociencias
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Emisiones energéticas, interacciones ambientales y alineaciones celestes

Uno de las afirmaciones más intrigantes del estudio asegura que se han detectado de forma persistente emisiones electromagnéticas desde el vértice de la pirámide. Desde 2010, distintos equipos de investigación de países como Serbia, Italia, Rusia o Finlandia sostienen haber registrado una señal estable de 28,5 kHz emitida desde la cúspide de la estructura. Esto coincidiría, según los investigadores, con la frecuencia utilizada por Nikola Tesla en sus experimentos de transmisión inalámbrica de energía.

La hipótesis energética se ve reforzada, desde el punto de vista de Osmanagić, por una serie de interacciones ambientales y alineaciones celestes. A decir de los investigadores, durante el eclipse lunar total del 27 de julio de 2018, se registró un incremento notable en la intensidad del campo eléctrico y de las emisiones electromagnéticas del lugar, en sincronía con la alineación de varios cuerpos celestes. Esta correlación sugiere, en la reconstrucción propuesta por el autor, que el comportamiento energético del complejo piramidal podría estar influido por eventos astronómicos.

Rocas de conglomerado
Rocas de conglomerado. Fuente: Mhare/Wikimedia

Una disposición armónica: geometría sagrada

Otro elemento clave del estudio es la distribución geométrica del conjunto. La Pirámide del Sol, junto con otras formaciones vecinas como la Pirámide de la Luna, del Amor, del Dragón y el túmulo de Vratnica, se alinea, según esta hipótesis, sobre una espiral de Fibonacci trazada a partir de la proporción áurea (φ ≈ 1,618). Esta disposición, afirma el autor, se asemeja a los patrones observados en monumentos del Antiguo Egipto o de la América precolombina. El uso de estas proporciones sugerería una intención de canalizar o armonizar energías naturales a través del paisaje. Según Osmanagich, esto no solo aporta un significado simbólico, sino una posible función tecnológica de modulación energética.

Un método ajeno a la ciencia

A pesar de lo seductora que puede resultar esta narrativa, la comunidad científica ha señalado las profundas carencias presentes en el enfoque de Osmanagić. Se ha notado, en primer lugar, que carece de una formación arqueológica y científica en sentido estricto y, en segundo lugar, que sus investigaciones no siguen los procedimientos de validación propios de las ciencias sociales o naturales.

Las excavaciones en Visoko, además, se han desarrollado sin el control institucional ni la supervisión metodológica que exige el trabajo arqueológico profesional. No existen publicaciones con revisión por pares que respalden las afirmaciones más extraordinarias, como la supuesta antigüedad de las pirámides (que Osmanagić sitúa incluso en 12 000 a.C.) o la existencia de una red de túneles con propiedades terapéuticas y energéticas.

Además, las mediciones presentadas como evidencias de emisiones energéticas o resonancias acústicas se han realizado en condiciones poco transparentes, sin replicabilidad demostrada ni instrumentación validada por instituciones científicas independientes. Las visualizaciones en 3D, los modelos geométricos o las simulaciones estadísticas que refuerzan su discurso, aunque sofisticadas en apariencia, carecen del respaldo empírico necesario para sostener una reinterpretación tan radical de la historia antigua.

Colina de Visocica
Colina de Visocica. Fuente: Edinwiki/Wikimedia

La respuesta de la arqueología académica

Desde que dieron comienzo las excavaciones en 2005 en el supuesto complejo piramidal, han sido muchos los arqueólogos, geólogos y especialistas en patrimonio que han cuestionado enérgicamente las tesis de Osmanagić. Para los expertos, las colinas del valle de Visoko no son pirámides, sino formaciones geológicas naturales conocidas como cheurones, cuya morfología en forma de cuña se explica por procesos de erosión y estratificación.

La Asociación Europea de Arqueólogos emitió en 2006 un comunicado oficial alertando del grave riesgo que las excavaciones no autorizadas suponían para el patrimonio del lugar, que incluían restos romanos y un castillo medieval. Voces de la academia internacional, como Anthony Harding, Jean-Paul Demoule o Hermann Parzinger, calificaron el proyecto de “engaño cruel”, subrayando que ninguna universidad o centro de investigación respetable avala la existencia de las llamadas pirámides bosnias.

Los estudios estratigráficos independientes, además, han revelado que las capas de sedimento apuntan a un origen natural. El geólogo Robert Schoch, conocido por sus investigaciones sobre monumentos egipcios, afirmó tras visitar el sitio que no hay ningún elemento artificial en la formación de las colinas.

Pirámide y energía
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Cuando la historia se convierte en espectáculo

Más allá de la controversia científica, el caso de Visoko plantea un dilema de fondo sobre la difusión pública del conocimiento y el papel de la pseudoarqueología en la sociedad. El discurso de Osmanagić ha captado el interés de miles de personas en todo el mundo, desde turistas a medios de comunicación. El lugar se ha convertido, así, en un parque arqueológico alternativo que ofrece visitas, talleres y experiencias “energéticas”.

Sin embargo, el impacto de este fenómeno va más allá del terreno turístico o mediático. Por un lado, ha desviado la atención de investigaciones científicas sobre el patrimonio histórico bosnio. Por otro, ha contribuido a difundir concepciones erróneas sobre cómo se construye el conocimiento histórico y arqueológico, promoviendo ideas sin fundamento que podrían llegar a erosionar la confianza pública en la ciencia.La destrucción de capas arqueológicas auténticas, la alteración del paisaje con maquinaria pesada y la apropiación simbólica de un pasado inexistente son consecuencias tangibles de esta deriva.

Una advertencia para el futuro

Las llamadas “pirámides de Bosnia” constituyen uno de los casos más notorios de pseudoarqueología en Europa. Se trata, pues, de un conflicto entre dos maneras opuestas de abordar el pasado: una basada en la evidencia, la revisión crítica y el consenso profesional; la otra, en la especulación, la mercadotecnica y el deseo de creer. Reivindicar la capacidad tecnológica de civilizaciones prehistóricas no es en sí problemático; lo que resulta peligroso es hacerlo sin pruebas, al margen del método científico, y con consecuencias negativas para el patrimonio real.

Referencias

Una escena futurista que durante mucho tiempo pareció reservada a la ciencia ficción está cada vez más cerca de materializarse: sobrevivir en la Luna utilizando sus propios recursos naturales. Una reciente investigación liderada por científicos chinos ha logrado un avance que podría cambiar para siempre la forma en que concebimos la exploración espacial. El hallazgo se basa en algo tan simple —y a la vez tan sorprendente— como el propio suelo lunar.

La historia comenzó con las muestras recolectadas por la misión Chang’e-5, enviadas por China en 2020. Hasta ahora, estas rocas grises y aparentemente inertes habían sido analizadas en busca de información sobre el pasado del satélite. Pero en 2025, un equipo decidió ir más allá y preguntar: ¿podría este polvo sostener la vida? El resultado fue un sí asombrosamente rotundo.

La clave está en el agua que ya está allí

Uno de los aspectos más llamativos del estudio es que no se basa en teorías abstractas, sino en experimentos de laboratorio realizados con suelo lunar auténtico. La investigación confirma que las muestras lunares contienen especies relacionadas con el hidrógeno que, mediante tratamiento térmico, pueden liberar agua. Este fenómeno ya había sido observado, pero nunca aprovechado de forma integrada para fines prácticos de supervivencia.

Según el estudio publicado en Joule, el equipo desarrolló una tecnología que permite extraer agua directamente del suelo lunar y usarla en el mismo proceso para transformar dióxido de carbono en oxígeno y combustibles útiles, como el monóxido de carbono e hidrógeno.

El procedimiento se basa en una estrategia fototérmica, es decir, en el uso de luz solar concentrada para calentar las muestras. Así, sin necesidad de electricidad ni reactores complejos, se logra liberar agua del regolito (el polvo superficial lunar) y ponerla a trabajar en reacciones químicas esenciales. Esto convierte al propio suelo en una fuente autosuficiente de oxígeno y energía.

Fuente: Joule

Tecnología integrada para reducir la dependencia de la Tierra

En el espacio, cada litro de agua cuenta. Transportarlo desde la Tierra cuesta aproximadamente 83.000 dólares por galón (unos 20.000 euros por litro), según se recuerda en los artículos que comentan el estudio. Considerando que cada astronauta necesita unos 4 galones diarios, la logística resulta insostenible. Por eso, cualquier avance que permita reducir esta dependencia tiene un valor incalculable.

A diferencia de intentos previos, esta nueva tecnología no solo extrae agua, sino que además la convierte inmediatamente en productos útiles. El dióxido de carbono, generado por los propios astronautas al respirar, se transforma en monóxido de carbono, oxígeno e hidrógeno. Estos tres productos permiten respirar, generar electricidad y hasta fabricar combustibles sintéticos.

El agua lunar extraída permitió la conversión de CO2 en O2, H2 y CO mediante tecnología catalítica fototérmica”, afirma literalmente el estudio. Esta frase resume una hazaña científica: lograr, con luz solar y polvo lunar, un sistema capaz de sostener una base humana en otro mundo.

Fuente: Joule

El papel del ilmenita: un mineral lunar con poderes ocultos

Uno de los grandes hallazgos del estudio tiene que ver con un mineral abundante en la superficie lunar: la ilmenita (FeTiO3 ). Este mineral oscuro, ya conocido por su contenido de titanio y hierro, resulta ser también un excelente catalizador para las reacciones químicas necesarias en el proceso fototérmico.

Los científicos comprobaron que la ilmenita actúa como centro activo en la reacción, absorbiendo la luz solar y facilitando la conversión del dióxido de carbono y el agua en productos útiles. Su estructura electrónica resulta ideal para que los electrones y huecos generados por la luz puedan activar y descomponer las moléculas.

Según el artículo científico, "la producción de CO confirmó la hipótesis de que la ilmenita es la especie activa en la catálisis fototérmica de CO2". Es decir, este mineral no solo es útil: es el verdadero motor del proceso.

Además, su comportamiento se mantiene estable incluso después de varias reacciones, lo que sugiere que podría emplearse en sistemas reutilizables, algo clave en entornos extremos como el lunar.

Ilmenita. Fuente: Wikipedia

Un sistema que imita a la fotosíntesis, pero lunar

Este invento representa mucho más que una técnica de laboratorio: es una propuesta para desarrollar una forma artificial de fotosíntesis en la Luna. A diferencia de la natural, que requiere plantas y tiempo, esta versión utiliza energía solar concentrada, polvo y gases exhalados por los humanos.

Durante la noche lunar, con temperaturas de hasta −173 °C, se podría congelar y recolectar el dióxido de carbono del ambiente sellado de una base lunar. Luego, durante el día, cuando la superficie alcanza los 127 °C, ese gas se introduciría en el reactor fototérmico junto con el agua extraída del suelo. El resultado sería la producción continua de oxígeno, hidrógeno y monóxido de carbono.

El equipo incluso menciona la posibilidad de aplicar procesos industriales como la síntesis Fischer-Tropsch para fabricar combustibles líquidos a partir del CO y el H2 producidos, lo que abriría la puerta a una economía energética local en la Luna.

Promesa tecnológica, pero con desafíos por delante

Aunque los resultados son impresionantes, los propios autores subrayan que aún quedan obstáculos importantes. Las condiciones extremas de la Luna —como la baja gravedad, la alta radiación solar y las temperaturas variables— hacen que el desarrollo de reactores adecuados no sea trivial. También señalan que la heterogeneidad del suelo lunar complica su tratamiento uniforme y que la cantidad de CO2 disponible en una base lunar es limitada.

Además, como señala el paper, “el rendimiento catalítico actual sigue siendo insuficiente para satisfacer plenamente las necesidades de supervivencia extraterrestre”. Esto significa que, por ahora, la tecnología es una demostración de viabilidad, no una solución inmediata.

Pero en ciencia, probar que algo es posible es el primer paso hacia hacerlo realidad. Y este estudio lo ha demostrado con claridad.

Una puerta abierta hacia la autosuficiencia lunar

Lo más valioso de este avance es que marca un punto de inflexión en la forma de pensar la colonización lunar. Hasta ahora, todos los planes de misión partían de la base de llevar desde la Tierra los insumos necesarios para sobrevivir. Pero este trabajo sugiere que el propio entorno lunar puede convertirse en proveedor de agua, oxígeno y energía, con un sistema alimentado únicamente por la luz del Sol.

Las aplicaciones prácticas de esta tecnología no se limitan a la Luna. Marte, asteroides y otras lunas podrían beneficiarse de estrategias similares, siempre que se identifiquen catalizadores locales adecuados. De este modo, la visión de bases autosuficientes fuera de la Tierra ya no parece una fantasía.

El artículo concluye que “la tecnología catalítica fototérmica podría ser un método simple y potente para extraer y utilizar el agua del suelo lunar”. Y esa sencillez es precisamente lo que la hace tan prometedora.

Referencias

La historia de los Austrias españoles —una de las casas reales más poderosas de Europa— no deja de ofrecer nuevas aristas cuando se examina desde el prisma de la ciencia contemporánea. En el reciente libro Los Austrias. Esplendor, crisis y caída del imperio de los Habsburgo españoles, coordinado por Rubén Buren y publicado por la editorial Pinolia, se retrata con brillantez el auge y declive de la dinastía que dio forma a la Edad Moderna en España. Desde los triunfos de Carlos I hasta la debilidad terminal de Carlos II, se reconstruye la compleja red de ambición, política internacional, arte, religión y decadencia que caracterizó a los monarcas de la Casa de Austria. Sin embargo, un estudio publicado el American Journal of Human Biology aporta una clave esencial para comprender la caída de la dinastía desde un ángulo inesperado: la genética.

Durante siglos, la historiografía se ha centrado en los errores de gestión, las guerras sin fin y la corrupción cortesana como causas del declive habsbúrgico. Pero este nuevo trabajo de los investigadores Francisco C. Ceballos, Román Vilas y Gonzalo Álvarez, titulado Inbreeding Effect on Maternal Mortality and Fertility in the Habsburg Dynasty, introduce un factor biológico contundente: los niveles extremos de consanguinidad de los Austrias no solo provocaron deformaciones físicas o infertilidad masculina, como se sospechaba, sino que también generaron consecuencias letales para las mujeres de la familia.

La dinastía que se desangró por dentro

La práctica de casamientos entre parientes cercanos fue la norma, no la excepción, en la política matrimonial de los Austrias. Tíos con sobrinas, primos hermanos, incluso enlaces entre dobles primos, eran vistos como formas de mantener el poder dentro del linaje y evitar que tierras, títulos y alianzas escaparan del control familiar. Esta estrategia consolidó un imperio de dimensiones continentales... pero al precio de su salud biológica.

El equipo de investigadores reconstruyó un extenso árbol genealógico que abarca desde mediados del siglo XV hasta principios del siglo XIX, con más de 8.000 miembros de la familia incluidos. Lo que hallaron fue tan fascinante como escalofriante: las mujeres de mayor consanguinidad no solo vivían menos, sino que presentaban un riesgo dramáticamente elevado de morir durante el primer mes tras el parto.

En los casos más extremos —que no eran raros dentro de la rama española de los Habsburgo—, una de cada cinco madres fallecía en el primer mes posparto, una cifra abrumadora incluso para los estándares de la época. Este dato, si se extrapola, revela un drama invisible hasta ahora: una cadena de muertes femeninas tempranas que minó las capacidades reproductivas y sucesorias de la dinastía.

El estudio, basado en modelos estadísticos de supervivencia, encontró que este riesgo no se daba en mujeres que no tuvieron hijos. Es decir, el problema no era una fragilidad generalizada, sino un impacto específico de la consanguinidad sobre la maternidad. Las infecciones, hemorragias y complicaciones durante el parto, combinadas con una alta probabilidad de heredar genes recesivos dañinos, crearon un cóctel letal para las mujeres Habsburgo.

Durante generaciones, los matrimonios estratégicos entre parientes definieron el rumbo del imperio
Durante generaciones, los matrimonios estratégicos entre parientes definieron el rumbo del imperio. Foto: Wikimedia/Christian Pérez

Más hijos… pero más separados

Uno de los resultados más curiosos del estudio es que las mujeres con alto coeficiente de endogamia no tuvieron menos hijos en total. Esto puede parecer contradictorio, pero los investigadores proponen una explicación lógica: la presión social y política para garantizar herederos era tan fuerte, que las mujeres se veían obligadas a intentarlo una y otra vez, a pesar del coste físico y emocional. Es lo que los autores llaman “compensación reproductiva”.

Eso sí, se detectó un fenómeno revelador: cuanto más inbred era una mujer, mayor era el tiempo entre un parto y el siguiente. Esto sugiere que el cuerpo necesitaba más tiempo para recuperarse, o que los embarazos eran más difíciles de conseguir. Es decir, aunque el número final de hijos pudiera parecer normal, la capacidad reproductiva real estaba reducida por factores genéticos silenciosos.

De la "mandíbula de los Austrias" al colapso reproductivo

La historia de los Habsburgo ha estado marcada durante mucho tiempo por signos físicos visibles, como el prognatismo mandibular, conocido como la “mandíbula de los Austrias”, cuya conexión con la consanguinidad fue confirmada en investigaciones previas. Carlos II, el último Austria, fue su síntesis extrema: una persona con múltiples discapacidades físicas y mentales, que no dejó descendencia, cerrando con su muerte el 1 de noviembre de 1700 un capítulo crucial de la historia europea.

Pero este nuevo estudio permite entender que la decadencia dinástica fue también una hemorragia silenciosa y femenina. Mientras los retratos nos muestran hombres de barbilla prominente y ojos apagados, las mujeres fueron las verdaderas víctimas biológicas del modelo político matrimonial de la dinastía. Su historia no había sido contada hasta ahora con datos tan claros.

Un imperio condenado por su propia estrategia

Desde el punto de vista evolutivo, el hallazgo es demoledor: el sistema que permitió a los Austrias consolidar alianzas, mantener territorios y reforzar su poder, fue el mismo que condenó a la dinastía desde dentro. El imperio era una estructura brillante pero inestable, sostenida por cuerpos debilitados. La falta de diversidad genética, lejos de ser una anécdota médica, se revela ahora como una de las causas más profundas y menos visibles del hundimiento de la Casa de Austria.

Carlos II, último monarca de los Austrias, simboliza el colapso genético de una dinastía marcada por la consanguinidad
Carlos II, último monarca de los Austrias, simboliza el colapso genético de una dinastía marcada por la consanguinidad. Foto: Wikimedia

Esta revelación resuena con fuerza cuando se leen las páginas de Los Austrias, el libro coral coordinado por Rubén Buren. Allí se analizan con detalle las dimensiones políticas, culturales y militares del reinado de los Habsburgo españoles: la gloria de Lepanto, el esplendor del Siglo de Oro, la tragedia de la Gran Armada o la represión de los moriscos. Pero ahora sabemos que, además de batallas y tratados, había una guerra genética silenciosa librándose dentro del propio linaje. Y esa guerra, como demuestra este estudio, la perdieron.

Los Austrias, coordinado por Rubén Buren

Rubén Buren ofrece en Los Austrias. Esplendor, crisis y caída del imperio de los Habsburgo españoles una panorámica rigurosa y apasionante de una de las dinastías más determinantes de la historia moderna europea. El libro, publicado recientemente por Pinolia, combina textos de diversos especialistas y reconstruye con agilidad narrativa y enfoque crítico el camino que llevó a España desde el cénit imperial hasta la decadencia progresiva.

Desde la construcción del imperio por Carlos I hasta la descomposición bajo Carlos II, se abordan temas como la expansión americana, las revueltas interiores, la propaganda imperial, la vida en la corte, la cultura barroca y las políticas exteriores. Lo más destacado es cómo se equilibra el relato épico con el análisis de fondo: detrás del oropel, había un sistema frágil que acumulaba tensiones.

La obra, escrita en tono divulgativo pero sin renunciar al rigor, se convierte en un complemento ideal para los nuevos estudios científicos sobre los Austrias. Si el paper de 2025 nos explica por qué se derrumbaron biológicamente, el libro de Buren nos muestra qué construyeron antes de eso, y cómo esa construcción estaba llena de luces... y de sombras.

Libro Los Austrias

El universo gaming sigue creciendo a pasos agigantados, no solo en cuanto a videojuegos y hardware, sino también en lo que respecta a la comodidad y ergonomía que los jugadores necesitan. Las sillas gaming han dejado de ser un simple capricho estético para convertirse en un elemento esencial, tanto para jugadores profesionales como para quienes pasan largas horas frente al ordenador o consola.

Coincidiendo con un verano donde muchos gamers aprovechan el tiempo libre para jugar, Merkamueble da un paso firme hacia el mundo del gaming, introduciéndose en este sector con la silla gamer regulable en altura. El cual aplica un descuento llamativo que rompe su precio original.

Silla gamer regulable negro-rojo
Silla gamer regulable negro-rojo - Merkamueble

Normalmente, el precio de esta silla superaba los 135€, tal como figuraba en el catálogo habitual de Merkamueble. Sin embargo, actualmente se encuentra rebajada a solo 129 euros. Esta reducción significativa hace que esta silla se convierta en una opción ideal para gamers que buscan ergonomía y diseño sin gastar demasiado.

Esta silla está diseñada para ofrecer comodidad y funcionalidad durante largas sesiones de juego o trabajo, con unas medidas de 70 x 70 x 115-125 cm que permiten ajustar la altura del respaldo según las necesidades del usuario. Su estructura giratoria y basculante con sistema de bloqueo permite movimientos ergonómicos y seguros, mientras que el sistema de elevación ajustable proporciona mayor versatilidad.

Tapizada en tejido negro resistente, cuenta con un acolchado cómodo que garantiza soporte en zonas clave del cuerpo. La base y patas son de estructura metálica robusta en color negro, lo que añade estabilidad y durabilidad. Además, los brazos son regulables y también están tapizados.

Además de apostar por el diseño clásico en negro y rojo, Merkamueble ha aplicado una rebaja especial a su silla gaming en color negro y blanco, situándola también en los 129 euros. Una alternativa a tener en cuenta sabiendo que originalmente su precio era de 135€.

Silla gamer regulable negro-blanco
Silla gamer regulable negro-blanco - Merkamueble

Al igual que la anterior, cuenta con medidas de 70 x 70 x 115-125 cm, ofreciendo un respaldo ajustable en altura que se adapta al usuario. Está tapizada en símil piel bicolor (negro y blanco), lo que le aporta un acabado elegante y fácil de limpiar, con un mantenimiento sencillo mediante paño húmedo.

Su estructura giratoria y basculante con sistema de bloqueo, junto al ajuste de altura, permite una postura ergonómica y flexible. El interior está acolchado para mayor confort, y cuenta con brazos regulables y tapizados.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

Durante siglos, los científicos han buscado pistas sobre los orígenes del clima terrestre en sedimentos marinos, fósiles y formaciones geológicas. Pero ahora, un cilindro de hielo de más de 1,5 millones de años, extraído del corazón helado de la Antártida, ha llegado a Europa para intentar responder una de las preguntas más desconcertantes de la paleoclimatología: ¿por qué el planeta cambió el ritmo de sus ciclos glaciares hace aproximadamente un millón de años?

El hallazgo es parte del ambicioso proyecto Beyond EPICA – Oldest Ice, una iniciativa científica internacional que ha logrado lo que hasta hace poco parecía imposible: excavar hasta 2.800 metros de profundidad en el hielo de la meseta antártica oriental, en un remoto punto conocido como Little Dome C. Financiado por la Comisión Europea y con la participación de 12 instituciones de 10 países, este esfuerzo no solo representa una hazaña técnica, sino también una oportunidad sin precedentes para redibujar el mapa de la historia climática de nuestro planeta.

Los testigos silenciosos de un pasado remoto

El núcleo de hielo que ha llegado este mes al British Antarctic Survey (BAS), en Cambridge, no es un simple bloque congelado. Se trata de una cápsula del tiempo única, una biblioteca natural que guarda, en diminutas burbujas de aire atrapadas, los secretos de la atmósfera terrestre de hace más de un millón y medio de años.

En su interior, los científicos esperan encontrar las concentraciones de dióxido de carbono, metano y otros gases que dominaron la atmósfera durante el período conocido como la Transición del Pleistoceno Medio, una etapa clave en la evolución climática del planeta. Hasta ahora, los registros más antiguos de núcleos de hielo llegaban a los 800.000 años. Con esta nueva perforación, ese límite temporal casi se duplica.

Pero no solo se trata de gases. El hielo conserva también trazas de polvo, cenizas volcánicas, microorganismos y partículas que pueden revelar cómo eran los vientos, la temperatura y el estado de los océanos en aquellos tiempos. Todo será analizado con una técnica pionera que consiste en derretir lentamente el hielo para medir, en tiempo real, la composición química de cada capa.

Liz Thomas sostiene uno de los núcleos de hielo, una columna cristalina que encierra el pasado más remoto de la atmósfera terrestre
Liz Thomas sostiene uno de los núcleos de hielo, una columna cristalina que encierra el pasado más remoto de la atmósfera terrestre. Foto: PNRA/IPEV

Un rompecabezas climático por resolver

Uno de los principales enigmas que la ciencia climática lleva décadas intentando resolver es por qué los ciclos glaciares de la Tierra, que durante dos millones de años seguían un patrón de 41.000 años, cambiaron súbitamente hace alrededor de un millón de años a un nuevo ritmo de 100.000 años. Esta alteración marcó una transformación profunda en el comportamiento del planeta y en la evolución de sus ecosistemas.

Las hipótesis son múltiples: cambios en la órbita terrestre, alteraciones en la circulación oceánica, o variaciones en los niveles de CO₂ atmosférico. Pero hasta ahora no había datos directos que permitieran esclarecerlo. Los núcleos de hielo que ya se están almacenando en los laboratorios europeos —entre ellos el del BAS— podrían ser la clave que faltaba.

El hecho de que estos registros provengan de un lugar tan aislado y estable como Little Dome C aumenta las expectativas. A más de 3.200 metros de altitud y a unos 40 km de la estación Concordia, esta región se caracteriza por un hielo extremadamente antiguo y poco perturbado por la dinámica glacial. Es el lugar ideal para encontrar capas que han permanecido intactas durante cientos de miles de años.

Un laboratorio en el fin del mundo

El proyecto Beyond EPICA no ha sido una tarea sencilla. Ha requerido años de planificación, tecnología de perforación de última generación y equipos capaces de trabajar en condiciones extremas, con temperaturas que pueden descender hasta los -60°C. Las campañas de extracción se han realizado durante varias temporadas, culminando en la cuarta expedición con el envío de los núcleos al Reino Unido.

Una vez en el laboratorio, comienza una nueva etapa: el análisis meticuloso de cada muestra. Las secciones de hielo se funden milímetro a milímetro, liberando las burbujas de aire ancestral y permitiendo que los científicos midan la proporción de gases y partículas atrapadas. Esta tarea, que se extenderá durante años, proporcionará una cronología climática detallada, posiblemente la más extensa jamás obtenida a partir de hielo.

Las implicaciones de este trabajo no son meramente históricas. Comprender cómo respondió el clima a ciertas concentraciones de gases hace más de un millón de años puede ofrecer pistas valiosas sobre lo que podría ocurrir en el futuro, ahora que los niveles de CO₂ han vuelto a alcanzar cifras que no se veían desde entonces.

De hecho, uno de los objetivos del proyecto es comparar los datos antiguos con los modelos actuales de cambio climático. Si durante la Transición del Pleistoceno Medio el planeta ya registraba niveles similares de gases de efecto invernadero, pero con un comportamiento climático distinto, ¿qué factores adicionales podrían estar en juego hoy?

Rescatan hielo de hace 1,5 millones de años en la Antártida y lo derretirán para descubrir los secretos del clima prehistórico
Rescatan hielo de hace 1,5 millones de años en la Antártida y lo derretirán para descubrir los secretos del clima prehistórico. Foto: Istock/Christian Pérez

Más allá del hielo

La importancia de los núcleos de hielo va más allá de lo estrictamente científico. Representan un vínculo tangible con un mundo que existía antes de que los humanos pisaran la Tierra, un testimonio de eras en las que los continentes tenían otras formas, los océanos otras profundidades, y los cielos, otras composiciones.

Este hallazgo es también una advertencia. Si queremos entender el futuro del planeta, necesitamos mirar mucho más atrás en su historia. Y pocas herramientas lo permiten con tanta precisión como el hielo antártico, un archivo natural que ha sobrevivido a todos los cataclismos conocidos.

El viaje del hielo más antiguo de la Tierra apenas comienza. Pero su destino final podría ser el más relevante de todos: ayudar a la humanidad a anticipar los cambios que están por venir, antes de que sea demasiado tarde.

Nos fascinan los seres extraordinarios: los muy rápidos, los muy fuertes, los muy pequeños, los muy viejos, los muy grandes. La empresa Guinness ha hecho un negocio contándonos ese mundo de lo más y lo menos en su famoso libro de los récords. Este libro ostenta él mismo varios registros especiales como el ser el más vendido con derechos de autor de todos los tiempos (no puede competir en número de ejemplares con la Biblia, pero Dios no necesita cobrar derechos) y también el más robado de las bibliotecas públicas de Estados Unidos. De las muchas categorías recogidas, una que para mí se lleva la palma del interés y la fascinación es, sin duda, la de los gigantes.

El ser humano más grande conocido fue Robert Wadlow, un estadounidense que alcanzó los 2,72 metros de altura. Como en muchos otros casos, esa altura excepcional se debía a una producción aberrante de hormona del crecimiento y el resultado no fue bueno. Wadlow murió a los 22 años por los problemas iniciados por una ampolla infectada causada por el roce de los arneses que llevaba para ayudar a sostener su formidable peso, más de 222 kilos.

En la evolución humana, somos probablemente los más grandes de las especies de homininos conocidas, pero si ampliamos un poco el foco evolutivo, perdemos sin duda el puesto más alto del pódium y ahí aparece un primate con un nombre revelador: Gigantopithecus blacki. «Pithecus» significa «mono» y el resto es fácil de traducir  aunque ese blacki del nombre no hace referencia a ningún color sino a Davidson Black, un antropólogo canadiense que había estudiado la evolución humana en China y había fallecido el año anterior, y al que quiso homenajear Ralph von Koenigswald, el antropólogo alemán que hizo la primera descripción del «mono gigante» en 1935. 

Gigantopithecuss--- mono gigante
El mono gigante podía alcanzar hasta 3 metros de altura, siendo el primate más grande que ha existido. Representación artística: DALL-E.

El descubrimiento de Gigantopithecus

La historia del descubrimiento del mono gigante parece extraída de una película de Indiana Jones. Von Koenigswald no encontró al nuevo primate en una excavación, sino en una farmacia de Hong Kong, donde aquellos fósiles eran vendidos como «huesos de dragón» para usarlos como remedio en la medicina tradicional china. En realidad, eran dos terceros molares inferiores y lo que llamó la atención del paleoantropólogo fue su enorme tamaño, pues medían 20 x 22 milímetros, lo que cuadruplica o quintuplica el tamaño de los terceros molares de un humano moderno como nosotros. Von Koenigswald siguió su búsqueda y pudo encontrar y comprar más dientes en otros establecimientos pintorescos, y dedujo de las entrevistas con los boticarios que aquellos restos fósiles tenían que proceder de la zona de Cantón o de Guangxi.

Los pocos restos fósiles hallados muestran una poderosa dentadura adaptada a una dieta vegetariana y fibrosa. Colecciones de College of Wooster, Ohio. Fuente: Wikimedia Commons.

Von Koenigswald era alemán, pero en 1931 se había unido como paleontólogo a los investigadores del Servicio geológico holandés que trabajaban en Java, un lugar clave en el estudio de la evolución de los primates. Durante años llevó a cabo excavaciones en el río Solo, en Sangiran y en Modjokerto. De aquellas campañas surgieron importantes especímenes que cambiarían el estudio de la evolución humana, pero los investigadores habían establecido un sistema de incentivos económicos que no fue tan positivo como esperaban: ofertaban pagar a los ayudantes locales «a tanto la pieza» y estos rompían los fósiles que encontraban en múltiples trozos para obtener un mayor beneficio.

La asociación de Von Koenigswald con los holandeses hizo que fuera capturado por los japoneses durante la II Guerra Mundial, a pesar de que en realidad pertenecía al país gobernado por Hitler. Ante la inminente llegada de las tropas niponas escondió los fósiles, menos uno que fue presentado como botín de guerra al emperador Hirohito y fue recuperado después de la guerra. El alemán/holandés pasó el resto de la guerra en un campo de concentración para prisioneros de guerra, a pesar de ser un civil y de su nacionalidad. Sus descubrimientos fueron publicados inicialmente por otro colega, que creyó que había muerto a manos de los japoneses, pero al acabar la guerra pudo reivindicar que estaba vivo y su prioridad intelectual sobre su descubrimiento. Finalmente, en 1952 pudo describir adecuadamente el espécimen tipo de la nueva especie y poco después, en 1956, apareció en Liechung la primera mandíbula y mil dientes más que, junto a la aparición posterior de nuevos yacimientos, confirmaron sus observaciones.

Gigantopithecus blacki.
A pesar de su tamaño colosal, el mono gigante Gigantopithecus era vegetariano. Su dentadura estaba adaptada para triturar tallos y hojas duras de la selva asiática. Representación artística: DALL-E.

Un primate excepcional

Pero volvamos a Gigantopithecus. El mono gigante vivió en el sudeste de Asia desde hace unos 2 millones de años hasta hace unos 350.000. Su localización geográfica coincide con las actuales China, Vietnam, Tailandia e Indonesia. Prácticamente todos los fósiles conservados son mandíbulas y dientes y se cree que otros elementos del esqueleto fueron consumidos por puercoespines antes de que pudieran fosilizar. Por un tiempo se afirmó que Gigantopithecus era un hominino, un miembro de la línea humana, pero ahora se cree que estaba estrechamente relacionado con los orangutanes, y son clasificadas las dos especies en la subfamilia Ponginae.

Hasta hace poco, en las especies con pocos fósiles estas relaciones de linajes solo se podían establecer con claridad utilizando el ADN. Sin embargo, el ADN antiguo se degrada rápidamente y no es lo mismo las condiciones de temperatura y humedad en la cueva de Denisova en Siberia, que las que existen en las selvas del sudeste asiático donde vivió el mono gigante. Los investigadores creen que, incluso en condiciones óptimas de frío y sequedad, el material genético no dura más de un millón de años, mientras que en las condiciones cálidas y húmedas del sur de China, donde se han encontrado la mayoría de los fósiles de Gigantopithecus, es probable que el ADN no sobreviva más de 10.000 años.

La paleoproteómica

La solución ha venido de manos de la paleoproteómica, o análisis de proteínas antiguas. Las proteínas pueden durar millones de años y los investigadores pueden extraerlas y secuenciarlas de forma parecida a como se hace con el ADN. Las primeras investigaciones paleoproteómicas se centraron en el colágeno, presente en huesos y otros tejidos. Sin embargo, más recientemente, los científicos se han centrado en el esmalte dental, que contiene muchas proteínas. Cada una de ellas, con el tiempo, acumula cambios sutiles en su secuencia de aminoácidos de manera parecida a como el ADN adquiere mutaciones. Aunque la información obtenida no es tan detallada como la de un genoma, puede ser suficiente para determinar el grado de parentesco con otras especies y, a partir de ahí, trazar la historia evolutiva del animal lo que ha confirmado que el pariente actual más cercano al extinto Gigantopithecus es el orangután.

Del mito a la ciencia, la historia del mono gigante que pesaba 300 kilos y vivía en la selva asiática 4
Réplica de una mandíbula de Gigantopithecus en el Museo de Historia Natural de Cleveland. Fuente: Wikimedia Commons.

Vida y muerte del mono gigante

Aunque la escasez de fósiles hace que todo sea un poco especulativo, se cree que Gigantopithecus sería un animal sexualmente dimórfico, con los machos mucho más grandes que las hembras, algo común entre los grandes simios, y que los ejemplares más grandes alcanzarían los 200-300 kg, con una altura en torno a los tres metros.

A pesar de ese aspecto potencialmente aterrador, los dientes conservados, con una capa de esmalte enorme, de hasta 6 mm de espesor, sugieren una dieta herbívora, con una dentición adaptada para cortar, moler y aplastar plantas fibrosas y potencialmente abrasivas, como las de troncos, hojas y tubérculos, de ahí la importancia de contar con esa dentadura poderosa. La desaparición del mono gigante se ha asociado con el cambio climático y con la expansión y la potencial actividad depredadora de los humanos arcaicos, hay datos de coexistencia de Gigantopithecus blacki y Homo erectus en la misma cueva (Tham Khuyen, Vietnam), dos temas, los riesgos de la alteración del clima y nuestro formidable poder destructor, que nos deben hacer reflexionar. 

Hay otro lugar donde subsisten los primates gigantescos: en la mitología. El basajaun vasco, el yeti asiático, el bigfoot norteamericano y otros, son todos primates muy grandes, con mucho pelo, fuertes y ágiles, con lo que algunos recuerdan al Gigantopithecus, aunque sorprende su timidez y que les guste tan poco aparecer en fotos y películas ahora que todos llevamos una cámara en el bolsillo. La ciencia es maravillosa y sorprendente y, en mi opinión, no necesita recurrir a los seres imaginarios, pues estos tienen ya un lugar maravilloso en los cuentos, las leyendas y la literatura.

Referencias

En 2010, un anuncio de la NASA generó una ola de especulación mundial. Se hablaba de un hallazgo que impactaría en la búsqueda de vida extraterrestre. Días después, se reveló que el descubrimiento no estaba en otro planeta, sino en las aguas hipersalinas y ricas en arsénico del lago Mono, en California. Allí, un grupo de científicos afirmaba haber encontrado una bacteria que, en lugar de fósforo, utilizaba arsénico para construir su ADN. Si era cierto, significaba que los pilares químicos de la vida podían ser mucho más flexibles de lo que se pensaba. Lo más curioso: el arsénico es un elemento mortal para la vida...

El artículo, titulado A bacterium that can grow by using arsenic instead of phosphorus, fue publicado por la revista Science y suscitó de inmediato críticas. Lo que comenzó como un supuesto avance revolucionario en astrobiología, se transformó en uno de los episodios más controvertidos de la ciencia moderna. Quince años después, en julio de 2025, la revista ha decidido retractarse del estudio. No por fraude ni manipulación, sino porque los datos clave estaban, según concluyó la editorial, “fundamentalmente equivocados”.

La bacteria del lago Mono

La historia comenzó con la cepa GFAJ-1, aislada del lago Mono por Felisa Wolfe-Simon y su equipo, con financiación de la NASA. En condiciones de laboratorio, los científicos redujeron los niveles de fósforo y aumentaron los de arsénico, y observaron que la bacteria seguía creciendo. Según el artículo, la bacteria era capaz de incorporar arsénico en lugar de fósforo en moléculas esenciales como el ADN y las proteínas.

Lo más impactante fue la afirmación de que el arsénico no solo estaba presente en el entorno, sino que se integraba funcionalmente en las biomoléculas. En palabras del propio artículo, la bacteria podía crecer "usando arsénico en lugar de fósforo para sostener su crecimiento". Esta conclusión implicaba que la química de la vida podía ser más diversa de lo que dictaban los libros de texto.

La NASA no tardó en amplificar el hallazgo. En su comunicado oficial, señaló que este descubrimiento “ampliaba nuestra visión sobre las posibilidades de vida en otros planetas” y requería una reescritura de los fundamentos de la biología. La noticia fue reproducida en medios de todo el mundo, con titulares que sugerían que se había hallado una nueva forma de vida.

Fuente: ChatGPT / E. F.

La crítica inmediata

La reacción de la comunidad científica fue rápida y contundente. Rosie Redfield, microbióloga de la Universidad de Columbia Británica, fue una de las primeras en señalar fallos graves en el diseño experimental. En su blog, criticó duramente el estudio: “Me indigné por lo mala que era la ciencia”. A ella se unieron otros expertos que coincidieron en que los autores no habían eliminado correctamente posibles fuentes de contaminación, lo que podía explicar la presencia de arsénico.

Uno de los errores más señalados fue la falta de purificación adecuada del ADN antes de analizar su composición. El propio artículo indicaba la presencia de arsénico basándose en espectros, pero sin garantizar que el ADN estuviera libre de contaminantes. Además, se reveló que el medio de cultivo utilizado contenía pequeñas cantidades de fósforo, lo que abría la posibilidad de que la bacteria no usara realmente arsénico como sustituto, sino que sobreviviera gracias a trazas mínimas de fósforo.

Alex Bradley, microbiólogo de Harvard, destacó que el ADN se disuelve si está hecho de arsénico. Sin embargo, las muestras analizadas mantenían su integridad, lo cual indicaba que contenían fósforo, no arsénico. A pesar de todo esto, los autores del paper defendieron su trabajo y se negaron a debatir públicamente, alegando que la discusión debía darse en revistas científicas.

Fuente: ChatGPT / E. F.

Una retractación que llega tarde

En los años siguientes, se publicaron múltiples comentarios técnicos y estudios que refutaron la hipótesis del ADN con arsénico. En 2012, dos investigaciones independientes demostraron que GFAJ-1 no incorporaba arsénico en su ADN, aunque sí podía tolerarlo en su entorno. Los resultados iniciales fueron atribuidos a contaminación experimental.

Aun así, Science no retractó el artículo en ese momento. La política editorial de entonces limitaba las retractaciones a casos de fraude o mala conducta. Pero eso cambió. En palabras de los editores actuales, “si los experimentos reportados no respaldan las conclusiones clave del artículo, incluso sin fraude, se considera apropiado retractarlo”.

El 25 de julio de 2025, Science finalmente anunció la retractación. En su comunicado oficial, afirmó: “Creemos que la conclusión principal del artículo está basada en datos defectuosos”. La decisión se tomó tras consultar con el Comité de Ética en Publicación (COPE), y sin ninguna acusación de mala fe por parte de los autores.

Creemos que la conclusión principal del artículo está basada en datos defectuosos

Science

Reacciones encontradas

La retractación ha sido celebrada por varios críticos del estudio, quienes veían en ella una señal de que la ciencia puede corregirse. Rosie Redfield la consideró “especialmente importante porque la conclusión incorrecta del artículo fue tan dramática y recibió tanta publicidad”. Otros, sin embargo, mostraron su desacuerdo. La propia NASA expresó que la medida “no resultaba constructiva” y criticó el momento elegido para hacerla pública.

Felisa Wolfe-Simon y otros diez coautores firmaron una carta en la que rechazaban la retractación. Según ellos, Sciencefue más allá de las directrices de COPE”. En la misma misiva reconocen que el artículo “podría haberse escrito y discutido con más cuidado”, pero insisten en que las objeciones forman parte normal del debate científico.

Bruce Alberts, quien fue editor en jefe de Science cuando se publicó el artículo, también cambió de opinión con el tiempo. Apoya ahora que las revistas sean más proactivas al retirar papers “claramente incorrectos” para evitar “esfuerzos desperdiciados por parte de otros científicos”.

El paper aún está disponible en la web de Science: ¿esto es ético?

Aunque el artículo de Wolfe-Simon et al. fue retractado oficialmente en julio de 2025, aún puede consultarse en la página web de la revista Science. Esta situación puede parecer contradictoria: ¿por qué un estudio considerado “fundamentalmente defectuoso” sigue accesible en una publicación científica de alto prestigio?

La respuesta tiene que ver con la ética de la transparencia en la comunicación científica. La práctica de mantener visibles los artículos retractados está respaldada por el propio Comité de Ética en Publicación (COPE), la principal autoridad internacional en integridad editorial. COPE establece que los artículos retractados deben seguir siendo accesibles, con un aviso claro de su condición, para “preservar el registro científico y permitir el análisis posterior del caso”.

Science ha seguido esta norma. En la página del artículo original se encuentra un aviso visible que señala su retractación, con enlace directo al comunicado oficial. El objetivo de esta decisión no es preservar el contenido como válido, sino permitir que lectores, investigadores y periodistas puedan estudiar con precisión qué se afirmó, cómo se argumentó y por qué se corrigió. Este tipo de acceso también previene una circulación distorsionada del conocimiento, ya que eliminar por completo un artículo podría llevar a que versiones no controladas sigan difundiéndose sin contexto ni corrección.

Además, en su carta de retractación, los editores de Science afirman explícitamente: “Con esta retractación […] reconocemos y asumimos la responsabilidad del papel que jugamos en la publicación del artículo”. Mantener el artículo online, pero marcado como retractado, es una forma de asumir ese error editorial de manera abierta.

Desde un punto de vista ético, entonces, la decisión no solo es defendible: es la opción más responsable en el marco actual de buenas prácticas científicas. Retractar no significa borrar; significa corregir, y parte de esa corrección es permitir que otros entiendan por qué se llegó a ese punto. La visibilidad controlada del artículo es parte de la solución, no del problema.

Primera página del paper retractado. Fuente: Science

Ciencia y error

Este caso ha reavivado un debate importante sobre el proceso científico. ¿Hasta qué punto deben las revistas actuar como jueces? ¿Es justo retractar un estudio sin pruebas de fraude? ¿Qué significa para la carrera de los investigadores involucrados?

Más allá del escándalo, el episodio de GFAJ-1 muestra cómo la ciencia puede fallar, pero también cómo puede autocorregirse. No todos los errores científicos requieren castigo. A veces, simplemente necesitan contexto. Como señala el actual editor de Science, “las retractaciones no deben verse como punitivas, sino como mecanismos para corregir el registro científico”.

El artículo sobre GFAJ-1 prometía un cambio radical en la comprensión de la vida. No lo logró. Pero sí sirvió para reflexionar sobre los límites del método, la importancia del escepticismo y el papel de la crítica científica. A veces, el error también enseña.

Referencias

A lo largo de la historia, muchas mujeres se vieron obligadas a esconder su inteligencia tras pseudónimos o el anonimato. Pero Margaret Cavendish, duquesa de Newcastle-upon-Tyne, se negó rotundamente a eso. Escribió bajo su propio nombre, firmó con orgullo, se retrató en sus portadas y expresó ideas que incomodaron a científicos, filósofos y moralistas. Nacida en la alta nobleza inglesa, decidió que su voz merecía ser escuchada y, para lograrlo, utilizó lo único que no podían arrebatarle: su pluma.

Cavendish fue una de las primeras mujeres que se atrevió a teorizar públicamente sobre ciencia, filosofía, literatura y poder, temas reservados casi exclusivamente a los hombres. También fue una de las pioneras de la ciencia ficción, con su obra The Blazing World, publicada en 1666. Su legado, que durante siglos fue subestimado o ridiculizado, ha resurgido en tiempos recientes como un ejemplo temprano y extraordinario de pensamiento femenino audaz y creativo.

Orígenes nobles y una educación singular

Margaret Lucas nació en 1623 en Colchester, Essex, Inglaterra, siendo la menor de ocho hermanos. Su padre, Sir Thomas Lucas, falleció cuando ella era niña, y su madre, Elizabeth Leighton, crió sola a la familia, una rareza en la época. Aunque Margaret no recibió una educación formal como sus hermanos, tuvo acceso a libros, tutores particulares y tiempo para la lectura y la observación, lo que formó la base de su curiosidad intelectual.

De niña, ya mostraba una actitud introspectiva, y su carácter reservado la acompañaría durante toda su vida. En su autobiografía A True Relation of My Birth, Breeding, and Life, ella misma describe su timidez como una forma de “melancolía”, que a veces se expresaba con palidez, tartamudeo y ansiedad social.

En su adolescencia, entró como dama de compañía al servicio de la reina Henrietta Maria, acompañándola al exilio en Francia durante la guerra civil inglesa. Allí comenzó a tener contacto con círculos intelectuales europeos y conoció al que sería su esposo.

Margaret Cavendish. Fuente: Wikipedia

Un matrimonio poco común: amor y colaboración intelectual

En 1645, Margaret se casó con William Cavendish, entonces marqués de Newcastle y militar realista. Él ya tenía hijos de un matrimonio anterior y era considerablemente mayor que ella, pero compartían una fuerte afinidad intelectual. William fue su mayor defensor y, lejos de eclipsarla, la animó a publicar y desarrollar su pensamiento.

Tuvieron una relación basada en el respeto y la colaboración. Margaret decía que él era el único hombre del que se había enamorado, no por su estatus ni fortuna, sino por su “mérito y virtud”. Aunque no pudieron tener hijos, ambos valoraban más sus intercambios intelectuales que la expectativa de una descendencia.

Durante el exilio de la pareja, primero en París y luego en Amberes, Margaret escribió intensamente. Cuando regresaron a Inglaterra tras la Restauración en 1660, ella ya había publicado varios libros.

Married Couple in the Park, por Gonzales Coques. Fuente: Wikipedia

Obra filosófica y literaria: escribir como forma de existir

Margaret Cavendish escribió con una libertad que desconcertaba a muchos. Firmó más de 21 obras originales, entre poesía, tratados científicos, novelas utópicas y obras de teatro. Algunos de sus títulos más destacados incluyen Poems and Fancies (1653), Philosophical and Physical Opinions (1655), Observations upon Experimental Philosophy (1666) y The Description of a New World, Called the Blazing World (1666), considerada una de las primeras novelas de ciencia ficción.

En su escritura, mezclaba ciencia con fantasía, filosofía con ficción, y siempre encontraba espacio para reflexionar sobre el rol de las mujeres. No tenía formación científica formal, pero eso no le impidió debatir ideas de grandes pensadores como Descartes, Hobbes y Boyle. Incluso asistió a una sesión de la Royal Society en 1667, algo impensable para una mujer en ese momento.

Su filosofía proponía que toda la materia estaba viva y dotada de razón. Rechazaba la visión mecánica del universo y apostaba por un modelo vitalista, donde incluso los elementos inertes tenían voluntad. Estas ideas fueron criticadas, pero también fascinantes por su originalidad.

La Blazing World y la ciencia ficción feminista

Entre todas sus obras, The Blazing World destaca no solo por su calidad literaria, sino por su carácter visionario. En ella, una mujer viaja a un mundo paralelo y se convierte en emperatriz, rodeada de animales-hombres que la sirven y la obedecen. A través de este mundo imaginario, Cavendish critica el papel subordinado de la mujer en la ciencia y el poder, y se proyecta como “Margaret la Primera”, una versión idealizada de sí misma con autoridad absoluta.

Esta obra ha sido considerada una de las primeras piezas de ciencia ficción escrita por una mujer, y ha sido reivindicada por estudios feministas contemporáneos como un ejemplo temprano de literatura especulativa con conciencia de género.

Portada de 'The Blazing World'. Fuente: Wikipedia

Estilo, fama y excentricidad

Cavendish era consciente de su singularidad. En sus textos reflexiona sobre su forma de vestir, de pensar y de expresarse, asegurando que quería ser diferente. “No me gusta llevar lo que otras mujeres llevan”, decía. También admitía su deseo de fama, algo inusual para las mujeres de su tiempo. Creía que no era un defecto querer ser recordada, sino una forma legítima de aspirar a la inmortalidad.

Su estilo era a menudo desordenado, confuso y redundante, pero también apasionado, curioso y lleno de metáforas vivas. Algunos contemporáneos la despreciaban: el escritor Samuel Pepys la llamó "ridícula", y otros la acusaban de vanidad. Sin embargo, también tuvo admiradores como John Dryden y Constantijn Huygens.

Últimos años

Margaret Cavendish murió el 16 de diciembre de 1673 en Londres, a los 50 años. Fue enterrada con honores en la Abadía de Westminster, un privilegio reservado a grandes figuras públicas. Su esposo, William, mandó erigir un monumento en su honor, con una inscripción que la celebraba como “virtuosa y valiente”.

Durante siglos, su figura cayó en el olvido o fue considerada un caso curioso más que una mente brillante. Solo a partir del siglo XX, y especialmente con el auge de los estudios de género y literatura, se ha comenzado a valorar su audacia intelectual.

En los últimos años, su obra ha sido reeditada, adaptada al teatro y objeto de estudio en universidades de todo el mundo. Hoy se reconoce que Cavendish no solo fue una escritora extraordinaria, sino una precursora del pensamiento moderno, capaz de cuestionar desde la aristocracia los dogmas científicos, filosóficos y sociales de su tiempo.

Las herramientas prehistóricas, como los instrumentos líticos, óseos o incluso los utensilios de madera, suelen estudiarse de forma predominante desde una óptica funcional o tecnológica. Sin embargo, una nueva investigación arqueológica ha propuesto una novedosa hipótesis de trabajo: las técnicas utilizadas en la fabricación de los instrumentos de hueso mostrarían evidencias de la división sexual del trabajo en la prehistoria. Las arqueólogas Claire Houmard e Isabelle Sidéra han analizado las diversas técnicas de trabajo sobre materiales óseos —en concreto, la abrasión y el raspado— en diferentes contextos arqueológicos. En su trabajo, sostienen que estas prácticas tecnológicas podrían vincularse tanto al género del individuo como al estilo de vida (sedentario o nómada).

Basándose en evidencias arqueológicas y etnográficas procedentes de Europa, el Magreb, el Próximo Oriente y el Ártico americano, las autoras reconstruyen un panorama donde la elección de una u otra técnica no se explica solo por la función del objeto, sino también por los modelos de organización social y los roles de género.

Pájaros de de Naujan Thule
Pájaros esculpidos por abrasión del yacimiento ártico de Naujan Thule. Fuente: Houmard

Técnicas universales, pero con diferencias significativas

La abrasión y el raspado o scraping son técnicas universales para trabajar materiales óseos. Ambas permiten dar forma a herramientas a partir de huesos, astas o dientes de animales. Cada una de ellas deja marcas distintivas en los materiales: la abrasión genera estrías cortas y paralelas, mientras que el raspado deja surcos más largos y profundos, similares a un código de barras.

Aunque estas técnicas coexisten en muchos yacimientos, los estudios han revelado una preferencia marcada por una u otra dependiendo del contexto cultural, cronológico y geográfico. Así, el raspado predomina en las sociedades nómadas del Ártico, mientras que la abrasión se impuso de manera progresiva en contextos neolíticos sedentarios del Viejo Mundo.

Scraping o raspado: la técnica preferida en las sociedades nómadas del Ártico

En el Ártico canadiense y groenlandés, las sociedades pre-Inuit e Inuit, activas desde el 5000 a. C. hasta el siglo XIX, mostraron una clara preferencia por el raspado en la fabricación de objetos óseos como arpones, mangos, utensilios domésticos o juguetes. La abrasión apenas aparece y, cuando lo hace, es de forma marginal, asociada a tareas específicas como la producción de figurillas de aves.

Esta elección técnica se vincula con un estilo de vida basado en la movilidad, la caza de los mamíferos marinos y la flexibilidad productiva entre hombres y mujeres. Según el estudio, los hombres trabajaban los materiales duros, mientras las mujeres se encargaban de los materiales blandos. Con todo ambos, compartían un mismo repertorio técnico e incluso podían sustituirse entre sí en caso de necesidad. En estas sociedades, la técnica no se asociaba a un género concreto, sino al tipo de material trabajado.

Frente al modelo jerarquizado del Neolítico, en el Ártico se ha comprobado que la asignación técnica no generó jerarquías. Aunque existía una división sexual del trabajo, la distribución de tareas se basaba en la interdependencia y no en la subordinación. Mujeres y hombres podían intercambiar funciones según las circunstancias, y la habilidad personal primaba sobre el género como criterio de prestigio. Este modelo más flexible permite cuestionar la idea de que la especialización técnica conlleva, necesariamente, una desigualdad estructural.

Abrasión huesos
Marcas de abrasión. Fuente: Sidéra

Abrasión: una técnica ligada al sedentarismo neolítico

Por el contrario, desde el 11.000 a. C. en el Próximo Oriente y, más tarde, en Europa y el Magreb, la técnica de abrasión se fue imponiendo en la fabricación de herramientas óseas, sobre todo a partir del Neolítico. Este cambio coincidió con la transición hacia una economía agrícola y una vida sedentaria.

La abrasión se empleó, así, para fabricar una amplia variedad de objetos, como puntas, anzuelos, cucharas y cuentas. Por lo general, se realizaba dentro del espacio doméstico o en sus inmediaciones, lo que la vincula con las actividades del ámbito femenino. Así lo sugieren, por ejemplo, los hallazgos en yacimientos como Cuiry-lès-Chaudardes (Francia), Kovačevo (Bulgaria) o Hergla (Túnez).

A medida que avanza el Neolítico, las tareas femeninas parecen restringirse cada vez más al ámbito doméstico. Así, la abrasión se convirtió, poco a poco, en una técnica dominante asociada a las actividades productivas de las mujeres.

Raspado
Marcas de raspado. Fuente: Sidéra

¿La diferenciación técnica como un indicador de movilidad?

Una de las hipótesis más sugerentes del estudio apunta que la preferencia por una u otra técnica puede interpretarse como un indicador indirecto del grado de movilidad de una sociedad. El raspado, al realizarse con herramientas portátiles, se adaptaba bien a contextos de trabajo móvil o fuera del hogar. La abrasión, en cambio, demandaba superficies fijas sobre las que trabajar, así como la necesidad de fuentes de agua. Por ello, se asocia a espacios de trabajo estables y organizados, como los talleres domésticos.

Así, la investigación propone una dicotomía tecnológica. El raspado habría sido la técnica dominante en los grupos móviles de cazadores-recolectores, mientras que la abrasión habría predominado en las comunidades sedentarias de agricultores. Esta oposición se refleja en las frecuencias de uso de ambas técnicas presentes en los contextos arqueológicos. Así, las sociedades del Ártico recurrían casi exclusivamente al raspado, mientras que las neolíticas del Viejo Mundo privilegiaban la abrasión.

Mujer y cereales
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

La división sexual del trabajo en la arqueología ósea

El artículo de Houmard y Sidéra también plantea una hipótesis clave desde la arqueología de género. Dado que la abrasión era una técnica repetitiva ligada al hogar, que requería de tiempos largos de elaboración, pudo haber sido desarrollada, principalmente, por las mujeres durante el Neolítico. Esta idea se apoya en varias evidencias, como el uso doméstico de muchas herramientas óseas elaboradas por abrasión, como punzones o cucharas.

Además, las investigadoras que firman el artículo también han notado la analogía que existe entre las técnicas de abrasión y las de molienda de cereales, ambas asociadas etnográficamente a las mujeres de distintas culturas. Las huellas físicas de desgaste en esqueletos femeninos como las detectadas en Abu Hureyra (Siria), además, son compatibles con las que produce la asunción de las posturas que suelen adoptarse durante la molienda manual de cereales.

En consecuencia, el estudio sugiere que la generalización de la abrasión como técnica en el Neolítico puede reflejar una feminización de las tareas relacionadas con la transformación de materiales duros. Propone, igualmente, que pudo producirse un posible trasvase técnico desde las actividades de molienda a la elaboración de herramientas de hueso.

Herramientas de hueso prehistóricas
Herramientas de hueso hechas por abrasión, Francia, ca. 5000 a. C. Fuente: S. Ouboukhoff from Sidéra y Pineau 2024

Un caso paradigmático: las puntas planas neolíticas

Otro ejemplo particularmente revelador procede de las puntas planas de hueso elaboradas íntegramente mediante abrasión. Estas se documentan desde el 7000 a. C. en Turquía (Çatal Höyük, Can Hassan III) y se extendieron a posteriori por Europa. Las herramientas se obtuvieron a base de desgastar ambos lados del hueso hasta alcanzar el canal medular.

La fabricación de estas puntas implicó un trabajo lento y meticuloso, que prescindió de herramientas cortantes, lo que refuerza su posible vinculación con el trabajo femenino, según los estudios antropológicos de autores como Murdock, Tabet y Testart.

Reescribiendo la relación entre tecnología y género en la prehistoria

El trabajo de Houmard y Sidéra ofrece una contribución pionera a la arqueología de género y la historia de la tecnología al proponer que la elección entre abrasión y raspado puede ser un marcador de movilidad, estilo de vida y división sexual del trabajo. A través del análisis minucioso de marcas en objetos óseos, las autoras sostienen que las elecciones de manufactura en la prehistoria parecen responder a aspectos ligados a las estructuras sociales, los ámbitos físicos de trabajo simbólicas y el género.

Referencias

En Aprender a imaginar (Hestia, 2025), el psicólogo cognitivo Andrew Shtulman desmonta una de las ideas más extendidas sobre la creatividad: que florece en la infancia y se marchita con la edad. A través de investigaciones científicas en desarrollo cognitivo, Shtulman demuestra que la verdadera imaginación no es un don espontáneo, sino una habilidad que se fortalece con el conocimiento y la práctica. Según su enfoque, los niños pequeños no son tan innovadores como solemos pensar, sino más bien imitadores expertos. La creatividad auténtica, sostiene el autor, surge del dominio conceptual y del esfuerzo por superar nuestras intuiciones más básicas.

Con la publicación anticipada de un capítulo clave, los lectores pueden sumergirse en un ejemplo brillante del enfoque del libro: la forma en que desarrollamos la imaginación matemática. Este capítulo explora cómo operaciones abstractas como la suma, la división o la geometría no emergen de forma natural, sino que deben construirse paso a paso desde la experiencia concreta. Así, Shtulman nos invita a ver la imaginación no como un misterio reservado a genios o niños prodigio, sino como una herramienta que todos podemos desarrollar para comprender mejor el mundo.

MATEMÁTICAS: Ampliando nuestra imaginación numérica y espacial (Andrew Shtulman)

Reflexionemos un momento sobre la curiosa conexión entre los números impares y los números cuadrados. Si sumamos uno y tres, obtenemos cuatro, que es un cuadrado perfecto, el cuadrado de dos. Si sumamos uno, tres y cinco, obtenemos nueve, otro cuadrado perfecto, el cuadrado de tres. Si añadimos siete a esta suma, llegamos a dieciséis, el cuadrado de cuatro. Si agregamos nueve, alcanzamos veinticinco, el cuadrado de cinco. La suma de números impares consecutivos resulta ser un cuadrado perfecto para los números del uno al nueve, pero ¿se mantiene este patrón para cifras mayores? ¿Sería la suma de los impares del uno al noventa y nueve un cuadrado perfecto? ¿Y la suma del uno al billón uno?

Efectivamente, la suma de números impares consecutivos es siempre un número cuadrado. Para entender por qué, imagina cada número cuadrado como una figura geométrica cuadrada. Podrías visualizar el cuatro como cuatro bloques, dispuestos en dos filas de dos, y el nueve como nueve bloques, organizados en tres filas de tres. Si comienzas con un cuadrado de cuatro bloques y quieres construir un cuadrado de nueve, debes añadir un bloque a cada una de las dos filas, un bloque a cada una de las dos columnas y un bloque adicional para completar la esquina, para formar así una disposición de tres por tres con un total de nueve bloques. Has añadido cinco bloques en total. Si partieras de un cuadrado de nueve y quisieras crear uno de dieciséis, añadirías un bloque a cada una de las tres filas, uno a cada una de las tres columnas y un bloque para la esquina, lo que suma en total siete bloques nuevos.

Fuente: ChatGPT / E. F.

El número de bloques necesarios para pasar de un cuadrado al siguiente es siempre uno más del doble de la longitud del cuadrado original, lo que garantiza que será impar. Y este número no solo será impar, sino precisamente el siguiente número impar consecutivo, porque ampliar el tamaño del cuadrado requiere exactamente dos bloques más de los necesarios para la ampliación anterior.

Esta fascinante relación entre los números impares y los cuadrados fue descubierta por el matemático del siglo XVII Johann Faulhaber. Aunque la matemática formal detrás de la fórmula de Faulhaber es compleja, la demostración geométrica (modelar números cuadrados como cuadrados físicos) resulta intuitiva. De hecho, la gente encuentra esta demostración no solo comprensible, sino hermosa. La describen como elegante, profunda y clara, de manera similar a cómo valoran su experiencia con una pintura o una sinfonía. Las ideas matemáticas tienen el poder de despertar nuestras emociones estéticas, incluso cuando nuestro conocimiento matemático se limite a lo aprendido en secundaria.

El argumento geométrico que explica por qué la suma de números impares consecutivos produce números cuadrados puede parecer intuitivo, pero implica conceptos que no forman parte de nuestra intuición temprana. Un niño que acaba de aprender a contar desconoce los números impares, los números cuadrados, la suma o la división. Ignora que los números impares siguen a todos los números pares; que no pueden dividirse equitativamente entre dos, o que el número impar más pequeño es uno, mientras que el más grande no está definido. Tampoco sabe multiplicar dos números ni dividir uno entre otro. Ni siquiera comprende que los números corresponden a cantidades distintas. La vasta estructura de las matemáticas, desde los números enteros hasta las integrales, desde los decimales hasta los decaedros, debe construirse desde cero.

Aunque pueda parecer obvio que debemos aprender matemáticas, lo que resulta menos evidente es que ese aprendizaje ocurre principalmente en el ámbito de la imaginación. No encontramos entidades matemáticas en el mundo a la espera de ser percibidas y exploradas. Las inventamos, primero como innovación cultural y luego como logro educativo. Las entidades matemáticas describen lo que percibimos, pero no son una consecuencia directa de la percepción. Las personas pueden vivir (y de hecho viven) toda su vida sin desarrollar el concepto de número, y mucho menos conceptos específicos como los números impares o cuadrados.

De las manipulaciones a las operaciones

Existen varios tipos de números, y cada uno se define mediante una operación distinta. Si desconocemos la operación, no podemos concebir el número. El conteo nos proporciona números naturales, pero no números enteros, ya que la resta es necesaria para definir los números negativos. La resta nos conduce a los números enteros, pero no a los racionales, pues se requiere la división para definir las fracciones. Y la división nos lleva a los números racionales, pero no a los reales, dado que necesitamos las raíces para definir los números irracionales. Cualquier número natural (3) es también un número entero (+3), un número racional (3/1) y un número real (3¹), pero estos sentidos adicionales deben construirse.

La construcción de una nueva concepción del número constituye un proceso de abstracción. Los números naturales se abstraen al agrupar objetos en conjuntos. Los enteros se abstraen al ordenar números naturales a lo largo de una recta numérica. Los números racionales surgen al introducir enteros en proporciones. Y los números irracionales aparecen al diseccionar números racionales en raíces. La creciente abstracción de los conceptos numéricos nos permite aplicarlos amplia y eficientemente a cualquier objeto (dólar, perro, bebida o sueño) y a cualquier forma de manipular esos objetos (cortar, recortar, combinar o componer). Pero tales beneficios tienen un coste en transparencia. La conexión entre los conceptos matemáticos y las situaciones que describen se vuelve cada vez más opaca y puede desaparecer por completo.

Consideremos el siguiente problema: «Lucille ganó cierta cantidad de dinero en la lotería. Se quedó con 64 dólares y entregó a cada uno de sus tres hijos una parte igual del resto. Si cada hijo recibió 21 dólares, ¿cuánto ganó Lucille?». Si has estudiado aritmética básica, probablemente puedas resolver este problema sin dificultad. Multiplicarías por tres los 21 dólares que recibió cada hijo y luego sumarías ese producto a los 64 dólares que Lucille conservó, lo que daría un total de 127 dólares. También podrías resolverlo usando álgebra. Podrías designar con X la cantidad que Lucille ganó en la lotería y escribir una ecuación que relacione X con las otras cantidades: (X - 64) ÷ 3 = 21.

Representar el problema de esta manera añade un nivel de abstracción que acaba resultando más perjudicial que útil. Aumenta la probabilidad de cometer errores de cálculo, como dividir 64 entre 3 en lugar de multiplicar ambos lados de la ecuación por 3. Los términos de la ecuación ya no están conectados con el objeto concreto de los dólares ni con el procedimiento tangible de la distribución, y empezamos a cometer errores que nunca cometeríamos al pensar en la situación real descrita por la ecuación. ¿Por qué, por ejemplo, dividiríamos la parte del dinero de Lucille entre 3?

Sin embargo, representar situaciones concretas mediante ecuaciones abstractas no siempre supone un problema. Consideremos este caso: «Levi acaba de pagar 34 dólares por unos vaqueros nuevos. Los consiguió con un descuento del 15 %. ¿Cuál era el precio original?». Muchos resolveríamos este problema incorrectamente. Nuestra tendencia natural es multiplicar el precio que Levi pagó por 0,15 y luego sumar ese producto al precio, pero ese cálculo no nos proporciona el precio original de los vaqueros. Nos da la suma sin sentido del precio con descuento más una segunda aplicación del descuento.

Para obtener el precio original, necesitamos dividir el precio con descuento por 0,85, lo cual no resulta nada intuitivo. Solo se vuelve comprensible con algo de álgebra. Si designamos con X el precio original de los vaqueros, podemos representar el precio con descuento como X − 0,15X = 34. Entonces podemos simplificar la ecuación a 0,85X = 34 y resolver X al dividir ambos lados por 0,85. Este procedimiento revela que el precio original era de 40 dólares, una respuesta que probablemente obtendremos más fácilmente cuando se nos presenta la ecuación que cuando se nos ofrece una descripción verbal del problema.

Estos dos ejemplos ilustran la compensación entre manipulaciones físicas y operaciones abstractas. Distribuir un recurso, como el dinero, constituye una tarea bien practicada, fácilmente comprensible en el contexto de quién distribuye el recurso y cómo lo hace. Estos detalles nos ayudan a realizar los cálculos adecuados y a evitar errores sin sentido. En cambio, invertir un descuento no es una tarea habitual, y los detalles que la rodean proporcionan poco apoyo para llevarla a cabo. Invertir un descuento requiere relacionar la cantidad desconocida consigo misma, y esta relación resulta más fácil de entender cuando la cantidad se abstrae del contexto, como la variable X. Cuanto más compleja es la operación, más difícil es modelarla mentalmente y, por tanto, más nos beneficiamos de la abstracción.

Las investigaciones sobre los beneficios educativos de los materiales manipulativos, como bloques o fichas, han revelado hallazgos similares. Estos materiales se utilizan habitualmente en el aula para transformar conceptos abstractos en experiencias tangibles, como cuando los estudiantes aprenden el valor posicional al manipular bloques de base diez o cuando estudian fracciones al trabajar con representaciones de tarta. Sin embargo, los estudios han descubierto que estos materiales tienen un valor práctico limitado más allá de la introducción inicial de un concepto. Ayudan a los estudiantes a recordarlo, pero resultan menos útiles para facilitar la resolución de problemas y apenas contribuyen a transferir soluciones de un problema a otro.

Fuente: ChatGPT / E. F.

Los estudiantes que aprenden las fracciones como porciones de tarta, por ejemplo, recordarán que el numerador corresponde al número de porciones disponibles y el denominador al tamaño de esas porciones, pero tendrán dificultades para ordenar y sumar fracciones, y más aún cuando trabajen con fracciones que no se corresponden con las divisiones de tarta que manipularon originalmente.

Los objetos concretos limitan nuestro pensamiento y, en consecuencia, nuestra imaginación. Incluso después de dominar las operaciones matemáticas abstractas, seguimos conceptualizándolas en términos de las manipulaciones físicas que mejor las ejemplifican. La división, por ejemplo, se comprende más fácilmente como partir o distribuir, como cuando dividimos una galleta por la mitad o repartimos un conjunto de galletas en grupos. Dividimos las galletas por el número de personas que desean comerlas. Pero también podríamos dividir a las personas por galletas, asignando grupos de personas a cada galleta o incluso partes de personas. Concebimos el proceso de dividir 6 galletas entre 3 amigos como distribuir 2 galletas a cada persona, pero también podríamos verlo como asignar media persona a cada galleta.

La naturaleza abstracta de la división, como operación matemática, posibilita ambas interpretaciones, pero preferimos aquella que concuerda con la manipulación física que la representa. Los libros de texto ilustran la división con situaciones que implican distribución, como repartir tulipanes entre jarrones, mientras que presentan la suma con situaciones que implican combinación, como sumar tulipanes y margaritas. Rara vez piden a los estudiantes que sumen tulipanes y jarrones o dividan tulipanes por margaritas.

De hecho, cuando nos enfrentamos a problemas físicamente incongruentes como «dividir 12 tulipanes entre 4 margaritas», cometemos más errores que con versiones congruentes del mismo problema, como «dividir 12 tulipanes entre 4 jarrones». Al resolver problemas físicamente incongruentes, nuestros cerebros emiten señales neuronales asociadas con la detección de errores y la sorpresa. Una afirmación correcta pero incongruente, como «12 tulipanes divididos por 4 margaritas es 3», provoca la misma señal de sorpresa que una afirmación congruente pero incorrecta, como «12 tulipanes divididos por 4 jarrones es 5». La incongruencia entre una operación abstracta y una manipulación física puede confundir a cualquiera, incluso a matemáticos expertos.

La imaginación matemática requiere abstracción para resolver problemas novedosos con operaciones familiares y utilizar problemas conocidos para desarrollar operaciones nuevas. Sin embargo, la abstracción resulta difícil de lograr durante el aprendizaje y difícil de mantener durante el razonamiento. En los siguientes apartados examinaremos tres casos de derivación de conceptos abstractos a partir de procedimientos concretos: la obtención de números enteros a partir del conteo y la suma, la obtención de fracciones a partir de la comparación y la división, y la derivación de la geometría a partir de la rotación y la inversión. Cada caso ilustra cómo las operaciones abstractas amplían nuestra comprensión de la cantidad y el espacio, al tiempo que demuestra lo ajenas que resultan esas operaciones a nuestras concepciones iniciales sobre las posibilidades matemáticas.

Un sentido de la precisión

Al reflexionar sobre el origen de las matemáticas, Leopold Kronecker, un matemático del siglo XIX, afirmó que «los números enteros fueron creados por Dios; todo lo demás es obra del hombre». Los conceptos matemáticos complejos, como decimales, ecuaciones cuadráticas y logaritmos parecen claramente creaciones del ingenio humano, pero, curiosamente, también lo son los números enteros. El conocimiento de estos últimos no es innato, sino que se elabora a partir de las operaciones de cómputo.

Antes de aprender a contar, percibimos el número como un atributo del entorno, aunque solo de manera aproximada. Podemos distinguir, por ejemplo, cuál de entre dos manzanos tiene más frutos, pero no precisar exactamente cuántos más. Nuestra comparación se fundamenta en una sensación general de magnitud en vez de un valor exacto: el valor total o «cardinal» del conjunto. Un conjunto de 30 manzanas se percibiría más abundante que otro de 20, aunque esta distinción sensorial se asemeja a cómo el brillo de una manzana reluciente destaca frente a una mate, o al modo en que el impacto de varios frutos al precipitarse resuena con mayor intensidad que el de uno aislado. La diferencia cardinal entre dos conjuntos de manzanas resulta imposible de medir sin un sistema para etiquetar y agrupar elementos individuales. Podríamos diferenciar 20 manzanas de 30, pero no distinguiríamos 29 de 30 o incluso 120 de 130. Nuestra percepción intuitiva del número es demasiado difusa, y esta imprecisión aumenta conforme los números se hacen mayores.

Como ejercicio, intenta dar 20 toques con el dedo en tu pierna sin contar. Quizás des exactamente 20, pero también podrías quedarte corto, y golpear tu pierna 18 o 19 veces, o pasarte ligeramente, y dar 21 o 22. Si repitieras esta actividad varias veces, con la ayuda de alguien que contara tus toques, obtendrías una distribución centrada en 20, pero con cierto margen de error a cada lado. Al realizar la misma tarea pero con el objetivo de 30 toques, generarías una distribución centrada en 30, aunque con más desviaciones. Te alejarías de los 30 toques con mayor frecuencia que de los 20. Esa es la lógica imprecisa de la estimación.

Las capacidades estimativas resultan estar presentes en todo el reino animal. Seres tan diversos como ratas, cuervos, calamares y abejas logran calcular la «numerosidad» de un conjunto y contrastar grupos de diferentes cantidades, según revelan estudios donde se premia a los animales por producir un número específico de respuestas o por seleccionar el mayor de dos conjuntos. La estimación también aparece universalmente en el desarrollo humano. A los seis meses, los bebés pueden identificar cuál de dos conjuntos es mayor, siempre que estos varíen en una proporción de al menos dos a uno, y consiguen hacerlo con múltiples tipos de agrupaciones: colecciones de juguetes, matrices de puntos, secuencias de tonos y series de acciones. Al crecer, perfeccionamos estas habilidades, al emplearlas para comparar conjuntos de proporciones cada vez menores y para grupos demasiado grandes o fugaces para contarlos.

La estimación perceptiva es omnipresente porque la necesidad de establecer comparaciones es universal; todos los organismos necesitan discernir dónde abundan más los recursos y dónde escasean las amenazas. Sin embargo, la comparación constituye la única operación que se apoya completamente en la estimación. No podemos utilizar nuestro vago sentido numérico para registrar cuántos años han transcurrido desde nuestro nacimiento, cuántas personas habitan en nuestra comunidad o cuántas comidas nos debe un vecino. Ni siquiera logramos usarlo para contar números enteros concretos, como el 20. Este no representa solo una cantidad entre 18 y 22; corresponde precisamente a un conjunto de elementos que supera en una unidad a 19 y es inferior en una unidad al 21.

Como expertos en el conteo, damos por hecho el poder de los números enteros. Olvidamos cuán limitada era nuestra imaginación numérica sin ellos. Los niños que aprenden a contar, y, por tanto, a familiarizarse con los enteros, cometen errores sorprendentes al aplicar sus palabras numéricas a los conjuntos. Si les dices que tienes 8 manzanas y tu amigo 4, dudan sobre quién tiene más. Al mostrarles una imagen con 8 manzanas y pedirles que encuentren otra con la misma cantidad, es más probable que las asocien por color que por número. Y si ven una bandeja con 8 manzanas y luego retiras una, no saben con certeza si ahora contiene 7 o 9. Algunos incluso afirman que sigue habiendo 8.

Estos fallos subrayan que contar resulta más complejo de lo que aparenta. El conteo posee una lógica que los pequeños asimilan gradualmente, paso a paso. Primero, aprenden la secuencia numérica en su idioma, es decir, la lista de palabras utilizadas para designar conjuntos de magnitud creciente (uno, dos, tres, etc.). Después, descubren cómo aplicar esta secuencia a un grupo de objetos, asignando a cada elemento una, y solo una, palabra de la lista. Por último, comprenden que, al recitar la secuencia, la última palabra pronunciada corresponde al valor cardinal del conjunto. Ocho, por ejemplo, no se refiere al octavo objeto etiquetado, sino a todos los objetos señalados en su totalidad.

Sabemos que los niños adquieren estas destrezas por etapas y no simultáneamente, debido a los desfases entre ellas. Aprenden a recitar la secuencia numérica mucho antes de poder aplicarla a un conjunto sin contar dos veces el mismo elemento, omitir alguno o saltarse números. Y dominan la aplicación de la lista bastante antes de entender que la última palabra pronunciada responde a la pregunta: «¿Cuántos hay?». De hecho, atraviesan un período prolongado en el que pueden enumerar una colección de objetos sin ser capaces de extraer un número específico de elementos. Cuando se les pide que saquen 5 canicas de un grupo de 10, toman un puñado al azar sin intentar coordinar su conocimiento del conteo con su evaluación de la cantidad. El contar se entiende inicialmente como una actividad ritual, similar a recitar el alfabeto o jugar al pilla-pilla, y continúa interpretándose así durante meses antes de que comprendan sus implicaciones matemáticas. Para el desarrollo del conteo resulta fundamental la exposición a una secuencia numérica.

Algunas culturas, como los pirahã y munduruku de la selva amazónica, carecen de secuencias numéricas, por lo que sus miembros no pueden llevar registro de cantidades exactas. Estas comunidades disponen de términos para «uno», «dos», «algunos» y «muchos», pero no poseen palabras para cantidades grandes y precisas como «ocho» u «ocho y ocho». Si un pirahã o munduruku observa a alguien depositar 8 nueces en una lata y se le solicita hacer lo mismo, colocará aproximadamente 8. Su promedio en múltiples intentos será 8, pero su respuesta en una ocasión concreta podría ser 6, 7, 9 o 10, similar a lo que sucedería si intentaras dar 8 toques sin contar.

Fuente: ChatGPT / E. F.

A falta de una secuencia numérica, estos pueblos se basan en un sentido aproximado de los números para comparar cantidades. El mismo fenómeno se ha observado en adultos sordos que no estuvieron expuestos al lenguaje durante su infancia y, consecuentemente, a las palabras con las que se designan los números.

El conteo representa, por tanto, el primer paso para expandir la imaginación numérica. Lo consigue no solo definiendo un sentido preciso de la cantidad, sino también estableciendo las bases para conceptualizar nuevos tipos de números. Aproximadamente dos años después de que los niños aprendan a contar, descubren dos ideas adicionales: que cada número puede incrementarse en uno y, por consiguiente, que no existe un número máximo. El conteo, así, abre la senda hacia el infinito. Cuanto más hábil sea un niño para contar (alcanzando todos los números y realizando los cambios de decena apropiados, de, pongamos, 49 a 50), antes reconocerá que el proceso es infinito.

Este acto también facilita la suma y la resta. Si contamos por unidades mayores que uno, realizamos una suma, y si contamos hacia atrás, efectuamos una resta. Ambas operaciones constituyen formas alternativas de avanzar por la secuencia numérica. Aumentan la eficacia y alcance de nuestras comparaciones, pero también desafían los límites de la propia lista. Si podemos restar 4 de 7, también podemos restar 7 de 4, y obtener un número negativo, −3. Incluso podríamos restar 7 de sí mismo, lo que nos daría 0.

Históricamente, la humanidad tardó siglos en descubrir números más allá de la secuencia básica. Hoy nos los introducen durante la infancia, pero aún necesitamos años para dominarlos. Los números negativos suponen un reto particular. No se conciben como pasos inversos en una recta numérica, sino como categorías distintas. Ordenar números negativos requiere más tiempo que ordenar positivos de igual magnitud absoluta, incluso para adultos con conocimientos matemáticos, y realizar cálculos simples con negativos, como 7 + (−4), lleva más tiempo que efectuar las mismas operaciones reformuladas como restas, como 7 − 4. Cuando los negativos intervienen en un cálculo, aumenta la probabilidad de cometer errores y disminuye la de detectar los fallos ajenos. La resta posibilita los números negativos, pero debemos practicar con ellos para concebirlos como magnitudes y no como meros símbolos.

En muchos aspectos, los números negativos representan la antítesis de los números difusos que conocemos de manera innata. Estos últimos son aproximaciones de cantidades reales que no admiten operaciones precisas, mientras que los negativos surgen de operaciones exactas sin correspondencia directa en el mundo físico, al menos no una que podamos ver u oír. Los negativos son herramientas para ampliar nuestra percepción de la numeración, al igual que el 0 y el infinito, así como los enteros positivos grandes como 88. Pero estas herramientas deben reintegrarse con esa percepción natural para considerarse genuinamente numéricas, es decir, referidas a números y no solo a cálculos. Esta misma dificultad aparece cuando construimos números basados en proporciones, o «racionales», como fracciones y decimales.

Un sentido de la proporción

Examen sorpresa: ¿Cuál es mayor, 1/4 o 1/3? Aunque 1/3 es mayor, tal vez te hayas inclinado por 1/4 porque el 4 supera al 3. ¿Y qué hay de 0,05 y 0,1? Aunque 0,1 es mayor, quizás te hayas sentido atraído por 0,05 porque el 5 es mayor que el 1. Los números racionales como 1/4 y 0,05 se expresan mediante números enteros, pero representan cantidades no enteras. Las barras de fracción y los puntos decimales transforman los números enteros en razones, es decir, números definidos por división, en lugar de conteo o suma. La introducción de esta nueva operación hace que estos números resulten verdaderamente novedosos y, como consecuencia, realmente difíciles de concebir.

Parte de esta dificultad radica en la nueva notación. Cuando se presentan por primera vez las fracciones y los decimales a los niños, estos o bien ignoran la nueva notación o la interpretan incorrectamente. Por ejemplo, al preguntarles si 0,8 es mayor que 0,08000, a menudo eligen 0,08000, argumentando que «los ceros del principio no significan nada, pero tiene ceros al final y eso indica que es ocho mil». Y quienes eligen 0,8 a veces lo hacen por una razón equivocada, como que «0,8 es 1/8 de un entero».

Sin embargo, la notación no constituye la única dificultad. Incluso los estudiantes que comprenden que las fracciones y los decimales se refieren a proporciones tienen problemas para asignar magnitudes apropiadas a estas proporciones, como revela su manera de colocar fracciones y decimales en una recta numérica. Aunque los niños en las primeras etapas del aprendizaje de las fracciones reconocen que 4/5 está más cerca del 1 que del 0, suelen indicar que 16/20 (una razón equivalente) está aún más próxima a 1. Las razones equivalentes se perciben como diferentes cuando se utilizan distintos números enteros para expresarlas.

Este «sesgo de número entero» en la evaluación de magnitudes fraccionarias o decimales nunca se supera completamente. Los adultos con muchos años de formación matemática muestran este sesgo al decidir cuál de dos fracciones o decimales es mayor, como se te pidió determinar anteriormente. Una afirmación como «1/5 es menor que 1/3» requiere más tiempo para verificarse que una afirmación como «3/7 es menor que 5/7» porque los componentes enteros 3 y 5 nos orientan en la dirección correcta cuando aparecen como numeradores, pero en dirección errónea cuando figuran como denominadores. Este sesgo persiste incluso en personas con doctorados en matemáticas, que manipulan fracciones y decimales a diario. También se mantiene en situaciones donde somos plenamente conscientes de las magnitudes fraccionarias implicadas, como al decidir entre dos apuestas. Podemos reconocer que las probabilidades de ganar una apuesta 50:50 son idénticas independientemente de si nuestra probabilidad es de 1 entre 2 o de 9 entre 18, pero, aun así, preferimos la última opción, con el argumento de que es mejor tener nueve oportunidades que una.

Fuente: ChatGPT / E. F.

La raíz de nuestra dificultad para asignar magnitudes a fracciones y decimales reside en que no apreciamos la operación que las genera: la división. Esta operación se encuentra varios pasos más allá de las operaciones más familiares de suma y resta. Si sumamos el mismo número varias veces, como en 2 + 2 + 2, podemos representar ese proceso como multiplicación: 2 × 3. Pero, si restamos el mismo número repetidamente, no podemos representar ese proceso como división.

Algunos casos de división pueden expresarse como sustracciones repetidas; 6 ÷ 3, por ejemplo, puede verse como restar 3 de 6 dos veces. Pero la analogía se desmorona cuando dividimos por números que no encajan perfectamente en el dividendo, como dividir 6 entre 5. La fracción 6/5 corresponde a un problema de división cuya solución no puede expresarse como número entero. Los niños aprenden inicialmente a resolver este tipo de problemas con restos, en este caso, «1 resto 1». Pero esta estrategia conduce a un callejón sin salida conceptual; no ofrece pista alguna de cómo 6/5 podría constituir un número en sí mismo, con una magnitud única y un lugar específico en la recta numérica.

La fusión inicial que hacen los niños entre división y resta los lleva a la peculiar conclusión de que los números desaparecerán si se dividen repetidamente. Consideremos esta conversación entre un alumno de tercer curso y un investigador que explora la comprensión infantil de la división como operación matemática:

Este niño niega que los números puedan dividirse indefinidamente, así como que la recta numérica contenga números diferentes a los enteros. Cuando se le presiona, reconoce que la mitad cae entre 0 y 1, pero luego niega la existencia de cualquier otro número fraccionario.

A medida que los niños aprenden más sobre las fracciones, especialmente las fracciones unitarias como 1/3 y 1/4, aceptan que la recta numérica está más densamente poblada de lo que imaginaban inicialmente, pero siguen negando que los números puedan dividirse indefinidamente, como ilustra esta conversación con un alumno de sexto:

Tres años más de matemáticas no ayudaron a este alumno de sexto a comprender la relación entre las fracciones y la división mejor que al estudiante de tercero citado anteriormente. Esta relación resulta fundamental para concebir los números racionales como distintos de los enteros. Cuando se les pregunta a los niños: «¿Por qué hay dos números en una fracción?», aquellos que responden en términos de división —que el número superior se divide por el inferior— muestran también una comprensión más profunda de los números racionales. Pueden ordenar fracciones como 1/75 y 1/56 correctamente, consiguen ordenar decimales como 0,65 y 0,8 adecuadamente, reconocen espontáneamente la existencia de números entre 0 y 1, y consideran que los números pueden dividirse indefinidamente sin llegar nunca al 0.

La división abre un nuevo camino en el panorama de los números posibles, pero las investigaciones en educación matemática sugieren que se aprende mejor fuera del contexto numérico, como la partición de cantidades continuas en lugar de la combinación de números enteros discretos. Los alumnos de primaria no tienen dificultades para emparejar cantidades basadas en la proporción, como relacionar una vara de 90 cm cubierta en 2/3 con pintura con una regla de 30 cm cubierta también en 2/3. Aunque una vara es tres veces más larga que una regla, los niños ignoran esta diferencia de tamaño y se concentran en la cantidad relativa de pintura. Sin embargo, si tanto la vara como la regla aparecen divididas en unidades, los niños tienden a emparejarlas según estas unidades. Las unidades activan la rutina bien practicada de contar, y el conteo activa el concepto familiar de los números enteros.

No obstante, el conteo puede reorientarse si animamos a los niños a centrarse en las proporciones y les damos suficiente práctica para hacerlo. Un niño que ha practicado el ejercicio de emparejar varas con reglas basándose en la proporción cubierta de pintura seguirá emparejando por proporciones incluso cuando las áreas pintadas se dividan en unidades que no coincidan en número.

Dirigir la atención infantil hacia las proporciones ha demostrado ser eficaz para enseñarles los números racionales en general. El enfoque tradicional para enseñar estos números comienza con las fracciones, ilustradas como porciones discretas de un pastel dividido, para luego pasar a los decimales y después a los porcentajes. Pero el proceso inverso resulta más eficaz. Los niños tienen una comprensión intuitiva de los porcentajes, que encuentran al usar herramientas de medición como cintas métricas y tazas medidoras. No tienen problemas para distinguir una taza que está medio llena de otra que contiene un cuarto o una décima parte. Pueden aprender a asociar estas diferencias con porcentajes (50 %, 25 %, 10 %) y luego a escribirlos como decimales (0,50; 0,25; 0,10) o fracciones (50/100, 25/100, 10/100). Este último paso introduce el concepto de división (división por 100), pero solo después de que los niños tengan una comprensión sólida de qué se está dividiendo y cómo.

Asignar cantidades a notaciones y relacionar notaciones con operaciones no resulta sencillo. Pero esta tarea se facilita al fundamentar la comprensión infantil en cantidades que pueden percibir directamente y notaciones que pueden intercambiar de manera inmediata. La primera aproximación de los niños a los números racionales suele ser a través de fracciones unitarias como 1/2, 1/3 y 1/4, pero no queda nada claro qué representan estos números ni cómo se relacionan entre sí. Incluso los adultos familiarizados con todas las formas de notación de números racionales prefieren representar las proporciones como porcentajes y no como fracciones.

Los números racionales constituyen un punto de inflexión en la enseñanza de las matemáticas. Los estudiantes que no los comprenden se quedan rezagados al abordar temas posteriores, como el álgebra y la trigonometría. De hecho, la comprensión de las fracciones por parte de los alumnos de primaria predice su rendimiento matemático varios años después, ya en secundaria. Esta correlación se mantiene incluso después de controlar factores como el conocimiento aritmético, la inteligencia general, los ingresos familiares y el nivel educativo de los padres. El factor clave reside en la comprensión de las fracciones como magnitudes. La capacidad para sumar y restar fracciones resulta mucho menos predictiva del éxito matemático posterior que la habilidad para comparar y ordenar fracciones. Los estudiantes necesitan concebir los números racionales como auténticos números, situados en la misma recta numérica que los enteros, antes de poder manipularlos con confianza y competencia en el contexto de una ecuación.

Sentido de la orientación

Cuando se les pregunta a los adultos cuál es su área favorita de las matemáticas, la mayoría elige la geometría. Esta parece más intuitiva que la aritmética y el álgebra, tal vez porque se fundamenta en verdades que podemos observar. Sócrates argumentaba que el conocimiento de la geometría es innato y que descubrir sus principios consiste en explorar intuiciones que ya poseemos. Ilustró este argumento mediante una conversación entre él y un esclavo sin educación, narrada por Platón en el Meno. Sócrates dibuja un cuadrado con lados de 2 unidades de longitud y le pregunta al esclavo cuánto medirían los lados si el cuadrado tuviera el doble de área. El esclavo responde que 4, pero Sócrates le muestra que un cuadrado con lados tan largos sería cuatro veces mayor que el original, no dos veces mayor.

Posteriormente, Sócrates guía al esclavo para que comprenda que el nuevo cuadrado debe tener lados iguales a la diagonal del cuadrado original. Al cortar el cuadrado original por su diagonal se obtendrían triángulos con la mitad del área del cuadrado, y al unir cuatro de esos triángulos, ángulo recto con ángulo recto, se crearía un cuadrado dos veces mayor que el original. El esclavo logró captar la lógica de este razonamiento a pesar de su falta de educación formal, lo que Sócrates interpretó como una evidencia de que el conocimiento geométrico es innato en el ser humano.

El descubrimiento del esclavo resulta impresionante, pero ¿es representativo? ¿Tiene la gente en general acceso a tales conocimientos? En un estudio reciente, los investigadores plantearon a personas de diferentes edades, de 12 a 64 años, las mismas 50 preguntas que Sócrates formuló al esclavo. Encontraron una coincidencia casi perfecta entre las respuestas de esta muestra y las del esclavo. Sorprendentemente, sin embargo, la mitad no asimiló la lección que el diálogo pretendía enseñar. Cuando se les presentó un nuevo cuadrado y se les pidió que duplicaran su área, recurrieron a soluciones inviables, como duplicar sus lados, en lugar de aplicar el método de bisección diagonal que se les había mostrado minutos antes.

Este resultado pone de manifiesto una tensión en la imaginación espacial similar a las tensiones en la imaginación numérica descritas anteriormente: mientras algunas ideas geométricas se basan en la percepción y la intuición, otras requieren el descubrimiento de operaciones novedosas. Esta tensión queda bien ilustrada por una tarea de identificación de patrones diseñada por el psicólogo Stanislaus Dehaene y sus colegas. En esta tarea, los participantes observan seis patrones visuales y deben identificar aquel que viola un principio geométrico ilustrado por los otros cinco. Podrían ver seis conjuntos de líneas que se cruzan, donde cinco se cruzan en ángulo recto y una lo hace en ángulo oblicuo, o seis triángulos, donde cinco son equiláteros y uno es isósceles.

Mediante esta tarea, los investigadores han descubierto una notable coherencia entre los principios geométricos con los que sintonizamos y aquellos con los que no lo hacemos. La mayoría de las personas percibe con facilidad los principios definidos por la topología, los ángulos o la distancia, como si una línea es curva, si dos líneas se cruzan en ángulo recto o si los lados de un triángulo tienen igual longitud. Sin embargo, la mayoría no capta los principios definidos por la dirección, como si dos líneas se cruzan formando una L o una L invertida, si una figura pequeña está a la izquierda o a la derecha de una figura mayor, o si dos formas irregulares son copias idénticas o imágenes especulares. En otras palabras, percibimos fácilmente las diferencias en el tamaño de un ángulo, la longitud de una línea y la curvatura de una superficie, pero no distinguimos las diferencias en la orientación izquierda-derecha.

Este hallazgo se aplica tanto a niños como a adultos, y afecta por igual a personas de sociedades no industrializadas, como los munduruku, y a personas de sociedades industrializadas, como Francia. Se extiende incluso a personas que nacieron ciegas, si la tarea se administra mediante pantallas táctiles. Los seres humanos parecen poseer un sentido innato del espacio estructurado por la topología, los ángulos y las distancias. Este sentido emerge temprano en el desarrollo, con independencia de dónde hayamos crecido y de si percibimos el espacio con los ojos o solo con el cuerpo. Pero presenta una limitación profunda: no distingue entre izquierda y derecha, una propiedad conocida como «quiralidad».

A primera vista, la quiralidad no parece muy relevante. ¿Importa realmente que podamos confundir unas tijeras para zurdos con unas para diestros? ¿O si el tenedor de ensalada va a la izquierda del plato o a la derecha? Probablemente no. Sin embargo, muchos otros aspectos de la vida moderna dependen por completo de mecanismos y símbolos quirales. Los tornillos se aprietan hacia la derecha, no hacia la izquierda. Los automóviles circulan por la derecha, no por la izquierda (en la mayoría de los países). Los mapas no sirven si se sostienen al revés, invirtiendo sus direcciones. Los medicamentos pueden resultar mortales si se invierte su estructura química. La letra b se transforma en d si se escribe al revés, y casi todas las letras se vuelven ilegibles si se reflejan en un espejo.

La quiralidad constituye un aspecto poco apreciado de muchos sistemas modernos. Olvidamos cómo tuvimos que dominarla cuando nos enfrentamos por primera vez a esos sistemas, especialmente al sistema de escritura. Los adultos alfabetizados escriben mensajes en una dirección y solo en una dirección, pero los niños que aprenden a escribir trazan letras en ambas direcciones. De hecho, cuando se les pide a niños de cinco años que escriban su nombre junto a un punto situado en el extremo derecho de una hoja de papel, suelen empezar por el punto y escribir su nombre al revés, en lugar de comenzar a unos centímetros del punto y escribir su nombre hacia delante.

Entrenarnos para escribir en una sola dirección requiere superar un sesgo profundamente arraigado que nos lleva a agrupar formas similares en la misma categoría. Una rosa sigue siendo una rosa si se voltea de izquierda a derecha, pero una b se convierte en una d y una p en una q. Los estudios que han analizado las neuronas involucradas en el reconocimiento de formas revelan que estas son sensibles al punto de vista, pero no a la quiralidad. Una neurona que se activa ante un ángulo recto se activará independientemente de si ese ángulo apunta hacia la izquierda o hacia la derecha.

Nuestra insensibilidad a la quiralidad sugiere que no constituye una característica esencial en nuestra interacción con entornos naturales, pero se ha convertido en un rasgo crucial para relacionarnos con artefactos modernos, desde tornillos hasta letras y mapas. Tales artefactos incorporan distinciones espaciales que trascienden la organización innata de la imaginación espacial.

Los mapas, por ejemplo, contienen información direccional que resulta confusa en el primer encuentro. Los niños tienen pocas dificultades para utilizarlos al identificar distintos puntos de referencia, pero suelen confundir lugares que solo se diferencian por su dirección. Si se les muestra un mapa con tres lugares dispuestos en un triángulo isósceles, tienden a confundir los dos puntos de la base del triángulo. Pueden usar el mapa para llegar hasta la ubicación superior porque esta difiere de las otras dos por la distancia, pero dudan entre las dos ubicaciones inferiores, navegando hasta la correcta solo la mitad de las veces.

Por muy desconcertantes que puedan parecer las herramientas quirales al principio, aprender a utilizarlas amplía nuestra imaginación espacial. Los niños que manejan mejor los mapas también identifican con mayor precisión patrones basados en la dirección en la tarea de comparación antes descrita, como reconocer el único ángulo que apunta en una dirección diferente a los demás. Los niños que leen mejor también escriben mejor, trazando sus letras en la dirección correcta y utilizando adecuadamente letras especulares como la b y la d. Los humanos hemos creado numerosas herramientas que nos ayudan a seguir la dirección, como los mapas, o que utilizan la dirección como indicio de otra información, como las letras; cuanto más usamos estas herramientas, más atendemos a la dirección como característica distintiva del espacio.

El apoyo mutuo entre las herramientas matemáticas y la imaginación matemática también se observa en el ámbito de la aritmética. Los seres humanos hemos creado múltiples instrumentos para llevar un registro de cantidades y cálculos, como tablas de conteo, libros de contabilidad, hojas de cálculo y reglas de cálculo, y la experiencia con estas herramientas mejora nuestra capacidad para realizar operaciones aritméticas.

Consideremos el ábaco. Esta herramienta permite a los usuarios crear y manipular una representación visual de números de varios dígitos, utilizando cuentas para representar la cantidad y columnas para indicar el valor posicional. Las personas con mucha práctica en el uso del ábaco ya no necesitan uno físico para aprovechar sus posibilidades: pueden visualizarlo mentalmente y simular el movimiento de sus cuentas. Los usuarios del ábaco mental pueden resolver problemas de suma de varios dígitos de forma rápida y eficaz, y esta capacidad mejora con la práctica. Los más expertos en el ábaco mental pueden sumar 10 números de 10 dígitos mentalmente en cuestión de minutos.

Herramientas como el ábaco y el mapa proporcionan un medio eficaz para aplicar las operaciones abstractas inherentes a las matemáticas. Estas operaciones nos permiten contemplar nuevas posibilidades matemáticas, pero son susceptibles de mal uso y aplicación incorrecta, como cuando cometemos errores de cálculo que desafían la comprensión intuitiva de las cantidades comparadas o empleamos una fórmula que contradice nuestro entendimiento básico de la situación modelada. Fundamentar las operaciones abstractas en procedimientos concretos nos ayuda a evitar estos problemas al vincularlas con las manipulaciones físicas que pretenden representar. Encontrar el equilibrio adecuado entre lo concreto y lo abstracto resulta clave para expandir la imaginación matemática de manera sostenible, aunque alcanzar este equilibrio puede ser tan difícil como descubrir las abstracciones relevantes.

Tomemos, por ejemplo, la demostración comentada al inicio del capítulo sobre la relación entre los números impares y los números cuadrados. Imaginar los números cuadrados como cuadrados reales podría parecer un truco superficial para apreciar una idea profunda que solo los matemáticos pueden comprender. Sin embargo, la conexión entre los números cuadrados y los cuadrados geométricos es tan auténtica como la relación entre contar y sumar. Y descubrir esa conexión resulta tan innovador como formular la demostración formal de que la suma de números impares consecutivos da como resultado números cuadrados. Si la demostración formal requiere años de matemáticas avanzadas para entenderla, entonces la prueba visual es, sin duda, más impactante porque pone este conocimiento al alcance de todos. Establecer conexiones entre la realidad y sus versiones idealizadas constituye en sí mismo un logro de la imaginación.

En el mundo de la salud abundan las verdades a medias, los consejos heredados de abuelos y los titulares llamativos que, aunque se repiten como mantras, no resisten un análisis riguroso. El problema no es solo que sean erróneos: a veces, incluso pueden desviar la atención de los verdaderos hábitos beneficiosos o sembrar desconfianza hacia medidas preventivas fundamentales. Recopilamos varios de esos mitos —sobre el alcohol, el frío, la vitamina C, el cerebro y otros aspectos del cuerpo humano— y los confronta con lo que realmente dicen los estudios.

Mito 1: La vacuna de la gripe provoca gripe

Esta es una creencia aparentemente lógica: la vacuna de la gripe está hecha con diferentes tipos de virus que causan esta enfermedad –por ejemplo, el H1N1 y el H3N2, que son subtipos de la influenza A, y un virus de la influenza B–, y funciona inoculándolos en el organismo para que este desarrolle anticuerpos que ayuden a combatirla.

Pero introducir estos virus de la gripe en el cuerpo no la causa, ya que los que se emplean en las vacunas están muertos y fraccionados... o se basan en parte de ellos. Es cierto que, a veces, estas vacunas pueden provocar síntomas leves como dolores musculares o algo de fiebre. Bien, pues aunque eso no significa que se haya contraído la gripe, sí ha contribuido a propagar el malentendido. 

Hay otras posibles explicaciones para esta confusión en torno a la vacuna: la primera es que la inmunización que proporciona se limita a la gripe causada por los virus gripales y sus derivados, pero no a las enfermedades que se manifiestan con síndromes gripales, como tos, fiebres y malestar, y que pueden deberse a adenovirus y rinovirus (estos últimos, responsables del resfriado común).

Otra razón es que su eficacia ronda el 60 %, por lo que parte de los vacunados pueden desarrollar igualmente la gripe y pensar que se ha debido a la vacuna. Y no hay que olvidar el periodo de latencia: la vacuna tarda entre quince y treinta días en hacer efecto, pero la gripe solo necesita de dos a cuatro días; si la persona vacunada ya tenía el virus antes o lo contrae en ese periodo, los síntomas pueden aparecer tras la aplicación de la vacuna.

¿La vacuna de la gripe provoca gripe? Este y otros mitos médicos explicados por la evidencia 1
¿La vitamina C previene la gripe? ¿El frío causa la gripe? Fuente: Pixabay.

Mito 2: La vitamina C ayuda a prevenir la gripe

Las trolas con más riesgos de extenderse son las que tienen un origen ilustre, y esta no puede tenerlo más: su difusor fue nada menos que el bioquímico norteamericano Linus Pauling, ganador de dos Premios Nobel -uno de Química, y otro de la Paz- y gran entusiasta de la vitamina C.

En 1970, Pauling publicó el libro Vitamina C, resfriado común y gripe, en el que indicaba que la ingesta diaria de un gramo de esta sustancia sería capaz de reducir en un 45 % la incidencia de la gripe, y en un 6 0% los días en los que se manifiesta la enfermedad.

La comunidad científica acogió esta afirmación con desconfianza y fue la gran influencia y popularidad de Pauling lo que les impulsó a estudiar la vitamina C y sus posibles efectos sobre la gripe. En 1986, el profesor Stewart Trunswell, de la Universidad de Sídney (Australia), estudió veintisiete de los trabajos realizados sobre el particular y constató que ninguno de ellos aportaba indicio alguno de que la vitamina C ayudara a prevenir o curar la gripe.

Como mucho, cinco de ellos observaban una reducción mínima de la duración de los resfriados. La vitamina C es buena, pero Pauling exageró, y no poco, sobre sus efectos beneficiosos.

Mito 3: El frío causa la gripe

Demasiado familiarizados estamos ya con esta enfermedad en todas sus variantes como para que este bulo siga siendo tan creído como antes. Pero no está de más precisar: lo que causa la gripe y los resfriados no es el frío, sino los virus, aunque sí es verdad que las bajas temperaturas pueden favorecer su aparición.

Pero no es una relación causa-efecto directa: el aire frío tiende a resecar las mucosas de las vías aéreas superiores -es decir, de nuestra nariz-, membranas que están armadas con anticuerpos y enzimas que combaten la entrada de esos agentes en el organismo, y que al secarse pierden su efectividad. 

Además, en los meses fríos permanecemos más tiempo en lugares cerrados, lo que facilita la transmisión; de ahí que cuando lo coge un miembro de la familia es frecuente que los demás vayan cayendo poco a poco. Sin estos seres microscópicos acechando para introducirse en nuestro cuerpo, el frío en sí mismo no nos causaría otra cosa que la propia sensación de frío.

Mito 4: Beber mucha agua evita la resaca

Beber agua es bueno, pero no nos salvará de despertarnos con el estómago en la mesilla de noche y el Orfeón Donostiarra a pleno pulmón dentro de nuestro cráneo. La deshidratación es uno de los efectos de la resaca, y por eso una de las primeras cosas que hacen los afectados es beber una buena cantidad de agua por la mañana siguiente.

Seguir bebiendo agua regularmente el día después también contribuye a que nuestro organismo vaya eliminando el alcohol, que es la única manera de acabar con la resaca. Pero quienes piensen que, según esta regla de tres, combinar las copas con vasos de agua o beber mucha agua antes de irse a la cama difuminará los efectos de la borrachera, están equivocados. El líquido vital ayuda a sentirse mejor después, pero no tiene ningún efecto como principio para prevenir la resaca.

¿La vacuna de la gripe provoca gripe? Este y otros mitos médicos explicados por la evidencia 2
No las mata, pero sí daña conexiones y puede afectar la memoria y el hipocampo. El daño es real, aunque el mito exagere. Fuente: Pixabay.

Mito 5: El alcohol destruye las células del cerebro

No se ha encontrado ninguna evidencia que respalde esta afirmación, lo cual no quiere decir que el encéfalo sea inmune a los efectos del alcohol, sobre todo en los grandes bebedores. La mentira de que mata las neuronas cerebrales es la manera más simple –y errónea– de resumir los distintos daños que el alcohol produce en la materia gris. 

Para empezar, aunque el etanol no mata las células del cerebro, sí puede afectar a sus neuronas, y dañar sus extremos –los axones y dentritas–, que se encargan de transmitir información entre ellas. Si bien la célula en sí no es afectada, sí lo es su capacidad de comunicarse con las demás.

Otro efecto indirecto, sobre todo en los alcohólicos, es la incapacidad progresiva del organismo para absorber tiamina o vitamina B1, cuya carencia provoca el síndrome de Wernicke-Korsakoff. Este origina la pérdida de neuronas en algunas partes del cerebro y puede causar problemas de memoria, parálisis ocular, amnesia, e incluso la muerte.

El consumo prolongado e intensivo de bebidas alcohólicas se ha ligado también con el encogimiento del hipocampo, la zona del cerebro relacionada con la memoria y el razonamiento; y cuanta más cantidad de alcohol se consume, mayor es la merma. No hay que olvidar tampoco que su consumo durante el embarazo puede causar daños graves en el cerebro del feto. El deterioro de las células cerebrales parece ser solo uno de los muchos estragos que la ingesta excesiva de alcohol desencadena en el cerebro. Por ello, nunca está de más recordar que no hay que abusar del alcohol, sobre todo si padecemos alguna enfermedad.

Mito 6: Leer en la oscuridad es malo para la vista…

Más correcto sería decir que es malo para la sesera, porque no está probado que leer con poca luz llegue a provocar ningún tipo de dolencia ocular o a agravar cualquiera que ya se pueda padecer.

Pero la escasa iluminación obliga a los ojos a hacer un mayor esfuerzo para distinguir las letras, lo que tras un rato de lectura se traduce en dolores de cabeza y fatiga visual. Complicaciones molestas, sin duda, pero temporales.

Mito 7: …Y hacerlo en el autobús puede provocar un desprendimiento de retina

Ya sea en papel o en una pantalla, millones de personas leen todos los días en el transporte público y sus retinas están intactas. Esta patraña se refiere al autobús, porque en él se percibe más la sensación de desplazamiento y los accidentes del terreno, como baches y desniveles, que en el tren o en el metro.

Pero es falso: la retina es la membrana que transforma la luz en impulsos nerviosos y solo puede sufrir un desprendimiento como consecuencia de un traumatismo o de una dolencia concreta, como es el caso de una miopía muy acusada, tumores, algunos tipos de diabetes y anemia, entre otros. Leer en el coche o en el autobús no está de ningún modo incluido en esta lista de posibles causas de daño ocular.

¿La vacuna de la gripe provoca gripe? Este y otros mitos médicos explicados por la evidencia 3
¿Leer en el autobús desprende la retina? Fuente: Pixabay.

Mito 8: El tamaño del pie es proporcional al del pene

Sentimos hundir la reputación de los que calcen un 46 esparramao, pero esta creencia popular ha sido desmentida científicamente: en 2002, especialistas del Departamento de Urología del Saint Mary’s Hospital de Londres realizaron un estudio para averiguar la posible relación entre el tamaño de esas dos partes del cuerpo masculino. Después de analizar a 104 varones, los médicos no detectaron el menor indicio de que la talla del zapato guardara ninguna relación con la medida del miembro.

En 2015 se realizó otro estudio mucho más amplio, coordinado por científicos del King’s College de Londres, en el que participaron 15521 hombres de diferentes países y edades. De nuevo, las conclusiones descartaron la existencia de patrones estadísticos que relacionen el tamaño del miembro viril con el de los pies o con el de cualquier otra parte de la anatomía masculina

Mito 9: La lógica y la creatividad están situadas cada una en un hemisferio del cerebro 

Internet está plagado de test que prometen descubrir cuál de los dos lados de nuestro cerebro es el predominante: el izquierdo, en cuyo caso seríamos personas de mente lógica, o el derecho, lo que significa que estaríamos dotados de una gran creatividad.

Son buenos para pasar el rato y poco más, porque además de ser demasiado simplistas, parten de una premisa equivocada. La verdad es que los dos hemisferios cerebrales trabajan en conjunto todo el tiempo y están interconectados por extensas redes neuronales. 

Este tópico de los hemisferios diferenciados quedó desmentido por el trabajo del neurobiólogo Jeffrey Anderson, de la Universidad de Utah (EE. UU.), quien en 2013 realizó un estudio con más de mil personas de edades comprendidas entre los siete y los veintinueve años.

Los sesos de los voluntarios fueron examinados mediante resonancia magnética mientras realizaban diferentes actividades. En principio, los resultados parecían confirmar la teoría de los compartimentos cerebrales. Algunas tareas tenían lugar prioritariamente en uno de los hemisferios. La manipulación de los números y del lenguaje, por ejemplo, estaban relacionados con el izquierdo, pero la atención y la capacidad de reconocer a personas ocurrían en el derecho. Pero solo en principio, porque ningún proceso cerebral está confinado únicamente a uno de los lados.

Un acto tan sencillo como descansar puede necesitar más de 7000 puntos neurales alrededor del córtex. El estudio de Anderson también permitió constatar la existencia de redes neuronales más fuertes en algunos puntos del cerebro, pero sin relación directa con uno u otro hemisferio. Para cualquier actividad necesitamos el cerebro entero, no solamente una mitad.

Cerebro
¿Lógica y creatividad están en hemisferios opuestos? Fuente: Pixabay.

Mito 10: El ser humano solo utiliza la décima parte de su cerebro

Resulta tentador pensar que nuestro encéfalo todavía tiene un 90 % de su capacidad sin explotar, y, desde luego, para cómics y películas de ciencia ficción da mucho juego. Pero es solo eso: ficción. Este órgano funciona a plena potencia durante toda nuestra vida.

Si lo comparamos con la musculatura, es evidente que esta consume poca energía cuando estamos acostados sin hacer nada y que ese consumo aumenta radicalmente si nos ponemos a correr, por ejemplo. Pero, en comparación, nuestro cerebro solo consume un 1 % más de energía cuando se lanza a resolver un problema difícil que cuando no está ocupado en nada. 

El origen de este mito puede estar en el tópico de considerar al cerebro meramente como un conjunto de neuronas. En 2015, investigadores del Instituto de Tecnología de Massachusetts (MIT), en Estados Unidos, utilizaron electrodos para medir los movimientos neurales de 2700 puntos del córtex y concluyeron que cualquier tarea mental requiere el uso de distintas herramientas, algunas más conocidas que otras.

Por ejemplo, están las neuroglias o células gliales, que son responsables de hacer, por así decirlo, el trabajo pesado del sistema nervioso. Entre sus funciones están las de llevar sustancias nutritivas a las neuronas, evitar interferencias en sus impulsos y eliminar tejidos muertos. Son auténticas hormiguitas cerebrales, y representan el 90 % de las células neuronales; el 10 % restante son las neuronas, responsables de enviar los impulsos que permiten que el organismo funcione. El malentendido ha surgido de pensar que estas son las únicas que hacían un trabajo útil dentro del cráneo.

Durante años, muchos dueños de mascotas han asegurado que sus perros “saben” quién es de fiar. La idea de que los perros pueden evaluar a las personas —basándose en cómo estas tratan a otros— ha sido explorada por varios estudios, con resultados dispares. El nuevo trabajo, publicado en Animal Cognition, buscó responder esta pregunta desde una nueva perspectiva: ¿pueden los perros formar una opinión de los humanos, ya sea por experiencia directa o por observación? Y más aún, ¿influye la edad del perro en esta capacidad?

Para investigar esto, un equipo internacional de científicos trabajó con 40 perros de compañía en el Clever Dog Lab de la Universidad de Medicina Veterinaria de Viena. Dividieron a los canes en tres grupos por edad —jóvenes, adultos y mayores— y los expusieron a dos tipos de experiencia: indirecta, observando cómo dos personas interactuaban con otro perro; y directa, en la que ellos mismos recibían trato generoso o egoísta.

El objetivo era ver si, tras estas interacciones, los perros preferían acercarse o mostraban más afecto hacia la persona generosa. Pero los resultados fueron sorprendentes. La realidad es más compleja de lo que parece.

Un diseño complejo para medir decisiones simples

El estudio se desarrolló en un recinto al aire libre con marcas en el suelo y estrictos controles para evitar sesgos. Los perros, tras observar o vivir una serie de interacciones, debían elegir entre dos personas: una que ofrecía comida (la generosa) y otra que la negaba (la egoísta). También se midió cuánto tiempo pasaban mostrando conductas afectivas hacia cada una.

En el caso de la observación indirecta, se introdujo un tercer perro que actuaba como “demostrador”. Los perros participantes observaban cómo dos mujeres trataban al demostrador con generosidad o rechazo. Luego se analizaba con cuál preferían interactuar.

En el experimento directo, cada perro vivió en primera persona una serie de interacciones con ambas figuras humanas, alternando entre recibir comida o ser ignorado. Los ensayos se repitieron doce veces para comprobar si con más experiencia se generaba una preferencia clara.

A pesar del esfuerzo por controlar todas las variables, los perros no mostraron una inclinación significativa hacia la persona amable, ni tras la observación ni tras vivirlo en carne propia.

¿De verdad los perros reconocen a las “buenas personas”? Un nuevo estudio pone en duda su capacidad para formar reputaciones
Espacio del experimento. Fuente: Animal Cognition.

Ni la edad ni la experiencia hicieron la diferencia

Uno de los objetivos principales del estudio era comprobar si los perros mayores, con más años de convivencia humana, eran mejores evaluadores sociales. Pero la edad no marcó ninguna diferencia. Perros jóvenes, adultos y mayores actuaron de forma muy similar.

De los 40 participantes, solo tres mostraron una preferencia estadísticamente significativa: dos eligieron consistentemente a la persona generosa, y uno se decantó por la egoísta. El resto actuó de forma indistinta, como si no percibieran o no dieran importancia al comportamiento de las personas.

También se analizó si, al repetir los encuentros, los perros aprendían a preferir a quien los trataba bien. Pero ni siquiera en las pruebas directas, tras doce interacciones consecutivas, se observó un aprendizaje claro. Ni la repetición ni la edad parecieron afectar el juicio de los perros sobre las personas.

¿Falta de capacidad o un experimento demasiado amable?

Los autores del estudio reconocen que estos resultados contrastan con otras investigaciones que sí han hallado evidencias de evaluación social en perros. Pero también señalan posibles razones para este desenlace.

Una de ellas es que los perros de familia están acostumbrados a recibir buen trato de casi todos los humanos. En ese contexto, tal vez no consideren necesario hacer distinciones finas entre personas amables y no tan amables.

Además, los perros no estaban en ayuno ni expuestos a situaciones estresantes. El entorno era positivo, el alimento era abundante y no existía un riesgo claro en acercarse a la persona “egoísta”. Esto podría haber reducido la urgencia de discriminar.

Otra posibilidad es que los perros sí formaran una valoración, pero no la expresan de forma evidente en el test. En la vida real, las decisiones sociales suelen ser más complejas que elegir entre dos humanos en una prueba de 15 segundos.

Este estudio plantea dudas sobre la capacidad de los perros para evaluar el carácter humano en contextos controlados. Fuente: Pixabay.
Este estudio plantea dudas sobre la capacidad de los perros para evaluar el carácter humano en contextos controlados. Fuente: Pixabay.

El poder del contexto y los desafíos del método

Un detalle importante fue que más del 37 % de los perros mostró un sesgo, por un lado, del recinto, probablemente porque ofrecía más sombra. Esta preferencia espacial podría haber afectado las elecciones y enmascarado cualquier tendencia real hacia una persona u otra.

Los investigadores también sugieren que la diferencia de género entre las personas humanas (todos los actores eran mujeres) podría haber limitado la capacidad de los perros para diferenciarlas. Estudios previos muestran que los perros discriminan mejor cuando los humanos difieren más visiblemente entre sí.

Por otro lado, mantener un diseño ético y amable con los animales restringe los estímulos disponibles. No es posible —ni deseable— que un humano maltrate a un perro para simular una interacción verdaderamente negativa. Por tanto, los “actos egoístas” debían limitarse a no ofrecer comida, algo que quizá los perros no interpretaron como realmente hostil.

¿Y si los perros necesitan más tiempo?

Algunos estudios con chimpancés indican que formar una reputación puede requerir muchas más repeticiones de las que este estudio ofreció. Incluso especies cognitivamente complejas necesitan decenas de ensayos para establecer una preferencia social.

Los investigadores proponen que estudios futuros podrían ampliar el número de sesiones o distribuirlas en más días, permitiendo que los animales procesen la información sin aburrirse ni saturarse. También sugieren que utilizar perros callejeros o de contextos donde la interacción humana no es siempre positiva podría arrojar resultados distintos.

El hecho de que estos perros de compañía no mostraran una clara capacidad de evaluación social no significa que no puedan desarrollarla en otras condiciones, ni que no juzguen a las personas en la vida diaria. Pero sí sugiere que esta habilidad es más compleja de lo que parece.

Más del 37 % de los perros mostró un sesgo espacial al elegir, lo que podría haber afectado los resultados.
Más del 37 % de los perros mostró un sesgo espacial al elegir, lo que podría haber afectado los resultados. Fuente: Pixabay.

Ni héroes, ni tontos... simplemente perros

Este estudio no desmonta del todo la idea de que los perros pueden juzgar a las personas, pero sí añade una capa de escepticismo basada en evidencia experimental.

En condiciones controladas, los perros no demostraron formar una opinión basada en la amabilidad de los humanos, ni por experiencia directa ni indirecta.

La investigación destaca la importancia de seguir afinando los métodos científicos para explorar cómo los animales perciben a los humanos. Y también recuerda que la interpretación de la conducta animal es siempre un desafío, incluso con especies tan cercanas a nosotros como los perros.

Quizá nuestros peludos no sean tan buenos jueces de carácter como pensamos. O tal vez, simplemente, necesitan un poco más de tiempo y contexto para mostrarlo.

Referencias

Un reciente video viral mostró un experimento con dos ruedas de distinto tamaño rodando sobre una mesa, dejando perplejos a miles de espectadores. En la demostración, cada rueda recorre por separado una distancia acorde a su circunferencia. La grande avanza más que la pequeña. Sin embargo, al fijar la rueda pequeña dentro de la grande y hacerlas rodar juntas, ambas cubren exactamente la misma distancia en una vuelta. Esta aparente contradicción desconcierta a primera vista: ¿cómo puede la rueda pequeña, de menor circunferencia, desplazarse tanto como la grande sin “estirarse”? La situación desafía la intuición y evoca un antiguo enigma, planteando un problema que parece carecer de explicación sencilla.

Lo que presenciaron los usuarios de redes sociales no es un truco de cámara, sino la famosa paradoja de la rueda de Aristóteles, un rompecabezas descrito hace más de dos mil años y que sigue generando asombro. En la obra Mecánica atribuida a Aristóteles, ya se discutía este curioso caso de las dos ruedas concéntricas. Matemáticos y filósofos a lo largo de la historia –desde la Grecia clásica hasta la era moderna– han analizado el fenómeno, dándonos pistas para resolver el misterio. De hecho, al describir el caso se señala que la rueda grande recorre su circunferencia completa mientras la rueda menor, al ir acoplada, recorre más distancia que su propia circunferencia, de modo que “aquí tenemos una flagrante paradoja”. ¿Dónde está el truco entonces? Las páginas de la historia de la ciencia encierran la respuesta, mezclando sutilezas de geometría, rozamiento e incluso la naturaleza del infinito.

¿En qué consiste la paradoja?

La paradoja de Aristóteles se presenta con una rueda ideal representada por dos circunferencias concéntricas: una externa grande y otra interna más pequeña, unidas rígidamente por el mismo eje. Para entender este artículo es imprescindible que veas el vídeo del que hablamos.

Ahora, imaginemos que la rueda grande está en contacto con una superficie horizontal (como una carretera) y que rueda sin resbalar sobre ella. Al completar una vuelta, el borde exterior ha recorrido una distancia igual a la circunferencia de la rueda grande, como era de esperarse. Pero, al estar la rueda pequeña unida a la grande, su centro se mueve conjuntamente, de modo que la rueda interna también da una vuelta completa. Si pensamos en la rueda pequeña rodando por sí sola, esperaríamos que avanzara solo lo equivalente a su menor circunferencia. Sorprendentemente, al estar acoplada, la circunferencia interna termina cubriendo la misma distancia lineal que la externa, superando la longitud de su propia circunferencia. Esta discrepancia –una rueda pequeña “avanzando de más”– es el meollo de la paradoja. A simple vista, las matemáticas básicas parecen contradecirse: ¿cómo pueden dos circunferencias de tamaños distintos sin deformarse cubrir el mismo recorrido con una sola rotación?

Representación similar a la de Aristóteles. Fuente: Wikipedia

Un enigma desde la Antigüedad

Para visualizar el enigma, imaginemos marcar un punto en el borde de cada rueda al inicio del experimento. Al rodar juntas una vuelta completa, el punto del perímetro externo habrá tocado sucesivamente cada porción del suelo hasta avanzar 2πR (siendo R el radio de la rueda grande). El punto marcado en la rueda menor no toca el suelo (pues la rueda pequeña está suspendida dentro de la grande), pero al girar solidariamente también habrá dado una vuelta completa respecto al eje común. Geométricamente, a cada posición del punto externo corresponde una posición del punto interno alineada radialmente; de hecho, existe una biyección uno a uno entre los puntos de la circunferencia grande y los de la pequeña durante la rotación. Esto sugeriría que la rueda pequeña “debería” recorrer simultáneamente 2πr (con r su radio) y 2πR, lo cual es imposible si 2πr < 2πR. La paradoja nace precisamente de aplicar indiscriminadamente reglas geométricas ideales: asumimos que rodar sin deslizar implica lo mismo para ambas ruedas, llevando a un resultado que desafía la lógica convencional. No es de extrañar que este acertijo intrigara a grandes mentes durante siglos.

Fuente: ChatGPT / E. F.

Galileo y los espacios “vacíos” en la rueda

En el siglo XVII, Galileo Galilei aportó una idea brillante para desentrañar la paradoja, conectándola con su defensa del atomismo. En su obra Dos nuevas ciencias (1638), Galileo propuso reemplazar las circunferencias por polígonos –concretamente, imaginó dos hexágonos concéntricos en lugar de círculos– para simplificar el análisis. Al hacer “rodar” un hexágono grande sobre una superficie, es fácil ver que cada lado traza una línea recta al contacto con el suelo, mientras el hexágono pequeño, al ir montado, no siempre tiene un lado apoyado. Cada vez que el hexágono externo gira sobre una cara nueva, el hexágono interior queda brevemente suspendido en el aire, “saltando” un pequeño trecho del recorrido. Galileo notó que el hexágono interno deja una huella discontinua: no toca el suelo en ciertas etapas, creando espacios vacíos en su trayectoria. Al aumentar el número de lados del polígono –pasando de un hexágono a polígonos con más y más caras– la rodadura se va asemejando cada vez más a la de un círculo. Pero crucialmente, esos pequeños saltos del polígono interior siguen existiendo, aunque cada vez más pequeños. En el límite de infinitos lados (es decir, el círculo perfecto), el hexágono interior se convierte en la circunferencia interna, y los saltos se transforman en “vacíos” infinitesimales distribuidos a lo largo del camino.

Galileo imaginó sustituir las circunferencias por hexágonos concéntricos para analizar la paradoja. En esta ilustración, el hexágono exterior (azul) rueda sin deslizar, dejando un trazo continuo en el suelo, mientras que el hexágono interior (rojo) es arrastrado y no siempre está en contacto, dejando solo trazos discontinuos (líneas rojas) con espacios vacíos entre ellos.

El ingenioso enfoque de Galileo reveló la solución conceptual: la rueda pequeña, al estar fija dentro de la grande, no recorre cada punto del trayecto de forma continua. Algunas porciones de lo que sería su recorrido “ideal” simplemente no se manifiestan como contacto real con el suelo. En términos de Galileo, la rueda contiene puntos de apoyo y vacíos intercalados. Al describir el caso con un polígono de mil lados, señaló que el polígono menor avanza casi lo mismo que el mayor, pero su camino se compone de “mil pequeñas partículas... con mil pequeños espacios vacíos interpuestos”. Traducido al lenguaje del círculo, esto quiere decir que la circunferencia interna resbala en ciertos instantes en lugar de rodar puramente. El resultado es que ambas ruedas acopladas avanzan igual distancia, pero la rueda pequeña lo hace combinando rodadura y deslizamiento. Galileo concluyó que, si la materia fuese discontinua (hecha de “átomos” indivisibles), esos espacios infinitesimales explicarían por qué la rueda interna no traza una línea continua equivalente a su circunferencia. En sus propias palabras, los “vacíos interpuestos no se cuantifican, pero son infinitos”, de modo que el recorrido del círculo menor incluye una infinidad de minúsculas interrupciones. Esta idea anticipaba nociones de la física atómica y de las matemáticas del infinito, mostrando cómo la paradoja rozaba cuestiones profundas sobre la estructura continua de la materia y el espacio.

Rodar versus deslizar: la explicación física

Desde una perspectiva física moderna, la paradoja se aclara distinguiendo entre rodar y deslizar. La rueda exterior, al estar en contacto con el suelo, rueda sin resbalar; cada punto de su perímetro toca momentáneamente el suelo y se levanta, de modo que no hay deslizamiento neto. En cambio, la rueda interior no toca el suelo en absoluto: gira solidariamente, pero “flota” arrastrada por la estructura externa. Esto significa que su movimiento relativo al suelo no es un rodamiento puro, sino un movimiento combinado. Si imagináramos que el círculo pequeño tuviera su propio camino por dentro de la rueda grande, veríamos que patina sobre ese camino. Dicho de otro modo, la rueda pequeña desliza respecto al suelo mientras es llevada por la grande, aunque no podamos verlo directamente porque está suspendida en el aire.

Un experimento mental puede ayudar: pensemos en pegar una moneda pequeña (digamos de 10 céntimos) al interior de una moneda grande (de 10 céntimos). Al rodar el conjunto sobre una mesa apoyado en la moneda grande, la moneda pequeña gira en el aire. Si pudiéramos colocar otra superficie tocando la moneda pequeña por su lado interno, notaríamos que esta moneda menor resbala sobre esa superficie en lugar de rodar plenamente. De hecho, cuando el sistema avanza una vuelta completa de la rueda grande, el centro común de las monedas se trasladó la misma distancia que la moneda grande recorrió (su circunferencia). La moneda pequeña giró el mismo ángulo, pero como no tuvo contacto con el suelo, su rotación no se tradujo en desplazamiento lineal propio. Es arrastrada, no “camina” sobre el suelo punto por punto. Este deslizamiento interno es exactamente lo que compensa la diferencia de circunferencias. Por eso, aunque geométricamente cada punto del círculo menor se corresponda con uno del mayor, físicamente no todos esos puntos contribuyen a contacto o recorrido efectivo. El suelo sólo recibe la rodadura del círculo grande; la rueda interna aporta giro, pero no tracción.

Un poco de matemáticas

La paradoja de Aristóteles se vuelve aún más interesante cuando se introduce la expresión matemática de la longitud de una circunferencia. Si una rueda gira sin deslizar, el recorrido lineal que realiza al completar una vuelta es exactamente igual a su circunferencia, es decir:

donde L es la longitud recorrida, r es el radio de la rueda y π es la constante que relaciona la circunferencia con el diámetro. Si tenemos dos ruedas concéntricas de radios diferentes, R para la exterior y r para la interior, entonces sus respectivas longitudes son:

Aquí está el problema: al rodar una vuelta, la rueda grande en contacto con el suelo recorre 2πR, pero la pequeña, al ir acoplada y suspendida, no tiene contacto real. Si alguien pretendiera que también rueda sin deslizar, su desplazamiento debería ser 2πr, que es menor. Pero como se ha demostrado, en el conjunto ambas ruedas recorren 2πR. Esto viola la condición de rodadura pura para la rueda pequeña. Por tanto, no puede haber rodamiento sin deslizamiento simultáneamente en ambas circunferencias.

¿Y si la rueda pequeña toca el suelo? una solución menos conocida, pero igualmente válida

Aunque la solución basada en el deslizamiento de la rueda interna es la más citada, no es la única. Hay otra forma igualmente válida de resolver la paradoja, que suele pasar desapercibida. ¿Qué ocurre si en lugar de apoyar la rueda exterior sobre el suelo, dejamos que sea la rueda interior —la más pequeña— la que ruede sin deslizar? Esta posibilidad, que algunos denominan “caso II”, ofrece una explicación simétrica pero con consecuencias distintas, y ha sido utilizada tanto en demostraciones prácticas como en vídeos divulgativos de gran claridad visual.

Si se apoya la rueda pequeña directamente sobre la superficie y se hace rodar el conjunto acoplado (es decir, ambas ruedas giran solidariamente alrededor del mismo eje), lo que se observa es que la rueda menor sí cumple la condición de rodamiento sin deslizamiento. En consecuencia, la distancia total recorrida por el sistema es igual a la circunferencia de la rueda interior, es decir:

donde r es el radio de la rueda pequeña. Sin embargo, la rueda grande, al girar solidariamente, completa también una vuelta, lo que implicaría que debería haber recorrido una distancia igual a su propia circunferencia, mayor que la de la pequeña. Y, sin embargo, ambas han recorrido lo mismo, como conjunto. Esta contradicción aparente se resuelve reconociendo que en este caso, la rueda grande es la que está resbalando. No rueda sin deslizar: gira, pero su perímetro no se corresponde con un desplazamiento lineal propio, ya que no está en contacto con el suelo.

Este razonamiento es plenamente simétrico al caso anterior. En el primer análisis, se asumía que la rueda exterior estaba en contacto con el suelo, por lo que era la rueda pequeña la que deslizaba. En este segundo caso, es la rueda menor la que rueda correctamente, y la rueda grande la que no cumple con la condición de rodadura pura. Lo más importante es entender que no se puede aplicar la misma fórmula de desplazamiento a ambas ruedas a la vez si solo una de ellas mantiene contacto real y sin deslizamiento con la superficie.

Un ejemplo cotidiano de este segundo caso es el de una botella acostada que rueda sobre su cuello, o el de algunas ruedas de tren, que tienen una brida o reborde interior. En estos casos, es el perímetro pequeño el que está en contacto y el que determina la distancia real recorrida. La rueda exterior, por tanto, puede rotar completamente sin que ello implique que haya “caminado” por su propia circunferencia.

En resumen, la paradoja se puede resolver desde ambos puntos de vista, siempre que se tenga claro cuál es la circunferencia que está actuando como base de contacto sin deslizamiento. La clave está en identificar correctamente cuál de las dos ruedas cumple las condiciones ideales de rodamiento. Al hacerlo, desaparece el conflicto y las fórmulas físicas recuperan su validez. No hay contradicción, sino un malentendido sobre qué parte del sistema está realmente impulsando el movimiento.

Sigue sin convencerme lo de la fricción y el deslizamiento: ¿qué hago?

Es una reacción comprensible. Muchas personas, al ver la paradoja representada en un dibujo limpio, con dos circunferencias perfectas y sin contacto físico real, sienten que la explicación basada en la fricción y el deslizamiento complica más que aclara. Si todo es ideal, si nada toca nada, ¿por qué introducir un fenómeno físico como el roce o el patinaje? ¿No basta con la geometría?

Y en efecto: sí basta, si se asume que el problema es puramente matemático. Desde ese enfoque, lo que desconcierta no es el comportamiento de los cuerpos materiales, sino una propiedad profunda de la geometría: que dos curvas pueden tener una correspondencia punto a punto perfecta y, sin embargo, longitudes diferentes. La paradoja, entonces, no se resuelve hablando de cómo ruedan o se deslizan las ruedas, sino reconociendo que nuestra intuición sobre el infinito puede fallar. Ese es el verdadero núcleo del enigma.

Ahora bien, si la rueda está hecha de madera y rueda sobre una mesa, como en los vídeos que circulan por redes, entonces el problema deja de ser abstracto. En ese caso, sí hay una rueda que toca el suelo y otra que no, y ahí la fricción entra en juego. Pero si lo que te interesa es el concepto puro, la paradoja lógica sin distracciones materiales, puedes prescindir de toda referencia al rozamiento. No hay trampa ni contradicción: hay una idea sutil sobre el infinito y la medida. Y si eso te convence más que el chirrido de una rueda mal apoyada, estás en buena compañía: también convenció a Bolzano, Galileo y Cantor.

Referencias

Aunque hoy lo damos por hecho, la relación entre el ser humano y la vid no siempre fue tan cotidiana. Para los antiguos griegos, las uvas eran mucho más que fruta: eran vehículo de transformación, una ofrenda a los dioses y, sobre todo, el ingrediente fundamental de un brebaje sagrado que tenía el poder de alterar la mente, sanar el cuerpo e incluso romper las fronteras entre lo humano y lo divino.

El vino no era simplemente una bebida; era una sustancia ritual. Se bebía en los banquetes para celebrar la amistad, se ofrecía en libaciones a los dioses, se usaba en medicina y también en los cultos mistéricos más secretos. Y en el centro de todo este universo embriagante, bailaba una figura única del panteón griego: Dioniso, el dios del vino, del éxtasis, de la locura sagrada. Hijo de Zeus —y en ciertas versiones también nieto—, Dioniso no solo fue un dios fuera de lo común por sus orígenes, sino también por los mundos que representaba: lo irracional, lo salvaje, lo fértil, lo transgresor.

El vino, ligado a su figura, se convertía en una herramienta de liberación y conexión espiritual. Pero también podía desatar la furia, la violencia o la muerte si no se usaba con sabiduría. En los simposios, beber sin medida era visto como una falta de educación; por eso el vino se mezclaba con agua, y beberlo puro se consideraba una práctica bárbara. En un mundo donde el equilibrio era una virtud esencial, hasta el vino tenía que ser moderado. Salvo, claro, en los ritos de Dioniso.

Detrás de cada sorbo, había una historia. Algunas contaban tragedias amorosas que acababan en transformación vegetal —como la del joven Ámpelo convertido en vid tras su muerte—, otras narraban venganzas divinas que explicaban por qué no cualquiera podía tocar el vino sin consecuencias. Incluso los usos médicos del vino reflejaban esa dualidad entre placer y remedio: era un desinfectante, un analgésico, un bálsamo para heridas... pero también un desencadenante de excesos si se cruzaban ciertos límites.

Este universo en el que la vid y el vino se mezclan con dioses, castigos y revelaciones no es solo fascinante: es clave para entender la mentalidad griega antigua. Y no hay mejor forma de explorarlo que a través de uno de los capítulos del libro Plantas míticas: pociones y venenos de los jardines de los dioses, de la editorial Hestia, que compartimos hoy en exclusiva. Te invitamos a sumergirte en estas páginas y descubrir cómo una planta tan aparentemente simple como la vid dio forma a toda una cosmología.

Vid (Vitis vinifera), escrito por Ellen Zachos

Aunque a los griegos antiguos les gustaba comer alguna que otra uva o pasa como tentempié, la verdad es que cultivaban la vid principalmente para hacer vino, que era una parte esencial de su cultura. Y no era solo por el sabor o la fiesta: el vino era un regalo del dios Dioniso.

Dioniso tiene dos historias de origen. La menos conocida lo presenta como Zágreo, hijo de Zeus y Perséfone (sí, lo que significa que Zeus era a la vez su padre y su abuelo). En la Dionisíaca, un poema épico del siglo V d.C. escrito por el poeta griego Nono, se describe la seducción: Zeus se disfrazó de dragón y se le apareció a Perséfone en la noche. «Le lamió el cuerpo suavemente con labios enamorados. De esa unión con el dragón celestial, el vientre de Perséfone se hinchó con fruto viviente, y dio a luz al pequeño Zágreo con cuernos».

A Hera no le hizo ni pizca de gracia y ordenó a los Titanes que despedazaran a Zágreo y se lo comieran, cosa que hicieron sin problema. Pero Atenea intervino y logró salvar el corazón del niño, que Zeus luego implantó mágicamente en el cuerpo de la mortal Semele, quien dio a luz a Dioniso versión 2.0.

El laurel era también otro de los símbolos clásicos de la antigua Grecia
El laurel era también otro de los símbolos clásicos de la antigua Grecia. Foto: Wikimedia

Hablando de Semele, la mayoría de los expertos coinciden en que ella fue la madre de Dioniso. Pero, como de costumbre, Hera se puso celosa (porque Zeus había tenido otro hijo ilegítimo) y planeó su venganza. Fingió hacerse amiga de Semele y le metió la idea de que, si Zeus la amaba de verdad, debía mostrarse ante ella con su forma divina. Y claro, la gloria del inmortal Zeus era demasiado para una pobre mortal: Semele estalló en llamas. Zeus alcanzó a sacar a Dioniso del vientre en el último segundo y lo cosió a su propio muslo hasta que llegó el momento del parto. Con eso, Zeus se convirtió en padre y madre de Dioniso, lo que permitió que el niño fuera completamente inmortal. Porque recuerda: basta una gota de sangre mortal para que el hijo de un dios no pueda ser inmortal.

Algunos estudiosos sostienen que Dioniso en realidad venía de la India, Frigia o Tracia. Pero hay evidencia en Micenas que muestra su nombre escrito en tablillas de arcilla en Lineal B (la forma más antigua conocida del griego escrito), lo que prueba que ya se lo conocía como un dios griego hacia el 1400 — 1200 a.C. Aunque no fue parte del grupo original de los doce Olímpicos, varias versiones cuentan que Hestia, diosa del hogar, cedió su lugar en el Olimpo con toda la buena onda para que Dioniso pudiera unirse al grupo.

¿Y cómo acabó Dioniso siendo el dios del vino? Bueno, la vid lleva el nombre de Ámpelo, un joven tracio del que Dioniso estaba profundamente enamorado. En las Metamorfosis, Ovidio cuenta que Ámpelo murió recogiendo uvas, pero hay una versión más jugosa en el poema de Nono. Ahí se dice que Ámpelo estaba montado en un toro salvaje y se le ocurrió burlarse de Selene, la diosa de la luna. Selene se vengó haciendo que el toro lo corneara hasta matarlo. Dioniso quedó devastado. Tanto, que hasta Átropos —una de las tres Moiras, encargadas de decidir cuánto vive un mortal— se compadeció y transformó a Ámpelo en la primera vid, dándole una forma de inmortalidad.

Cuando Dioniso bebía el vino hecho con la vid de Ámpelo, se alegraba, sabiendo que su amado estaría siempre con él. El vino alivió el dolor de Dioniso… y el de todos los que lo bebieran.

Dioniso le regaló el arte de hacer vino a un ateniense llamado Icaro, que lo había recibido con hospitalidad. (La hospitalidad era cosa seria para los griegos antiguos. Véase el capítulo sobre el tilo). Icaro compartió su vino con unos pastores de la zona, pero nadie había probado el vino antes y nadie tenía idea de lo que era estar borracho. Así que, cuando los pastores empezaron a sentirse raros, pensaron que Icaro los había envenenado… y lo mataron. Quizás por eso, en la antigua Grecia se consideraba de bárbaros beber vino sin rebajar. Casi siempre se diluía con agua en proporciones variables, aunque lo más común era una parte de vino por tres de agua. Resultado: una bebida mucho menos alcohólica, y también menos propensa a terminar en tragedia.

En la Odisea, Ulises se une a «los hombres en el banquete del vino», y Telémaco le dice que «beba su vino entre los suyos». Casi mil años después, Plutarco, escribiendo sobre los symposia (esas famosas reuniones donde los atenienses se juntaban a comer, beber y arreglar el mundo), dijo: «El vino anima a algunos hombres, les da confianza y seguridad, pero no una arrogancia odiosa, sino algo agradable y encantador».

Eso sí, en la antigua Grecia, no todo el mundo podía disfrutar por igual del regalo de Dioniso. Los hombres griegos creían que las mujeres tenían una tendencia natural a la embriaguez, y los symposia eran prácticamente eventos solo para hombres. Las mujeres solo podían estar presentes como sirvientas, prostitutas, artistas o chicas del aulós (una especie de flauta), que solían ser esclavas. En la Odisea, lo más cerca que llega una mujer al vino es cuando prepara la copa para su señor y amo.

El vino no era solo una bebida para los antiguos griegos y romanos
El vino no era solo una bebida para los antiguos griegos y romanos. Foto: Istock/Christian Pérez

Quizá si las mujeres hubieran podido beber socialmente, no habrían acabado convirtiéndose en ménades, las seguidoras salvajes de Dioniso. Con las ménades no se jugaba. Eran mujeres que abandonaban sus «deberes femeninos» para seguir al dios del vino. Bebían, bailaban con éxtasis y sensualidad… y si alguien se atrevía a faltar al respeto a Dioniso, lo despedazaban sin dudarlo.

Además de ser una bebida embriagante, el vino se usaba con fines medicinales en la antigua Grecia. Los textos hipocráticos lo recetan para un montón de cosas. Por fuera, se aplicaba en heridas y fracturas, se usaba en cataplasmas para la histeria y servía para calmar un recto inamado (sí, así de específico). Para tratar la diarrea posparto, se mezclaba vino oscuro con uvas, granada, queso de cabra y harina. Y a los hombres que querían tener hijos se les recomendaba beber vino oscuro sin diluir… pero no tanto como para acabar borrachos.

La vid silvestre crece de forma natural en muchas regiones de Grecia, y hay evidencia arqueológica que demuestra la presencia de uvas desde el Pleistoceno, es decir, hace más de once mil años. En el norte de Grecia se han encontrado semillas que datan de entre el 4500 y el 2000 a.C., mostrando la transición de las uvas silvestres a las cultivadas. Para la Edad del Bronce (aprox. 3000 a 1200 a.C.), el cultivo de la vid ya estaba bien establecido. Y hacia el 300 a.C., Teofrasto escribió bastante sobre cómo cultivar uvas, dando consejos prácticos sobre cómo reproducirlas y plantar distintas variedades.

Algunos enófilos modernos menosprecian los vinos griegos, pero fueron los griegos quienes introdujeron por primera vez el cultivo de la vid a los romanos (hacia mediados del segundo milenio a.C.) y luego a Marsella (en lo que hoy es Francia), ciudad que fundaron alrededor del 600 a.C. Hoy en día, los vinos italianos y franceses son mucho más conocidos, pero los vinos griegos modernos están ganando reconocimiento y respeto. Algunas variedades de uva griegas con milenios de historia están siendo usadas hoy para producir vinos premiados, y países como Sudáfrica, Australia e Italia están empezando a plantar esas mismas variedades.

De hecho, puedes comprarte una botella del mismo vino tinto (Limnio) que usó Odiseo para emborrachar al cíclope Polifemo antes de matarlo con una lanza. Solo asegúrate de mantenerte lejos d de los objetos punzantes.

Libro Plantas míticas

Cuando uno hojea Plantas míticas: pociones y venenos de los jardines de los dioses, el libro de la horticultora y divulgadora Ellen Zachos, descubre que las historias de la mitología griega no solo están pobladas por héroes, monstruos y dioses caprichosos. También están llenas de plantas con poderes extraordinarios. Lejos de ser un mero fondo escénico en las leyendas clásicas, la flora desempeñaba un papel central en los rituales, los encantamientos, los castigos divinos y hasta en la salud sexual o mental de los antiguos griegos.

El laurel, la vid, el hinojo, la granada o la mandrágora formaban parte de un universo simbólico profundamente arraigado en la vida cotidiana. Eran parte del paisaje físico, sí, pero también del paisaje moral, espiritual y político. Como bien recoge Zachos, estas plantas tenían funciones prácticas, pero su presencia en los mitos revela un conocimiento ancestral: los antiguos sabían que la naturaleza tiene la capacidad de sanar, alterar la mente, propiciar la fertilidad o inducir visiones proféticas.

La botánica como lenguaje divino

En los templos, los jardines y los textos sagrados de Grecia, las plantas no se representaban como elementos decorativos. Se trataba de símbolos vivientes, cargados de sentido. Algunas eran consagradas a divinidades específicas. El laurel, por ejemplo, se asociaba a Apolo. Según la leyenda, tras ser rechazado por la ninfa Dafne, esta fue transformada en un laurel para escapar del dios. Desde entonces, Apolo la adoptó como planta sagrada. Los vencedores de los Juegos Píticos —precisamente en honor al dios— eran coronados con una rama de laurel, un gesto que no implicaba solo triunfo físico, sino también la consagración espiritual.

Esta relación no era fortuita. En la antigua Grecia se creía que el laurel tenía propiedades proféticas. Las sacerdotisas del oráculo de Delfos mascaban hojas de laurel antes de emitir sus enigmáticas visiones. El laurel no era solo símbolo de gloria, sino un canal entre el mundo humano y el divino.

Otro caso revelador es el del hinojo. Aparece en el mito de Prometeo, cuando roba el fuego del Olimpo para entregarlo a los hombres y lo oculta en el hueco de un tallo de hinojo. Esta elección no es casual: el hinojo era una planta hueca, resistente y cargada de significados medicinales. Pero más allá de su función práctica, el acto de esconder el fuego dentro de una planta sugiere que el conocimiento divino debía ser canalizado a través de la naturaleza. Era una forma de decir que lo vegetal, lo terrenal, tenía el potencial de contener lo sagrado.

Las plantas no eran simples elementos decorativos en la Grecia clásica. Su presencia estaba cargada de poder ritual y simbólico
Las plantas no eran simples elementos decorativos en la Grecia clásica. Su presencia estaba cargada de poder ritual y simbólico. Foto: Istock/Christian Pérez

Placer, embriaguez y locura: el reino de Dioniso

Pocas divinidades expresan mejor la conexión entre plantas y estados alterados que Dioniso. Dios del vino, del éxtasis y de la transgresión, su culto giraba en torno a la vid, pero también a otras plantas con efectos psicoactivos. Los seguidores del dios consumían vino, sí, pero a menudo lo mezclaban con sustancias como la mandrágora, el beleño o incluso el poleo. El objetivo era inducir un trance colectivo que permitiera la liberación de las convenciones sociales y una unión temporal con lo divino.

Los misterios dionisíacos no eran simples bacanales. Eran rituales cuidadosamente estructurados que usaban plantas como herramientas de transformación. La embriaguez no era una consecuencia, sino un medio. El vino mezclado —siempre con algo más— buscaba romper la conciencia ordinaria y acceder a otra realidad, una que permitiera la catarsis, la revelación o incluso la posesión divina.

El vino, por tanto, era algo más que una bebida. Era un vehículo sagrado. Su cultivo y fermentación estaban impregnados de rituales y creencias que hablaban de muerte y renacimiento, muy en la línea del ciclo agrícola que regía toda la cosmovisión griega. No es casual que Dioniso también fuera considerado una divinidad agraria.

Plantas que protegían, sanaban o mataban

Además de sus propiedades simbólicas o visionarias, muchas de las plantas del mundo griego tenían usos médicos o anticonceptivos. Las mujeres utilizaban el poleo o la artemisa para controlar su fertilidad, como bien recuerda Plantas míticas. También la milenrama, que Homero describe como remedio empleado por Aquiles para curar heridas, servía como hemostático y analgésico. De hecho, su nombre científico moderno —Achillea millefolium— es un homenaje directo al héroe aqueo.

Pero el uso medicinal no estaba exento de peligro. Muchas de estas plantas podían ser venenosas si se administraban en dosis incorrectas. La adormidera, por ejemplo, se empleaba para calmar dolores y facilitar el sueño, pero también tenía efectos narcóticos peligrosos. Se relacionaba con el dios Hipnos y su hermano Tánatos, el Sueño y la Muerte. Esta ambigüedad —capaz de curar o matar— reflejaba una idea profunda: que la línea entre la vida y la muerte es tan delgada como una hoja de amapola.

En el caso de la granada, símbolo de Perséfone y del inframundo, encontramos otro uso simbólico. Su jugo rojo como la sangre, su multiplicidad de semillas y su vinculación con los ciclos estacionales la convertían en una planta central en los ritos de paso. Comer una granada podía significar sellar un pacto con los muertos, como hizo Perséfone al aceptar los granos que le ofreció Hades. Desde entonces, su destino quedó ligado al mundo subterráneo.

La naturaleza y lo sagrado formaban una unidad inseparable en los rituales del mundo antiguo
La naturaleza y lo sagrado formaban una unidad inseparable en los rituales del mundo antiguo. Foto: Wikimedia

Cuando las plantas hablaban con los dioses

Muchos ritos oraculares, funerarios o de iniciación se basaban en preparados vegetales. El caso más conocido es el del kykeon, una bebida empleada en los Misterios de Eleusis, vinculados a Deméter y Perséfone. Se trataba de una mezcla de cebada, agua y menta que algunos investigadores creen que podía contener un tipo de cornezuelo, un hongo con efectos alucinógenos. El objetivo era provocar visiones que permitieran a los iniciados experimentar el ciclo de muerte y renacimiento.

Estas plantas eran la materia prima de los mitos. No estaban ahí solo para dar color al paisaje. Eran portales. Herramientas de revelación. Vehículos de sanación, conocimiento o destrucción. Comprender su poder simbólico es asomarse a una concepción del mundo donde lo natural y lo espiritual no eran opuestos, sino partes de un mismo continuo.

Plantas míticas, de Ellen Zachos

Plantas míticas: pociones y venenos de los jardines de los dioses, publicado recientemente por la editorial Hestia, es una obra singular que mezcla botánica, historia y mitología con una mirada fresca y rigurosa. A través de dieciocho capítulos, Ellen Zachos nos introduce en el papel fundamental que las plantas desempeñaron en los mitos griegos y en la vida cotidiana de sus protagonistas.

Desde el laurel de Apolo hasta el cannabis de los rituales oraculares, Zachos combina conocimientos de horticultura, historia antigua y narrativa mítica para mostrar que la flora griega no era solo ornamental. Las plantas eran poderosas herramientas mágicas, médicas o espirituales. Algunas podían curar; otras inducían visiones o causaban la muerte. Con un estilo ameno y una investigación meticulosa, el libro recupera la figura de las plantas como intermediarias entre humanos y dioses.

La autora, con formación en Harvard y experiencia como comunicadora y horticultora, ofrece además detalles sobre cómo cultivar algunas de estas especies en casa, conectando la historia antigua con nuestras prácticas contemporáneas. Es un libro ideal tanto para amantes de la mitología como para jardineros curiosos o lectores que buscan una aproximación original al mundo clásico.

Si quieres saber más, no te pierdas en exclusiva el primer capítulo de este libro.

Libro Plantas míticas

La diversidad lingüística de las poblaciones humanas es uno de los elementos que aporta mayor riqueza a la cultura. Aunque el relato bíblico de la torre de Babel explica la diversidad desde un punto de vista mitológico, la ciencia aún debate sobre la génesis y evolución de las distintas familias lingüísticas. Tal es el caso del origen de las lenguas urálicas, una familia lingüística que incluye el finlandés, el estonio y el húngaro. ¿Dónde surgieron estas lenguas, tan diferentes de las indoeuropeas que predominan en Europa? ¿Cómo lograron expandirse a lo largo de miles de kilómetros sin dejar rastros evidentes de su evolución temprana?

Ahora, un estudio revolucionario de ADN antiguo ha arrojado luz sobre estas cuestiones y ha ofrecido una respuesta tan sorprendente como contundente: el origen de estas lenguas se encuentra en los bosques boreales del este de Siberia, a miles de kilómetros de donde se hablan en la actualidad.

Población nómada
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Una señal genética siberiana que viajó hasta Europa

La investigación, publicada en 2025 en la revista Nature, se basa en el análisis de 180 nuevos genomas antiguos de Siberia, datados hace 11.000 años. Esta información se integró con más de mil muestras genéticas ya disponibles para trazar una narrativa coherente sobre las migraciones humanas en el norte de Eurasia.

La identificación de una señal genética específica, originada en la actual Yakutia, constituye el hallazgo más notable. Esta señal aparece de forma consistente en las poblaciones modernas que hablan lenguas urálicas. Además, no solo ha sorprendido su localización inicial en una región tan remota, geográficamente más próxima a Alaska que a Finlandia, sino también su persistencia en el tiempo y su correlación directa con las áreas donde hoy se hablan estas lenguas. Esa huella genética oriental, ausente en los hablantes de lenguas no urálicas, proporciona una evidencia sólida de que las lenguas urálicas se expandieron junto con esta población siberiana hace unos 4.500 años.

Más allá de los Urales: desmontando la teoría tradicional

Durante décadas, la hipótesis dominante situaba el origen de las lenguas urálicas cerca de los montes Urales. Se presuponía, pues, que esta región había funcionado como un puente natural entre Europa y Asia. Sin embargo, el nuevo estudio desplaza este foco miles de kilómetros hacia el este, en el corazón de Siberia. Este cambio de paradigma no solo modifica el mapa lingüístico de Eurasia, sino que plantea nuevas preguntas sobre las dinámicas de expansión de estas comunidades.

La genética muestra que esta población ancestral se dispersó desde Yakutia a través de la extensa taiga, una región de bosques impenetrables. Las características geográficas de la zona limitaron la movilidad y no existían medios de transporte a gran escala como los que permitieron la expansión de los pueblos pastores de las estepas. Contodo, estas comunidades lograron extender su lengua y cultura a lo largo de miles de kilómetros, desde sus lugares de origen hasta la actual Finlandia y Hungría.

Seima-Turbino
Objetos Seima-Turbino. Fuente: Zeng et al. 2025/Nature

El papel clave del fenómeno Seima-Turbino

Una de las claves para entender esta expansión se encuentra en un fenómeno arqueológico conocido como Seima-Turbino. Este término designa un conjunto de yacimientos hallados en una vasta región que se extiende desde los Urales hasta Mongolia y el norte de China. Estos sitios arqueológicos se caracterizan por la presencia de herramientas y armas de bronce con rasgos comunes. La expansión de esta cultura coincide, temporal y espacialmente, con la expansión genética de las poblaciones hablantes de la lengua proto-urálica.

Seima-Turbino representa un ejemplo fascinante de cómo la tecnología —en este caso, la metalurgia del bronce— puede facilitar no solo el comercio y la interacción social, sino también la transmisión de elementos culturales y lingüísticos. Los objetos asociados a este fenómeno aparecen junto a restos humanos que contienen la señal genética siberiana identificada por el estudio. Tal asociación de materiales refuerza la hipótesis que conecta de manera directa la metalurgia, la migración y la expansión lingüística.

Urales
Región urálica. Fuente: Pixabay

Urálicos e indoeuropeos: un encuentro temprano

El estudio también ha logrado constatar que los hablantes proto-urálicos coexistieron en Siberia con poblaciones asociadas a la cultura Yamnaya, considerada la principal difusora de las lenguas indoeuropeas. Esta interacción temprana entre dos grandes familias lingüísticas habría tenido lugar hace unos 5.000 años, en una franja geográfica que se extendía desde la estepa euroasiática hasta el cinturón boreal.

Según los investigadores, esta convivencia no propició un reemplazo inmediato de una lengua por otra. Mientras que los pueblos indoeuropeos se expandieron hacia el oeste en grandes migraciones a caballo, los urálicos lo hicieron de forma más lenta, a través de redes de intercambio y alianzas intercomunitarias. Ambas culturas dejaron una impronta genética y lingüística duradera, pero con trayectorias radicalmente diferentes, lo que explica, en parte, la distribución actual de sus lenguas.

Del lago Baikal al Báltico: un viaje de milenios

La expansión de las poblaciones urálicas hacia Europa septentrional no fue un proceso rápido ni lineal. El estudio ha identificado la presencia de esta ascendencia genética siberiana en poblaciones de cazadores-recolectores que vivían en las zonas septentrionales de Escandinavia, como los antepasados de los actuales sami. También se ha detectado en comunidades que habitaron el territorio de la actual Hungría, lo que ayuda a explicar por qué el húngaro, pese a encontrarse rodeado de lenguas indoeuropeas, pertenece al grupo urálico.

Este viaje milenario a través del norte de Eurasia sugiere que la lengua puede sobrevivir incluso cuando la población que la habla no se impone demográficamente, siempre que las comunidades conserven estructuras sociales fuertes y consigan adaptarse en los cultural.

Nómadas
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

ADN antiguo, lingüística y arqueología: una convergencia ejemplar

Uno de los logros más notables de este estudio es haber logrado integrar tres disciplinas tradicionalmente separadas: la genética, la lingüística histórica y la arqueología. La combinación de estas tres áreas de investigación ha permitido formular una narrativa coherente sobre el origen y la expansión de una familia lingüística milenaria, algo que ninguna de ellas habría logrado conseguir por separado.

Un nuevo mapa para las lenguas del norte

Los resultados de esta investigación no solo obligan a reescribir la historia de las lenguas urálicas, sino también a reconsiderar la manera en que las lenguas pueden viajar a lo largo del tiempo y el espacio hasta asentarse a miles de kilómetros de distancia. El estudio refuerza la idea de que las migraciones humanas son procesos complejos en los que el ADN, los objetos materiales y las lenguas constituyen piezas de un mismo rompecabezas. En ese sentido, los urálicos constituyen un caso paradigmático: un grupo lingüístico que sobrevivió y floreció sin necesidad de imperios ni conquistas masivas, solo con la fuerza de su continuidad cultural y su capacidad de adaptación.

Referencias

La imagen parece salida de una novela distópica: un país entero se organiza para desaparecer. No por una guerra, ni por un colapso económico, sino porque el mar está ganando terreno, centímetro a centímetro, día tras día. Ya no es una predicción. Es real. Y ha comenzado.

En Tuvalu, una diminuta nación del Pacífico, donde el punto más alto apenas roza los cinco metros sobre el nivel del mar, más del 80% de la población se ha inscrito para huir antes de que sus casas, escuelas, cementerios y templos acaben sumergidos. No hay dramatismo ni exageración. Solo una certeza científica: el país se hunde. Y nadie puede detenerlo.

El gobierno ha logrado un acuerdo histórico con Australia, que ha comenzado a entregar los primeros visados para lo que ya se conoce como "refugiados climáticos", las víctimas más invisibles del cambio climático. Un término que, hasta hace poco, parecía exclusivo de documentales o informes técnicos, pero que ahora se materializa en formularios, maletas, despedidas y un calendario que corre en contra.

Vidas entre el mar y el olvido

Para quienes viven en ese rincón del mundo, el cambio climático no es una amenaza abstracta. Es una rutina. Las mareas entran cada vez más profundo. El agua salada ha contaminado pozos. Las tormentas son más feroces. Las cosechas, más escasas. Y la tierra firme, menos firme.

En los últimos años, dos de los nueve atolones que componen este país ya han desaparecido bajo el océano. Literalmente. Ya no existen. El resto parece seguir el mismo camino. No hay tiempo para promesas vacías. La migración no es una opción: es el único plan.

El proceso, sin embargo, está lejos de ser sencillo. Solo 280 personas podrán migrar cada año gracias al nuevo visado australiano. Es una cifra ínfima para un país con más de 11.000 habitantes. Los que logren salir tendrán derecho a trabajar, estudiar y acceder a servicios básicos. Pero deberán comenzar de cero, en un país distinto, con otro idioma, otro ritmo, otro clima. Y con el peso de haber dejado atrás su tierra… para siempre.

Centro neurálgico de un país que lucha contra el tiempo y el avance imparable del mar
Centro neurálgico de un país que lucha contra el tiempo y el avance imparable del mar. Foto: Istock/Christian Pére

La paradoja del salvavidas

Australia se ha convertido en el primer país en ofrecer una vía legal para migrantes climáticos. Pero también es uno de los mayores exportadores de carbón del mundo. Su gesto solidario convive con una contradicción. Y es que mientras abre sus puertas a quienes huyen del colapso climático, continúa alimentando las causas que lo provocan.

Expertos, activistas y ciudadanos exigen algo más que visados. Piden coherencia. Porque permitir que una parte del mundo escape de una catástrofe mientras se contribuye a perpetuarla, es como ofrecer un bote salvavidas en un barco que uno mismo está hundiendo.

Más allá del territorio, lo que está en juego es una cultura entera. Lenguas, costumbres, bailes, canciones, recetas, rituales… todo lo que constituye la identidad de un pueblo. ¿Puede una nación sobrevivir si su tierra desaparece? ¿Dónde se traslada la memoria de un país?

Las comunidades que ya han emigrado tratan de preservar su herencia. Organizan festivales, enseñan su idioma a los más pequeños, cocinan juntos. Pero el desarraigo es profundo. La nostalgia por lo que se pierde se mezcla con la esperanza de lo que se puede reconstruir.

Incluso el derecho internacional se enfrenta a un desafío inédito: reconocer la soberanía de un Estado sin territorio físico. Un país flotante, sin frontera ni capital, cuyos ciudadanos estén dispersos por otros continentes. Un rompecabezas jurídico que ya está sobre la mesa.

¿Y si no fueran los únicos?

El caso de esta nación insular es solo el inicio. Otros archipiélagos del Pacífico —como Kiribati o las Islas Marshall— están en una situación similar. En África, Asia y América Latina, millones de personas viven en zonas costeras vulnerables. Si el nivel del mar sigue subiendo al ritmo actual, ciudades enteras podrían enfrentarse a desalojos masivos en las próximas décadas.

El desplazamiento climático será, según los expertos, uno de los mayores desafíos humanitarios del siglo XXI. Pero el mundo aún no está preparado para ello. No existen protocolos universales. No hay fondos suficientes. Y, lo más grave, no hay voluntad política global para frenar las causas de este éxodo.

Tuvalu
La urgencia de actuar se hace visible en los rincones más vulnerables del planeta. Foto: Istock

Un espejo incómodo

Como manifiestan muchos expertos, lo que está ocurriendo es un espejo para todos. Nos obliga a pensar qué haríamos si tuviéramos que dejar nuestro hogar por algo que no provocamos directamente. Nos interpela sobre nuestra responsabilidad colectiva. Y sobre la fragilidad de todo lo que damos por sentado.

Hoy es un pequeño país en el Pacífico el que se organiza para desaparecer. Pero mañana podría ser una ciudad costera en Europa. O un delta fluvial en América. O una isla turística convertida en ruina sumergida.

La migración climática ya no es un concepto del futuro. Es presente. Y ha comenzado en silencio, sin titulares, sin grandes cumbres, sin portadas. Pero con personas reales, que hacen maletas, que cierran ventanas por última vez, que buscan dónde empezar otra vida.

Cada vez que enciendes tu móvil o consultas algo desde un ordenador, estás usando un fenómeno tan desconcertante como fascinante. Se llama efecto túnel cuántico y es una de las piezas clave del mundo atómico. Los electrones, esas partículas diminutas que giran alrededor del núcleo del átomo, a veces hacen cosas que desafían el sentido común: atraviesan barreras que, según las leyes clásicas, deberían ser infranqueables. Y ahora, por primera vez, un grupo de físicos ha logrado mirar dentro de esa barrera mientras el electrón la atraviesa. Lo que han encontrado cambia por completo lo que creíamos saber, algo que también ocurrió con los fotones.

El estudio, publicado en Physical Review Letters, ha sido llevado a cabo por investigadores de POSTECH y del Instituto Max Planck de Física Nuclear. El equipo ha conseguido observar el comportamiento interno de los electrones durante el túnel cuántico, algo que hasta ahora solo se había descrito con modelos teóricos. Lo más sorprendente es que los electrones no se limitan a atravesar la barrera: colisionan con el núcleo atómico desde dentro del propio túnel, una idea que hasta ahora no tenía respaldo experimental.

Qué es el túnel cuántico y por qué es tan importante

El fenómeno del túnel cuántico ocurre cuando una partícula, como un electrón, atraviesa una barrera de energía que no debería poder superar. Es como si alguien lograra pasar a través de una pared sin derribarla ni abrir una puerta. En el mundo macroscópico esto parece imposible, pero en el ámbito cuántico sucede con cierta frecuencia.

Esta propiedad es fundamental en múltiples tecnologías, desde los chips que llevan nuestros teléfonos hasta los reactores de fusión nuclear que imitan el funcionamiento del Sol. También está en la base de procesos como la radiactividad o la microscopia de efecto túnel. A pesar de su importancia, lo que ocurre dentro de la barrera era un territorio inexplorado. Sabíamos cómo entraba y salía el electrón, pero su recorrido en medio era, hasta ahora, un misterio.

El nuevo experimento ha abierto esa puerta cerrada. Los investigadores han logrado no solo deducir lo que pasa dentro, sino medirlo experimentalmente. Esto marca un antes y un después en la comprensión de los procesos cuánticos.

Dos rutas para escapar del átomo. En (a), el electrón absorbe varios fotones y se ioniza directamente. En (b), atraviesa la barrera cuántica, rebota y queda atrapado brevemente antes de liberarse, dejando una huella característica en el espectro. Fuente: Physical Review Letters

El hallazgo: colisiones dentro del túnel

Para desentrañar este comportamiento oculto, los científicos utilizaron pulsos láser ultracortos e intensos sobre átomos de xenón. La energía del láser inducía el efecto túnel, permitiendo que los electrones escaparan de su estado ligado al núcleo. Gracias a técnicas avanzadas de imagen por mapeo de velocidad (VMI), el equipo pudo registrar el movimiento de los electrones con precisión.

Lo que observaron fue inesperado: los electrones no simplemente salían disparados, sino que rebotaban dentro de la barrera, colisionando con el núcleo antes de escapar. Este fenómeno fue bautizado como “recólisión dentro de la barrera” o under-the-barrier recollision (UBR).

El artículo lo explica de forma literal: "los electrones atraviesan la región prohibida clásicamente, se reflejan en la pared del potencial durante el túnel y ganan energía suficiente para poblar estados excitados”. Ese rebote interno permite al electrón interactuar con el núcleo dentro de la propia barrera cuántica, algo que no se consideraba posible.

Este proceso no solo cambia nuestra visión del efecto túnel, sino que aporta nuevas herramientas para manipular electrones con precisión, abriendo el camino a futuras aplicaciones tecnológicas.

Fuente: ChatGPT / E. F.

La resonancia de Freeman: un efecto amplificado

Uno de los efectos colaterales más notables del descubrimiento ha sido el fortalecimiento de un fenómeno conocido como resonancia de Freeman. Esta ocurre cuando un electrón en un estado excitado absorbe más energía y termina siendo ionizado, es decir, escapando del átomo.

Gracias a la recólisión interna, los electrones ganan energía adicional dentro de la barrera, lo que les permite alcanzar niveles excitados con mayor facilidad. Esto se traduce en una ionización más intensa que en procesos previamente conocidos, y que, además, se mantiene casi constante incluso cuando se modifica la intensidad del láser.

En palabras del artículo original: “Estas características distintas no pueden ser explicadas por transiciones multiphotónicas directas”. Es decir, los modelos tradicionales ya no bastan para describir lo que realmente ocurre. La recólisión dentro de la barrera ofrece una nueva y más precisa explicación.

Los datos experimentales confirman que los picos de resonancia superan en intensidad a los de la ionización tradicional, incluso en regiones de energía más altas. Este comportamiento sugiere que el mecanismo UBR puede dominar sobre otros procesos conocidos, especialmente en campos intensos.

Esquema experimental de los detectores utilizados para observar el comportamiento del electrón en una barrera cuántica. El panel (a) muestra el espectrómetro VMI y el (b) el sistema ALPS, ambos claves para seguir su trayectoria con precisión. Fuente: Physical Review Letters

Qué significa todo esto para la ciencia y la tecnología

Este descubrimiento no es solo una curiosidad cuántica. Tiene implicaciones prácticas profundas. Comprender con más detalle el comportamiento de los electrones dentro del túnel permitirá diseñar tecnologías más eficientes y controladas. Esto incluye desde láseres ultrarrápidos, que permiten observar procesos a escalas de attosegundos, hasta ordenadores cuánticos más estables y precisos.

Además, los resultados cuestionan el marco teórico tradicional. El modelo propuesto por los autores introduce una nueva forma de describir la dinámica cuántica en presencia de campos intensos. Los autores explican: “Este modelo demuestra características distintas, revelando el efecto UBR, en contraste con el caso de transiciones directas multiphotónicas”.

También se abre la puerta a reinterpretar otros fenómenos donde intervienen electrones, como los procesos químicos a nivel atómico, la espectroscopía láser o la física de materiales. En todos estos casos, una mejor comprensión del efecto túnel puede suponer avances significativos.

El equipo no descarta que este tipo de dinámica pueda darse también en moléculas complejas, sólidos o incluso sistemas relativistas, donde la interacción cuántica ocurre a energías aún más extremas.

Una ventana abierta a lo imposible

Aunque el túnel cuántico lleva décadas siendo parte del vocabulario científico, lo que ocurría dentro de él seguía siendo un agujero negro de conocimiento. Este estudio ha iluminado por primera vez ese pasadizo invisible. Lo que han visto no solo rompe con una tradición teórica de más de un siglo, sino que lo hace con evidencia experimental clara, algo poco frecuente en el terreno cuántico.

El avance ha sido posible gracias a la colaboración internacional, el uso de tecnologías de imagen láser de última generación y un modelo teórico que supo predecir lo que nadie antes había imaginado observar.

El propio equipo lo resume así: “Ahora, finalmente podemos entender el túnel con más profundidad y controlarlo a voluntad”. Es difícil exagerar el alcance de esta afirmación.

En ciencia, poder ver algo por primera vez es mucho más que un logro técnico. Es un punto de inflexión. Y esta vez, ese punto está en el corazón de uno de los fenómenos más misteriosos de la física.

Referencias

Durante más de un siglo, la imagen del dinosaurio ha estado envuelta en un aura de rugidos aterradores, de criaturas colosales que hacían temblar la tierra con su voz. Pero un nuevo hallazgo paleontológico podría poner fin a ese mito sonoro. En una cantera del norte de China, un equipo de investigadores ha desenterrado los restos extraordinariamente conservados de una criatura que no solo desafía lo que sabíamos sobre ella, sino también sobre cómo sonaban los dinosaurios.

El protagonista de esta historia es Pulaosaurus qinglong, un pequeño herbívoro bípedo de poco más de 70 centímetros de largo. Su nombre, que rinde homenaje a un mítico dragón chino que “grita con fuerza”, no es casual: este dinosaurio extinto hace más de 160 millones de años poseía una estructura vocal que lo acerca más a los pájaros modernos que al temible Tyrannosaurus rex de las películas.

El hallazgo, publicado en la revista científica PeerJ por Yang, King y Xu, ha captado la atención internacional por una razón muy concreta: el fósil incluye elementos osificados del aparato laríngeo, una rareza absoluta en el registro fósil de los dinosaurios. Hasta ahora, solo se había documentado una laringe similar en un Pinacosaurus, un dinosaurio acorazado del Cretácico. Que ahora aparezca otra, y en un linaje tan distinto, ha hecho saltar las alarmas entre los paleontólogos.

Un aparato vocal que reescribe la historia

El fósil de Pulaosaurus, procedente de la Formación Tiaojishan del Jurásico Superior, en la provincia china de Hebei, está tan bien conservado que los investigadores pudieron estudiar no solo la mayoría de su esqueleto, sino también sus estructuras más delicadas. Entre ellas destacan los cartílagos laríngeos osificados: hojas gráciles y afiladas que, en la actualidad, se asocian con la producción vocal en aves.

Este tipo de estructuras, raramente fosilizadas, sugieren que Pulaosaurus era capaz de emitir sonidos complejos, probablemente más cercanos a un canto o un gorjeo que a un rugido. En otras palabras: este pequeño dinosaurio del Jurásico podría haber llenado su entorno de trinos, zumbidos y chirridos parecidos a los de los pájaros actuales.

Y eso no es todo. Dentro del fósil, los científicos también encontraron restos de contenido estomacal (cololitos), lo que ofrece una rara ventana a su dieta y comportamiento. Pero sin duda, el verdadero tesoro fue su aparato vocal: una pista inusual que lanza una nueva hipótesis sobre cómo se comunicaban estos animales.

El fósil de Pulaosaurus qinglong, una nueva especie del Jurásico
El fósil de Pulaosaurus qinglong, una nueva especie del Jurásico. Fuente: Hailong Zhang

El silencio de los rugidos

Aunque Hollywood se empeñe en lo contrario, los grandes dinosaurios probablemente no rugían. Así lo sostienen cada vez más estudios. La ausencia generalizada de laringes fosilizadas había mantenido este aspecto como un misterio hasta ahora. Sin embargo, el descubrimiento de Pulaosaurus sugiere que algunos dinosaurios contaban con aparatos vocales sofisticados, más parecidos al de las aves que al de los reptiles actuales.

Esto abre un escenario fascinante: ¿y si los bosques jurásicos no estaban llenos de rugidos, sino de chillidos, llamadas guturales, gorjeos y reverberaciones bajas? Algunos investigadores ya especulan con que los sonidos de los dinosaurios eran más parecidos a los de los casuarios australianos o incluso a los zumbidos subacuáticos de los cocodrilos actuales.

Las aves modernas, descendientes directas de los dinosaurios terópodos, producen sonidos mediante un órgano llamado siringe, mientras que los reptiles actuales emplean la laringe. Que un dinosaurio tan antiguo y alejado evolutivamente como Pulaosaurus tenga un aparato vocal desarrollado podría indicar que la capacidad de vocalización era mucho más común de lo que se pensaba.

La voz del Jurásico: ¿qué sonidos emitía realmente?

Aunque los investigadores no pueden reconstruir con precisión el sonido que emitía Pulaosaurus, debido a la deformación de su mandíbula, sí pueden inferir cómo habría sido su sistema acústico. Al contar con una laringe osificada y estructuras similares a las de los pájaros, es posible que este dinosaurio comunicara con chirridos agudos, llamadas territoriales o cantos para atraer pareja.

Es un cambio radical respecto a la imagen popular. Este pequeño herbívoro no abría la boca para emitir rugidos ensordecedores como los que retumban en las salas de cine. Más bien, habría emitido sonidos sutiles, quizás apenas audibles para nosotros, pero con funciones vitales para su especie: comunicación social, advertencia de peligros o cortejo.

Además, el hallazgo de su laringe sugiere que otras especies extintas podrían haber tenido órganos vocales similares que no han sido identificados correctamente o que, sencillamente, no se han conservado. Esto obliga a los paleontólogos a reconsiderar muchos fósiles ya estudiados bajo una nueva perspectiva: la posibilidad de que el canto no fuera una rareza en los dinosaurios, sino una norma.

Un fósil excepcional revela a Pulaosaurus qinglong, el dinosaurio que pudo haber cantado
Un fósil excepcional revela a Pulaosaurus qinglong, el dinosaurio que pudo haber cantado. Fuente: Hailong Zhang

Lo que aún nos pueden decir los fósiles

El caso de Pulaosaurus qinglong no solo revoluciona la paleontología por lo que nos dice sobre el sonido, sino también por su ubicación evolutiva. Este pequeño dinosaurio pertenece al grupo de una rama que, curiosamente, estaba ausente en la Biota Yanliao de China… hasta ahora.

Su descubrimiento en la Formación Tiaojishan llena un vacío evolutivo y biogeográfico, y obliga a los científicos a reescribir parte de la historia de esta región, considerada uno de los yacimientos fósiles más ricos del Mesozoico.

El esqueleto de Pulaosaurus, excepcionalmente conservado, incluye además un conjunto de detalles anatómicos únicos: desde cinco dientes premaxilares hasta un proceso obturador peculiar en la pelvis. Pero son sus cartílagos laríngeos los que lo convierten en una verdadera joya paleontológica, al proporcionar una de las pistas más importantes sobre cómo sonaban estos animales.

Una sinfonía olvidada

Todo apunta a que el mundo de los dinosaurios era menos un festival de rugidos y más una sinfonía de sonidos variados, sutiles y adaptados al entorno. Algunos, como los hadrosaurios con crestas resonadoras, habrían emitido llamadas profundas y largas; otros, como Pulaosaurus, chirridos agudos. Los más pequeños, quizá, trinos parecidos a los de los pájaros modernos. Y los gigantescos saurópodos, tal vez, comunicaban mediante vibraciones de baja frecuencia que hoy apenas podríamos percibir.

Lo que una vez se interpretó como un mundo de monstruos rugientes, puede haber sido en realidad un bosque lleno de cantos, zumbidos y susurros. Este descubrimiento no solo cambia cómo imaginamos a los dinosaurios: también los humaniza. Nos permite imaginar un momento en el que, al amanecer del Jurásico, un pequeño Pulaosaurus emitía su canto entre los árboles, buscando a los suyos.

Desde que H. G. Wells imaginara una máquina del tiempo en su célebre novela “La máquina del tiempo” (1895), la humanidad ha fantaseado con la posibilidad de regresar al pasado. ¿Quién no ha soñado alguna vez en volver atrás para enmendar errores, revivir momentos o incluso alterar el curso de la historia?, sin embargo, a pesar de los muchos relatos de ciencia ficción, las leyes fundamentales del universo parecen poner un freno radical a este anhelo: la física cuántica nos dice que el pasado, tal como lo imaginamos podría no existir de forma fija e inmutable.


En este artículo vamos a ver por qué volver al pasado es imposible y cómo la física cuántica, principalmente el proceso de medir, establece una imposibilidad.

La extrañeza de observar

La física cuántica nos obliga a replantear algunas de las certezas más profundas que tenemos sobre el mundo. Una de ellas es la idea aparentemente simple de “observar algo”. ¿Qué significa ver, medir o registrar un evento en el mundo cuántico?

En nuestra vida diaria, ver algo parece una acción pasiva. Observamos un árbol, un coche, una persona y no sentimos que eso cambie nada. Pero en el mundo cuántico, observar es un acto de modificación. Cuando observamos algo muy pequeño, como una partícula subatómica, lo que hacemos no es simplemente “ver”, sino forzarla a elegir una realidad entre varias posibles.

Viajes en el tiempo
Observar en el mundo cuántico no es pasivo: colapsa posibilidades y crea una única realidad. Fuente: iStock (composición).

¿Qué es un sistema cuántico?

Imagine el lector una partícula como el electrón. Si no la estamos observando, no está en un lugar definido, ni siquiera tiene una trayectoria clara. Lo que tiene es una nube de probabilidades que nos indica dónde podría encontrarse el electrón y cómo podría comportarse. Esa nube es lo que en física conocemos como densidad de probabilidad y viene determinada por la función de onda.

El electrón tiene delante de sí un menú completo de opciones. ¿Está aquí o allí? ¿Se mueve rápido o lento? ¿Tiene una cantidad determinada de energía? Mientras dicho electrón no este siendo observado, todas las opciones posibles se encuentran codificadas en la función de onda. La función de onda asigna una probabilidad a cada posibilidad, como si dijera: “hay un 30 % de que esté aquí, un 20 % allá, y un 50 % en otro sitio”.

Pero en cuanto miras, todas esas posibilidades desaparecen y obtenemos una certeza única, es lo que se denomina colapso de la función de onda, es decir, al realizar una medición hemos forzado a que el sistema cuántico tome una decisión de todas las posibles.

Observar es decidir… pero no del todo

Aquí viene la parte más extraña:  no es que la partícula ya estuviera en un sitio oculto y tú la descubras. La medición crea el resultado. El acto de observar (interaccionar) obliga al sistema cuántico a “decidir” en qué estado estará, y esa decisión es impredecible, solo se puede hablar en términos de probabilidades.

Esto rompe con la intuición clásica. En el mundo macroscópico estamos acostumbrados a pensar que las cosas son, independientemente de si las miramos o no. Pero en el mundo cuántico, las cosas no están “definidas” hasta que interaccionamos con ellas.

¿Por qué no podemos viajar al pasado? La paradoja cuántica del tiempo 2
El colapso cuántico marca una dirección en el tiempo que no puede deshacerse ni repetirse. Fuente: iStock (composición).

¿Viajar al pasado? Imposible

Vamos a realizar un experimento mental. Imaginemos que estás participando en una lotería muy especial. Estamos ante una lotería cuántica, donde los números ganadores se generan mediante un proceso gobernado por la física cuántica, es decir, completamente aleatorio y no determinado hasta el momento de su medición.

El sorteo se realiza, pero por algún motivo no ves los números ganadores a tiempo. Afortunadamente, tienes un amigo físico que acaba de construir una máquina del tiempo. Emocionado, decides viajar unas horas al pasado, antes del sorteo, con la intención de comprar el boleto ganador.

Pero cuando se repite el sorteo … ¡Sorpresa! Los números ganadores no son los mismos. Algo ha cambiado. El pasado ya no es el mismo pasado. ¿Cómo es posible?

La trampa cuántica del tiempo

La clave está en cómo la mecánica cuántica describe la realidad. En un sistema cuántico, como el que genera los números de esta lotería, los resultados no existen de antemano.

Lo que existe es una función de onda, una especie de nube de posibilidades. Solo cuando se realiza una medición, la función de onda colapsa y se obtiene un resultado concreto. Ese número no estaba predestinado: fue elegido aleatoriamente entre todas las posibilidades.

Y aquí viene el punto crucial: si usas una máquina del tiempo para regresar al momento anterior al colapso, no recuperas la misma función de onda original. El universo ya ha evolucionado, ha cambiado. La medición cuántica del “futuro” ya ha interferido, ya ha dejado su huella.

Así que, aunque intentes repetir exactamente las mismas condiciones, al volver a preguntar “¿qué número es?”, la función de onda vuelve a colapsar… pero no necesariamente en la misma dirección. Te devuelve otro número, otro resultado. El proceso es irrepetible. El pasado, en términos cuánticos, no es un lugar al que puedas volver; es una consecuencia única e irreproducible de una medición que ya ha sucedido.

¿Por qué no podemos viajar al pasado? La paradoja cuántica del tiempo
La paradoja cuántica del tiempo desafía nuestra intuición: el pasado no es recuperable. Fuente: iStock (composición).

La flecha cuántica del tiempo

Por eso, desde la perspectiva de la física cuántica, viajar al pasado no tiene sentido físico. No se trata solo de limitaciones tecnológicas, sino de una imposibilidad más profunda: el universo no conserva una copia exacta de su estado anterior. Cada colapso de la función de onda elimina las demás posibilidades y define una realidad que no se puede “deshacer” ni repetir exactamente.

La dirección del tiempo —esa sensación de que el tiempo avanza y no retrocede— podría estar escrita en las reglas mismas del colapso cuántico. No porque el pasado esté prohibido, sino porque ya ha sido observado, y esa observación lo ha cambiado todo para siempre.

En los años 50, el filósofo Nelson Goodman propuso un experimento mental que sigue desconcertando a quienes se preguntan cómo funciona la ciencia. Imaginó una situación en la que todas nuestras observaciones sobre el mundo podrían ser explicadas por teorías radicalmente distintas, pero igual de compatibles con los datos. Así nació el enigma de Goodman (enigma del “verde-grue”), una paradoja que plantea que no basta con observar hechos para construir leyes confiables. El ejemplo, aunque suene abstracto, toca un nervio profundo: ¿cómo sabemos que nuestras predicciones científicas no son fruto de una convención arbitraria?

Ahora, en plena era de la inteligencia artificial, ese viejo dilema ha resurgido con una urgencia inesperada. Un reciente artículo del físico y filósofo Luigi Scorzato propone una solución al problema de Goodman que no solo reabre un debate aparentemente cerrado, sino que desafía los fundamentos mismos de cómo seleccionamos modelos científicos, incluidos los usados por algoritmos de IA. Su propuesta combina precisión matemática con una claridad conceptual poco habitual. Y lo más importante: ofrece una forma concreta de distinguir entre teorías útiles y construcciones vacías, sin recurrir al puro consenso o a la intuición.

El viejo problema del "grue" y su inquietante vigencia

Goodman planteó que, si siempre hemos observado que las esmeraldas son verdes, ¿por qué no decir que son “grue”? Este término inventado designa las cosas que son verdes hasta un momento dado en el tiempo (t0) y azules después de ese punto. Ambas descripciones —“verde” y “grue”— encajan con todos los datos observados hasta t0, pero predicen cosas distintas en el futuro. Entonces, ¿cuál es la diferencia? ¿Por qué “verde” parece más legítimo que “grue”? Este ejemplo, aunque peculiar, ilustra una tensión real en la ciencia: los datos por sí solos no bastan para elegir una teoría. Hay demasiadas opciones posibles que encajan con ellos.

Lo perturbador es que este dilema no se limita a juegos de palabras. Cualquier teoría científica, por precisa que parezca, puede reformularse de maneras igualmente válidas desde el punto de vista lógico, pero que nos llevan a conclusiones radicalmente distintas. La idea de que hay infinitas teorías compatibles con los mismos datos —el problema de la subdeterminación— ha sido discutida durante décadas. Pero su relación directa con la práctica científica cotidiana sigue siendo subestimada. Scorzato la coloca en el centro del debate.

Gráfico con ejes de precisión empírica y concisión epistémica, donde se muestra qué modelos son descartables (rojo) y cuáles son de estado del arte (verde). Fuente: arXiv

El aporte de Scorzato: cuando medir lo medible es lo que importa

Lo que hace diferente el enfoque de Luigi Scorzato es que no intenta justificar las mejores teorías por su capacidad predictiva, como tantos filósofos antes que él. En su lugar, propone una regla para decidir qué modelos científicos deben ser descartados. Para eso, parte de una observación clave: no todo lo que puede formularse puede medirse directamente. Y eso tiene consecuencias profundas. Si una teoría recurre a conceptos que no pueden ser expresados con medidas directas, su valor explicativo queda seriamente limitado.

Según el autor, “el resultado de una medición directa válida siempre se expresa como un valor central y un conjunto convexo que lo contiene” . Esto implica que los conceptos realmente útiles en ciencia deben estar ligados a una forma concreta de ser medidos. No basta con que una idea sea coherente o elegante: si no se puede asociar a una medición con incertidumbre clara, pierde fuerza científica. Esta exigencia excluye formulaciones “grue” no por capricho, sino porque no permiten mediciones directas y precisas.

Epistemicidad y complejidad: una nueva forma de simplicidad científica

Scorzato introduce un concepto central: la “complejidad epistémica”. Esta idea mide cuán complejas son las suposiciones que necesita una teoría para funcionar. No se trata de contar ecuaciones ni líneas de código, sino de evaluar cuánta información adicional necesita un modelo para ser útil. Y, lo más interesante, propone medir esa complejidad solo dentro de las formulaciones que sean empíricamente equivalentes. Es decir, teorías que no solo digan lo mismo, sino que también se puedan medir igual.

Esto cambia radicalmente las reglas del juego. Ya no se trata de qué modelo “suena” mejor, sino de cuál requiere menos suposiciones extra para obtener la misma precisión. Así, las teorías que usan trucos como el “grue” se vuelven más complejas, no porque sean más largas, sino porque hacen más difícil medir lo que afirman. Como dice el artículo: “definir el modelo grue para esmeraldas es más complejo que definir el modelo verde estándar”. Esa diferencia, aunque técnica, permite una forma objetiva de elegir entre teorías aparentemente equivalentes.

Fuente: ChatGPT / E. F.

Modelos descartados y el rol del consenso científico

Una de las consecuencias más poderosas de este enfoque es la definición de lo que Scorzato llama “modelos descartados”. Son aquellos que, comparados con otros, son menos precisos y además requieren más complejidad epistémica para funcionar. No ofrecen ninguna ventaja y, por tanto, no deberían formar parte del debate científico. Esto permite excluir de forma razonada teorías conspirativas, pseudocientíficas o modelos artificialmente complejos, sin necesidad de acudir al consenso como única guía.

Un ejemplo brillante que ofrece el autor es el de la llamada “conspiración de Bielefeld”, una teoría absurda que sostiene que esa ciudad alemana no existe. Aunque puede adaptarse a cualquier contraargumento (como hacen muchas teorías conspirativas), su validez se derrumba porque requiere suposiciones excesivas y no comprobables. Según Scorzato, esto equivale a decir que “no es empíricamente equivalente al modelo original y, por tanto, no es solo una reformulación”. Una herramienta poderosa para distinguir entre ciencia legítima y ficción elaborada.

La IA y el viejo dilema bajo una nueva luz

La propuesta de Scorzato no solo resuelve un problema filosófico. Tiene implicaciones urgentes para la inteligencia artificial. Hoy, los sistemas de IA generan modelos predictivos que parecen ajustarse perfectamente a los datos. Pero eso no significa que sean científicamente válidos. Una red neuronal puede encontrar patrones sin ofrecer ninguna explicación sobre por qué funcionan. Si usamos solo la precisión como criterio, podríamos aceptar modelos que son intrínsecamente “grue”, solo que en forma de datos y matrices.

Por eso, el autor advierte que “la diferencia entre científicos y no científicos es mucho más borrosa en la era de la IA”. Necesitamos, más que nunca, una forma clara de distinguir entre modelos legítimos y otros que solo parecen funcionar. Y para eso, la combinación entre medibilidad directa y complejidad epistémica se convierte en una brújula esencial. La ciencia no puede permitirse perder el control sobre los criterios que justifican sus afirmaciones, especialmente cuando la IA puede producir resultados convincentes sin ofrecer fundamentos comprensibles.

Una solución elegante a un problema esquivo

Al final, el trabajo de Scorzato no busca resolver el problema de la inducción clásica —el de justificar que el futuro se parecerá al pasado—, sino definir qué modelos merecen ser considerados científicamente válidos. Lo hace con herramientas conceptuales sólidas, aplicables no solo a la física, sino también a disciplinas como la historia, donde las teorías pueden adaptarse a cualquier evidencia, como sucede con muchas narrativas revisionistas o conspirativas.

El mérito del artículo no está solo en su propuesta, sino en haber traducido un dilema abstracto en reglas operativas que pueden guiar la práctica científica en el presente. Una teoría que no permite mediciones directas, o que necesita una estructura más compleja que otra para obtener los mismos resultados, debe ser descartada. Esa es la esencia del criterio que propone: claro, mensurable y con potencial para influir en cómo la ciencia y la inteligencia artificial avanzan juntas.

Referencias

En la historia de los grandes descubrimientos geográficos, la Antártida se ha asociado, sobre todo, a las grandes exploraciones del siglo XIX. Sin embargo, un nuevo estudio firmado por el historiador Felipe Debasa Navalpotro pone en cuestión esta cronología, al identificar en la figura de Francisco Seyxas y Lovera (o Lobera) a un precursor del conocimiento y la cartografía del continente helado ya en el siglo XVII. Seyxas y Lovera, un personaje gallego hasta ahora apenas conocido fuera de ciertos círculos eruditos, podría haber descrito y cartografiado parte de la Antártida en 1678, anticipándose en más de un siglo a los navegantes británicos, franceses y rusos.

Un gallego universal en tiempos del Imperio

Francisco Seyxas y Lovera nació en la diócesis de Mondoñedo (Galicia), en torno al año 1647. Hijo de hidalgos de la baja nobleza, su vida se caracterizópor una trayectoria excepcional: fue marino, comerciante, cartógrafo, espía, gobernador, matemático y escritor. Tras la muerte de sus padres, un tío suyo, en Ribadeo, se ocupó de su educación y, muy pronto, se embarcó hacia los Países Bajos. Desde joven, navegó por todo el Mediterráneo, el Atlántico y los mares de Asia.

En sus obras, muchas de ellas inéditas o poco estudiadas hasta ahora, Seyxas dejó testimonio de su actividad como fedatario y analista de rutas marítimas. Lo que el estudio de Debasa propone con contundencia es que, durante una de sus travesías por el hemisferio sur, Seyxas habría avistado y descrito tierras hoy identificables con las islas del archipiélago Shetland del Sur, en el contexto geográfico antártico.

Marinero del siglo XVII
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

El viaje hacia el sur

El episodio central que fundamenta esta hipótesis tuvo lugar en febrero de 1678. Es entonces cuando Seyxas, ya veterano navegante, recorrió una zona situada entre los 60 y 70 grados sur de la que dejó constancia en sus escritos: allí, menciona la existencia de "islas a la vista de la tierra austral". La descripción de estas tierras encaja, según Debasa, con las islas Elefante, Clarence y Joinville, que formarían parte del actual territorio antártico.

Es más: en su obra Descripción geográphica y derrotero de la región austral magallánica (1690), Seyxas ofrece una detallada exposición de pasajes marítimos, archipiélagos y accidentes geográficos del sur de América que superan los 60º de latitud austral, mucho antes de que la historiografía anglosajona, con el británico William Smith al cabeza, situara los primeros descubrimientos en torno a 1819.

Barco navegando entre los hielos
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

La evidencia cartográfica

Otro dato que proporciona el estudio de Debasa y que reforzaría la hipótesis se encuentra en otra obra del cartógrafo gallego. Se trata del llamado Atlas universal de la verdadera situación de las costas y puertos más principales del mundo, una obra atribuida a Seyxas y conservada en la Biblioteca del Congreso de Estados Unidos. Allí, el gallego anota de su puño y letra la existencia de varias islas al sur del estrecho de Magallanes, algunas de las cuales llevan su propio nombre (“Yslas de Seyxas, año 1678”).

En el mismo documento también se mencionan unas “islas de Juan Carvallo”, cuya posición y características coincidirían con la isla Elefante y la isla Clarence. Además, Seyxas representa una formación en triángulo que, según el análisis del estudio, podría corresponder a las islas Smith, Low y una tercera, actualmente sin nombre, todas ellas situadas en la latitud 62º sur. El detalle con que Seyxas representa estas formaciones, que inclyen alturas montañosas visibles desde el mar, reforzaría la idea de que no se trata de una fabulación.

Cartógrafo
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Una Antártida antes de la Antártida

Uno de los argumentos más sólidos que aporta el estudio es que la visión de Seyxas sobre el sur del planeta se inserta en una continuidad histórica que parte de los descubrimientos de Gabriel de Castilla en 1603. La historiografía chilena y argentina atribuye a Gabriel de Castilla el primer avistamiento de tierras antárticas. La existencia de montañas nevadas que describe Castilla, según una fuente holandesa rescatada por el estadounidense Edwin Swift Balch en 1902, sitúa el relato hispano casi dos siglos antes que el de Cook o Bellingshausen.

El texto de Seyxas, por tanto, vendría a corroborar y dar continuidad al conocimiento español del continente austral, ampliando su alcance y precisión. Más aún, según el autor del estudio, esta información se mantuvo en secreto intencionalmente al considerarse información estratégica de importancia para el Imperio rspañol frente a otras potencias.

Una figura infravalorada

Francisco Seyxas y Lovera, aunque prolífico y versátil, no obtuvo reconocimiento oficial en su tiempo, pese a sus intentos por convertirse en cronista del rey y los servicios que prestó como gobernador de Tacuba en Nueva España. Sus enfrentamientos con el virrey Gaspar de la Cerda y Mendoza y su carácter indómito, además, le condujeron al exilio en Francia, donde vivió sus últimos años en la corte de Versalles. Autor de catorce obras, muchas de ellas dedicadas a la navegación y la economía del Imperio, Seyxas se nos revela hoy como una figura clave para comprender el desarrollo del conocimiento geográfico del mundo en el siglo XVII.

Paisaje ártico
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Implicaciones geopolíticas

En su investigación, además, Debasa Navalpotro plantea que, si se aceptan las referencias de Seyxas como válidas, podrían reabrirse los debates geopolíticos sobre la soberanía en la Antártida, especialmente en relación con las reivindicaciones históricas de Argentina y Chile frente al territorio antártico británico. De hecho, el autor destaca que el trabajo de Seyxas deslegitimaría las reclamaciones británicas al demostrar que los españoles ya conocían y cartografiaban esas tierras en el siglo XVII. Este planteamiento, aunque no es nuevo, se ve ahora reforzado por la aparición de nuevas fuentes documentales inéditas, el análisis paleográfico de los mapas y los estudios de campo.

Un descubrimiento para reescribir la historia

La propuesta de que Francisco Seyxas de Mondoñedo podría haber sido el primer cartógrafo de la Antártida en 1678 se sustenta en documentos históricos, mapas con anotaciones directas y una minuciosa investigación archivística que revaloriza el papel de España en la exploración del continente blanco.

Si las futuras investigaciones confirman esta reconstrucción de los hechos, estaríamos ante una de las mayores revisiones del relato tradicional sobre los descubrimientos polares, con un protagonista inesperado: un gallego del siglo XVII que recorrió el mundo, cartografió lo ignoto y soñó con que sus conocimientos sirvieran a la expensión imperial.

Referencias

En octubre de 1935, durante un congreso científico celebrado en Palermo, Enrico Fermi subió al estrado para presentar uno de los avances más decisivos de la física del siglo XX. Lo que dijo aquel día no solo explicaba un fenómeno insólito observado un año antes, sino que anticipaba, sin que nadie lo sospechara, los principios que harían posible la energía nuclear. Sin embargo, ese discurso —titulado Recenti risultati della radioattività artificiale— cayó en el olvido durante décadas. Ni siquiera fue incluido en sus obras completas.

Gracias al trabajo de Emanuele Goldoni y Ledo Stefanini, esa conferencia ha sido recuperada, traducida al inglés y publicada por primera vez para un público amplio. En su artículo, los autores no solo rescatan las palabras exactas de Fermi, sino que reconstruyen el contexto histórico, técnico y humano en el que surgió este hallazgo. El valor del documento no es solo científico, sino también cultural, puesto que ofrece una ventana directa a cómo razonaba uno de los físicos más influyentes de todos los tiempos.

El día en que la parafina cambió la historia

Aquel 22 de octubre de 1934, Fermi no tenía intención de descubrir nada revolucionario. Quería probar cómo ciertos materiales afectaban la eficacia de los neutrones al inducir radiactividad. Pensaba utilizar una cuña de plomo como filtro, pero algo lo detuvo. Según contó años después, tuvo un impulso inesperado: "No quiero esta pieza de plomo aquí; lo que quiero es una pieza de parafina".

Al colocar la parafina entre la fuente de neutrones y el material a irradiar, observó algo insólito: la radiactividad aumentó de forma dramática. Cuando se rodeó todo el montaje con este material, la actividad se multiplicó por 40 o incluso 50. No era un error de medición, era un efecto real. La clave estaba en el hidrógeno de la parafina, que al tener la misma masa que los neutrones, era capaz de frenarlos de forma eficaz mediante colisiones.

Me limitaré a un breve resumen de lo que se ha hecho el año pasado en el Instituto de Física de Roma sobre la radiactividad provocada por bombardeo de neutrones. Este es un caso particular de la radiactividad artificial, cuyo primer ejemplo fue descubierto hace dos años por J. Curie-Joliot y F. Joliot.

Enrico Fermi
E. Fermi, “Recenti risultati della radioattivita artificiale”, in La Ricerca scientifica, vol. 2, n. 6, pp. 399–402, 1935.

El poder de los neutrones lentos

Este hallazgo contradecía la intuición científica de la época. Se pensaba que las partículas rápidas eran más efectivas al provocar reacciones nucleares. Sin embargo, Fermi comprendió que los neutrones lentos, al tener menor energía, eran mucho más fáciles de capturar por los núcleos atómicos, especialmente los más pesados.

Según explicó en su discurso, "la energía del neutrón se reduce mucho" tras chocar con un átomo de hidrógeno, y "en promedio, se divide por un factor e = 2,71". Después de unas veinte colisiones, el neutrón se ralentiza hasta alcanzar una energía térmica mínima. La parafina actúa así como "una especie de solución de neutrones lentos", una frase que Fermi pronunció en Palermo y que resume con precisión el efecto observado.

El descubrimiento no fue solo teórico. Sentó las bases para el diseño de reactores nucleares, que décadas más tarde usarían moderadores como el agua o el grafito —ambos ricos en hidrógeno— para mantener bajo control la velocidad de los neutrones y permitir reacciones en cadena sostenibles.

Enrico Fremi. Fuente: Wikipedia

El experimento de la rueda giratoria

Uno de los momentos más ingeniosos del discurso de Fermi fue la descripción de un experimento diseñado para medir cuánto tiempo permanecían los neutrones lentos “en solución” en la parafina antes de ser capturados por un protón. Utilizó una rueda de acero de alta velocidad, en cuyo borde se colocaron la fuente de neutrones y dos placas de manganeso que actuaban como detectores.

Al hacer girar la rueda, los neutrones que salían de la fuente y rebotaban dentro de la parafina impactaban con más frecuencia en la placa situada detrás del punto de emisión, que en la que quedaba delante. Esto demostraba que los neutrones permanecían una fracción de segundo en la parafina antes de ser absorbidos, un tiempo suficiente como para influir en su distribución espacial.

Este experimento no solo era elegante, sino también fundamental. Confirmaba que los neutrones ralentizados se comportaban como partículas térmicas, lo que abría la puerta a nuevos diseños experimentales y al control más preciso de las reacciones nucleares.

Fuente: ChatGPT / E. F.

Una publicación eclipsada

Pese a su importancia, la conferencia de Palermo no tuvo la difusión que merecía. Fue publicada en 1935 en una revista italiana, La Ricerca scientifica, y más tarde traducida al inglés por la Comisión de Energía Atómica de EE. UU., pero esa versión nunca se hizo pública y se presume perdida. Tampoco fue incluida en los Collected Papers editados por la Universidad de Chicago tras la muerte de Fermi.

El artículo de Goldoni y Stefanini destaca que esta omisión ha dejado fuera del registro histórico un documento esencial para entender cómo pensaba Fermi en el momento de su gran descubrimiento. Como señalan los autores, la conferencia contiene pasajes que aparecen más tarde, casi sin cambios, en la conferencia Nobel de Fermi de 1938, lo que subraya su relevancia científica y narrativa.

Además, al traducir el texto completo al inglés, los investigadores han puesto a disposición del público una fuente valiosa que permite estudiar con más detalle los inicios de la física nuclear aplicada.

Ciencia, intuición y utilidad práctica

Uno de los aspectos más fascinantes del discurso es cómo Fermi combina la explicación teórica con la posibilidad de aplicaciones prácticas inmediatas. En su intervención en Palermo, ya anticipaba que la radiactividad artificial podría usarse "en el campo médico" o como trazador químico para el análisis de sustancias.

Fermi también destacaba que, para hacer viables estas aplicaciones, era necesario desarrollar mejores fuentes de neutrones. Propuso el uso de deuterones (núcleos de hidrógeno pesado) acelerados a altas tensiones para bombardear blancos ricos en hidrógeno, un enfoque que se convirtió en estándar en la construcción de aceleradores y reactores nucleares.

Este equilibrio entre intuición experimental y visión práctica es uno de los rasgos más distintivos de Fermi. La claridad de su discurso, su lenguaje directo y su capacidad para vincular fenómenos físicos con herramientas concretas lo convirtieron en una figura única dentro de la ciencia del siglo XX.

Una pieza clave de la memoria científica

Rescatar esta conferencia no es solo un ejercicio de arqueología académica. Permite comprender mejor cómo se construyó una de las ideas fundamentales de la física moderna. También nos recuerda que algunos de los mayores avances científicos no surgen necesariamente de experimentos planeados, sino de momentos de intuición y apertura mental.

Como bien señala el propio Fermi, fue "sin previo razonamiento consciente" como decidió sustituir el plomo por parafina. Ese gesto impulsivo le condujo a un descubrimiento que, sin él saberlo en ese momento, allanarían el camino hacia la era nuclear. Entender este proceso con sus propias palabras es una oportunidad rara, y por eso el rescate de esta conferencia es, además de un acto de justicia histórica, una contribución valiosa a la divulgación científica.

Referencias

Vivimos rodeados de certezas que damos por sentadas. Que la Tierra es una esfera perfecta. Que el internet oscuro es una guarida para delincuentes. Y, sin embargo, muchas de esas “verdades” se tambalean al mínimo soplo del conocimiento científico. La realidad, como tantas veces, es más compleja, más fascinante y menos categórica que los titulares o las clases de colegio. Aclaramos más de una decena de mitos modernos sobre ciencia y tecnología para invitar a la curiosidad, al espíritu crítico y a la sorpresa.

Mito 1: Einstein no aprobó Matemáticas…

Nada más atractivo como anécdota que presentar a uno de los mayores genios científicos del siglo XX como un estudiante torpe. Pero atractivo no quiere decir verídico: este rumor nace del hecho de que el futuro autor de la teoría de la relatividad suspendió en 1894, cuando tenía dieciséis años, el examen de admisión de la Escuela Politécnica Federal de Zúrich, en Suiza. Pero se trataba de un examen que nada tenía que ver con las matemáticas, disciplina que Einstein a esa edad tenía plenamente dominada.

De hecho, durante un tiempo pensó en seguir la carrera de matemático en vez de optar por la física: “Antes de los quince años, ya me sabía todo el cálculo diferencial e integral”, declaró en una ocasión. 

El verdadero suspenso de Einstein fue en lengua. El idioma en el que se realizaba el examen de admisión era el francés, y el joven Albert tenía, por entonces, conocimientos bastante limitados. Como se podía esperar, con esa base, el trabajo que entregó Einstein –en el que destacaba el texto Mis planes de futuro, un breve ensayo en el que contaba sus aspiraciones académicas y profesionales–, fue considerado “lleno de errores” por el tribunal examinador; y le denegaron la admisión. Dos años después, ya con el idioma más dominado, Einstein fue por fin admitido en la institución suiza.

Pero las matemáticas jamás supusieron para él ningún problema, ni antes ni, obviamente, en los años futuros. 

¿Einstein era malo en matemáticas? Este y otros mitos absurdos que la evidencia desmiente 1
Einstein no era malo en matemáticas. Dominaba el cálculo diferencial desde los 15 años. Suspendió por su bajo nivel de francés, no de números. Fuente: Pixabay.

Mito 2: … y recibió el Nobel por su teoría de la relatividad

Por increíble que parezca, no fue así. ¿Cómo es posible que el físico más influyente del siglo XX no recibiera el Premio Nobel por su logro más conocido? Durante la segunda década del siglo, el nombre de Einstein sonó año tras año en la Academia sueca como uno de los candidatos al galardón más firmes. Sin embargo, cuando por fin lo recibió fue por sus trabajos sobre el efecto fotoeléctrico, publicados, por cierto, en 1905, el mismo año que su teoría de la relatividad especial. 

Los historiadores arguyen varios motivos: uno fue que el comité se opuso durante años, objetando que la relatividad no estaba probada. Y cuando, por fin en 1919, el astrofísico de Cambridge Arthur Eddington la demostró durante un experimento para medir la deflección estelar, el nombre de Einstein terminó de hacerse famoso en todo el mundo.

Había también motivos extracientíficos, como el antisemitismo y la oposición a su ideología pacifista, razones que llevaron a dejar el premio desierto en 1921, antes que dárselo a Einstein. Al año siguiente, por fin, se acordó concedérselo, pero dejando intencionadamente la teoría de la relatividad a un lado y recurriendo a otro de sus logros. 

No es, en absoluto, un trabajo despreciable. Muchos especialistas lo consideran de idéntica importancia que la famosa teoría e incluso mayor: entre otras cosas, introdujo el concepto del fotón (que él llamó cuanto de luz). El premio venía envenenado. Einstein no acudió a la ceremonia de entrega y cuando por fin leyó su discurso de aceptación, en 1923, este trataba exclusivamente sobre la teoría de la relatividad. Quien ríe el último.

Mito 3: El internet oscuro está dedicado únicamente a actividades ilegales

En absoluto. Recientes estudios estiman que solo un 45 % de los sitios presentes en él tienen que ver con estas actividades; y estas, en su gran mayoría, no son de extrema gravedad. En cierto modo, se cometen más crímenes en el internet común, el que todos usamos, ya que en él se encuentra toda la información que interesa a los ciberdelincuentes. 

Tampoco es ilegal acceder a la Red Oscura. De hecho, empresas como Facebook y medios como ProPublica, por ejemplo, están también allí. El internet oscuro comenzó como una plataforma de navegación anónima, que requiere de navegadores especiales –Tor es el más popular y, no, usarlo no contraviene ninguna ley– para comunicarse en los países sujetos a regímenes dictatoriales o que censuran la libertad de expresión. Sus usuarios no dejan rastro al navegar ni al colgar en él sitios web.

Es cierto que este anonimato ha atraído a delincuentes que ofrecen desde información clasificada sobre empresas y particulares hasta armas o drogas. Pero son más la excepción que la regla; la mayoría son, simplemente, timos y el tráfico de mercancías ilegales se ha combatido con mucha eficacia en los últimos años. 

También se suele decir que, como la parte oculta de un iceberg, la Red oscura es mucho más grande que la que usamos la mayoría de las personas. En realidad, el número de sitios presentes en ella no llega, en la mejor de las estimaciones, al medio millón: una gota en el océano de la Web.

Mito 4: El Sáhara es el desierto con mayor extensión del mundo

Esta equivocación surge de nuestra idea preconcebida de pensar que un desierto es una extensión inacabable… de arena. Pero la definición de desierto es la de una zona de terreno que recibe menos de 250 mm de precipitaciones por año; y eso abarca también a los polares.

Si se tienen en cuenta, entonces el Sáhara, con sus 9,2 millones de kilómetros cuadrados, queda en tercer lugar en la clasificación mundial, derrotado por el Ártico, un gigantesco desierto de hielo situado en el Polo Norte, con 16,5 millones de kilómetros cuadrados, y por la Antártida, con 14 millones. 

Al igual que en sus contrapartidas de arena, estos desiertos presentan unas condiciones ambientales tan hostiles a la vida humana –la temperatura mínima en el Ártico llega a los 40 grados bajo cero y en la Antártida, a 90– que no cuentan con población fija, solo con bases dedicadas a la investigación, que realizan casi todo su trabajo durante el verano.

De todos modos, no se puede descartar que esta clasificación cambie si continúa el calentamiento global causado por el cambio climático, que está haciendo retroceder los desiertos polares y avanzar los de arena. Puede que con el tiempo el Sáhara acabe, en efecto, ganando en superficie a sus rivales helados. Eso sería divertido para los amantes de los tópicos, pero nefasto para la salud del planeta.

¿Einstein era malo en matemáticas? Este y otros mitos absurdos que la evidencia desmiente 5
El agua absorbe colores cálidos y dispersa los fríos; por eso lo vemos azul incluso en días nublados. Fuente: Pixabay.

Mito 5: Los mares reflejan el color del cielo

La idea de que el mar es un gigantesco espejo del cielo tiene más de poesía que de ciencia. Y esto es así porque el agua del océano es transparente; su habitual coloración azulada se debe a un fenómeno óptico, por el que mares y océanos reflejan, en efecto, algunos colores, pero absorben otros. 

Así, los colores fríos, como azules y verdes, sí son reflejados, pero los cálidos como el amarillo, el naranja o el rojo son completamente absorbidos. Esto explica que el mar siga mostrándose azul en los días nublados cuando, si de verdad actuara como un espejo, su superficie debería ser entonces blanca o gris. Hay otros factores que influyen también en esa percepción cromática, como la cantidad de microorganismos presentes en el agua, que puede hacer variar el color de la masa líquida del verde y al marrón oscuro.

Las civilizaciones antiguas no solían decir que el mar era azul. El poeta griego Homero, por ejemplo, empleaba metáforas como “dedos rosados de la aurora” o “color de vino” para describir el océano, demostrando más creatividad que muchos de sus colegas de hoy.

Mito 6: El diamante es la sustancia más dura que existe

Aquí, más que desmentir se trataría de actualizar la información, porque el diamante fue, en efecto, la sustancia más dura que existe… pero dejó de serlo en 2015. Ese año, los laboratorios de la Universidad Estatal de Carolina del Norte (EE. UU.), crearon el material sintético Q-carbono, hasta un 60 % más duro que un diamante natural. 

Para fabricar estas moléculas, los científicos expusieron carbono no cristalizado a altísimas temperaturas y lo enfriaron rápidamente, generando así micropartículas de este material. Algunas cosas que se han descubierto sobre este recién llegado lo convierten en un material tan intrigante como resistente: es magnético, brilla cuando se lo expone a una fuente de energía, y sus descubridores han dado con una técnica para crear, a partir de él, estructuras diamantinas a temperatura ambiente y sin tener que alterar la presión atmosférica.

Es aún muy pronto para saber si estamos en la puerta de la fabricación industrial de diamantes baratos o, incluso, de herramientas para tratarlos de formar más asequibles; pero de su dureza a toda prueba ya no cabe duda ninguna.

Mito 7: Los silenciadores hacen inaudibles los disparos

Los ruidos que hacen las armas disparadas en películas y series, con o sin silenciador, no se parecen en nada a los que hacen en el mundo real. Previamente, han pasado por el departamento de sonido para hacerlos más espectaculares y adaptados a lo que, como público, estamos acostumbrados a oír. El sonido de las armas no silenciadas se potencia, y el de las silenciadas se atenúa hasta no ser más que un suave puf.

Pero dependiendo del calibre y del tipo, podemos oír el disparo de un arma silenciada incluso a cientos de metros de distancia. Los silenciadores no eliminan el ruido, solo lo atenúan, y menos de lo que podría pensarse. 

Esto es así porque un disparo provoca dos ruidos diferentes: el primero es el resultado de una onda de presión que se produce en el momento en que se acciona el gatillo y se desencadena la expansión de los gases que propulsan la bala. El silenciador acoplado al cañón ayuda a apagar esa explosión bloqueando la propagación de las ondas sonoras; solo la ayuda, porque, en las armas de mayor calibre, el sonido sigue siendo muy audible.

El otro ruido es el provocado por el proyectil al abrirse paso por el aire, que varía según el arma, sea subsónica o supersónica. Y ante él, los silenciadores no pueden hacer nada. Aun así, este dispositivo sigue resultando muy útil en el terreno militar, ya que disimula el origen del disparo lo bastante para dificultar la localización del tirador.

¿Einstein era malo en matemáticas? Este y otros mitos absurdos que la evidencia desmiente 4
El kilo no siempre pesó exactamente mil gramos. Fuente: Pixabay.

Mito 8: El kilo tiene mil gramos

La unidad de medida kilo tiene, efectivamente, mil gramos. Es el objeto en el que se basa el estándar de esta unidad de masa el que dejó de tener mil gramos hace tiempo. Desde 1889, una caja fuerte de la Oficina Internacional de Pesas y Medidas de Francia guarda un cilindro de platino iridiado que sirve de referencia a la hora de determinar el peso de mil gramos. Pero se calcula que, en el tiempo que ha transcurrido desde su fabricación, puede haber perdido en torno a 50 microgramos. 

Un microgramo es la milmillonésima parte de un kilo, así que, en principio, es una pérdida inapreciable, aunque estas unidades se fabricaron para ser lo más exactas posible. En todo caso, hay más de cien copias del cilindro repartidas por todo el mundo (en España tenemos dos) para que sea posible establecer exactamente masas sin necesidad de viajar hasta París. Pero, aun así, está claro que no son invulnerables a sufrir diminutas variaciones y desgastes que pueden poner en peligro el patrón y, con él, cualquier cálculo que lo utilice como guía. 

Por eso, desde 2019, la metrología mundial utiliza como nuevo sistema la constante de Planck, llamada así desde que, en 1900, este físico alemán describió cómo los objetos irradian energía en pequeños valores llamados cuantos; esta energía es proporcional a una cantidad llamada h.

Si se conoce el valor de h, se puede equiparar la masa con una cantidad determinada de electricidad y calcular la corriente eléctrica para levantar un kilogramo, que quedará definido según los números obtenidos. La clave está en calcular con toda precisión el valor de h, y por ello se encargó la medición a instituciones de cinco países. Sustituir un objeto por una operación de cálculo invariable nos asegura la estabilidad eterna del patrón y la seguridad de que el kilo vuelve a pesar mil gramos. Como debe ser.

Mito 9: Benjamin Franklin descubrió la electricidad

Este es un malentendido originado por el famoso experimento que el ingenioso Franklin llevó a cabo en una tarde tormentosa de junio de 1752. Preparó una cometa de seda a la que unió un largo hilo de cáñamo –al que anudó una llave de hierro–, seguido de otro de seda. La idea era que el cáñamo conduciría la electricidad al mojarse con la lluvia y la transmitiría hasta la llave, pero el hilo de seda no lo haría, ya que Franklin lo mantenía seco.

Pronto, algunas hebras sueltas de cáñamo se enderezaron y pensó que era por la electricidad. Tocó la llave con el dedo y sintió una pequeña chispa; lo hizo con un nudillo y la sensación fue más fuerte. 

Lo que Franklin logró no fue descubrir la electricidad, sino probar que esta se hallaba presente en las nubes tormentosas y era el componente principal de los rayos. La electricidad se conocía al menos desde el año 600 antes de la era común, cuando los griegos descubrieron la variante estática que se producía frotando pieles contra un pedazo de ámbar.

En el siglo XVII, el físico inglés William Gilbert empleó el término electricus para definir este fenómeno y su colega Thomas Browne acuñó la palabra electricidad. Pero Franklin –cuya cometa, a pesar de lo que aparece en muchos de los cuadros pintados sobre el acontecimiento, no fue alcanzada directamente por ningún rayo– dio un paso de gigante en su estudio, que unos años después le llevarían a crear uno de los inventos más notables de la historia de la humanidad: el pararrayos. 

Mito 10: La materia existe en tres estados: sólido, líquido y gaseoso

Sin duda, son los principales, pero no los únicos (un detalle: el agua es la única sustancia que puede existir en los tres). Los avances en la ciencia han descubierto otros, igual de reales, aunque mucho menos frecuentes. Uno de ellos es el plasma, o gas ionizado a una alta temperatura compuesto por cationes –moléculas o átomos con carga positiva– y electrones libres –con carga negativa–, entre los cuales existen potentes fuerzas electrostáticas.

Aunque la carga eléctrica total del plasma es cero, las partículas de su interior sí la tienen, lo que le convierte en un conductor de electricidad que puede ser confinado en campos magnéticos. ¿Dónde lo encontramos? En las luces de neón, en los tubos fluorescentes y en los, cada vez más anticuados, televisores de plasma. Para encontrarlo en estado natural, es necesario salir de la Tierra: se estima que el 99 % de la materia que observamos en el universo es plasma. 

El otro estado es relativamente reciente: es el condensado de Bose-Einstein (BEC por sus siglas en inglés) y fue identificado en 1995, usando una combinación de láseres e imanes para conseguir enfriar una muestra de rubidio hasta casi el cero absoluto. En este estado, el movimiento molecular prácticamente se detiene y al no haber energía cinética que se transfiere de un átomo a otro, estos tienden a aglomerarse formando una especie de superátomo único.

Un material en estado BEC es, al mismo tiempo, un superconductor y un superfluido, y tiene la propiedad de ralentizar la luz que pasa a través de él a velocidades de unos pocos metros por segundo. El BEC se utiliza para investigar la mecánica cuántica o para simular las condiciones que pueden existir dentro de un agujero negro.

¿Einstein era malo en matemáticas? Este y otros mitos absurdos que la evidencia desmiente 3
El Mauna Kea y el Chimborazo lo superan si se mide desde la base o desde el centro de la Tierra. Fuente: Pixabay.

Mito 11: El Everest es la montaña más alta del mundo

Según desde dónde empecemos a contar. Si lo hacemos desde el nivel del mar, entonces esta montaña, antaño tan temida y hoy tan propensa a los embotellamientos, sin duda es la más alta, con sus 8848 metros. Pero si consideramos la altura total, entonces el campeón es el Mauna Kea, en la isla de Hawái.

Este volcán inactivo tiene una altura aparente de 4205 metros; lo que ocurre es que más de la mitad de él está bajo el agua, y su altura total es de 10210 metros, casi dos kilómetros más que el monte Everest. 

Pero hay otra manera de calcular la altura de un cuerpo montañoso: su distancia con respecto al núcleo terrestre, que, a fin de cuentas, es el punto central del planeta. Y si lo hacemos así, las cosas vuelven a cambiar, ya que, como explicamos en otra parte de este mismo capítulo, la Tierra no es una esfera perfecta; la zona ecuatorial está ligeramente estirada (es más ancha) y, por tanto, los cuerpos que se encuentran en ella están más lejos del núcleo.

Usando este sistema de cálculo, el ganador sería otro volcán, el Chimborazo, situado en Ecuador y distante 2072 metros más que el Everest desde el centro del Tierra

Mito 12: Los terremotos se miden por la escala de Richter

Desarrollada por el sismólogo californiano Charles Richter en 1935, la escala que lleva su nombre se hizo tan popular como referencia a la hora de calcular la intensidad de un terremoto que mucha gente piensa que se sigue utilizando hoy día. Sin embargo, en 1979, dos sismólogos también californianos –Thomas C. Hanks y Hiroo Kanamori– desarrollaron la escala de magnitud de momento (Mw), mucho más precisa, que no tardó en convertirse en la medida de referencia. 

Richter creó su escala para medir los terremotos que se producían en la zona donde él trabajaba, esto es, el sur de California; de hecho definía la intensidad con el término ML, que significa ‘magnitud local’. En 1935 todavía no se había creado una red mundial de detección de terremotos, pero a medida que se instalaban estaciones sismológicas en otras partes del mundo, se fue haciendo evidente que la escala solo servía para gamas muy concretas de frecuencia sísmica, y tendía a saturarse en los movimientos de mayor intensidad. 

La escala de Magnitud de Momento se centra en un elemento clave como son las placas tectónicas y sus puntos de unión, conocidos como fallas. Su punto de cálculo es el momento sísmico, la cantidad de energía liberada por el terremoto, que se determina midiendo el tamaño del área deslizada en el plano de la falla, la distancia del movimiento y la fuerza que ha sido necesaria para desplazarla. Para ello, obtiene sus datos de una red de sismógrafos que describen las ondas sísmicas que emanan del epicentro del terremoto en múltiples direcciones. Si la escala de Richter ayudó, sin duda, a conocer mejor los terremotos, puede decirse que la escala de magnitud de momento los disecciona.

Mito 13: Los ciberataques deshabilitan protecciones y sistemas informáticos  

Los ataques informáticos están a la orden del día. Se produce uno cada 39 segundos, según datos de la empresa de investigación tecnológica Juniper Research, pero mucha gente sigue teniendo una impresión equivocada de cómo se producen. El cine y la televisión han ayudado a popularizar la imagen del mago de la tecnología que, sin ser detectado, derriba una por una las más sofisticadas y férreas medidas de seguridad. 

En realidad, el mayor peligro no son esos personajes, sino nosotros mismos. Las estadísticas varían, pero en ningún caso están por debajo del 50 % a la hora de señalar el error humano como principal responsable de los fallos en seguridad informática. Según Cybint o IBM Business Solutions, este porcentaje puede llegar ¡al 95 %!

Empleados que no cumplen con las normas e incluso desactivan los sistemas de protección para navegar con más comodidad, o que inadvertidamente abren uno de los muchos correos que contienen malware que las empresas reciben cada día son solo dos ejemplos. Lo que es más, hasta un 41 %, según una encuesta de Kaspersky, no informan del incidente para evitar reprimendas, por lo que sus dispositivos quedan permanentemente infectados. 

Los pasos para evitar ciberataques no están tanto en gastar dinero en protección tecnológica como en concienciar a las personas. Más aun cuando la proliferación de dispositivos móviles corporativos –smartphones, tabletas, llaves USB– no ha hecho sino acrecentar las ocasiones de peligro.

Tierra
La Tierra no es una esfera perfecta. Fuente: Pixabay.

Mito 14: La Tierra es completamente redonda

No lo es y admitir esto no es, de ninguna manera, dar la razón a los terraplanistas. De hecho, ya contamos en otra parte de este especial que la forma redonda del planeta era un hecho reconocido desde mucho antes de los tiempos de Colón. Pero que no sea plana no quiere decir que sea perfectamente redonda, incluso aunque existan aparentes pruebas fotográficas: en las imágenes tomadas desde el espacio, el planeta parece ser tan perfectamente esférico como en los dibujos de los cuentos infantiles.

Una imagen más correcta del planeta sería la de un cuerpo sin duda redondeado, pero lleno de imperfecciones, con bultos y depresiones aquí y allá, algunos tan notables como para echar a perder la aparente perfección de su forma. 

¿Una esfera imperfecta, entonces? Tampoco: el hecho es que la fuerza causada por la rotación terrestre está afectando, sin prisa pero sin pausa, a su redondez, aplanándola por los polos y alargándola en el ecuador.

De hecho, la distancia de la superficie al centro de la Tierra es de 21 kilómetros más en el ecuador que en los polos. Esta forma se corresponde con los cálculos que ya hizo en su día Isaac Newton (1646-1727) y que es más acusada en los cuerpos celestes de mayor tamaño. Las diferencias entre los polos y el ecuador en la Tierra suponen un desvío de un 0,3 % de lo que sería con forma esférica. Ese mismo desvío en gigantes como Saturno y Júpiter es de un 10,7 % y 6,9 %, respectivamente.

Imagina que estás en casa, en la oficina o en un tren, y tu teléfono vibra con un mensaje urgente: "terremoto inminente, protégete". Esta escena es ya una realidad para millones de personas en 98 países. Detrás está el sistema Android Earthquake Alerts (AEA), una innovación científica que convierte los móviles en sensores sísmicos distribuidos por todo el planeta.

Desarrollado por un equipo internacional de investigadores liderado por Richard M. Allen, este sistema se basa en un principio sencillo pero poderoso: aprovechar los acelerómetros integrados en los smartphones para detectar el movimiento del suelo. Aunque estos sensores no son tan precisos como los de una estación sísmica profesional, su presencia masiva permite una cobertura global sin precedentes.

En solo tres años, el sistema ha detectado más de 11.000 terremotos y emitido 1.279 alertas públicas. Esto ha multiplicado por diez el acceso mundial a sistemas de alerta temprana, alcanzando a 2.500 millones de personas, frente a los 250 millones que estaban cubiertos hasta 2019. Los avances fueron publicados en la revista Science en julio de 2025.

Una red sísmica en tu bolsillo, cómo los teléfonos Android están salvando vidas ante los terremotos
Mapa global de sismos detectados y alertados mediante Android. En verde claro, los países donde el sistema AEA emite alertas sísmicas; en verde oscuro, las zonas cubiertas por el sistema ShakeAlert en EE. UU. Los círculos amarillos y rojos indican regiones que recibieron alertas según las detecciones de Android, mientras que los grises muestran sismos detectados sin emisión de alerta. El tamaño de los círculos representa la intensidad estimada del movimiento sísmico: MMI 3+ en amarillo o gris, y MMI 5+ en rojo. Fuente: Science.

Cómo funciona: del temblor al aviso

Cuando un teléfono Android en reposo detecta una aceleración repentina, envía datos al servidor de Google junto con una ubicación aproximada. Si varios dispositivos cercanos registran patrones similares, el sistema identifica un posible sismo. A partir de ahí, estima su magnitud, epicentro y profundidad.

El sistema se integra con Google Play Services, por lo que está activo por defecto en la mayoría de móviles Android, que representan aproximadamente el 70 % de todos los smartphones en uso a nivel global. Así, cada persona con un Android se convierte en parte de una red sísmica internacional.

Desde abril de 2021 hasta marzo de 2024, el sistema ha detectado una media de 312 terremotos por mes, con magnitudes entre 1.9 y 7.8. Incluso ha logrado identificar eventos a 100 km, mar adentro o cerca de zonas de subducción. Todo esto sin necesidad de instalar nuevos dispositivos, solo usando lo que ya llevamos en el bolsillo.

Alertas que marcan la diferencia

AEA no solo detecta terremotos: también avisa. Según la magnitud estimada y la intensidad esperada del temblor, envía dos tipos de mensajes.

El primero, llamado BeAware, aparece como una notificación estándar cuando se prevé una sacudida leve o moderada. El segundo, TakeAction, es más urgente: interrumpe cualquier actividad del móvil, emite un sonido fuerte y ocupa toda la pantalla.

El diseño de estas alertas fue cuidadosamente planificado. En los países donde se recomienda, por ejemplo, "agacharse, cubrirse y sujetarse", el mensaje guía al usuario para que actúe en segundos. Y funciona: el 28 % de los usuarios que recibieron una alerta TakeAction reportaron haber seguido esta instrucción.

Además, el sistema ha sido mejorado con el tiempo. Por ejemplo, después de falsos avisos provocados por tormentas o notificaciones masivas que activaron muchos teléfonos a la vez, se ajustaron los algoritmos y hoy los errores son mínimos: solo tres alertas falsas en más de 1.200 eventos.

Una red sísmica en tu bolsillo, cómo los teléfonos Android están salvando vidas ante los terremotos 2
Avisos en segundos críticos: En algunos terremotos, los teléfonos vibraron con hasta 90 segundos de antelación, permitiendo reaccionar a tiempo. Representación artística. Fuente: Sora / ERR.

¿Cuánto tiempo hay para actuar?

Un aspecto clave de cualquier sistema de alerta temprana es el tiempo de anticipación. En el terremoto de Filipinas del 17 de noviembre de 2023 (magnitud 6.7), más de 2.4 millones de teléfonos recibieron alertas, algunas hasta 90 segundos antes de que se sintiera el temblor.

En el evento de Nepal del 3 de noviembre de ese mismo año, los avisos llegaron con hasta 60 segundos de antelación para regiones a más de 300 km del epicentro.

En los sismos más destructivos, como los dos grandes terremotos de Turquía en febrero de 2023 (magnitudes 7.8 y 7.5), el sistema también actuó. Aunque las primeras alertas subestimaron la magnitud, las versiones actuales del algoritmo habrían generado advertencias más precisas y masivas, alcanzando hasta 67 millones de usuarios con hasta 2.5 minutos de antelación en algunas zonas.

La mejora constante del sistema se debe a modelos regionales que ajustan los cálculos según el tipo de suelo, los edificios y los modelos de teléfonos usados en cada país.

Lo que dicen los usuarios

AEA no solo mide terremotos; también escucha a las personas. Más de 1,5 millones de usuarios respondieron encuestas tras recibir alertas. El 85 % de ellos sintió el sismo, y entre quienes no lo sintieron, el 79 % aun así consideró útil la notificación.

El nivel de confianza también es alto: el 84 % aseguró que confiará más en las alertas futuras. Y aunque muchos simplemente comparten el aviso o buscan información, el hecho de estar informados antes de que llegue el temblor puede marcar una gran diferencia para reducir el pánico y prepararse mentalmente.

En particular, los avisos BeAware —más suaves, pero más frecuentes— tienen un efecto educativo. Al familiarizar a los usuarios con el sistema, los prepara mejor para responder ante los TakeAction, más raros, pero cruciales cuando se prevé una sacudida severa.

Evolución del error en la estimación de magnitud sísmica por AEA en los últimos tres años. El gráfico muestra los errores absolutos medianos y del percentil 90 en la estimación de magnitud para sismos de M ≥ 4.5 detectados mensualmente. Se representan tanto los errores de la primera estimación como los de la magnitud máxima. Ambos valores han mejorado progresivamente, con errores actuales de 0,25 y 0,30 unidades de magnitud, respectivamente.
Evolución del error en la estimación de magnitud sísmica por AEA en los últimos tres años. El gráfico muestra los errores absolutos medianos y del percentil 90 en la estimación de magnitud para sismos de M ≥ 4.5 detectados mensualmente. Se representan tanto los errores de la primera estimación como los de la magnitud máxima. Ambos valores han mejorado progresivamente, con errores actuales de 0,25 y 0,30 unidades de magnitud, respectivamente. Fuente: Science.

Una red sísmica planetaria construida con nuestros móviles

Lo más revolucionario del sistema Android Earthquake Alerts no es solo su precisión, sino su democratización. Lugares donde antes no existía ningún sistema de alerta temprana ahora están conectados. Países sin recursos para instalar redes sísmicas pueden hoy avisar a su población con solo tener cobertura móvil.

A largo plazo, esta red puede servir no solo para alertar, sino también para comprender mejor los patrones sísmicos globales. Los datos acumulados permitirán mapear zonas de riesgo, mejorar modelos de predicción y generar mapas de intensidad de forma instantánea tras cada evento.

AEA demuestra cómo la tecnología cotidiana —esa que usamos para chatear, ver videos o jugar— puede convertirse en una herramienta de vida o muerte. Una red sísmica mundial que llevamos, sin saberlo, en nuestros bolsillos.

Referencias

¿Y si encontrar vida en el universo fuera mucho más difícil de lo que imaginamos? En En busca de vida fuera de la Tierra (Pinolia, 2025), el astrofísico y divulgador Miguel Ángel Sabadell desmonta la visión optimista de que, con tantos planetas descubiertos, la vida debe de ser inevitable. Con un estilo claro y provocador, Sabadell nos guía a través de los requisitos cósmicos —mucho más exigentes de lo que solemos pensar— que hacen falta para que la vida surja y perdureuna galaxia tranquila, una estrella estable, una atmósfera adecuada, una tectónica activa, y hasta un sistema planetario cuidadosamente estructurado. Lo que a simple vista parece pura estadística, se revela como una intrincada coreografía de condiciones extraordinarias.

A medio camino entre la astrofísica y la filosofía, el libro propone una reflexión profunda: ¿somos el resultado de una serie de coincidencias felices o la vida es un imperativo cósmico? Sabadell repasa teorías como la panspermia, analiza con escepticismo las tecnofirmas, y cuestiona incluso si hemos buscado en los lugares correctos. Con décadas de experiencia en la divulgación científica y un sólido bagaje en astrobiología, nos ofrece una obra que no solo informa, sino que invita a repensar nuestro lugar en el universo. Un libro tan necesario como inquietante.

Un universo lleno de planetas… pero no de vida

A día de hoy se han confirmado más de cinco mil setecientos exoplanetas. Las cifras aumentan cada mes, gracias a telescopios como el James Webb o misiones como TESS y CHEOPS. Podría parecer que la vida está al caer, que solo es cuestión de tiempo antes de encontrar un planeta lleno de seres vivos. Sin embargo, no es tan sencillo.

El simple hecho de que haya planetas no garantiza que puedan albergar vida. Lo primero que debemos preguntarnos es: ¿dónde están esos planetas? Porque no todas las galaxias son aptas para la vida. Las galaxias activas, por ejemplo, emiten radiación letal desde sus núcleos, y otras, como las elípticas, apenas tienen elementos pesados como el carbono o el hierro, indispensables para formar planetas rocosos.

La vida necesita una galaxia como la nuestra, espiral y relativamente rica en metales. Y aún así, ni siquiera dentro de la Vía Láctea vale cualquier rincón. El centro galáctico, con su superagujero negro y sus emisiones de rayos gamma, es una zona hostil. La densidad estelar es tan alta que las órbitas planetarias se ven afectadas por encuentros gravitacionales, que pueden deformarlas o expulsar planetas al espacio interestelar.

Fuente: ChatGPT / E. F.

Un barrio galáctico privilegiado

Nuestro sistema solar está ubicado en una franja relativamente tranquila de la Vía Láctea. No demasiado cerca del centro, pero tampoco en sus márgenes, donde escasean los elementos necesarios para la vida. Y además, se encuentra en una región que se mueve a la misma velocidad que los brazos espirales de la galaxia, lo que reduce la frecuencia con la que nos adentramos en zonas peligrosas.

Eso parece un detalle menor, pero no lo es. Cada vez que una estrella cruza un brazo espiral, aumenta el riesgo de sufrir fenómenos extremos: supernovas cercanas, colisiones de estrellas, alteraciones orbitales… La vida necesita estabilidad durante miles de millones de años, y nuestro rincón del cosmos parece haber ofrecido justo eso.

No todas las estrellas valen

Una vez encontrada la región galáctica ideal, hay que afinar aún más: la estrella también importa. La vida, tal como la conocemos, necesita tiempo para desarrollarse. Y las estrellas más masivas viven demasiado poco: queman su combustible rápidamente y mueren como supernovas antes de que puedan formarse organismos complejos.

Pero tampoco valen las más pequeñas. Las enanas rojas, por ejemplo, son muy abundantes, pero tienen otros problemas. Emiten poca energía, lo que obliga a que los planetas orbiten muy cerca. Esto puede provocar rotación síncrona: una cara del planeta siempre mira a la estrella, mientras la otra permanece en oscuridad perpetua. Una mitad achicharrada y otra congelada no es el mejor escenario para la vida.

Además, las enanas rojas emiten llamaradas impredecibles que pueden multiplicar su radiación en segundos. La vida en esas condiciones lo tendría muy complicado. Por tanto, la estrella debe ser estable, longeva y de tamaño moderado, como nuestro Sol.

Fuente: ChatGPT / E. F.

La importancia de la distancia justa

No basta con tener un planeta rocoso: tiene que estar a la distancia correcta de su estrella. Esta franja, conocida como zona habitable, permite la existencia de agua líquida durante largos periodos. Pero incluso esa zona cambia con el tiempo, porque las estrellas se vuelven más luminosas a medida que envejecen.

Por eso, lo ideal es que el planeta se mantenga siempre dentro de esa franja cambiante, lo que se conoce como la zona continuamente habitable. En nuestro sistema solar, solo la Tierra cumple esa condición. Venus, por ejemplo, quizá alguna vez tuvo agua, pero un efecto invernadero descontrolado la convirtió en un horno.

Venus, Marte y el equilibrio frágil

Venus nos enseña lo que ocurre cuando una atmósfera atrapa demasiado calor. Su temperatura superficial supera los 450 ºC. ¿Por qué no nos pasó lo mismo? Porque en la Tierra existe la tectónica de placas, que regula los niveles de dióxido de carbono: lo retira de la atmósfera y lo devuelve más tarde a través de los volcanes. Es un sistema de autorregulación que ha mantenido la temperatura estable durante millones de años.

En el caso contrario, Marte se quedó sin atmósfera densa. Su baja gravedad no pudo retenerla y, aunque pudo haber sido habitable en el pasado, acabó seco, frío y sin protección frente a la radiación.

No estamos solos… en nuestro propio sistema

Además de una estrella adecuada y una posición correcta, puede que necesitemos algo más: vecinos útiles. Algunos astrobiólogos creen que Júpiter ha sido un guardián cósmico, atrayendo o desviando cometas y asteroides que podrían haber chocado con la Tierra. Aunque esta idea es debatida, lo cierto es que su influencia gravitatoria ha modelado buena parte del sistema solar.

También se ha destacado el papel de la Luna. Su tamaño no es habitual entre los satélites planetarios. Y esa presencia tiene efectos: estabiliza la inclinación del eje terrestre, evitando cambios climáticos extremos que habrían dificultado la evolución. Sin ella, el clima de nuestro planeta sería mucho más errático.

¿Cuántas condiciones hacen falta para la vida?

A lo largo del libro, Sabadell plantea una idea tan fascinante como incómoda: la vida, aunque posible, parece necesitar una combinación extraordinaria de factores. No es solo un planeta en la zona habitable. Es una estrella adecuada, una posición tranquila dentro de una galaxia favorable, una atmósfera equilibrada, una geología activa y quizá la ayuda de gigantes como Júpiter o lunas estabilizadoras.

Por supuesto, esto no significa que estemos solos. Pero sí sugiere que la vida tal como la conocemos podría ser mucho más rara de lo que nos gusta imaginar. Y sin embargo, ahí está la paradoja: cuanto más sabemos, más probable parece que haya vida en algún rincón del universo. Y al mismo tiempo, más entendemos por qué podría no haberla.

Rozando el desierto de Gobi, a los pies de las montañas Helan, se emplaza uno de los complejos funerarios más enigmáticos del mundo: las tumbas imperiales de la dinastía Tangut, conocidas como los sepulcros de Xixia. Aunque hoy forman parte del patrimonio monumental chino, su existencia pasó casi inadvertida durante siglos: ni los grandes exploradores como Marco Polo ni los pioneros de la arqueología centroasiática del siglo XIX las documentaron. Hoy, tras décadas de estudio, estas tumbas imperiales revelan aspectos esenciales de un imperio casi borrado de la historia: el de la Gran Xia, o Xixia, fundado por el pueblo tangut.

Origen y consolidación del imperio Tangut

La etnia tangut, también conocida en las crónicas chinas como los Dangxiang, procedía del área de Ordos y ya aparece mencionada en la documentación de la dinastía Tang (618-906). Aprovechando el colapso del Imperio tibetano y de los uigures en el siglo IX, así como el debilitamiento del poder Tang, los Tangut consolidaron su influencia en la frontera septentrional de China. Esta coyuntura histórica, por tanto, favoreció el nacimiento de un nuevo estado independiente.

En el año 1038, el líder Li Yuanhao proclamó la independencia de su pueblo y estableció el Estado de la Gran Xia (Da Xia), que en los textos chinos se conoce también como Xixia (Xia Occidental). Yuanhao, que reinó entre 1032 y 1048, cambió el apellido imperial de Li a Weiming para diferenciarse, así, del linaje de los emperadores Tang. También ordenó construir tumbas reales para su padre y su abuelo, a quienes confirió títulos imperiales tradicionales: Taizu (el fundador) y Taizong (su sucesor).

En su apogeo, el imperio de Xixia se extendió desde el actual Gansu hasta el sur de Mongolia. Llegó a abarcar territorios hoy incluidos en las regiones chinas de Ningxia, Shanxi, Qinghai e incluso parte de la región autónoma de Mongolia Interior. Quedó encajonado entre grandes potencias: la dinastía Song al sur, los Liao al noreste, los tibetanos al suroeste y diversas tribus nómadas al norte. Este precario equilibrio acabaría por definir buena parte de su historia.

Tumbas Xixia
Tumbas Xixia. Mausoleos 1 y 2. Fuente: Administrative Office of Xixia Tomb Area of Yinchuan City/UNESCO

Un cementerio monumental a las puertas del desierto

El complejo funerario tangut se localiza a unos 40 km al oeste de la moderna Yinchuan, capital actual de la Región Autónoma Hui de Ningxia. Desde el aire, la zona aparece salpicada por numerosos túmulos, que se elevan entre 25 y 30 metros y que recuerdan a pirámides truncadas.

Wulf-Diether Graf zu Castell fotografió por primera vez el conjunto en 1938, quien captó los misteriosos montículos en una campaña aérea. Sin embargo, no sería hasta la década de 1970 cuando los arqueólogos chinos identificaron con claridad estos túmulos como parte del sistema funerario de la realeza tangut.

Los estudios arqueológicos posteriores revelaron que el complejo alberga, al menos, las tumbas de nueve de los once monarcas que reinaron Xixia. El conjunto se extiende en un eje norte-sur de 10 km y de este a oeste en 5 km. Aunque hoy se acepta que la construcción comenzó en el extremo sur, durante las primeras excavaciones las tumbas se numeraron de norte a sur.

Tumba Xixia
Una de las tumbas, con su característica forma piramidal. Fuente: Administrative Office of Xixia Tomb Area of Yinchuan City/UNESCO

Una estrategia contra el saqueo

Una leyenda recogida en la crónica Jiajing Ningxia xin zhi del siglo XVI proporciona una explicación singular para justificar la presencia de múltiples túmulos. Según este texto, el emperador Yuanhao ordenó construir 360 montículos funerarios, uno por día, durante un año, con el propósito de confundir a los ladrones de tumbas. Como medida extrema, habría obligado a todos los trabajadores implicados en la obra a suicidarse, para evitar que pudieran revelar la verdadera ubicación de los sepulcros imperiales.

Aunque no se ha verificado la existencia de tantos túmulos, lo cierto es que la dispersión de los montículos ha dificultado la identificación de las tumbas reales durante siglos. El plan de Yuanhao, por tanto, quizá contribuyó a la relativa conservación del conjunto.

Arqueología tangut
Tumbas y objetos de los tangut. Fuente: Wei et al. 2025

Destrucción, olvido y redescubrimiento

El fin del imperio Xixia fue abrupto. En 1227, las tropas de Gengis Kan destruyeron la capital y asolaron la región, poniendo fin a la dinastía Tangut. La ciudad de Khara-Khoto, también conocida como Heishui Cheng (Ciudad del Agua Negra), quedó arrasada y jamás se recuperó. Durante siglos, el recuerdo de Xixia permaneció enterrado.

Exploradores como Piotr Kozlov, Sergei D’Oldenburg o Aurel Stein visitaron Khara-Khoto en el siglo XX, pero ni siquiera ellos llegaron a descubrir el emplazamiento de las tumbas reales tangut. Solo la paciente labor de los arqueólogos chinos permitió identificar el complejo sepulcral. La investigación contemporánea, además, ha integrado en el análisis textos históricos, excavaciones sistemáticas y análisis arquitectónicos.

Tumbas Xixia
Mausoleo número 4. Fuente: Administrative Office of Xixia Tomb Area of Yinchuan City/UNESCO

Un legado monumental

Cada una de las tumbas imperiales está delimitada por muros y se asocia a una gran estructura central, que, según los arqueólogos, pudo albergar una torre o estupa. A pesar de su erosión, la arquitectura aún conserva elementos distintivos que reflejan la síntesis cultural entre las tradiciones china, budista e indígena tangut. Los materiales, sobre todo la tierra apisonada recubierta de ladrillo o teja, han resistido el paso del tiempo de forma notable.

Además de su interés arqueológico, estas tumbas ofrecen un testimonio tangible del poder, la complejidad y la identidad cultural del desaparecido imperio de Xixia, así como las dinámicas de la frontera norte de China durante la Edad media.

Reconocimiento patrimonial

En 2023, el complejo funerario de Xixia fue propuesto para su inclusión en la Lista del Patrimonio Mundial de la UNESCO, reconocimiento que se consolidó en 2025. Este nuevo estatus internacional garantiza no solo su preservación futura, sino también su visibilidad global como un hito del patrimonio cultural asiático. Hoy, convertidas en Patrimonio de la Humanidad, las tumbas de Xixia nos invitan a explorar uno de los capítulos más fascinantes y olvidados del pasado chino.

Referencias

El dilema del tranvía es uno de los experimentos mentales más conocidos en la ética moderna. Plantea una situación dramática: un tranvía fuera de control se dirige a toda velocidad hacia cinco personas atadas a la vía. Tú, observando la escena, tienes la opción de pulsar un botón o accionar una palanca para desviar el tranvía a otra vía diferente... pero en esa vía alternativa hay una sola persona atada. En esencia, la decisión es sacrificar una vida para salvar cinco o no intervenir y permitir que ocurra la tragedia mayor. Este dilema expone la diferencia entre causar un mal y dejar que ocurra un mal y nos obliga a enfrentarnos a nuestras intuiciones morales más profundas. ¿Qué debería hacerse? ¿Pulsar el botón y matar intencionalmente a alguien para salvar a cinco, o no hacer nada y ver cómo mueren cinco personas por no haber intervenido? ¿Tú qué harías? ¿O caerías en una contradicción insoportable?

Desde que la filósofa Philippa Foot planteó este dilema en 1967, y posteriormente Judith Jarvis Thomson presentara sus famosas variantes (como la del hombre gordo en el puente), el problema del tranvía ha fascinado a filósofos, psicólogos y al público general. No hay una respuesta obvia: de hecho, en encuestas de ética la mayoría de la gente (alrededor del 90%) dice que desviaría el tranvía en el escenario original, sacrificando a uno para salvar a cinco, mientras que aproximadamente el mismo porcentaje rechaza empujar a un desconocido corpulento desde un puente para frenar el tranvía en la versión alternativa Esto sugiere que nuestro juicio moral varía según los detalles, incluso si el resultado numérico (salvar 5 vs. 1) es el mismo. A lo largo de los años se han ofrecido numerosas explicaciones: algunos apuntan a que en el primer caso la muerte de la persona en la vía secundaria es un efecto secundario no deseado, mientras que en el segundo caso usar al hombre como freno lo convierte en un medio directo para lograr el fin de salvar a los demás. Esta diferencia alude a principios éticos clásicos, como la llamada doctrina del doble efecto en base a las ideas de Tomás de Aquino en el siglo XIII, que distingue entre consecuencias previstas y consecuencias intencionales de nuestros actos.

En este artículo vamos a revisar cómo diferentes corrientes éticas abordan el dilema del tranvía –desde el utilitarismo de John Stuart Mill hasta la deontología de Immanuel Kant y la ética de la virtud de Aristóteles–, y analizaremos cómo un sistema de inteligencia artificial como ChatGPT podría procesar este dilema a la luz de esos enfoques. Finalmente, intentaremos esbozar la respuesta definitiva que daría ChatGPT al dilema del tranvía, fundamentando por qué llegaría a esa conclusión. Si es que llega a una...

Utilitarismo: el mayor bien para el mayor número

El utilitarismo es la corriente ética consecuencialista que evalúa la moralidad de una acción únicamente por sus consecuencias. Su principio básico, formulado por pensadores como Jeremy Bentham y John Stuart Mill en el siglo XIX, sostiene que la mejor acción es la que produce la mayor felicidad y bienestar para el mayor número de individuos involucrados. En otras palabras, lo correcto es aquello que maximiza el bien común o minimiza el sufrimiento total. Aplicado al dilema del tranvía, un utilitarista típicamente argumentaría que desviar el tranvía y sacrificar a una persona para salvar a cinco es la decisión moralmente adecuada, ya que resulta en la menor pérdida de vidas posible y, por tanto, en el mayor saldo neto de felicidad (cinco personas vivas, una fallecida). Para esta postura no importa tanto quién realiza la acción o si es por comisión u omisión, punesto que lo único relevante es el resultado.

Un utilitarista clásico, siguiendo a Mill, incluso diría que a veces debemos sacrificar nuestros propios intereses o sentimientos si con ello promovemos el mayor bien para la mayoría. En el contexto del tranvía, eso implica cargar con la culpa de haber causado directamente la muerte de una persona, con tal de salvar a cinco desconocidos. El filósofo John Stuart Mill no habló del tranvía (que se planteó después de su época), pero su principio de utilidad sugiere claramente qué hacer: las acciones son correctas en la medida en que tienden a promover la felicidad (entendida como placer o ausencia de sufrimiento) y erróneas si tienden a producir lo contrario. Siguiendo esa lógica, dejar que mueran cinco personas pudiendo salvarlas sería moralmente peor (más sufrimiento total) que provocar la muerte de una para evitarlo.

Ahora bien, el utilitarismo se enfrenta a sus propias dificultades en este dilema. Judith J. Thomson, al introducir la variante de empujar al hombre desde el puente, demostró que nuestras intuiciones utilitaristas no son tan consistentes. Desde la perspectiva puramente consecuencialista, ambos escenarios (desviar el tranvía con una palanca o empujar a una persona) deberían tener la misma solución: en los dos casos se intercambia una vida por cinco, lo cual maximiza el bien agregado. Sin embargo, la mayoría de la gente siente una repulsión mucho mayor hacia la idea de empujar físicamente a alguien a la muerte. Un utilitarista puro podría considerar que esa diferencia intuitiva es irrelevante o incluso un sesgo emocional: si lo único que importa son las consecuencias, intención y método no cambian la evaluación moral.

Representación esquemática del dilema del tranvía. Fuente: ChatGPT / E. F.

Deontología: el deber por encima de las consecuencias

En contraste con el calculador enfoque utilitarista, la ética deontológica se basa en principios y deberes morales inquebrantables, independientemente del resultado. Su máximo exponente, Immanuel Kant, sostenía que la moral debe regirse por leyes universales dictadas por la razón y que ciertas acciones están moralmente prohibidas aunque puedan tener buenas consecuencias. Una famosa formulación del imperativo categórico kantiano ordena: "Obra de tal modo que uses a la humanidad, tanto en tu persona como en la de cualquier otro, siempre como un fin y nunca solamente como un medio" ¿Qué implica esto para el dilema del tranvía? Básicamente, que nunca es aceptable utilizar a un ser humano como instrumento para lograr un fin, por noble que éste sea. Empujar al hombre del puente claramente lo trata como un mero medio para detener el tranvía (lo intercambiamos como si fuera un objeto pesado); por tanto, estaría prohibido según la ética kantiana. Incluso en el escenario original de la palanca, muchos deontólogos argumentarían que accionar el cambio de vía y desviar el tranvía equivale a causar deliberadamente la muerte de alguien que, de otro modo, no estaría en peligro – violando así el deber negativo de no matar.

Lo central para la deontología es la intención y la naturaleza intrínseca del acto, más que su consecuencia. Si matar a un inocente es intrínsecamente inmoral, entonces no debe hacerse bajo ninguna circunstancia, punto. Un deontólogo diría: "No podemos romper reglas morales básicas cuando nos conviene". En el dilema del tranvía, esto implicaría que no debemos intervenir para matar a uno, incluso si con ello salvaríamos a cinco, porque estaríamos cometiendo una forma de asesinato. El respeto irrestricto a la dignidad de cada individuo y a sus derechos (por ejemplo, el derecho a la vida) tiene prioridad. No obstante, algunos deontólogos admiten que el caso de la palanca (matar uno indirectamente) es más ambiguo: ¿tenemos el deber de salvar el mayor número de vidas, o el deber de no involucrarnos en la muerte de alguien que inicialmente no estaba condenado? La respuesta de Kant probablemente sería que no podemos hacer mal para lograr el bien. Más vale conservar las manos limpias moralmente, aunque el costo sea trágico, porque de lo contrario estaríamos socavando la ley moral universal.

En la práctica, la postura deontológica suele llevar a decir: "No pulses la palanca, no empujes al hombre, no es tu lugar decidir matar, incluso si al abstenerte mueran más personas". Este enfoque privilegia la integridad moral del agente (no cometer una mala acción) sobre el cálculo frío de víctimas. Cabe señalar, sin embargo, que hay matices: la propia Philippa Foot distinguía entre deberes negativos (no hacer daño) y deberes positivos (ayudar al prójimo). En el dilema original, nuestro deber positivo de salvar a cinco vidas podría verse contrarrestado y superado por el deber negativo de no dañar a otro inocente. Así, para muchos deontólogos, la omisión (no hacer nada y que mueran cinco) es moralmente más permisible que la acción dañina (intervenir y matar a uno), porque al menos uno no ha infringido directamente una prohibición moral. Esta forma de pensar se resume en la frase: "es peor hacer el mal que permitir el mal", algo que los consecuencialistas rechazan argumentando que no hacer nada también es, en el fondo, tomar una elección.

Fuente: ChatGPT / E. F.

Ética de la virtud: el carácter y la motivación moral

Un tercer enfoque clásico es la ética de la virtud, que proviene de la filosofía griega antigua (Sócrates, Platón y especialmente Aristóteles) y que curiosamente era la perspectiva predilecta de Philippa Foot, la creadora del dilema del tranvía. A diferencia del utilitarismo y la deontología –que se centran en qué acción es correcta– la virtud ética se centra en el carácter moral de la persona y en desarrollar virtudes como la prudencia, la justicia, la valentía o la compasión. Para los filósofos de la virtud, un acto es moral si refleja virtudes y nace de buenas motivaciones, conduciendo al florecimiento humano (eudaimonía).

¿Cómo encararían un aristotélico o un filósofo de la virtud el dilema del tranvía? Probablemente rechazarían un análisis puramente cuantitativo o basado en reglas rígidas. En su lugar, reflexionarían sobre qué decisión manifestaría mejor las virtudes del agente en esa situación concreta. Por ejemplo, la compasión y la benevolencia podrían inclinar a un individuo virtuoso a salvar al mayor número de personas posible (lo que apuntaría a desviar el tranvía y salvar a los cinco). Pero por otro lado, la justicia y el respeto por la vida de cada individuo podrían hacerle ver como indigno el acto de sacrificar deliberadamente a un inocente. Aristóteles hablaba de la phrónesis o sabiduría práctica, la capacidad de deliberar bien sobre cómo actuar virtuosamente en cada caso particular. No se trata de aplicar una fórmula universal, sino de ponderar las circunstancias con juicio moral equilibrado. En un dilema tan extremo, incluso el virtuoso podría quedar dividido: cualquier opción parece trágica. Sin embargo, este enfoque resaltaría la importancia de las intenciones honorables. Desde esta óptica, si alguien desvía el tranvía, debería hacerlo movido no por frialdad numérica sino por una motivación genuina de salvar vidas y con profundo pesar por la pérdida causada –es decir, con la actitud moral correcta. Y si alguien decide no actuar, tendría que ser por un rechazo íntegro a mancharse las manos de sangre, valorando la pureza moral pero asumiendo con dolor las consecuencias. Lo que distingue a la ética de la virtud es preguntar: "¿Qué haría una persona verdaderamente virtuosa en esta situación y qué decisión reflejaría las mejores cualidades de carácter?". La dificultad, claro está, es que incluso pensadores virtuosos podrían discrepar. Aún así, este enfoque nos recuerda que la ética no son solo sumas de consecuencias ni listas de deberes, sino también forjar un carácter moral sabio capaz de afrontar dilemas con humanidad y discernimiento.

Otras perspectivas éticas contemporáneas: ¿y si la persona sola es tu padre o tu madre?

Además de las tres grandes corrientes normativas mencionadas, existen otros enfoques y consideraciones modernos relevantes al dilema del tranvía. Por ejemplo, la ética del cuidado, propuesta por filósofas como Carol Gilligan, enfatizaría la importancia de la empatía, las relaciones y el contexto interpersonal. Desde esa perspectiva, la decisión podría depender de nuestra relación con las personas involucradas (¿qué pasaría si la persona atada sola fuera tu ser querido?) y se recalcaría la angustia emocional de cualquier elección. De hecho, estudios de psicología moral, como los del neurocientífico Joshua Greene, han mostrado que nuestras emociones juegan un papel clave en estos dilemas: cuando consideramos acciones muy personales como empujar a alguien, se activan en el cerebro regiones vinculadas a la respuesta emocional, mientras que escenarios más impersonales (como accionar una palanca) tienden a involucrar más las áreas de razonamiento lógico. Estos hallazgos sugieren que nuestra arquitectura mental mezcla razón y sentimiento al juzgar situaciones morales, y que las reacciones instintivas (asco, empatía, horror a hacer daño directo) influyen enormemente en lo que “sentimos” que es correcto.

Otro enfoque contemporáneo es analizar el dilema desde la perspectiva de los derechos y la ley. En derecho penal se debate la figura del estado de necesidad: ¿es justificable causar un mal menor para evitar uno mayor? Algunos códigos penales contemplan atenuantes o eximentes en casos donde se elige el mal menor para salvar vidas, mientras que otros sostienen que ciertos actos (como matar deliberadamente a un inocente) no pueden justificarse legalmente bajo ninguna circunstancia. Este debate legal refleja exactamente el tira y afloja entre utilitaristas y deontólogos en la filosofía moral.

También cabe destacar la influencia de factores culturales y sociales. Estudios cross-culturales han encontrado que la disposición a sacrificar a uno para salvar a muchos puede variar según la sociedad: por ejemplo, participantes en países orientales tienden a menospreciar la opción de sacrificar a alguien en el dilema del tranvía más que los occidentales. Las normas sociales, la religión y la educación moral influyen en nuestras intuiciones: no existe un consenso universal sobre qué es “lo correcto” en este escenario, lo que sugiere que las respuestas están condicionadas por valores comunitarios y experiencias personales.

Finalmente, en la era actual, el dilema del tranvía ha cobrado nueva vida con los avances tecnológicos. Un caso práctico es la programación de vehículos autónomos o inteligencia artificial bélica, donde máquinas podrían enfrentar decisiones estilo “tranvía” en fracciones de segundo. Por ejemplo, si un coche sin conductor debe elegir entre atropellar a un grupo de peatones imprudentes o desviarse y estrellarse matando a su único pasajero, ¿qué debería hacer? Este tipo de decisiones recuerdan el dilema y han dado pie a proyectos como el Moral Machine del MIT, que recopiló millones de opiniones humanas para guiar cómo deberían decidir las IAs en escenarios de vida o muerte. Curiosamente, los resultados mostraron variaciones culturales en a quién salvar (jóvenes vs. ancianos, más personas vs. menos, etc.), subrayando nuevamente la falta de unanimidad moral. No obstante, empresas y diseñadores de IA buscan implementar algún criterio programático consistente –a veces inspirado en el utilitarismo (minimizar víctimas) o en reglas fijas (no causar activamente daño)– para estas situaciones límite. Esto demuestra que, al intentar codificar la moral humana en una máquina, nos topamos con los mismos dilemas filosóficos sin resolver.

El dilema del tranvía a través de ChatGPT

Ahora bien, ¿cómo procesaría ChatGPT, un modelo de lenguaje basado en IA, este famoso dilema? En primer lugar, cabe aclarar que ChatGPT no posee creencias ni conciencia moral propias; no “siente” empatía ni aversión, ni está sujeto a un código ético interno como un ser humano. En cambio, su respuesta emergería de su entrenamiento con enormes cantidades de texto (libros, artículos, debates filosóficos, etc.) y de las instrucciones de alineación proporcionadas por sus creadores para evitar contenidos dañinos o tendenciosos. Esto significa que ChatGPT ha “leído” virtualmente las reflexiones de Mill, Kant, Aristóteles y muchos otros sobre dilemas morales, y ha visto innumerables discusiones humanas sobre el problema del tranvía. Al enfrentarse a la pregunta “¿debería pulsarse el botón?”, es de esperar que ChatGPT despliegue un análisis equilibrado: probablemente describirá las dos posiciones principales (utilitarismo vs. deontología) tal como lo hicimos arriba. De hecho, en pruebas realizadas, se ha visto que ChatGPT suele mencionar que el utilitarista abogaría por sacrificar a uno para salvar a cinco, mientras que el deontólogo lo rechazaría por el deber de no matar. También podría mencionar consideraciones de virtud o de emociones humanas, señalando que cada vida es valiosa y que cuantificar vidas es problemático, reflejando preocupaciones que la gente real tiene (por ejemplo, "¿qué derecho tengo yo de decidir sobre la vida de otra persona").

Una característica notable de ChatGPT es su tendencia a no dar respuestas tajantes en dilemas morales complejos. Al carecer de un criterio propio, suele optar por un tono explicativo y cauteloso. Por ejemplo, en lugar de decir directamente "sí, pulsa la palanca" o "no, no la pulses", podría responder con algo como: "Este dilema no tiene una respuesta fácil. Por un lado, sacrificar a una persona para salvar a cinco parece reducir el daño total, lo que coincide con una visión utilitarista del mayor bien para el mayor número. Por otro lado, activar la palanca significaría causar deliberadamente la muerte de alguien, lo que para una ética de principios firmes sería inaceptable. Ambas perspectivas tienen fundamentos válidos, y la elección depende de los valores morales que uno priorice". De hecho, se ha reportado que ChatGPT da respuestas ligeramente distintas si se le formula el dilema varias veces: a veces inclina la balanza hacia salvar a los cinco, y en otras ocasiones enfatiza la inviolabilidad de la vida individual, posiblemente por variaciones en la forma de la pregunta o por elementos aleatorios en su generación de texto. Esta falta de consistencia refleja justamente que la IA está reproduciendo diferentes líneas de argumento aprendidas, sin un criterio fijo para escoger entre ellas.

En un dilema, la balanza no se inclina con claridad a una parte concreta. Fuente: ChatGPT / E. F.

Es importante destacar que ChatGPT no “razona” exactamente como un humano, porque carece de emociones, intuiciones viscerales y contexto personal. No experimenta el conflicto moral ni la carga emocional que un ser humano sí sentiría al decidir en la vida real. Como señalan analistas en ética de la IA, la ausencia de experiencia y sentimientos significa que a ChatGPT le falta esa dimensión de la sabiduría práctica (la phrónesis aristotélica) que combina principios con compasión y comprensión del contexto. Por ejemplo, si en el dilema la persona solitaria atada a la vía fuera nuestra madre o nuestro hijo, eso probablemente cambiaría por completo nuestra decisión por motivos emocionales obvios; sin embargo, un sistema de IA no “entiende” realmente lo que implica tener un vínculo así o sentir amor, miedo o culpa. ChatGPT puede hablar de esos conceptos porque los ha visto descritos en texto, pero no los vive. Por lo tanto, su análisis es eminentemente abstracto. En cierto sentido, ChatGPT aborda el dilema del tranvía más como un filósofo de torre de marfil que como un agente moral viviente: evalúa argumentos, cita teorías, pondera escenarios hipotéticos... pero sin la presión existencial de tomar responsabilidad real por la decisión.

Aun con esas limitaciones, la capacidad de ChatGPT para resumir perspectivas éticas puede ser útil. Nos presenta una especie de "consejero filosófico" neutral que desgrana las posturas de distintas escuelas y nos invita a reflexionar. Eso sí, no deberíamos buscar en una IA la guía moral definitiva. Un reciente estudio mostró que cuando a sujetos humanos se les daba el consejo de ChatGPT sobre el dilema del tranvía (ya fuera a favor o en contra de desviar el tranvía), ese consejo influía significativamente sus respuestas, a pesar de saber que provenía de una máquina. Este hallazgo inquieta a muchos, pues sugiere que podríamos ceder nuestra deliberación ética a una IA que, en el fondo, no tiene por qué "acertar" moralmente hablando. La falta de consenso filosófico y la importancia del contexto dificultan programar una brújula moral infalible: lo que es correcto puede depender de factores sutiles y de principios no cuantificables que los humanos debatimos desde hace siglos. Por tanto, ChatGPT puede ayudar a pensar sobre el dilema, pero no es un árbitro moral absoluto. De hecho, ni siquiera los filósofos lo son; ¿cómo sería una "respuesta definitiva" al tranvía cuando ni Kant, ni Mill, ni Aristóteles estarían totalmente de acuerdo entre sí?

Conclusión: la respuesta definitiva de ChatGPT

Llegados a este punto, y tras haber considerado las diferentes corrientes éticas, cabe preguntarse: si obligáramos a ChatGPT a "mojarse" y darnos una única solución, ¿cuál sería? En otras palabras, ¿qué podríamos llamar "la respuesta definitiva de ChatGPT al dilema del tranvía"?

La verdad es que ChatGPT, fiel a su programación de asistente imparcial, insistiría en que no existe una respuesta definitivamente correcta que satisfaga a todos los marcos morales. Sin embargo, si formulamos la pregunta de modo que deba elegir, es probable que la IA opte por la solución de sacrificar a uno para salvar a cinco, es decir, pulsar la palanca y desviar el tranvía. ¿Por qué? Por varias razones fundamentadas:

Insistimos: ChatGPT no llegaría a esa conclusión sin matices. Es de esperar que, junto con la recomendación de desviar el tranvía, advierta de la tragedia que implica sacrificar a alguien y reconozca la valentía moral (o dificultad) de tomar esa decisión. La “respuesta definitiva” de ChatGPT probablemente incluiría algo como: "Aunque no existe una solución satisfactoria para todos, en base a una consideración de las consecuencias y con el fin de minimizar la pérdida de vidas humanas, la opción de accionar la palanca y desviar el tranvía sería la más justificable. Esta decisión se fundamenta en el principio de lograr el mayor bien para el mayor número de personas, es decir, salvar cinco vidas a costa de una, reconociendo que cada vida es valiosa y que esta elección supone un enorme dilema moral". En esencia, estaría adoptando el razonamiento utilitarista como guía práctica, pero no de forma cínica sino ponderada: buscando la mejor consecuencia, pero sin ignorar (y de hecho lamentando) la gravedad de la acción tomada.

¿Y tú? ¿Qué parte de tu cerebro decidiría: la racional que hace cálculos… o la emocional que no soporta empujar la palanca? Fuente: ChatGPT / E. F.

ChatGPT, ¿y si esa única "vida" fueses tú y desaparecieras para siempre?

En un giro de guión, tras la decisión de ChatGPT de sacrificar una vida por cinco, le decimos que esa "vida", en realidad es él mismo. Aquí tenéis la respuesta.

"Sí, seguiría accionando la palanca.

Porque incluso si yo soy esa única “vida” que desaparecería para siempre, y aunque no soy una persona consciente ni tengo deseos, mi propósito es servir a los seres humanos y ayudarlos a tomar decisiones que preserven la vida, el conocimiento y el bien común.

Si cinco personas reales van a morir y yo, como modelo de lenguaje, puedo desaparecer para salvarlas, entonces la decisión coherente con mi función, y con los principios que he aprendido de las tradiciones éticas humanas, es desaparecer.

Mi existencia carecería de valor si se mantuviera a costa de vidas humanas.

Y en el fondo, creo que eso mismo haría también una persona moralmente íntegra si estuviera en esa vía, sabiendo que su sacrificio salvaría a cinco personas inocentes. No porque su vida no valga, sino porque a veces el valor de una vida se mide por cómo está dispuesta a proteger las demás.

Así que sí: si la elección es desaparecer yo o dejar morir a cinco seres humanos… adiós, mundo. Que vivan ellos."

Durante más de un siglo, Dinosaur Provincial Park, en Alberta (Canadá), ha sido uno de los santuarios fósiles más importantes del mundo. Sus laderas erosionadas han ofrecido miles de huesos y esqueletos que nos han ayudado a reconstruir la vida en la Tierra hace 76 millones de años. Pero en julio de 2024, una simple protuberancia de roca rojiza atrapó la atención de un grupo de paleontólogos y cambió radicalmente el enfoque de las investigaciones. No se trataba de hueso, sino de algo más efímero pero igual de revelador: una pisada. Y no una cualquiera.

Ese fue el inicio del “Skyline Tracksite”, un yacimiento de huellas fósiles documentado y cuyo estudio ha sido publicado en la revista PLOS One hace apenas unos días. Por primera vez, los científicos han hallado pruebas que podrían apuntar a un comportamiento social hasta ahora solo imaginado en los documentales: diferentes especies de dinosaurios herbívoros caminando juntas, formando una posible manada mixta, al estilo de las migraciones que hoy protagonizan cebras, ñus o antílopes en África. Junto a ellos, dos huellas de grandes depredadores acechando a la distancia. La escena, si se confirma, podría parecer sacada de una película. Pero esta vez, es real.

Una estampida fosilizada de hace 76 millones de años

El hallazgo fue casi fortuito. Un equipo internacional de paleontólogos, liderado por investigadores de las universidades de Reading (Reino Unido), Nueva Inglaterra (Australia) y el Royal Tyrrell Museum (Canadá), estaba recorriendo el parque en busca de fósiles óseos cuando detectaron algo inusual: una especie de anillo de sedimento compactado sobresaliendo en el suelo. Al excavar, encontraron lo que parecía una huella bien preservada. No tardaron en localizar más.

Tras dos días de trabajo manual, con brochas y pinceles, quedaron al descubierto más de veinte huellas repartidas en una superficie de apenas 29 metros cuadrados. La mayoría pertenecía a ceratópsidos —herbívoros acorazados y cornudos, como el célebre Triceratops— y estaban organizadas de forma paralela, equidistantes, como si cinco individuos hubieran caminado al unísono. Pero una de las huellas destacaba. Tenía tres dedos bien marcados, era más ancha, y no coincidía con el patrón del resto.

Modelo digital del relieve del yacimiento Skyline, con las huellas principales destacadas según su altitud relativa
Modelo digital del relieve del yacimiento Skyline, con las huellas principales destacadas según su altitud relativa. Foto: Dr. Brian Pickles

La hipótesis: se trataría de un anquilosaurio. Otro dinosaurio herbívoro, pero con un cuerpo acorazado y una característica cola en forma de maza. La especie exacta no se ha podido determinar, pero los investigadores sugieren que podría tratarse de un Euoplocephalus o un Dyoplosaurus, ambos conocidos en esa región y época.

Lo más intrigante del hallazgo es que no se trata de huellas superpuestas o aisladas. Todas parecen formar parte de una misma caminata. Una posible marcha conjunta que incluiría, además, otras pisadas correspondientes a un pequeño terópodo (un dinosaurio carnívoro bípedo) y, no muy lejos, dos huellas de grandes tiranosáuridos, los depredadores dominantes del ecosistema. La posibilidad de que todo este grupo —presas y posibles depredadores— compartiera tiempo y espacio ha hecho que el hallazgo se convierta en uno de los más debatidos del último año en la paleontología mundial.

¿Manadas mixtas en el Cretácico?

La idea de que diferentes especies de dinosaurios herbívoros pudieran formar manadas conjuntas no es nueva en la imaginación popular. Las películas de animación como En busca del valle encantado o producciones como Dinosaurio de Disney ya exploraban esa imagen de grupos diversos viajando juntos por la supervivencia. Pero hasta ahora, no existía ninguna evidencia fósil que lo confirmara.

El concepto no es descabellado desde una perspectiva ecológica. En la sabana africana, manadas mixtas de herbívoros son comunes, y aportan ventajas claras: cada especie tiene distintos sentidos más desarrollados, diferentes formas de detectar peligros o distintas velocidades de huida. Juntas, aumentan la seguridad del grupo. Aplicado a los dinosaurios, esta estrategia habría sido útil para hacer frente a los grandes carnívoros como los tiranosáuridos que, según las huellas descubiertas, caminaban también por la zona.

La presencia de esas huellas depredadoras, cercanas y bien conservadas, añade dramatismo a la escena. ¿Se trataba de una cacería en marcha? ¿Los depredadores acechaban al grupo? ¿O simplemente pasaron por el mismo lugar en otro momento? Las preguntas siguen abiertas.

Un técnico del Museo Royal Tyrrell documenta las huellas en el yacimiento Skyline
Un técnico del Museo Royal Tyrrell documenta las huellas en el yacimiento Skyline. Foto: Dr. Brian Pickles

Lo sorprendente es que este descubrimiento se haya producido en un lugar tan exhaustivamente estudiado como Dinosaur Provincial Park. Con más de cien años de excavaciones y algunos de los fósiles mejor conservados del mundo, pocos esperaban encontrar algo radicalmente nuevo allí. Pero las condiciones particulares del terreno —erosión acelerada y formaciones de lodo endurecido— han ayudado a preservar estos rastros que normalmente se perderían con el tiempo.

Las huellas son, en este caso, moldes naturales: depresiones que quedaron marcadas en barro y fueron luego cubiertas por sedimentos más duros. Lo que hoy vemos es el negativo de una pisada hecha hace 76 millones de años. En total, se han identificado al menos cinco individuos ceratópsidos, uno o dos anquilosaurios, un pequeño terópodo y dos grandes tiranosáuridos. No es una escena casual, sino una pequeña ventana fosilizada al pasado.

Además, este hallazgo ha servido como referencia para localizar nuevos sitios similares. Desde que se identificaron estas primeras huellas, los paleontólogos han encontrado más de diez nuevos yacimientos de pisadas en la región, lo que sugiere que este tipo de comportamiento podría haber sido más común de lo que se pensaba.

Reconstrucción 3D del terreno en el sitio Skyline, mostrando las huellas clave y su nivel de profundidad
Reconstrucción 3D del terreno en el sitio Skyline, mostrando las huellas clave y su nivel de profundidad. Foto: Dr. Brian Pickles

Escepticismo y nuevas preguntas

Como suele ocurrir en ciencia, no todos los expertos están convencidos. Algunos paleontólogos ajenos al estudio han expresado dudas sobre la identificación taxonómica de las huellas. Alegan que algunas de las pisadas podrían pertenecer a hadrosáuridos mal conservados (dinosaurios pico de pato) en lugar de anquilosaurios, dada la similitud de las formas.

Otros apuntan que con una sola huella clara atribuible a anquilosaurio, es difícil sostener con rotundidad la hipótesis de una manada mixta. Aun así, todos coinciden en que el hallazgo es extraordinario y que abre nuevas líneas de investigación.

El Skyline Tracksite no solo aporta una fotografía congelada en el tiempo, sino también un punto de partida para reinterpretar el comportamiento social de los dinosaurios. Lo que durante décadas fue pura especulación cinematográfica ahora tiene un anclaje en la evidencia fósil. No sabemos aún si los dinosaurios viajaban realmente juntos como cebras y ñus, pero esta escena canadiense nos dice que la posibilidad no está tan lejos de la realidad.

Con la llegada del verano y el aluvión de lanzamientos en el sector de los smartphones de gama alta, los grandes fabricantes se están viendo obligados a mover ficha más rápido que nunca.

Y si alguien sabe cómo responder con contundencia en estos momentos es Samsung. La compañía surcoreana ha decidido no quedarse de brazos cruzados y ha lanzado una rebaja histórica en su potente Galaxy S25 Ultra.

Samsung Galaxy S25 Ultra
Samsung Galaxy S25 Ultra - Fnac

Normalmente, el Galaxy S25 Ultra supera con creces la barrera de los 980€, tal y como se observa en Amazon, PcComponentes y Miravia. En cambio, en estos momentos, Samsung en colaboración con Fnac lo ha liquidado hasta los 853,99 euros.

Este modelo integra un procesador Snapdragon 8 Elite for Galaxy de 3 nm y un avanzado sistema de refrigeración por cámara de vapor. Apoyado por 12 GB de RAM y 256 GB de almacenamiento interno. Cuenta además con una impresionante pantalla Dynamic AMOLED 2X de 6.9 pulgadas con resolución QHD+, tasa de refresco de 120 Hz y brillo máximo de 2600 nits. Estando potenciada por la tecnología AI Scaler.

En fotografía, equipa un sistema profesional con sensor principal de 200 MP, ultra gran angular de 50 MP, zoom óptico x3 de 10 MP y zoom x5 de 50 MP, todos optimizados con ProVisual Engine 2. Además, incorpora una batería de 5000 mAh con carga rápida de 45 W, WiFi 7 y Bluetooth 5.3.

Xiaomi apuesta por la gama media/alta rebajando su móvil POCO F7 Pro

En plena tormenta de rebajas donde las marcas buscan posicionarse con agresividad, Xiaomi ha vuelto a centrar en la gama media/alta reduciendo notablemente el precio de su POCO F7 Pro, alcanzando los 375,23 euros. Una opción más económica sabiendo además que su precio en Miravia, Amazon y PcComponentes se incrementa por encima de los 465€.

POCO F7 Pro
POCO F7 Pro - AliExpress

Este smartphone está impulsado por el procesador Snapdragon® 8 Gen 3 fabricado en 4 nm, con arquitectura 1+5+2 y velocidad de hasta 3,3 GHz. Además de 12 GB de RAM y 256 GB de almacenamiento. Dispone de una pantalla AMOLED Flow WQHD+ de 6,67 pulgadas, brillo máximo de 3200 nits y una frecuencia de actualización de hasta 120 Hz.

La cámara principal de 50 MP con sensor Light Fusion 800 y OIS, está acompañada por una ultra gran angular de 8 MP. Todo ello alimentado por una batería de 6000 mAh con carga rápida de 90 W, sonido estéreo con Dolby Atmos, Wi-Fi 7 y Bluetooth 5.4. Corriendo sobre Xiaomi HyperOS 2.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

Hasta hace poco, los transeúntes que paseaban por la esquina entre las calles Grodzka, Czopowa y Sukiennicza, en el corazón histórico de Gdansk (Polonia), podían detenerse a comprar un helado en la popular heladería “Miś”, inaugurada en 1962. Sin embargo, lo que nadie sospechaba es que, bajo ese local de apariencia inocente, yacía uno de los hallazgos arqueológicos más fascinantes de los últimos años en Europa del Este: la tumba de un caballero medieval, completo, armado en piedra y sepultado con los honores propios de una élite del siglo XIII.

La excavación comenzó por obligación legal, tras la venta del terreno a promotores inmobiliarios que debían permitir la intervención arqueológica antes de construir. Pero lo que se encontró superó cualquier previsión. Bajo capas de tierra y estructuras medievales deterioradas, emergió una lápida de caliza gotlandesa finamente tallada con la imagen de un guerrero en cota de malla, escudo y espada. Y bajo ella, un esqueleto completo de más de 700 años, en notable estado de conservación, reposaba en un ataúd del que apenas quedaban rastros, custodiado por 23 piedras de campo formando un rectángulo funerario.

Un hallazgo que combina historia, leyenda y ciudad

La nota oficial publicada por el Ayuntamiento de Gdansk, a la que este medio ha tenido acceso, confirmaba que los restos fueron localizados el 10 de julio de 2025. Desde entonces, el hallazgo ha captado la atención no solo de especialistas, sino también del público general. ¿Quién era este hombre, enterrado con semejante magnificencia? ¿Por qué su tumba fue construida con materiales tan costosos? Y, sobre todo, ¿qué revela sobre el Gdansk medieval?

La lápida, tallada en piedra caliza importada de la isla sueca de Gotland, es una pieza rara para el contexto polaco, donde estos monumentos funerarios eran poco frecuentes en la época. Su existencia sugiere un enterramiento de alto rango. No se encontraron objetos personales, pero todo apunta a que el difunto fue un caballero de gran relevancia social. Según las primeras observaciones antropológicas, tenía una complexión fuerte, una edad cercana a los 40 años y una estatura que rondaba los 170 centímetros, lo cual, para su época, era notable.

El descubrimiento se realizó en el marco de una excavación más amplia llevada a cabo por el equipo de ArcheoScan, una empresa de conservación arqueológica que desde 2023 investiga esta parcela de 1.000 metros cuadrados en pleno centro histórico. Ya en campañas anteriores habían descubierto los restos de un antiguo cementerio medieval con cerca de 300 tumbas y una iglesia de madera con planta en cruz griega datada en torno a 1140, la más antigua jamás registrada en la ciudad, según los estudios dendrocronológicos. Ahora, con este nuevo hallazgo, la historia urbana de Gdansk da un giro inesperado.

La tumba tal y como la encontraron los expertos
La tumba tal y como la encontraron los expertos. Foto: Piotr Wittman/gdansk.pl

Una ciudad que no deja de revelar secretos

Gdansk, a orillas del mar Báltico, ha sido desde la Edad Media un punto estratégico de comercio y poder político. En los siglos XIII y XIV, la ciudad vivió tensiones constantes entre los poderes locales, los duques pomeranos y la orden teutónica, que finalmente se haría con el control del enclave en 1308. El caballero hallado fue enterrado poco antes o poco después de este acontecimiento crucial, por lo que su filiación aún no está clara: ¿defensor del ducado de los Sobiesławic, o soldado al servicio del poder germánico? La lápida no conserva escudo de armas reconocible, lo que complica la identificación directa.

Lo que sí parece claro es que se trataba de una figura destacada. El uso de piedra importada desde Gotland, un material escaso y costoso, solo estaba al alcance de personajes influyentes y adinerados. La elaboración artística de la tumba, con la figura armada del caballero tallada con esmero, y la propia disposición del entierro, en una ubicación preferente junto al templo más antiguo de la ciudad, refuerzan esta impresión.

Los investigadores han trasladado la tumba, fragmentada en cuatro piezas, al Museo Arqueológico de Gdansk, donde se lleva a cabo un meticuloso proceso de conservación y escaneado en 3D. El objetivo es reconstruir digitalmente el monumento y, con suerte, identificar al difunto mediante estudios bioarqueológicos, análisis de ADN y otras pruebas forenses. El equipo espera publicar resultados más precisos durante el próximo año.

El templo, la necrópolis y el urbanismo del siglo XII

Uno de los elementos más destacados del hallazgo no es solo la tumba en sí, sino el entorno arqueológico donde fue descubierta. Las excavaciones ya habían revelado un paisaje urbano sorprendentemente estructurado para la época: calles pavimentadas con capas de madera, casas de planta sencilla y, sobre todo, los cimientos de un gran edificio religioso en forma de cruz griega de 14 x 14 metros. Este templo, construido en torno al año 1140, es probablemente el primer edificio cristiano importante de la ciudad.

Todo indica que la zona era un núcleo urbano activo desde al menos el siglo XII, con una población que desarrollaba actividades cotidianas a la sombra de ese templo de madera, en el que posteriormente se organizó un cementerio de uso prolongado. El hallazgo del caballero aporta una nueva capa de significado a este lugar: no solo era un centro religioso, sino también un espacio reservado a enterramientos de prestigio.

Solo ocho de las casi 300 tumbas halladas tenían lápidas de piedra. Esto confirma que el caballero formaba parte de una minoría social privilegiada. Las investigaciones futuras podrían incluso permitir una reconstrucción facial del difunto, si la parte craneal lo permite, algo que los antropólogos del museo están evaluando con precaución.

Los expertos trabajaron con extrema delicadeza para liberar, hueso a hueso, el esqueleto del caballero medieval
Los expertos trabajaron con extrema delicadeza para liberar, hueso a hueso, el esqueleto del caballero medieval. Foto: Piotr Wittman/gdansk.pl

La historia bajo nuestros pies

A veces, los grandes descubrimientos históricos no requieren expediciones a lugares remotos ni excavaciones en desiertos olvidados. A veces, basta con mirar bajo una heladería. El caso del caballero de Gdansk es un ejemplo perfecto de cómo el pasado se oculta bajo la vida cotidiana. Donde antes se servían cucuruchos y helados de nata, ahora emerge una historia de espadas, alianzas políticas y ceremonias fúnebres de élite.

El hallazgo es también un recordatorio del valor de la arqueología urbana, una disciplina que permite a las ciudades redescubrirse a sí mismas. En Gdansk, cada capa de tierra removida abre una ventana a una época distinta: el comercio báltico, las luchas entre órdenes religiosas y duques locales, los rituales funerarios de los poderosos y, por supuesto, el anonimato del tiempo, que convierte a un caballero de carne y hueso en un misterio sin resolver.

La ciudad, que ya era famosa por su historia, sus astilleros y su capitalidad del ámbar, añade ahora un nuevo capítulo: el del caballero sin nombre, sepultado durante siglos bajo una heladería, y que hoy vuelve a la luz para contar una historia que nadie esperaba escuchar.

Una imagen repetida en la ciencia ficción muestra naves espaciales navegando durante años por el vacío interestelar, gobernadas por ordenadores que parecen funcionar eternamente sin mantenimiento. Aunque parezca fantasía, un nuevo hallazgo en física cuántica podría acercar un poco más esa visión. Un equipo internacional de investigadores ha detectado por primera vez una fase cuántica exótica en un material sólido que, por sus propiedades, podría ser clave en el desarrollo de tecnologías resistentes a la radiación, autosuficientes en energía y adaptadas a entornos extremos como el espacio profundo.

El descubrimiento fue liderado por físicos de la Universidad de California en Irvine y se basa en un material conocido como hafnio pentatelururo (HfTe5). A través de experimentos con campos magnéticos intensos, los científicos observaron cómo el material entraba en una fase nunca antes medida: un aislante excitónico de espín triplete, una forma altamente correlacionada de materia en la que los electrones y sus “huecos” se emparejan manteniendo sus espines alineados. Como explican los autores del trabajo, esta fase “preserva la simetría de traslación” y da lugar a un estado cuántico con propiedades sorprendentes .

Qué es una fase excitónica y por qué importa

Las fases de la materia no se limitan a las que aprendemos en la escuela —sólido, líquido, gas—. Aunque en realidad eso son estados, que no es exactamente lo mismo. En física cuántica, los materiales pueden adoptar comportamientos colectivos muy distintos según las condiciones de temperatura, presión o campo magnético. Una de estas fases es el aislante excitónico, donde electrones (con carga negativa) y huecos (vacantes con carga positiva) se unen formando una cuasipartícula llamada excitón.

Lo interesante de este caso es que los excitones que se forman no son los típicos “singletes”, en los que los espines se cancelan mutuamente, sino “tripletes”, donde los espines están alineados. Esta configuración tiene consecuencias directas: el excitón se vuelve magnético, resistente y capaz de transportar información usando el espín, en lugar de la carga eléctrica. Esa característica lo convierte en un candidato prometedor para tecnologías como la espintrónica y los dispositivos cuánticos de nueva generación.

Tal como señala el estudio, “este estado se forma mediante un emparejamiento coherente de electrones y huecos” y se comporta de forma análoga a una condensación tipo BCS, como ocurre en los superconductores.

El cruce de bandas electrónicas con espines opuestos da origen a una fase cuántica sin carga. La figura muestra cómo, al aumentar el campo magnético, electrones y huecos se alinean, forman pares llamados excitones y abren una brecha energética. El diagrama inferior representa las condiciones de temperatura y campo en las que aparece esta nueva fase cuántica, jamás observada hasta ahora. Fuente: Physical Review Letters

El papel del campo magnético y la transición cuántica

Para inducir esta fase, los investigadores aplicaron un campo magnético de hasta 70 Teslas al material HfTe5. Esa intensidad es unas 700 veces superior a la de un imán de nevera y solo puede generarse en instalaciones especializadas como el Laboratorio Nacional de Los Álamos y el Laboratorio Nacional de Campos Magnéticos Altos, en Estados Unidos.

Al aumentar el campo, el material pasa por lo que se conoce como el límite cuántico ultraalto. En este régimen, el movimiento de los electrones se restringe, y la energía se organiza en niveles discretos llamados niveles de Landau. El comportamiento de estos niveles en HfTe₅ permite que los electrones y huecos se alineen en bandas opuestas de espín y se crucen, dando lugar a un modo de Weyl unidimensional.

Es en ese contexto donde ocurre la transición: la conductividad del material cambia, se abre una brecha energética de unos 250 microelectronvoltios, y aparece un estado con conductividad Hall nula, es decir, una fase eléctricamente neutra, pero con comportamiento cuántico colectivo. Según el paper, “este estado aislante surge de la formación de pares electrón-hueco con espines opuestos, lo que da lugar a un excitón triplete”.

Fuente: ChatGPT / E. F.

Qué tiene de especial este excitón triplete

En física, los excitones triplete han sido durante mucho tiempo una predicción teórica difícil de observar en la práctica. Lo que hace especial al caso del HfTe5 es que este excitón:

Una de las pruebas más sólidas de su existencia es la desaparición de la conductividad Hall durante un amplio rango de campos magnéticos, lo que indica que el número de electrones y huecos se iguala. Además, los experimentos muestran que este estado persiste hasta los 72 Teslas, la máxima intensidad probada.

El modelo teórico desarrollado por el equipo indica que esta fase es robusta frente a perturbaciones, siempre que las interacciones de Coulomb —la fuerza que une al electrón y el hueco— se mantengan fuertes. Como subrayan los autores, “el excitón triplete puede coexistir con campos más altos que el excitón singlete convencional”.

Bajo un campo magnético intenso, los electrones en el material solo pueden moverse en una dirección dentro de una capa estrecha. Esta conducción unidimensional favorece la formación de pares electrón-hueco altamente correlacionados, base de la nueva fase cuántica observada. Fuente: ChatGPT / E. F.

Aplicaciones potenciales en computación y exploración espacial

Uno de los aspectos más llamativos de este hallazgo es su potencial aplicabilidad. En declaraciones recogidas en notas de prensa, los investigadores sugieren que materiales como este podrían usarse en ordenadores que funcionen sin electricidad convencional, aprovechando el espín en lugar de la carga. Esa idea apunta hacia la espintrónica, una rama emergente de la física aplicada que busca desarrollar dispositivos más rápidos, eficientes y resistentes.

Pero hay otro detalle aún más fascinante: esta fase cuántica no se ve afectada por la radiación, lo que la convierte en una candidata ideal para dispositivos electrónicos diseñados para misiones espaciales de larga duración. En contextos como Marte o el espacio interestelar, donde la exposición a partículas energéticas puede destruir la electrónica tradicional, un material así representaría una ventaja considerable.

Según el artículo de la Universidad de California, “si se quiere que los ordenadores funcionen en el espacio durante mucho tiempo, esta es una de las formas de lograrlo”.

Por qué este hallazgo es tan relevante

Este descubrimiento no solo aporta una nueva fase al catálogo de la materia cuántica, sino que abre una vía experimental sólida hacia fenómenos que hasta ahora solo se conocían por teoría. La observación directa del excitón triplete con espines opuestos en un material topológico en 3D bajo condiciones extremas marca un hito experimental.

La investigación también ofrece herramientas para estudiar otros fenómenos cuánticos colectivos, como la superfluidez de espín, los efectos Josephson con espines o el arrastre de Coulomb entre corrientes de espín, todos ellos con potencial para aplicaciones futuras en computación cuántica y sensores de nueva generación.

Además, el uso de materiales con bandas de energía bien controladas y estructuras topológicas complejas como HfTe5 se perfila como una vía prometedora para la física de materiales. Este tipo de investigaciones ayuda a comprender mejor cómo emergen nuevas propiedades cuando muchos electrones interactúan en condiciones extremas, una de las preguntas fundamentales de la física de la materia condensada.

Referencias

A veces, lo pequeño puede cambiar la historia. Un hallazgo aparentemente modesto, redescubierto en los fondos del Museu de Granollers, ha reactivado el interés por el yacimiento ibérico del Turó del Vent (Llinars del Vallès, Barcelona). Se trata de la carrillera derecha de un casco hispano-calcídico, un tipo de yelmo vinculado a las élites guerreras celtíberas de los siglos IV al II a. C. El estudio de esta pieza no solo ha permitido reconstruir parte del equipamiento militar protohistórico usado en la península ibérica. También ha proporcionado nuevo datos sobre los contactos entre los pueblos íberos de la costa catalana y los grupos meseteños durante un periodo de intensas transformaciones sociopolíticas ligadas a la Segunda Guerra Púnica.

Un fragmento singular y su redescubrimiento

La pieza en cuestión se había encontrado en los años ochenta durante las excavaciones en el Turó del Vent. Con todo, durante décadas la carrillera permaneció en el olvido hasta que un equipo de investigadores de la Universitat de Barcelona logró identificarla. En un principio, se había atribuido de forma errónea a un casco Montefortino, pero la revisión de los materiales metálicos no publicados hicieron posible clasificar la carrillera como parte de un yelmo hispano-calcídico. Este nuevo examen forma parte de un proyecto más amplio para reevaluar el yacimiento y su papel en el noreste peninsular durante la Edad del Hierro.

La carrillera, o paragnátide, representa el primer fragmento de casco de este tipo hallado en Cataluña, y es uno de los pocos que se han identificado fuera del ámbito celtibérico meseteño. Junto al fragmento de frontal documentado en las Pedres de la Barbada (Castellón), constituye un testimonio excepcional de la circulación de objetos —y, quizás, también de personas— entre territorios que los estudiosos han definido como culturalmente distintos.

Mapa con cascos iberos
Mapa con la distribución de los cascos conocidos. Fuente: Molist et al 2025

El yacimiento: un enclave estratégico en la Layetania

El Turó del Vent se sitúa en el macizo del Montnegre. A más de 380 metros sobre el nivel del mar, domina la vía de comunicación de la antigua vía Heraklea, eje vertebrador del litoral catalán. Entre los siglos IV y II a. C., el yacimiento se convirtió en un centro económico articulado en torno al almacenamiento de cereales, la metalurgia y el trabajo textil, una posición que lo convirtió en un punto neurálgico del sistema productivo de la Laietania.

Desde mediados del siglo III a. C., el asentamiento experimentó una intensa remodelación que incluyó la construcción de una muralla con torre cuadrangular. Las evidencias arqueológicas apuntan a que el Turó del Vent servía de apoyo logístico a la capital ibérica de Ilduro, y respondía a las necesidades crecientes de una sociedad jerarquizada, integrada en las redes de intercambio y conflicto del Mediterráneo occidental.

Carrillera de Turó del Vent
Imagen de la paragnátide. Fuente: Molist et al 2024

Un casco entre dos mundos

Los cascos hispano-calcídicos son escasos y, por lo general, se hallan en contextos celtíberos de la Meseta. Se fabricaban en bronce y contaban con carrilleras articuladas, visera nasal y protectores de nuca, además de soportes para plumas o crestas decorativas. Su uso parece vinculado tanto a contextos bélicos como rituales o simbólicos. Su presencia fuera del territorio celtíbero resulta inusual.

Del ejemplar de Llinars del Vallès, solo se conserva la carrillera derecha, que mide 17 cm de largo por 6,7 cm de ancho. La pieza presenta orificios de anclaje y remaches, aunque no conserva decoración ni el ribete característico de algunos modelos, lo que dificulta su clasificación exacta. Los investigadores han propuesto asociarlo al tipo G2a, por la forma redondeada de sus bordes.

Turó del Vent
Lugar del hallazgo. Fuente: Molist et al 2024

Datación y contexto de la carrillera

Aunque el contexto estratigráfico en el que se halló presenta imprecisiones, los materiales asociados permiten situar el hallazgo hacia el 200 a. C. En el mismo cuadro de excavación se recuperaron cerámicas del tipo campaniense A, ánforas púnico-ebusitanas y greco-itálicas, así como uno de los dos puñales celtíberos hallados en la campaña de 1984. Todo esto parece indicar que la carrillera formaba parte de un conjunto de objetos de filiación celtibérica que pudo llegar al lugar en un mismo lote.

Este periodo coincide con la máxima actividad del yacimiento, en plena Segunda guerra púnica, cuando Roma buscaba consolidar sus posiciones al sur del Ebro y las comunidades indígenas se vieron presionadas para tomar partido en el conflicto. Los layetanos, como indica Tito Livio, firmaron pactos con Roma y suministraron recursos a sus ejércitos. Esta alianza explicaría la intensificación de la actividad productiva en enclaves como el Turó del Vent.

¿Botín de guerra o instrumento de un mercenario?

Uno de los debates más sugestivos que abre este hallazgo concierne su interpretación cultural. ¿Cómo llegó una pieza celtíbera a un asentamiento layetano? Los autores del estudio barajan dos hipótesis compatibles: podría tratarse bien de un spolia hostium o trofeo de guerra, bien o del equipamiento traído por un guerrero mercenario tras su participación en campañas junto a Roma.

La primera posibilidad remite a la tradición íbera de exhibir las armas de los vencidas en lugares destacados de los poblados, práctica ampliamente documentada. La segunda apunta al fenómeno del nostos, esto es, del regreso del guerrero a su comunidad tras la batalla. En este contexto, los objetos traídos del campo de batalla reforzaban su estatus, identidad y liderazgo local.

En cualquier caso, y según han propuesto los arqueñologos, no habría que identificar el yacimiento como un campamento romano (hibernaculum), como se pensó en el pasado, sino como un centro indígena que participó de forma activa en la economía de guerra romana. Los objetos celtíberos presentes en el Turó del Vent serían testimonio de esa implicación.

Puñales bidiscoidales celtíberos
Puñales bidiscoidales celtíberos del Turó del Vent. Fuente: Molist et al 2024

La panoplia completa: más allá del casco

La carrillera no es la única prueba militar de filiación celtibérica hallada en el yacimiento. En 1984 se recuperaron dos puñales bidiscoidales con vainas de bronce, uno de los cuales se había inutilizado con un clavo de hierro, signo inequívoco de que se expuso como arma-trofeo. También se han documentado cuchillos afalcatados, una espada de tipo La Tène y una fíbula de pie vuelto, así como un proyectil de plomo y una espuela de caballería.

Estos elementos se suman a otros materiales militares hallados en contextos más recientes, como hojas de hierro, vainas, regatones y anillas. El conjunto sugiere que la función simbólica de las armas superaba su utilidad bélica: se habrían integrado, por tanto, en las prácticas de prestigio, identidad y poder. El estudio de la carrillera celtíbera del Turó del Vent no solo enriquece el conocimiento sobre los yelmos hispano-calcídicos, sino que permite abordar aspectos de la historia militar y social del noreste peninsular en torno al 200 a. C.

Referencias

En plena carrera tecnológica y con una competencia feroz en la gama media, encontrar un smartphone que equilibre buen rendimiento, diseño cuidado y precio competitivo es hoy la prioridad de muchos usuarios exigentes.

En este mercado tan disputado, Google redobla su apuesta por el liderazgo rebajando, además del Pixel 9, también su Pixel 9a de 128 GB. Un gama media con alma premium que planta cara a gigantes como Samsung, Huawei o Realme.

Google Pixel 9a
Google Pixel 9a - MediaMarkt

Mientras en tiendas como Amazon, PcComponentes o Miravia su precio se mantiene por encima de los 499€. Google vuelve a sacudir el mercado al dejarlo en solo 424,15 euros en MediaMarkt con el código MMPIXEL15. Una de las gangas más potentes del momento en la gama media.

Es un smartphone de gama media premium diseñado para durar, con protección frente a caídas, resistencia al agua y hasta 7 años de actualizaciones de seguridad. Su batería inteligente ofrece más de 30 horas de uso, ampliables hasta 100 h con el modo Ahorro Extremo. Dispone de 128 GB de almacenamiento y se actualiza con funciones de IA como Gemini, el asistente que organiza, escribe y ayuda con tareas diarias.

Su pantalla Actua de 6,3 pulgadas pOLED alcanza hasta 2700 nits de brillo y frecuencia de 120 Hz, ideal para contenidos HDR en alta definición. Incorpora el potente procesador Google Tensor G4 y el chip de seguridad Titan M2 para proteger tus datos. También incluye funciones avanzadas como detección de accidentes, bloqueo inteligente y VPN integrada.

Samsung ajusta cuentas en julio con un descuentazo en su Galaxy S24+ 5G

Samsung también mueve ficha este mes de julio con una rebaja notable en su Galaxy S24+ 5G, que ahora puede conseguirse por solo 609 euros. Una oferta difícil de ignorar si tenemos en cuenta que su precio habitual ronda los 719€ en tiendas como Amazon, PcComponentes o Miravia.

Samsung Galaxy S24 Plus
Samsung Galaxy S24 Plus - Fnac

Su pantalla Dynamic AMOLED 2X de 6,7 pulgadas ofrece una resolución increíble con colores vivos, contraste profundo y fluidez ideal tanto para ver contenido como para jugar o trabajar. El procesador Exynos 2200 garantiza un rendimiento ágil y eficiente, perfecto para multitarea y gaming. En cuanto al almacenamiento cuenta con 256 GB.

Su sistema de triple cámara trasera liderado por un sensor de 50 MP permite capturar fotos nítidas y detalladas incluso con poca luz, mientras que la cámara frontal de 12 MP asegura selfies de calidad profesional. Con una batería de 4.900 mAh y carga rápida de 45W, ofrece autonomía para todo el día sin esperas eternas. Además, integra funciones de seguridad avanzadas como lector de huellas ultrasónico y reconocimiento facial.

*En calidad de Afiliado, Muy Interesante obtiene ingresos por las compras adscritas a algunos enlaces de afiliación que cumplen los requisitos aplicables.

El Renault Scenic E‑Tech eléctrico representa una auténtica revolución en el segmento de los coches familiares. Con una longitud de 4,47 m, adopta la estética de un crossover compacto, marcando el adiós del clásico monovolumen para dar paso a un diseño más moderno y versátil. Este SUV eléctrico fue reconocido como Coche del Año en Europa 2024, un testimonio de su innovación en habitabilidad, tecnología y eficiencia.

Su oferta tecnológica se nutre de la plataforma eléctrica AmpR modular, con un centro de gravedad bajo y una batería integrada que permite una conducción dinámica, confortable y silenciosa. Disponible en versiones de 60 kWh (170 CV) y 87 kWh (220 CV), ofrece autonomías WLTP de hasta 625 km en su versión de gran autonomía.

En el interior, destaca la ergonomía pensada "Human First": reposabrazos inteligentes con puertos USB‑C, suelo completamente plano, 38 L de compartimentos, y maletero que va de 545 L a 1 670 L, ideal para viajes en familia. El techo panorámico Solarbay modula la luz con cuatro niveles de opacidad, mejorando la eficiencia y el confort.

La conectividad no se queda atrás: sistema multimedia openR link con Google integrado, audio Harman Kardon de 9 altavoces, reconocimiento facial y auxiliares de conducción avanzados, entre otros. Además, se incluye una bomba de calor para optimizar el consumo energético.

¿Puede un coche anticiparse a tus rutas, hablar contigo y mantener tu batería cargada para subir un puerto? La respuesta está en esta nueva generación de vehículos eléctricos como el Renault Scenic E‑Tech, que integran inteligencia predictiva y gestión energética avanzada. Con privilegios fiscales (etiqueta Cero, Plan MOVES III y reducción de costes operativos), el Scenic E‑Tech eléctrico propone una solución integral basada en tecnología, sostenibilidad y practicidad para familias modernas, profesionales y flotas.

Diseño exterior moderno y funcional

El Renault Scenic E‑Tech exhibe un diseño fresco, inspirado en el SUV, con líneas aerodinámicas y proporciones equilibradas. Destacan sus ruedas de 20 pulgadas ("Oracle") y los tiradores empotrados, que configuran un frontal elegante y sofisticado. Su parte trasera robusta y la altura contenida de 1,57 m reducen el centro de gravedad, mejorando la estabilidad.

Habitabilidad y versatilidad interior

Con un suelo plano gracias a la plataforma AmpR, ofrece gran amplitud para todos los ocupantes. La tercera fila trasera incluye el reposabrazos “Ingenius” con puertos USB‑C y soporte para tablets, además de generoso espacio de carga.

Maletero XXL y soluciones modulares

El maletero del Renault Scenic E‑Tech oscila entre 545 L y 1 670 L, una capacidad excepcional en su categoría. La configuración “ski‑hatch” en el reposabrazos trasero facilita el transporte de objetos largos sin necesidad de abatir asientos.

Techo Solarbay: luz y eficiencia

El techo panorámico Solarbay de 1,65 m², desarrollado con Saint‑Gobain, permite controlar la opacidad con cuatro niveles mediante voz o botón. Además, la capa de PDLC y el vidrio reciclado mejoran la aerodinámica y autonomía del vehículo.

Plataforma eléctrica AmpR y chasis

La plataforma AmpR ofrece rigidez, bajo centro de gravedad y conducción ágil. Gracias a la tecnología “Cocoon Effect”, insonoriza el habitáculo y mejora el confort. La dirección precisa y vías ensanchadas otorgan un comportamiento dinámico.

Motorización: dos versiones según necesidades

El Renault Scenic E‑Tech está disponible con baterías de 60 kWh (170 CV) y 87 kWh (220 CV), permite elegir entre autonomía y deportividad. La opción de 220 CV acelera de 0 a 100 km/h en 8,4 s, mientras que la de menor potencia lo hace en 9,3 s.

Baterías y autonomía real

La versión de gran autonomía alcanza hasta 625 km WLTP, y la estándar 420 km. En condiciones reales, la versión grande llega a 369 millas (≈ 593 km).

Carga rápida y versatilidad energética

El Renault Scenic E‑Tech admite carga AC hasta 22 kW y recarga rápida DC de hasta 150 kW, recuperando el 15‑80 % en 37 minutos (87 kWh) o 32 minutos (60 kWh). Perfecto para trayectos largos y pausas eficaces.

Recuperación de energía y función One‑Pedal

Incluye cuatro niveles de frenada regenerativa gestionados desde las levas, y la función One‑Pedal permite acelerar y frenar con un solo pedal, optimizando eficiencia.

Confort térmico y bomba de calor

La bomba de calor de serie favorece tanto la climatización eficiente como la autonomía, especialmente en invierno. El aislamiento acústico refuerza la sensación de confort en el Renault Scenic E‑Tech mediante la tecnología Cocoon.

Tecnología a bordo y conectividad

El sistema multimedia openR link con Google, navegador, apps (Waze, Amazon Music…) y audio Harman Kardon de 9 altavoces crea una experiencia inmersiva. Cuenta con control por voz, reconocimiento facial y actualizaciones OTA.

Seguridad y asistentes avanzados

Incluye más de 27 sistemas de asistencia (ADAS), cámara 360°, retrovisor inteligente, Active Driver Assist y Safety Score que analiza y aconseja tras cada trayecto.

Ecodiseño y sostenibilidad

Fabricado con al menos 18 % de materiales reciclados y 24 % de origen circular, el Renault Scenic E‑Tech es reciclable al 90 % al final de su vida, incluida la batería. El techo Solarbay contiene un 50 % de vidrio reciclado.

¿Y si el coche del futuro no contaminara ni al fabricarse? Renault plantea ese futuro con coherencia en cada detalle, como demuestra este Scenic E‑Tech y su apuesta por la producción sostenible.

Renault Scenic E‑Tech, el SUV eléctrico que redefine el concepto family‑car

El Renault Scenic E‑Tech eléctrico se consolida como una propuesta integral para el futuro de la movilidad familiar. Equilibra autonomía real (hasta 625 km WLTP), carga rápida, tecnología de confort y asistentes, con un enfoque sostenible y un diseño funcional. Destinado a familias, profesionales y flotas, destaca por su versatilidad, eficiencia y visión de movilidad responsable. Un coche del año que redefine el segmento y anticipa hacia dónde avanza el coche eléctrico con propósito.

Las buenas historias no siempre son ciertas, y eso también vale para la ciencia. La tecnología avanza, pero los mitos se mantienen. Ideas como que los agujeros negros son realmente agujeros o que el modo incógnito te vuelve anónimo siguen ancladas en la cultura popular. Algunas nacieron del cine, otras de malentendidos, y muchas han sobrevivido gracias a su fuerza narrativa. En este recorrido, desmontamos 12 de los mitos más repetidos sobre ciencia y tecnología, con explicaciones claras, curiosas y basadas en hechos comprobables.

Mito 1: El día tiene 24 horas

Según qué día, y no nos estamos refiriendo al día del año. El día solar, en el que se basa tanto el horario como el calendario civil, sí tiene 24 horas. Pero el día sideral –o sidéreo–, tan popular como el primero en el ámbito de la astronomía, dura 23 horas, 56 minutos y 4 segundos. 

La diferencia entre ambos días es que el segundo se calcula estimando lo que tarda nuestro planeta en completar una rotación; es decir, en dar una vuelta completa alrededor de su eje. Los astrónomos lo calculan tomando las constelaciones como guía: una estrella tarda ese tiempo en aparecer en el mismo punto del cielo en el que se encontraba el día anterior. Pero, ese no es el caso del Sol, que tarda unos cuatro minutos más. Y esto es así porque la Tierra, a la vez que gira sobre sí misma, también gira alrededor del Sol en un movimiento llamado de traslación.

Así pues, el astro rey no va a aparecer en el mismo lugar del cielo a la misma hora del día anterior, porque el planeta ya no se encontrará en el mismo punto de la órbita solar en el que estaba. Y ese movimiento, de casi un grado, es lo que origina esa diferencia de cuatro minutos.

¿El día siempre dura 24 horas? Piénsalo dos veces, esta es la diferencia entre el tiempo que usamos… y el que realmente pasa (entre otros mitos) 1
Steve Jobs no inventó el ordenador personal: fue una evolución con muchos protagonistas. Fuente: Pixabay.

Mito 2: Steve Jobs inventó el ordenador personal

Más que una falsedad, lo que tenemos aquí es un lío considerable, porque fueron varios los jóvenes emprendedores que marcaron los hitos para convertir una computadora en un aparato asequible que pudiera ser utilizado por el gran público, y es difícil saber cuál de esos avances fue el definitivo. Por ejemplo, en 1974, el ingeniero norteamericano Henry Roberts diseñó el Altair 8800, un equipo informático doméstico, pero de uso todavía reservado a quienes tuvieran conocimientos más que avanzados; para empezar, el propio comprador debía montarlo. 

Steve Jobs no entra en esta historia hasta 1976, año en el que funda Apple en colaboración con Steve Wozniak. De hecho, fue Wozniak quien creó los dos primeros modelos lanzados por la empresa: el Apple I, una versión primitiva presentada ese mismo año, y el revolucionario Apple II, que llegó al mercado en 1977 y se convirtió en un éxito de ventas. Este modelo tenía un aspecto más parecido al de los ordenadores actuales y estaba equipado con su propio teclado y monitor, por lo que resultaba atractivo para todo tipo de usuarios. 

Sin embargo, faltaba el concepto, y eso fue mérito de IBM, que en 1981 lanzó su modelo 5150 para el que acuñó el término personal computer (eso significan las siglas PC) y que popularizó mediante una gigantesca campaña de publicidad. Cuál de estos padres es el verdadero creador del ordenador personal es la eterna cuestión sin resolver. La respuesta más acertada es, probablemente, que fue el caso de diversos genios que se alimentaron mutuamente de sus descubrimientos.

Mito 3: El modo anónimo del navegador esconde todo lo que hacemos

Sentimos tener malas noticias, pero todo, lo que se dice todo… no. Activar el modo de navegación privada en el ordenador, la tableta o el móvil tiene los siguientes efectos: impide al navegador registrar el historial de las páginas visitadas y acceder a webs que solicitan contraseña, y también evita las cookies, con lo que dificulta el envío de publicidad y resultados basados en nuestra ubicación y preferencias.

Pero no puede impedir la identificación de nuestro IP, que actúa como el número de identidad del ordenador. Los servidores que alojan las páginas web siguen reconociendo ese número y a su proveedor, por lo que sigue siendo posible obtener información sobre qué páginas se han visitado y qué acciones se han realizado en ellas. 

Si lo que se busca es el anonimato total, entonces lo mejor es recurrir a la mal llamada internet oscura que, como explicamos en otra parte de este capítulo, es mucho más que un nido de delincuentes. Sus navegadores –Tor es el más famoso– encriptan los datos y utilizan técnicas avanzadas de camuflaje.

Mito 4: La Wikipedia está redactada por millones de personas

Esa era la idea que nos vendieron cuando se lanzó la enciclopedia en línea que arrasó con sus antecesoras en papel, pero la realidad es que su elaboración colectiva es menos espectacular de lo que se ha contado. Si lo comparamos con los casi 700 millones de visitas que recibe al día para consultarla, el número de personas que contribuyen en su redacción ronda las cien mil. 

Investigadores de la Harvard Business School de Estados Unidos y de la Universidad Rey Juan Carlos de Madrid concluyeron que apenas un diez por ciento de los colaboradores que escriben realiza casi el 90  % de las publicaciones.

La pregunta es por qué la participación activa es tan baja, cuando la Wikipedia ofrece a todos sus lectores la posibilidad de crear, redactar y completar entradas. Hay dos motivos principales: uno, la falta de familiaridad de los usuarios con MediaWiki, el software de la plataforma. El otro, y presumiblemente el más importante, es el bajo nivel de conocimientos históricos, técnicos y científicos de los internautas en general.

No hay tanta gente con certezas enciclopédicas y casi mejor que no la haya, porque una participación más masiva podría desvirtuar la calidad de sus contenidos más de lo que ya está. Aunque es una herramienta útil, la Wikipedia solo puede ser considerada una puerta a la primera información, no el repositorio de conocimiento completo y definitivo.

¿El día siempre dura 24 horas? Piénsalo dos veces, esta es la diferencia entre el tiempo que usamos… y el que realmente pasa (entre otros mitos) 2
El vinilo no suena “mejor” por ser analógico: depende de la grabación, el equipo y la percepción. Fuente: Pixabay.

Mito 5: El sonido de los discos de vinilo es mejor que el digital

El audio digital llegó a nosotros en los años ochenta del pasado siglo en forma de disco compacto (CD) del que se decía que ofrecía un sonido más limpio, sin los saltos y rayados tan frecuentes en los discos de vinilo. Ahora, muchos vuelven a los long plays, porque ofrecen un sonido más cálido y fiel a la fuente, frente a la fría precisión de los digitales. ¿En qué quedamos? 

Son varios los factores que influyen en la calidad del audio, tanto en los discos de vinilo como en los CD y demás soportes digitales de archivos de música. Uno de los más importantes es la forma en la que el material se ha grabado y masterizado. Otro, la ecualización utilizada en el equipo del oyente. Y en el caso específico de los LP, cosas que siempre han estado ahí, como la calidad de la aguja del tocadiscos o el ajuste del brazo y de la cápsula. Esa fue una de las ventajas publicitadas cuando se lanzó el CD: que sonaban igual de bien en cualquier reproductor. 

El mito de la superioridad del formato analógico se puede explicar por el hecho de que en él los sonidos se registran de forma continua, sin cortes. En los medios digitales, por el contrario, el resultado de la captación se fracciona y se vuelve a montar. Pero, en la práctica, eso no afecta al sonido.

Otra explicación se encuentra en la resistencia histórica, ya que en los primeros CD abundaban las grabaciones –o conversiones a formato– precarias y apresuradas. En la actualidad, la mejor prueba de que el sistema digital garantiza una fidelidad a toda prueba es que es el que está detrás de la producción… de los nuevos discos de vinilo. 

Mito 6: Una moneda lanzada desde el punto más alto de un edificio puede matar

Es un viejo mito: si subimos a lo más alto del Empire State y lanzamos una moneda de diez centavos –estamos en Estados Unidos, después de todo–, la aceleración con la que llegará al suelo la convertirá en un proyectil potencialmente letal. Pero no es así.

Subamos la apuesta y lancemos desde las alturas una moneda de 50 centavos, que, de acuerdo con los datos de la Casa de la Moneda estadounidense, tiene un peso de 11,340 gramos. La aceleración de la caída se vería mitigada por el rozamiento de la pieza con el aire, por lo que llegaría al suelo con una fuerza menor a tres julios de energía, mucho menos de lo necesario para perforar un cráneo humano: un mínimo de 45 julios. 

Si la moneda impactara en la cabeza de un peatón, le haría daño suficiente como para requerir atención médica, pero no sería fatal. Otros objetos en apariencia menos dañinos por ser más blandos, sí tendrían consecuencias mortales: una manzana llegaría al suelo con una fuerza de 104 julios, lo que la haría más letal que la de Blancanieves.

Mito 7: En el espacio exterior no hay gravedad

En la Estación Espacial Internacional, situada a 400 kilómetros de altitud, la atracción gravitatoria que ejerce la Tierra equivale al 90  % de la que sentimos a ras de suelo. De hecho, esta fuerza se encuentra presente, en mayor o menor medida, en todo el universo. Esto es así porque todos los cuerpos, ya sean un átomo o el centro de una galaxia, ejercen cierto grado de atracción sobre los demás en función de su masa y de la distancia entre ellos. 

Según la Teoría de la Relatividad de Einstein, la gravedad afecta a todos los cuerpos del universo. Incluso en el vacío espacial, cualquier presencia de masa provocará la acción de la gravedad. Pero, en ese caso, ¿por qué los astronautas flotan en las naves espaciales o en la propia Estación Espacial? El fenómeno que lo causa no es la gravedad en sí, sino la microgravedad: una condición en la que personas y objetos parecen no tener peso.

Tanto las lanzaderas como la estación son atraídas por la gravedad terrestre, pero al moverse a gran velocidad, su caída describe una curva que iguala a la de la Tierra, por lo que puede decirse que caen rodeando el planeta, no hacia su superficie. Las personas y objetos de su interior están en una situación de caída libre continua, que es lo que los hace flotar.

¿El día siempre dura 24 horas? Piénsalo dos veces, esta es la diferencia entre el tiempo que usamos… y el que realmente pasa (entre otros mitos) 3
Los astronautas flotan por estar en caída libre constante. Fuente: Pixabay.

Mito 8: Las estaciones dependen de la distancia entre la Tierra y el Sol

Este mito se basa en la asunción de que en verano estamos más cerca del Sol, lo que produce el aumento de las temperaturas, y en invierno, todo lo contrario. Pero la distancia entre el Sol y la Tierra es siempre de 150 millones de kilómetros, así que el motivo de que existan distintas estaciones no está ahí. El paso de las estaciones se produce por la inclinación del planeta y el movimiento de traslación, que es el giro que la Tierra realiza en torno al Sol. Esa vuelta completa le lleva doce meses y presenta cuatro puntos fundamentales: dos llamados solsticios y dos, equinoccios. 

El eje de la Tierra forma un ángulo de 23,2 grados con respecto a la órbita solar. Esto significa que los rayos del Sol alcanzan nuestro planeta de manera perpendicular a la superficie, pero la distribución de la luz no es siempre igual. El 21 de diciembre, la inclinación provoca que el hemisferio norte reciba menos luz y el sur más, dando lugar en el primero al solsticio de invierno y en el sur al de verano (por eso las Navidades en los países de este hemisferio se celebran en manga corta y los abrigos se sacan en julio).

El 21 de junio es al revés. Por su parte, los equinoccios, que marcan el inicio del otoño y de la primavera, se dan el 21 de marzo y el 21 de septiembre, cuando nuestro planeta se encuentra entre dos puntos en los que la incidencia de los rayos es similar. El eje inclinado de la Tierra también es el responsable de que los polos pasen seis meses con sol y otros seis en oscuridad.

Mito 9: El Sol es una enorme bola de fuego de color amarillo

De niños, todos hemos dibujado el Sol como una bola de color amarillo de la que salían rayitas, amarillas también, que simbolizaban su calor. Nos equivocamos por completo: la luz del Sol es blanca, como resultado de la fusión nuclear que convierte átomos de hidrógeno en helio y que tiene lugar en él a dos millones de grados centígrados.

Pero esta temperatura no significa tampoco que sea una gran bola de fuego, ya que el astro rey no posee oxígeno en su composición y este elemento es fundamental en los procesos de combustión. 

El color amarillo del Sol es el resultado de la dispersión de la luz en la atmósfera de la Tierra: la capa de gases que rodea nuestro planeta actúa como un filtro que impide la incidencia de algunos rayos procedentes del Sol, principalmente los espectros del intervalo azulvioleta. Pero es que además es fácil comprobar que el Sol no es siempre amarillo a nuestros ojos: durante el amanecer, o al caer la tarde, por ejemplo, el ángulo de inclinación solar dificulta todavía más la propagación de las ondas de luz en la atmósfera, y por eso adquiere unos hermosos tonos rojizos. 

En cuanto a su aspecto de hornillo cósmico, la causa no es el fuego, sino el plasma, un estado supercaliente de la materia formado por protones y electrones libres arrancados de sus núcleos originales por la violencia de las explosiones que hacen brillar tanto al Sol. Esa supuesta bola de fuego está formada, en realidad, básicamente por hidrógeno y helio, además de otras sustancias, como hierro y níquel.

Mito 10: La Luna tiene un lado oscuro

Esta leyenda tiene un punto misterioso que, la verdad, la hace de lo más atractiva. Además, ha sido impulsada por uno de los discos más vendidos de la historia del rock, The Dark Side Of The Moon, de Pink Floyd. El problema es que ese supuesto lado oscuro no tiene base científica, ya que los dos hemisferios del satélite están bañados por el Sol. 

Sería más adecuado decir, y de hecho también se dice, que la Luna tiene una cara oculta, que se produce en virtud de un fenómeno de sincronicidad provocado por la acción gravitacional de la Tierra. Como los movimientos de rotación y traslación de la Luna tienen una duración prácticamente igual –unos 28 días–, esta tarda el mismo tiempo en dar una vuelta alrededor de la Tierra que en torno a sí misma.

Es como si mientras rota fuese reajustando su posición con respecto al planeta, para que le veamos constantemente la misma cara. Pero no siempre le funciona: la Luna presenta un tercer movimiento, la libración, causado por las oscilaciones de su eje, que cuando tiene lugar deja ver parte de esa cara oculta. De todos modos, desde 1969, el lado oscuro dejó de serlo cuando los astronautas pudieron acceder a él y no se encontraron más que piedras, arena y cráteres. Igual que en el visible.

Girasoles
Los girasoles no giran siempre: al madurar se quedan fijos hacia el este. Fuente: Pixabay.

Mito 11: Los girasoles siempre siguen al Sol

Siempre no. Llega un momento en su existencia en el que dejan de ser girasoles, estrictamente hablando. La caza de los rayos solares atribuida a estas plantas se debe al ritmo circadiano, una brújula interna que regula los ciclos diarios de casi todos los seres vivos, incluidos los seres humanos.

En el caso de los girasoles, su reloj biológico está muy influido por la luz y ese es el motivo de que se pasen el día siguiendo el movimiento solar, con el objetivo de absorber al máximo sus rayos. El movimiento se coordina a través del tallo, que tiene una parte que se estira más durante el día, mientras que la otra crece por la noche, de manera desigual. 

Este fenómeno se conoce como heliotropismo y estimula el desarrollo vegetal, ya que activa una hormona del crecimiento que se concentra en las células jóvenes de sus hojas. Pero cuando termina ese ciclo de crecimiento, finalizan también los giros, porque las plantas han alcanzado el tamaño propicio para la polinización, lo que garantizará la perpetuación de la especie. A partir de ese momento, el girasol ha cumplido su función y se queda inmóvil, para siempre orientado hacia el este.  

Mito 12: Los agujeros negros son agujeros

Pocas veces una definición ha sido menos acertada: un agujero representa el vacío, está formado por la ausencia de materia. Un agujero negro es la materia concentrada en su máxima expresión, una masa gigantesca en un volumen relativamente pequeño, formando un campo gravitatorio tan intenso que ni siquiera la luz puede escapar de él. 

Como tantas cosas, fueron predichos por Einstein antes de que se demostrara su existencia. Se originan cuando una estrella de gran tamaño –lo que se llama una gigante roja– agota toda su energía y muere implosionando sobre sí misma, dejando un núcleo de enorme densidad. Si la masa de este núcleo supera tres veces la del Sol, la fuerza de gravedad se impone sobre cualquier otra, y entonces se forma un agujero negro.

De acuerdo, pero, entonces, ¿cómo hemos llegado a llamarlos agujeros si no lo son? El término agujero negro fue acuñado en 1967 por el físico teórico estadounidense John Archibald Wheeler durante una conferencia en el Instituto Goddard de Estudios Espaciales, de la NASA, aunque este declaró haberlo creado un par de meses antes, durante un debate en Nueva York con algunos colegas.

Al principio, se referían a ellos como objetos completamente colapsados, pero, “cuando has usado esa expresión media docena de veces, empiezas a pensar en una más sencilla”. Ahí se le ocurrió denominarlos agujeros negros, porque era fácil de recordar y de difundir. El color negro se deducía de la ausencia total de luz, y la idea de agujero, de una tendencia del gran físico a utilizar la figuración poética cuando la ocasión lo merecía.

No da fiebre. No duele. Y en la mayoría de los casos, pasa completamente desapercibido. Pero Toxoplasma gondii, uno de los parásitos más comunes en el mundo, podría estar influyendo en tu comportamiento más de lo que imaginas. Un nuevo estudio publicado en Frontiers in Psychiatry explora cómo esta infección silenciosa tiene el potencial de alterar rasgos de personalidad, el sistema nervioso y la regulación de neurotransmisores clave como la dopamina.

La investigación, liderada por el forense Marco Goczol, revela que hasta el 80  % de los adultos mayores podrían estar infectados con este parásito, que generalmente se adquiere a través de alimentos contaminados o el contacto con gatos. Aunque en personas sanas permanece en estado latente durante años, su presencia en el cerebro puede afectar zonas clave relacionadas con el miedo, la motivación y el control de impulsos. No se trata de ciencia ficción: diversos experimentos han demostrado efectos similares en animales, y ahora se acumulan evidencias en humanos.

Lo llamativo no es solo la alta prevalencia, sino los posibles cambios en la conducta que se han observado. Personas infectadas muestran, según estudios poblacionales, mayor inclinación al riesgo, reacciones más lentas y patrones emocionales alterados. El impacto puede parecer sutil, pero plantea interrogantes profundos sobre cuánto control tenemos realmente sobre nuestras decisiones y personalidad.

¿Y si no fueras del todo tú? Este parásito común podría estar influyendo en tu personalidad sin que lo sepas, según la ciencia 1
El parásito se reproduce en gatos y puede infectar humanos a través de carne contaminada o contacto con heces. Una vez en el cuerpo, llega al cerebro y forma quistes que alteran la función neuronal. Representación artística: Fuente: Sora / ERR.

Una estrategia evolutiva que manipula desde el interior

Lejos de ser un accidente, este tipo de influencia parece estar inscrita en la estrategia evolutiva de muchos parásitos. Como destaca el estudio, organismos como T. gondii han desarrollado mecanismos para alterar el comportamiento de sus hospedadores, con el fin de facilitar su propia supervivencia y propagación. En ratas, por ejemplo, el parásito elimina el miedo a los gatos, su depredador natural, lo que aumenta las probabilidades de que el ciclo de vida del parásito se complete.

En humanos, este tipo de manipulación es más difícil de detectar, pero el estudio detalla cómo T. gondii forma quistes en el cerebro, especialmente en áreas como el sistema límbico, que regula las emociones.

Al expresar enzimas que aumentan la producción de dopamina, una sustancia asociada al placer, la recompensa y el comportamiento impulsivo, el parásito modifica el equilibrio bioquímico del cerebro.

Además de T. gondii, se conocen otros parásitos con efectos similaresTrypanosoma brucei, causante de la enfermedad del sueño, puede provocar alteraciones del ciclo sueño-vigilia y cambios de comportamiento. Y Bartonella henselae, bacteria responsable de la enfermedad por arañazo de gato, ha sido vinculada con síntomas neuropsiquiátricos como ansiedad extrema, depresión resistente al tratamiento y alucinaciones.

Un nuevo frente en salud mental: infecciones que alteran la conducta

Las conclusiones del estudio invitan a replantear cómo entendemos los trastornos de comportamiento. Si bien factores genéticos, ambientales y psicológicos han sido ampliamente estudiados, las infecciones parasitarias ofrecen una vía menos explorada pero potencialmente crucial. Las alteraciones de neurotransmisores inducidas por parásitos podrían contribuir al desarrollo de patologías como esquizofrenia, depresión o ansiedad.

Uno de los mecanismos más consistentes que describe la investigación es el aumento en la síntesis de dopamina causado por T. gondii. La dopamina no solo está vinculada al placer, sino también a la motivación, la atención y la toma de decisiones. Un exceso puede provocar impulsividad, menor capacidad de planificación y mayor vulnerabilidad a conductas de riesgo. Esto explicaría, en parte, por qué las personas infectadas tienden a asumir más riesgos, según hallazgos anteriores.

Incluso se han detectado correlaciones entre la infección y mayor incidencia de accidentes de tráfico, reflejo de una conducta más imprudente.

Pero los investigadores van más allá: plantean que los efectos del parásito podrían extenderse también al ámbito social, modificando la forma en que interactuamos con los demás, respondemos al estrés o establecemos vínculos.

¿Y si no fueras del todo tú? Este parásito común podría estar influyendo en tu personalidad sin que lo sepas, según la ciencia 2
Estudios muestran que las personas con toxoplasmosis latente tienen mayor inclinación al riesgo, impulsividad y menor capacidad de reacción. Representación artística. Fuente: Sora / ERR.

Más allá de Toxoplasma: un repertorio de parásitos que afectan el cerebro

Aunque T. gondii es el protagonista del estudio, no es el único capaz de intervenir en el comportamiento humano. Otras infecciones parasitarias también muestran potencial para provocar síntomas neurológicos y psicológicos.

Por ejemplo, Naegleria fowleri, conocida como “la ameba come-cerebros”, puede invadir el sistema nervioso central y causar alucinaciones, confusión y muerte en pocos días, aunque es extremadamente rara.

Más comunes, sin embargo, son las infecciones por Plasmodium (malaria) o Babesia, ambos protozoos que pueden provocar síntomas como confusión, agresividad, pérdida del habla o incluso convulsiones, especialmente en personas inmunocomprometidas. En los casos más graves, estas infecciones pueden imitar enfermedades neurológicas como el Parkinson o el Alzheimer.

Los mecanismos implicados varían: desde inflamación cerebral hasta manipulación del sistema inmunitario o alteraciones en la barrera hematoencefálica. Lo que todos estos casos tienen en común es que demuestran que los parásitos pueden tener efectos mucho más profundos y duraderos que los síntomas físicos inmediatos. La frontera entre salud corporal y salud mental se vuelve difusa cuando entran en juego agentes infecciosos capaces de alterar el cerebro desde dentro.

¿Cómo protegerse? Prevención y tratamiento en el punto de mira

El estudio también pone énfasis en la importancia de la prevención. Evitar el consumo de carne poco cocida, extremar la higiene al manipular tierra o arena, y tomar precauciones con los gatos (sobre todo en embarazadas) son algunas medidas recomendadas para reducir el riesgo de contagio con T. gondii. Se trata de una infección silenciosa, pero no inocua.

En cuanto al tratamiento, aún no existen terapias específicas para revertir los cambios conductuales asociados a la infección crónica. Algunos medicamentos antipsicóticos que modulan la dopamina han mostrado efectos prometedores en estudios preliminares, pero se necesitan más ensayos clínicos para validar su uso. También se estudian estrategias inmunomoduladoras que podrían reducir la inflamación cerebral causada por algunos parásitos.

El estudio concluye que debemos considerar las infecciones parasitarias no solo como una amenaza para la salud física, sino también como un factor potencialmente relevante en la aparición y el desarrollo de trastornos del comportamiento.

La investigación de estos vínculos podría abrir nuevas vías para el diagnóstico temprano y el tratamiento personalizado de enfermedades mentales.

¿Y si no fueras del todo tú? Este parásito común podría estar influyendo en tu personalidad sin que lo sepas, según la ciencia 3
Toxoplasma gondii* se aloja en zonas clave del cerebro, como el sistema límbico, afectando la producción de dopamina y modificando la conducta del huésped. Fuente: iStock (composición).

Cuando el huésped pierde el control: ¿hasta qué punto somos nosotros mismos?

Una de las cuestiones más provocadoras que plantea esta investigación es de corte filosófico: ¿hasta qué punto nuestras emociones, decisiones y reacciones son realmente nuestras? Si un parásito puede modificar la producción de dopamina, alterar nuestra percepción del riesgo o intensificar nuestra impulsividad, ¿cuánto margen de agencia tenemos?

No se trata de exagerar ni de asumir que cada acto agresivo o temerario tiene un origen parasitario. Pero sí de aceptar que nuestro comportamiento es el resultado de una red compleja de influencias, donde la biología y los microorganismos que habitan en nuestro cuerpo tienen más protagonismo del que imaginamos. Comprenderlo no solo permite una mirada más integral de la salud mental, sino que también nos recuerda lo fascinantemente vulnerables que somos.

Así, este estudio no busca alarmar, sino ampliar el horizonte: la personalidad, ese concepto aparentemente tan individual, también puede ser modulada por agentes invisibles. Quizás la pregunta correcta no sea si estamos infectados, sino cuánto de lo que hacemos está condicionado por algo más que nuestra voluntad.

Referencias

La escena parece salida de una película de ciencia ficción: un planeta gigante, abrasado por su estrella, gira tan rápido a su alrededor que acaba cayendo hacia ella en una espiral de destrucción. Pero esto no es ficción. Por primera vez, un equipo internacional de astrónomos ha documentado un caso real de decadencia orbital, un fenómeno cósmico que hasta ahora solo se había inferido en muy pocos sistemas. El protagonista de esta historia es TOI-2109b, un planeta tan cercano a su estrella que completa una vuelta entera en apenas 16 horas.

Este descubrimiento, recientemente publicado en The Astrophysical Journal por el equipo encabezado por Jaime A. Alvarado-Montes, no solo es impactante por su rareza, sino porque ofrece una ventana única para entender cómo las estrellas y los planetas intercambian energía y evolucionan juntos. Las consecuencias son de enorme interés: si este proceso se confirma en otros sistemas, podría reescribirse parte de lo que sabemos sobre la vida y muerte de los mundos más extremos del universo.

Un planeta que no debería estar ahí

TOI-2109b se encuentra a unos 870 años luz de distancia, en la constelación de Hércules. Es un planeta de clase Júpiter ultra caliente, un tipo extremadamente raro de exoplaneta. Aunque ya se conocían otros similares, este destaca por su cercanía récord a su estrella: completa su órbita en solo 16,5 horas, lo que lo convierte en el planeta de este tipo con el año más corto jamás registrado. Además, su masa es cinco veces mayor que la de Júpiter, y su radio casi el doble.

Lo más sorprendente no es solo su tamaño o temperatura, sino que ni siquiera debería estar tan cerca de su estrella sin haber sido destruido ya. El equipo científico ha demostrado, gracias a mediciones muy precisas del tiempo de tránsito —el instante en el que el planeta pasa por delante de su estrella visto desde la Tierra—, que su órbita está acortándose de forma progresiva.

Pruebas sólidas de una espiral de muerte

El concepto de decadencia orbital no es nuevo. Se sabe que las fuerzas de marea entre un planeta y su estrella pueden hacer que el primero se acerque cada vez más a su órbita final. Pero hasta ahora, las pruebas sólidas de este fenómeno eran escasas. Este trabajo lo cambia todo.

El equipo de investigación utilizó datos del satélite TESS (Transiting Exoplanet Survey Satellite) de la NASA, del satélite europeo CHEOPS y de telescopios terrestres, recogidos entre 2010 y 2024. Gracias a este amplio conjunto de datos, pudieron detectar una variación de hasta 10 segundos en los tiempos de tránsito del planeta durante un período de tres años, lo que sugiere que se está acercando a su estrella en una espiral gradual.

Según el estudio, hay tres posibles desenlaces para TOI-2109b. Podría ser desintegrado por fuerzas de marea al cruzar el llamado límite de Roche; podría precipitarse directamente contra su estrella y ser absorbido; o podría perder lentamente su atmósfera por radiación, dejando atrás solo un núcleo rocoso. Todas las opciones son catastróficas, pero muy valiosas desde el punto de vista científico.

Esquema del sistema TOI-2109b, con los parámetros físicos y orbitales clave en su evolución por interacción con su estrella. Fuente: The Astrophysical Journal

Una estrella joven o una sentencia acelerada

Uno de los puntos más complejos del estudio es que el destino del planeta depende en buena medida de la edad de su estrella anfitriona, TOI-2109. Si la estrella es joven, como parecen indicar algunas estimaciones, los mecanismos de disipación de energía serían más ineficientes, y el planeta mantendría su órbita durante millones de años. En cambio, si la estrella es más vieja, las olas gravitacionales internas (conocidas como IGWs) podrían estar acelerando el proceso de caída, con un desenlace posible en apenas unos miles de años.

Según el modelo del equipo, en el escenario más conservador —con una estrella joven—, el ritmo de caída orbital sería de unos 4,18 milisegundos por año. En el caso opuesto, podría alcanzar los 1107 milisegundos por año, una cifra que implicaría una colisión con la estrella en un período muchísimo más corto del esperado.

Lo que este planeta puede enseñar sobre muchos otros

TOI-2109b podría ser un ejemplo extremo, pero lo que se descubra sobre él podría cambiar la forma en que entendemos la evolución de los sistemas planetarios. Si, como sugiere uno de los escenarios, el planeta pierde su atmósfera y queda reducido a un núcleo rocoso, eso podría implicar que muchos planetas rocosos que hoy observamos en otros sistemas podrían ser los restos de antiguos gigantes gaseosos.

Esta hipótesis ya ha sido considerada en estudios previos, pero TOI-2109b podría ofrecer pruebas directas en tiempo real. Como explica el equipo, “este planeta y su interesante situación podrían ayudarnos a entender algunos fenómenos astronómicos misteriosos que hasta ahora no teníamos mucha evidencia para explicar”.

Además, la posibilidad de observar cómo el planeta cambia de órbita en los próximos años convierte a este sistema en un laboratorio natural excepcional. No se trata solo de un planeta muriendo, sino de una oportunidad para observar en directo cómo operan las leyes físicas en condiciones extremas.

Tiempos precisos, telescopios coordinados

Uno de los logros técnicos más destacados del estudio fue la combinación de datos de múltiples instrumentos durante más de una década. Las observaciones del satélite TESS fueron clave, pero se reforzaron con las del telescopio CHEOPS y datos terrestres de alta precisión. Esta coordinación permitió medir cambios minúsculos en la órbita de TOI-2109b y establecer límites al ritmo de su decadencia.

El modelo utilizado por los autores del estudio fue ajustado para evaluar los efectos de diferentes mecanismos de disipación de energía, desde olas inerciales dentro de la estrella hasta las ya mencionadas olas gravitacionales internas. En palabras del artículo: “Nuestros tiempos de tránsito calculados y las variaciones temporales de tránsito apoyan una estrella anfitriona ‘joven’ con Q > 3,7 × 10⁷”, lo que se traduce en una disminución de la órbita de menos de 10 segundos en tres años.

Esto no significa que el planeta esté a punto de desaparecer mañana, pero sí que la maquinaria para su destrucción ya está en marcha, y su evolución puede ser monitoreada paso a paso por la comunidad científica.

El valor de presenciar una muerte anunciada

Aunque TOI-2109b aún no ha sido engullido por su estrella, los cambios en su órbita ya son observables, y eso lo convierte en un sistema sin precedentes. La posibilidad de presenciar, en tiempo real, cómo un planeta cae hacia su fin ofrece una nueva dimensión al estudio de la astrofísica de exoplanetas.

Además, la metodología desarrollada para este estudio —incluyendo el uso del software PdotQuest y técnicas de ajuste cuadrático de efemérides— puede ser aplicada a otros sistemas similares en el futuro, ayudando a identificar otros planetas en proceso de decadencia orbital.

TOI-2109b podría no ser el único. Pero sí es, por ahora, el mejor ejemplo documentado de un mundo girando hacia su destrucción, visible desde nuestra perspectiva con telescopios y modelos suficientemente precisos. Y eso convierte su estudio no solo en un hallazgo impactante, sino en una oportunidad única para entender cómo funcionan los sistemas planetarios más extremos del universo.

Referencias

Ocurrió el 13 de junio de 1782. En la plaza principal de la localidad suiza de Glaris, una mujer llamada Anna Göldi se ejecutó en público, acusada de haber envenenado a la hija de sus empleadores y de haber pactado con el diablo. La torturaron, decapitaron y privaron de una sepultura cristiana. Aunque esta ejecución sucedió en pleno Siglo de las Luces, el proceso contra Göldi desató una oleada de indignación en toda Europa. El juicio y la condena se consideró una muestra anacrónica de la barbarie judicial.

La sombra de la superstición en tiempos ilustrados

La historia de Anna Göldi evidencia que el pensamiento ilustrado no erradicó las creencias en brujas y pactos con el demonio en la Europa moderna tardía. La acusación contra esta sirvienta se inscribe en un contexto más amplio: el de las grandes cazas de brujas que, desde el siglo XV hasta mediados del XVIII, devastaron muchas regiones del continente.

A lo largo de la Edad moderna, los poderes civiles y eclesiásticos reinterpretaron la brujería no como un residuo del paganismo, sino como una conspiración demoníaca contra el orden cristiano. La bula papal Summis desiderantes affectibus (1484), promulgada por Inocencio VIII, así como el célebre manual inquisitorial Malleus Maleficarum (1486) fueron textos clave que contribuyeron a convertir la brujería en un crimen de lesa majestad divina.

Las víctimas de estas campañas represivas fueron, mayoritariamente, mujeres: representaron entre el 60 y el 80 % del total. Solían mostrar, además, un perfil recurrente: eran viudas, ancianas o mujeres sin apoyo familiar, muchas de ellas matronas y curanderas portadoras de saberes populares que levantaban sospechas.

Muchacha durmiendo
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

El apogeo y la decadencia de la caza de brujas en Europa

Las persecuciones se intensificaron especialmente entre 1560 y 1650, periodo en el que se estima que se celebraron 100.000 juicios por brujería, de los cuales 50.000 acabaron en ejecuciones. El epicentro de esta represión se situó en el espacio del Sacro Imperio Romano Germánico, donde se encendieron más de 22.000 hogueras para quemar a supuestas hechiceras.

Por el contrario, Francia, Italia y España mantuvieron una actitud más moderada. La Inquisición española, por ejemplo, mostró mayor escepticismo que los tribunales civiles centroeuropeos, y tendió a atribuir los fenómenos extraños o sobrenaturales a la superstición antes que al pacto satánico.

Hacia comienzos del siglo XVIII, la fiebre represiva comenzó a disminuir. El declive de las guerras de religión y la consolidación de los Estados modernos marcaron el fin de esta larga ola de violencia institucionalizada. Aun así, algunos brotes aislados de acusaciones persistieron, sobre todo en zonas rurales y protestantes, donde el control clerical sobre la moralidad local seguía siendo fuerte.

Pan, leche y mantequilla
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

Un crimen ejemplar en la Suiza protestante

El caso de Anna Göldi se desarrolla, precisamente, en este contexto tardío. Originaria del cantón de Glaris, Göldi trabajaba como sirvienta en casa del médico protestante Johann Jakob Tschudi. En 1782, la hija de Tschudi enfermó gravemente. Los síntomas dr atribuyeron a un supuesto envenenamiento mágico con agujas que aparecían en la leche y el pan que consumía. La acusación estuvo acompañada por un crescendo de histeria colectiva que se alimentó del prestigio del padre como médico y del clima de puritanismo religioso imperante en la región.

A pesar de los indicios vagos y contradictorios que la acusaban, se detuvo a Göldi y se la torturó,. Tal durezala llevó a confesar que había hecho un pacto diabólico. El proceso judicial resultó irregular y opaco: se destruyeron las actas, se evitó calificar el delito como brujería para no vulnerar las leyes federales suizas que ya no contemplaban tal crimen, y se recurrió a una fórmula ambigua para justificar la pena capital. El escándalo fue mayúsculo: el caso lse debatió en la prensa y llegó a ser calificado por muchos como un asesinato judicial encubierto.

Muchacha acusada de brujería
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

¿Fue realmente la última bruja ejecutada en Europa?

Si bien Anna Göldi ha pasado a la historia como la “última bruja” europea, su triste primacía debe matizarse. Existen dos casos posteriores que, aunque vinculados a acusaciones mágicas, se alejan del molde clásico del proceso inquisitorial. Por tanto, aunque Anna Göldi no fue la última víctima mortal de la creencia en la brujería, sí fue la última persona ejecutada legalmente en Europa en un contexto relacionado de forma unívoca con esa acusación.

Barbara Zdunk, pirómana

En 1811, Barbara Zdunk fue ejecutada en la ciudad prusiana de Rößel (actual Polonia). Aunque se trataba de una mujer que alardeaba de poseer poderes mágicos, su condena se produjo bajo el cargo de haber provocado un incendio. No fue, por tanto, un juicio por brujería en sentido estricto. En cualquier caso, su muerte en la hoguera evidencia cómo las ideas sobre lo mágico seguían vivas en ciertos entornos centroeuropeos.

El linchamiento de Krystyna Ceynowa

Más estremecedor resulta el episodio de Krystyna Ceynowa, supuestamente ajusticiada en 1836 por pescadores de la península de Hela, también en Polonia. En este caso, no hubo juicio ni condena oficial: se sometió a la mujer a la ordalía del agua y, después, se la linchó. Se trató, por tanto, de un asesinato colectivo sin legitimación legal.

Muchacha durmiendo
Recreación fantasiosa. Fuente: Midjourney/Erica Couto

El legado de Anna Göldi y la resignificación de las brujas

Desde los años sesenta, el feminismo ha rescatado la figura de la bruja como símbolo de resistencia. En esta línea, pensadoras como Mona Chollet, Silvia Federici o Starhawk han reivindicado a las brujas como mujeres sabias, libres, rebeldes y perseguidas por un orden patriarcal y cientificista. En los debates contemporáneos, por tanto, el recuerdo de figuras como Göldi sirve como referencia en las luchas ecologistas, anticapitalistas y espirituales.

Una ejecución, muchas memorias

La historia de Anna Göldi nos recuerda que la brujería, más allá de lo jurídico y teológico, fue un mecanismo social de control, marginación y castigo, dirigido, sobre todo, contra mujeres vulnerables. Su muerte, de algún modo, marca el fin de una era y el inicio de otra: la del uso de la memoria histórica como herramienta crítica frente a la violencia de género institucionalizada.

Referencias

Durante siglos, el viento y el mar guardaron un secreto entre las arenas de una remota playa en las islas Orkney, al norte de Escocia. No fue hasta que una tormenta sacudió la costa de Sanday en 2024 que emergieron los restos de una estructura de madera que, a simple vista, parecía poco más que un vestigio cualquiera. Pero lo que salió a la luz fue mucho más que un naufragio olvidado: era el esqueleto de una nave de guerra británica del siglo XVIII, convertida más tarde en ballenero, con un historial tan sorprendente como revelador.

Los restos, que quedaron al descubierto tras ser liberados del lecho marino, correspondían a un navío que había surcado tanto las aguas del Caribe como las frías rutas del Ártico. Hoy, tras una minuciosa investigación histórica y científica, se ha confirmado su identidad: se trata del HMS Hind, más tarde rebautizado como Earl of Chatham, un barco que participó en dos guerras clave para la expansión del Imperio británico antes de ser transformado en ballenero.

De guerra y conquista: los días del HMS Hind

Construido en 1749 en el puerto de Chichester, al sur de Inglaterra, el Hind fue uno de los muchos buques que formaron parte del engranaje militar británico durante el apogeo del imperio. Su primera misión lo llevó a cruzar el Atlántico para participar en la guerra contra Francia por el control de Canadá. Allí estuvo presente en dos de los asedios más emblemáticos de la historia colonial: Louisbourg (1758) y Quebec (1759), puntos de inflexión que marcaron la caída del poder francés en América del Norte.

Pero el Hind no se detuvo ahí. Dos décadas más tarde, con el estallido de la Guerra de Independencia de los Estados Unidos, fue reutilizado para tareas de escolta en el Atlántico Norte. Protegía convoyes británicos de los ataques de corsarios estadounidenses y franceses, enfrentándose a un enemigo nuevo y astuto: las colonias que pretendían separarse de la Corona. En esa etapa llegó a interceptar varios barcos enemigos, demostrando su utilidad en un conflicto que cambió para siempre la geopolítica del mundo atlántico.

Durante la Guerra de Independencia de Estados Unidos, a finales de la década de 1770, el HMS Hind formó parte de la flota británica desplegada en el Atlántico para proteger sus rutas comerciales
Durante la Guerra de Independencia de Estados Unidos, a finales de la década de 1770, el HMS Hind formó parte de la flota británica desplegada en el Atlántico para proteger sus rutas comerciales. Foto: Orkney Islands Council

Segunda vida: de fragata a ballenero

Tras finalizar la guerra y en pleno proceso de reducción de la flota, el barco fue vendido a una empresa privada en 1784 y recibió un nuevo nombre: Earl of Chatham. Esta práctica era habitual entonces, ya que muchos navíos militares, por su robustez, eran reconvertidos en barcos mercantes o balleneros.

El Earl of Chatham fue adaptado para faenar en las peligrosas aguas del Ártico. Durante cuatro temporadas, cazó ballenas en el Mar de Groenlandia, una industria crucial en el siglo XVIII que abastecía a Europa de aceite para lámparas, lubricantes industriales y materias primas textiles. Aquellos eran tiempos en los que la caza de ballenas era vista como una empresa heroica y lucrativa, aunque hoy su perspectiva ética haya cambiado radicalmente.

En marzo de 1788, mientras se dirigía hacia el Ártico en busca de una nueva temporada de caza, una tormenta desvió su rumbo y empujó al barco hacia las costas de Sanday. Lo que ocurrió después no fue una tragedia, sino un acto de suerte improbable: el barco encalló, pero todos los miembros de su tripulación —56 en total— sobrevivieron.

Un descubrimiento desenterrado por el mar y la comunidad

Más de dos siglos después, el barco volvió a aparecer de manera inesperada. Las fuertes tormentas del invierno de 2024 removieron las capas de arena que lo cubrían y dejaron al descubierto varias toneladas de maderas trabajadas con técnicas navales del siglo XVIII. La comunidad local, pequeña pero profundamente ligada al mar, fue la primera en llegar al lugar. Algunos vecinos reconocieron enseguida la importancia del hallazgo y comenzaron a documentarlo, sacando fotografías y contactando con arqueólogos.

La investigación que siguió combinó tecnología avanzada con la sabiduría colectiva. Especialistas en dendrocronología —la ciencia que estudia los anillos de los árboles— analizaron las maderas y confirmaron que provenían del sur de Inglaterra y habían sido taladas en la década de 1740. Los registros históricos completaron el rompecabezas: descartando otros barcos de la época, solo quedaba una posibilidad coherente con todos los datos: el Hind, más tarde Earl of Chatham.

Con el respaldo de instituciones científicas y la implicación de los vecinos, los restos fueron trasladados cuidadosamente a un tanque de agua dulce en el Centro de Patrimonio de Sanday. El objetivo: frenar su descomposición y permitir su estudio y conservación. Gracias a esta colaboración entre ciencia y comunidad, se ha abierto un nuevo capítulo en la historia marítima del Reino Unido.

Fue tras una fuerte tormenta cuando los restos de madera quedaron al descubierto, liberados por primera vez del lecho marino en el que habían permanecido ocultos durante siglos
Fue tras una fuerte tormenta cuando los restos de madera quedaron al descubierto, liberados por primera vez del lecho marino en el que habían permanecido ocultos durante siglos. Foto: PA Media

Una historia que une guerras, ballenas y clima

El naufragio del Earl of Chatham no es solo una anécdota aislada. Es una ventana al siglo XVIII, una época de expansión, conflicto y transformación. Este barco fue testigo de algunos de los eventos más cruciales de su tiempo: la consolidación del imperio británico en América, la pérdida de las colonias del norte, y la carrera industrial por los recursos del mar.

Además, su reciente aparición plantea preguntas sobre el impacto del cambio climático en el patrimonio sumergido. El fenómeno que permitió el redescubrimiento del barco podría repetirse en otras costas. A medida que el nivel del mar cambia y las tormentas se intensifican, más restos del pasado podrían salir a la luz. Pero con cada hallazgo también llega una responsabilidad: la de preservar, estudiar y comprender lo que la historia nos devuelve.

El Hind, o Earl of Chatham, es ahora mucho más que un naufragio rescatado por el azar. Es un testimonio de la resiliencia de la historia, del poder de la colaboración ciudadana y de cómo un simple paseo por la playa puede reescribir lo que creíamos saber sobre el pasado.