En los últimos años, las inteligencias artificiales generativas han sorprendido al mundo con respuestas creativas, textos fluidos y hasta diagnósticos que parecen salir de un especialista. Pero un fenómeno inquietante acompaña a este despegue tecnológico: las llamadas alucinaciones, respuestas que no corresponden a hechos verificables y que, sin embargo, son expresadas con total confianza. El problema es que la máquina no distingue entre lo cierto y lo plausible.
Los estudios más recientes apuntan a una explicación sencilla pero potente. Los modelos de lenguaje no fueron diseñados para decir la verdad, sino para predecir la palabra siguiente en una secuencia. Es decir, se entrenan para sonar convincentes, no necesariamente para ser precisos. Investigadores como Ziwei Ji lo definen como un desajuste entre el objetivo del entrenamiento y la expectativa del usuario: buscamos información confiable y recibimos algo que suena bien, aunque sea erróneo.
Así, cuando un modelo se enfrenta a preguntas muy específicas, poco comunes o que requieren datos actualizados, es más probable que complete el vacío con invenciones. Para el usuario desprevenido, la diferencia entre un hecho y una ilusión puede ser invisible. La IA no miente a propósito, simplemente completa huecos como lo haría un narrador improvisado.
Cómo se mide la mentira digital
Ante la magnitud del problema, la comunidad científica ha diseñado experimentos para poner a prueba la veracidad de las respuestas. Uno de los más citados es TruthfulQA, un conjunto de preguntas que detecta si la IA cae en mitos populares o repite errores comunes en internet. La prueba muestra que, cuanto más confiado suena un modelo, más fácil es que el usuario crea en un error.
Otros métodos, como SelfCheckGPT, proponen que el propio modelo se audite: se le piden varias respuestas a la misma pregunta y luego se comparan entre sí. Si aparecen contradicciones internas, es probable que se trate de una alucinación. Este enfoque no necesita acceso a bases externas, lo que lo hace atractivo para sistemas que deben dar respuestas en tiempo real.
Además, estudios recientes han clasificado las alucinaciones en diferentes tipos: desde las puramente inventadas hasta aquellas que mezclan datos ciertos con falsedades sutiles. La ciencia ya no se limita a denunciar el problema, ahora lo disecciona como un fenómeno complejo y medible.

Estrategias para aterrizar la imaginación
Para reducir las alucinaciones, investigadores proponen conectar los modelos con fuentes externas verificables, como bases de datos o buscadores. Este método, conocido como Retrieval-Augmented Generation (RAG), obliga a la IA a fundamentar su respuesta en documentos concretos en lugar de inventar. El reto ya no es solo generar palabras, sino citarlas con evidencia.
Un ejemplo avanzado es RA-DIT, un sistema que entrena simultáneamente al modelo y al motor de búsqueda interno, mejorando la precisión de las citas. Según los resultados, esta técnica reduce la invención en áreas especializadas como la medicina o el derecho, donde un error puede ser costoso.
Pero no todo depende de bases de datos. Otro enfoque prometedor es la Chain-of-Verification (CoVe): la IA primero redacta una respuesta, luego planifica preguntas de verificación y finalmente reescribe el texto con esas comprobaciones. Este proceso de autocorrección demuestra que incluso los sistemas automatizados necesitan “leer dos veces” antes de publicar.
Herramientas, filtros y límites necesarios
Más allá de verificar, algunos experimentos enseñan a las IA a usar herramientas externas, como calculadoras o traductores, para no inventar resultados. El proyecto Toolformer demostró que un modelo puede aprender a invocar estos recursos cuando detecta una necesidad puntual.
El mensaje es claro: una IA sin herramientas puede ser creativa, pero con herramientas se vuelve más confiable.
Otros equipos exploran la detección en tiempo real. Si el sistema identifica que sus respuestas cambian según la muestra o carecen de respaldo, puede abstenerse de contestar o advertir al usuario. La idea es sencilla: más vale un “no sé” honesto que una invención elegante.
Finalmente, el diseño de las preguntas importa. Instrucciones claras que exijan referencias, que limiten el campo de respuesta y que premien la honestidad del “no tengo información” disminuyen la frecuencia de alucinaciones. La interacción humana sigue siendo clave para domar la imaginación artificial.
El papel de los usuarios
Aunque las soluciones tecnológicas avanzan rápido, el otro lado de la ecuación somos nosotros. Para el público, entender que la IA “completa” más que “responde” es un paso esencial. La confianza ciega en un texto fluido puede ser peligrosa.
Los expertos recomiendan adoptar hábitos de verificación similares a los del periodismo: desconfiar de lo demasiado perfecto, pedir fuentes, comparar con otras referencias y, cuando sea posible, corroborar en documentos oficiales. La IA puede ser un punto de partida, pero no el destino final de una búsqueda. De fondo, este debate refleja algo más grande: la forma en que convivimos con tecnologías que parecen humanas, pero no lo son. Igual que aprendimos a detectar bulos en redes sociales, ahora toca entrenar nuestro ojo crítico frente a las máquinas. La clave no es dejar de usarlas, sino aprender a desconfiar en el momento justo.

De Atapuerca a la inteligencia artificial: la edición de Muy Interesante número 533 explora el fenómeno de las alucinaciones en la inteligencia artificial
Las máquinas no sueñan, pero a veces lo parece. Los sistemas de inteligencia artificial, que la mayoría de nosotros ya usamos a diario, generan respuestas que no esperamos y que rozan lo absurdo o la mentira. Son errores, sí, pero también espejos de la complejidad de los algoritmos que los sostienen. Las llamamos «alucinaciones», un término que evoca locura y fantasía, pero que en realidad nos habla de un reto científico concreto: comprender cómo piensan las máquinas. ¿Son esas ocurrencias producto de una mente propia, de una conciencia? En Burgos, una exposición sobre la niñez en Atapuerca nos muestra cómo cooperación, ternura y violencia se entretejían ya en las primeras etapas de nuestra especie. Y frente al misterio del origen, el del final: ¿qué ocurre en el cerebro cuando morimos? Y cuando miramos al presente del planeta nos encontramos con que pronto podríamos habitar un mundo con menos humanos, que hay discapacidades que siguen esperando ser reconocidas, que en las aguas del océano la huella humana ahoga ecosistemas enteros, y que en los laboratorios de matemáticas, nuevas fórmulas permiten diseñar estructuras más ligeras y sostenibles. Te invitamos a un viaje por lo que somos y lo que podríamos llegar a ser. Porque el verdadero desafío no está solo en las máquinas que alucinan, sino en nuestra capacidad de mirar el mundo con curiosidad, sin miedo a las preguntas que todavía no sabemos contestar. La aventura del saber continúa.
Alucinaciones de la IA
¿Cuántas historias de ciencia ficción se habrían quedado sin escribirse jamás si siempre hubiéramos asumido que la inteligencia artificial era infalible? Casi todas ellas parten de la misma premisa: la de que las IA son lógicas, objetivas, fiables… hasta que dejan de serlo. Y es que, sin inteligencias artificiales que muestren comportamientos impredecibles los escritores no tendrían prácticamente nada que contar. Sin embargo, lo que es un recurso magnífico para escribir historias podría convertirse en un quebradero de cabeza considerable si sucediera en el mundo real. ¿O deberíamos decir que ya se ha convertido en un quebradero de cabeza considerable? Porque, en realidad, ya está sucediendo.
Sigue leyendo este artículo de Gisela Baños en la edición impresa o digital.
Reportajes
- Sueños rotos. Una exposición en el Museo de la Evolución de Burgos nos adentra en el mundo de la niñez en Atapuerca, por Juan Luis Arsuaga y Raquel Asiain.
- ¿Qué sucede en nuestro cerebro cuando morimos? Los científicos se preguntan si la mente puede sobrevivir más allá del cerebro, porque morir es un proceso tan misterioso como complejo, por Miguel Ángel Sabadell.
- Hacia un planeta con menos humanos. A finales de este siglo, la población humana, tras alcanzar su techo, empezará a menguar debido a la caída general de la natalidad en todo el mundo, por Javier Rada.
- Alucinaciones de la IA. En ocasiones, la inteligencia artificial parece que tiene conciencia propia. ¿Puede llegar a pensar sola?, por Gisela Baños.
- ¿Dónde hay que poner los agujeros? Las matemáticas, la física y la computación se alían para diseñar estructuras más ligeras, eficaces y sostenibles, por Alberto Donoso, José Carlos Bellido, Ernesto Aranda y David Ruiz.
- Discapacidades invisibles. Muchas enfermedades, por la dificultad de su diagnóstico, están entre las grandes olvidadas del sistema de salud, por Laura G. Rivera.
- La zona muerta. El número de desiertos oceánicos, donde la vida marina perece asfixiada, no deja de crecer, por Laura G. Rivera.
- Infancia, adolescencia y educación en el antiguo Egipto. A diferencia de otras civilizaciones, en Egipto la infancia era venerada y respetada como un regalo de los dioses, por María Isabel Alcántara Moreno.
Entrevistas
- Antonio Turiel. El físico y divulgador científico nos explica los retos del cambio a una sociedad sostenible y la necesidad de una transición energética real, por Carmen Castellanos.
- Jonathan Benito. El neurocientífico nos habla de la amabilidad, una herramienta que nos ayuda a ser más felices y a vivir mejor, por Gema Boiza.
Firmas
- Gran Angular. Abrocharse la casaca, por Jorge de los Santos.
- Hablando de ciencia. «La guerra del talento» o cómo vender pseudociencia a las grandes compañías, por Miguel Ángel Sabadell.
- Palabras cruzadas. Científicamente no probado, por Lucía Sesma.
- Pensamiento crítico. Qué significa «Conócete a ti mismo», por David Pastor Vico.
- Tecnocultura. Mirando a la gente mirar, por Javier Moreno.
- Neurociencia. La mente de un mosquito, por Manuel Martín-Loeches.
- Pinceladas de meteorólogo. Paisajes otoñales en la pintura, por José Miguel Viñas.
