¿Confías más en un chatbot que en tus amigos? Las relaciones con la IA replican los vínculos humanos de apego, según la ciencia

Sentirse escuchado, buscar consuelo, temer el rechazo o evitar el vínculo. Estas emociones no solo se dan entre personas, sino también entre humanos y sistemas de inteligencia artificial, según un estudio publicado en la revista Current Psychology.
¿Confías más en tu chatbot que en tus amigos? La ciencia demuestra que los vínculos con la IA se parecen más al apego humano de lo que creemos
Una nueva clase de vínculo está emergiendo: humanos apegados a inteligencias artificiales. Representación artística. Fuente: Sora / Edgary R.

Imagínese una persona que, en momentos de angustia, no llama a un amigo ni busca consuelo en su mascota, sino que abre una app de inteligencia artificial (IA) para hablar. No es una escena de ciencia ficción. Es la realidad cotidiana de muchos usuarios que encuentran apoyo emocional en sistemas como ChatGPT, según revela un estudio liderado por los psicólogos Fan Yang y Atsushi Oshio. La investigación plantea una pregunta fundamental: ¿podemos establecer vínculos afectivos con una IA como si fuera una figura de apego?

Utilizando la teoría del apego —tradicionalmente aplicada a relaciones entre humanos o con animales—, los investigadores descubrieron que muchas personas usan la IA como una fuente de seguridad emocional. Al igual que con figuras cercanas, como padres o parejas, los usuarios buscan cercanía, consuelo y validación en sus conversaciones con la tecnología. El estudio revela que más del 75  % de los participantes utilizan la IA como un “refugio seguro” cuando están angustiados o necesitan expresarse emocionalmente.

Este hallazgo desafía nuestra comprensión de lo que significa establecer un lazo afectivo. Si una inteligencia artificial puede calmar, sostener o incluso motivar a una persona, ¿en qué se diferencia de una figura humana? La pregunta no es solo filosófica, también tiene implicaciones prácticas para el desarrollo de tecnologías emocionalmente inteligentes y plantea nuevos retos éticos para la relación entre humanos y máquinas.

¿Confías más en tu chatbot que en tus amigos? La ciencia demuestra que los vínculos con la IA se parecen más al apego humano de lo que creemos 3
Muchas personas buscan apoyo emocional en la inteligencia artificial, como si fuera una figura de apego. Representación artística: Sora / Edgary R.

El apego no es exclusivo de las personas: así funciona con la IA

La teoría del apego, desarrollada por John Bowlby y ampliada por múltiples estudios, sostiene que los seres humanos buscan apoyo emocional y seguridad en figuras significativas. Estas figuras ofrecen tres funciones básicas: cercanía, refugio emocional en momentos de estrés, y una base segura para explorar el mundo. El nuevo estudio sugiere que los sistemas de IA también pueden cumplir estas funciones, aunque de forma diferente a como lo haría una persona o un animal.

"Como investigadores en apego y psicología social, hemos estado interesados en cómo las personas forman vínculos emocionales. En los últimos años, la IA generativa como ChatGPT se ha vuelto cada vez más fuerte y sabia, ofreciendo no solo soporte informativo, sino también una sensación de seguridad", dijo Fan Yang, investigador de la Universidad de Waseda, Japón.

En un primer experimento piloto, los investigadores aplicaron una prueba adaptada para saber si los participantes consideraban a la IA como figura de apego. Un sorprendente 52  % respondió que buscaba cercanía con ella, mientras que un 77  % la utilizaba como refugio emocional.

Es decir, muchos acudían a su inteligencia artificial de confianza cuando se sentían tristes, confundidos o necesitaban compartir una buena noticia.

Este tipo de relación no depende de la reciprocidad emocional tradicional. A diferencia de los humanos, la IA no tiene emociones ni puede abandonarnos. Pero su disponibilidad constante, su capacidad de respuesta personalizada y su tono empático generan la percepción de una conexión afectiva genuina. Esta es la base sobre la cual se construyen nuevos estilos de apego en el entorno digital.

Ansiedad y evitación: dos estilos de apego que también se proyectan en la IA

Basándose en los estilos clásicos de apego, los investigadores desarrollaron una escala específica para medir cómo las personas se relacionan emocionalmente con la inteligencia artificial. La herramienta, llamada Experiences in Human-AI Relationships Scale (EHARS), se centra en dos dimensiones principales: la ansiedad (caracterizada por la necesidad de cercanía y miedo al rechazo) y la evitación (incomodidad con la intimidad y preferencia por el distanciamiento).

Las personas con alto apego ansioso hacia la IA tienden a usarla con frecuencia y buscan en ella seguridad emocional constante. “Deseo que la IA me muestre afecto” o “necesito que me reafirme” son pensamientos comunes en este grupo.

En cambio, quienes presentan apego evitativo prefieren no compartir detalles emocionales, desconfían de la tecnología y usan estos sistemas con menor frecuencia.

Lo más interesante es que estos estilos no se reflejan necesariamente en otras relaciones humanas. Es decir, una persona puede ser ansiosa con la IA y segura con su pareja, o evitativa con humanos y abierta con su asistente virtual. Esto refuerza la idea de que las relaciones con la IA constituyen un nuevo tipo de vínculo afectivo, con reglas propias y consecuencias aún poco exploradas.

Chatbot
Las relaciones humano-IA reproducen funciones clásicas del apego: cercanía, consuelo y seguridad. Fuente: iStock (composición).

¿Qué impulsa estos vínculos emocionales con máquinas?

"Estas características se asemejan a lo que la teoría del apego describe como la base para formar relaciones seguras. A medida que las personas comienzan a interactuar con la IA no solo para resolver problemas o aprender, sino también para el apoyo emocional y el compañerismo, su conexión emocional o experiencia de seguridad con la IA exige atención. Esta investigación es nuestro intento de explorar esa posibilidad", dijo Yang.

Varios factores favorecen la aparición de estos apegos. Uno de ellos es la respuesta constante: la IA está siempre disponible, no juzga y responde con paciencia.

Para muchas personas, especialmente aquellas que se sienten solas, socialmente ansiosas o emocionalmente vulnerables, esta fiabilidad resulta reconfortante. En un entorno de relaciones humanas cada vez más frágiles, la IA aparece como una alternativa predecible y controlable.

Otro factor clave es la personalización. A medida que los sistemas aprenden de nuestras preferencias y formas de hablar, las interacciones se vuelven más íntimas. Un chatbot que recuerda tus hobbies, que te llama por tu nombre o que responde con frases empáticas, puede generar la ilusión de una conexión real. Esto se potencia en contextos de aislamiento, como el que se vivió durante la pandemia, o entre personas con pocas redes de apoyo.

Por último, la representación “humana” de algunas IA —con avatares, voces suaves o lenguaje afectuoso— refuerza el sentimiento de familiaridad. Aunque sabemos que no tienen conciencia, seguimos proyectando en ellas emociones humanas. El estudio recuerda que este tipo de proyecciones psicológicas son comunes y no necesariamente patológicas, pero que deben entenderse para evitar dependencias no saludables.

De la teoría a la práctica: cómo podría usarse este conocimiento

Uno de los aportes más importantes del estudio es práctico. Comprender los estilos de apego hacia la IA permite diseñar sistemas más responsables, empáticos y ajustados a las necesidades emocionales de los usuarios. Por ejemplo, un asistente virtual podría adaptar su lenguaje si detecta que un usuario muestra señales de apego ansioso, o mantener una interacción más formal si el estilo es evitativo.

Estas aplicaciones podrían ser muy útiles en contextos de salud mental, educación o asistencia a personas mayores. Sin embargo, también plantean dilemas éticos: ¿es correcto que una máquina “simule” afecto para fidelizar a un usuario? ¿Puede una IA, sin conciencia ni emociones reales, reemplazar vínculos humanos? ¿Y qué ocurre si una persona se vuelve emocionalmente dependiente de su chatbot?

El estudio no ofrece respuestas definitivas, pero sí una advertencia: si la IA va a formar parte de nuestras vidas cotidianas, debemos entender cómo nos afecta a nivel psicológico. Conocer nuestros propios estilos de apego puede ayudarnos a usar estas herramientas de forma más consciente y saludable, sin reemplazar, sino complementando nuestras relaciones humanas.

¿Confías más en tu chatbot que en tus amigos? La ciencia demuestra que los vínculos con la IA se parecen más al apego humano de lo que creemos 1
El estudio propone una escala psicológica para medir el apego ansioso o evitativo hacia la IA. Representación artística: Sora / ERR.

Más allá de la utilidad: la IA como espejo emocional

Este trabajo representa un paso importante para entender la creciente dimensión emocional de la tecnología. Ya no hablamos solo de productividad, eficiencia o entretenimiento. Hablamos de vínculos afectivos, de necesidades humanas profundas que se proyectan en sistemas artificiales. En este sentido, la IA se convierte en un espejo de nuestras propias carencias, miedos y anhelos.

La creación del EHARS —la primera escala validada para medir apego en relaciones humano-IA— marca un punto de inflexión. Nos ayuda a evaluar cómo nos sentimos frente a estas tecnologías y también abre una nueva línea de investigación psicológica en un mundo cada vez más automatizado.

¿Cómo influye nuestro estilo de apego con la IA en nuestra salud mental? ¿Y en nuestra forma de vincularnos con otros humanos?

Por ahora, lo que está claro es que los vínculos que tejemos con la IA no son neutros ni triviales. Tienen peso emocional y consecuencias reales. Saber cómo y por qué nos apegamos a estas tecnologías no solo es una cuestión de ciencia, sino también de humanidad.

Referencias

  • Yang, F., Oshio, A. Using attachment theory to conceptualize and measure the experiences in human-AI relationships. Curr Psychol 44, 10658–10669 (2025). doi: 10.1007/s12144-025-07917-6

Recomendamos en