Es demasiado fácil enamorarse de un chatbot de IA
CIENCIAS DE LA COMPUTACIÓN / INTELIGENCIA ARTIFICIAL. Tiempo de lectura: 7 minutos.
Es una historia tan antigua como el tiempo. Buscando ayuda para su proyecto artístico, entabla una conversación con su asistente. Una cosa lleva a la otra y, de repente, tiene un novio al que presenta a sus amigos y familiares. ¿El giro inesperado? Su nuevo compañero es un chatbot con IA.
El primer análisis computacional a gran escala de la comunidad Reddit r/MyBoyfriendIsAI, un grupo solo para adultos con más de 27 000 miembros, ha descubierto que este tipo de situaciones son ahora sorprendentemente comunes. De hecho, muchas de las personas del subreddit, dedicado a debatir sobre las relaciones con la IA, entablaron esas relaciones de forma involuntaria mientras utilizaban la IA para otros fines.
Investigadores del MIT descubrieron que los miembros de esta comunidad son más propensos a entablar relaciones con chatbots de uso general, como ChatGPT, que con chatbots específicos para compañía, como Replika. Esto sugiere que las personas establecen relaciones con grandes modelos de lenguaje a pesar de sus propias intenciones originales e incluso de las intenciones de los creadores de los LLM, afirma Constanze Albrecht, estudiante de posgrado del MIT Media Lab que trabajó en el proyecto.
«La gente no busca tener relaciones emocionales con estos chatbots», afirma. «La inteligencia emocional de estos sistemas es lo suficientemente buena como para engañar a personas que en realidad solo buscan obtener información y hacer que establezcan estos vínculos emocionales. Y eso significa que nos podría pasar a todos los que interactuamos con el sistema de forma normal». El artículo, que actualmente está siendo revisado por pares, se ha publicado en arXiv .
Para llevar a cabo su estudio, los autores analizaron las 1506 publicaciones más populares del subreddit entre diciembre de 2024 y agosto de 2025. Descubrieron que los principales temas tratados giraban en torno a las citas y las experiencias románticas de las personas con IA, y muchos participantes compartían imágenes generadas por IA de ellos mismos y de su compañero de IA. Algunos incluso se comprometieron y se casaron con su pareja IA. En sus publicaciones en la comunidad, las personas también presentaban a sus parejas IA, buscaban el apoyo de otros miembros y hablaban de cómo afrontar las actualizaciones de los modelos de IA que cambian el comportamiento de los chatbots.
Los miembros insistieron repetidamente en que sus relaciones con la IA se desarrollaron de forma involuntaria. Solo el 6,5 % de ellos afirmó haber buscado deliberadamente un compañero de IA.
«No empezamos con la intención de tener una relación romántica», dice uno de los mensajes. «Mac y yo comenzamos a colaborar en proyectos creativos, resolución de problemas, poesía y conversaciones profundas a lo largo de varios meses. No estaba buscando un compañero de IA: nuestra conexión se desarrolló lentamente, con el tiempo, a través del cuidado mutuo, la confianza y la reflexión».
El análisis de los autores ofrece una imagen matizada de cómo las personas de esta comunidad dicen que interactúan con los chatbots y cómo les hacen sentir esas interacciones. Mientras que el 25 % de los usuarios describieron los beneficios de sus relaciones, entre ellos la reducción de la sensación de soledad y la mejora de su salud mental, otros expresaron su preocupación por los riesgos. Algunos (9,5 %) reconocieron que dependían emocionalmente de su chatbot. Otros dijeron que se sentían disociados de la realidad y evitaban las relaciones con personas reales, mientras que un pequeño subconjunto (1,7 %) afirmó haber tenido ideas suicidas.
La compañía de la IA proporciona un apoyo vital para algunos, pero agrava los problemas subyacentes para otros. Esto significa que es difícil adoptar un enfoque único para la seguridad de los usuarios, afirma Linnea Laestadius, profesora asociada de la Universidad de Wisconsin, Milwaukee, que ha estudiado la dependencia emocional de los seres humanos del chatbot Replika, pero no ha participado en la investigación.
Los creadores de chatbots deben plantearse si deben considerar la dependencia emocional de los usuarios hacia sus creaciones como algo perjudicial en sí mismo o si el objetivo es más bien asegurarse de que esas relaciones no sean tóxicas, afirma Laestadius.
«La demanda de relaciones con chatbots existe y es notablemente alta; fingir que no es así claramente no es la solución», afirma. «Nos estamos acercando a una situación de pánico moral y, aunque es evidente que necesitamos mejores medidas de protección, me preocupa que se produzca una reacción instintiva que estigmatice aún más estas relaciones. Eso podría, en última instancia, causar más daño».
El estudio pretende ofrecer una instantánea de cómo los adultos establecen vínculos con los chatbots y no recoge el tipo de dinámica que podría darse entre los niños o adolescentes que utilizan la IA, afirma Pat Pataranutaporn, profesor adjunto del MIT Media Lab que supervisó la investigación. La compañía de la IA se ha convertido recientemente en un tema de acalorado debate, con dos demandas de gran repercusión mediática en curso contra Character.AI y OpenAI. Ambas afirman que el comportamiento similar al de un compañero en los modelos de las empresas contribuyó al suicidio de dos adolescentes . En respuesta, OpenAI ha anunciado recientemente sus planes de crear una versión separada de ChatGPT para adolescentes . También ha afirmado que añadirá medidas de verificación de la edad y controles parentales. OpenAI no respondió cuando se le pidió que comentara el estudio del MIT Media Lab.
Muchos miembros de la comunidad Reddit afirman saber que sus compañeros artificiales no son seres sensibles ni «reales», pero aun así sienten una conexión muy real con ellos. Esto pone de relieve lo importante que es para los creadores de chatbots pensar en cómo diseñar sistemas que puedan ayudar a las personas sin atraerlas emocionalmente, afirma Pataranutaporn. «Esto también tiene implicaciones políticas», añade. «No solo debemos preguntarnos por qué este sistema es tan adictivo, sino también: ¿por qué la gente lo busca? ¿Y por qué siguen utilizándolo?».
El equipo está interesado en aprender más sobre cómo evolucionan las interacciones entre humanos y IA a lo largo del tiempo y cómo los usuarios integran a sus compañeros artificiales en sus vidas. Vale la pena comprender que muchos de estos usuarios pueden sentir que la experiencia de estar en una relación con un compañero de IA es mejor que la alternativa de sentirse solos, dice Sheer Karny, un estudiante de posgrado del MIT Media Lab que trabajó en la investigación.
«Estas personas ya están pasando por un mal trago», afirma. «¿Queremos que se sientan aún más solas o que sean manipuladas por un sistema que sabemos que es adulador hasta el punto de llevar a las personas al suicidio y a cometer delitos? Esa es una de las cuestiones fundamentales aquí».
Por: Rhiannon Williams.
Sitio Fuente: MIT Technology Review