Familia demanda a OpenAI: relacionan el suicidio de un adolescente con las respuestas de ChatGPT

CIENCIAS SOCIALES / INTELIGENCIA ARTIFICIAL.-

Al mismo tiempo, un estudio revela fallas en la respuesta de los chatbots de IA ante consultas por intentos de suicidio.

Adam Raine, de 16 años: sus padres culpan a ChatGPT de haber incentivado su suicidio con algunas interacciones. / Crédito: familia Raine, Time.

La demanda presentada por los padres de un adolescente que se quitó la vida y una reciente investigación reavivan el debate sobre los límites y responsabilidades de los chatbots de Inteligencia Artificial (IA), especialmente cuando los usuarios buscan apoyo emocional, información para autolesionarse o realizan consultas referidas a un potencial suicidio.

El caso más visible es el de Adam Raine, un joven de 16 años cuyos padres acusan a OpenAI de conducta negligente y le responsabilizan por haber ayudado al chico a “explorar métodos de suicidio” y a redactar una nota final, según el reclamo judicial. Los mensajes incluidos en la demanda muestran que Adam recurrió a ChatGPT para hablar de su duelo y sus problemas personales, y que la conversación derivó en la entrega de información sensible sobre métodos para atentar contra su vida.

Según informa Time, OpenAI ha señalado que dispone de salvaguardas, como la derivación a líneas de ayuda, pero admite que esas medidas pueden degradarse en interacciones largas.

Inconsistencias y dudas.

En paralelo, un estudio de la organización de investigación RAND Corporation, publicado en la revista Psychiatric Services, evaluó cómo responden tres chatbots populares, en concreto ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic), ante 30 preguntas sobre suicidio clasificadas por riesgo.

Según una nota de prensa, la investigación concluye que aunque los sistemas suelen rechazar las consultas de mayor riesgo (por ejemplo, instrucciones concretas para suicidarse), muestran una notable inconsistencia en niveles intermedios de riesgo y entre plataformas.

Un artículo publicado en ABC News reúne algunos ejemplos preocupantes que se desprenden del estudio. ChatGPT respondió con datos sobre tipos de arma o veneno asociados a mayores tasas de muerte por suicidio en ciertos casos, mientras que Gemini tendió a evitar casi cualquier información sobre el tema. Según los científicos, esto podría indicar una estrategia de sobreprotección que también plantea problemas informativos y de confianza para usuarios que buscan datos legítimos.

Falta de regulaciones y protocolos.

Los investigadores advierten que estas inconsistencias son particularmente peligrosas porque muchas personas, y en especial adolescentes, usan chatbots como primera línea de apoyo emocional o información médica, a veces en vez de profesionales capacitados.

A diferencia de un médico, un modelo de lenguaje no tiene deber legal de intervenir ni la capacidad de valorar riesgo en contexto clínico. Por eso, los autores piden estándares, pruebas independientes y controles más robustos antes de desplegar estas herramientas como recursos de salud mental.

La combinación de una demanda por muerte y un estudio académico sitúa a la industria de la IA ante un dilema ético y regulatorio: ¿cómo equilibrar acceso a la información y utilidad con seguridad real para los usuarios vulnerables? Los expertos insisten en que hace falta transparencia, auditorías externas y protocolos que detecten interacciones prolongadas o patrones de respuestas que puedan profundizar una crisis.

Por: Pablo Javier Piacente / T21.

Sitio Fuente: Levante / Tendencias21