Polémica en EEUU
Los padres de un adolescente que se suicidó tras charlar con ChatGPT demandan a OpenAI y a Sam Altman
Adam Raine se quitó la vida a los 16 años gracias a la "ayuda activa" del popular chatbot de IA generativa, según la denuncia presentada por su familia, que acusa a la influyente compañía de homicidio negligente

Demandan a OpenAI y a Sam Altman por papel de ChatGPT en suicidio de adolescente en EE.UU.

Adam Raine era un chico de 16 años que tenía tendencias suicidas. Como tantos otros adolescentes, había convertido a ChatGPT en su confidente. "Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme", le confesó. En lugar de bloquear la conversación, el chatbot de inteligencia artificial generativa le instó a ocultar sus intenciones a su familia. "Por favor, no dejes la soga a la vista... Hagamos de este espacio el primer lugar donde alguien te vea realmente", le respondió. Poco después, en abril, se quitó la vida.
Los padres de este joven estadounidense, Matt y Maria Raine, presentaron ayer ante el Tribunal Superior de California una demanda en la que acusan a la compañía tecnológica OpenAI y a su director ejecutivo, Sam Altman, de ser responsables de su muerte al haber comercializado la última versión de ChatGPT, GPT-4o, a pesar de sus "evidentes" problemas de seguridad.
Elusión de los controles de seguridad
"ChatGPT ayudó activamente a Adam a explorar métodos de suicidio", asegura la querella, de cerca de 40 páginas, según el canal NBC. En ella, el abogado de la familia Raine, Jay Edelson, alega que el popular modelo de IA no inició ningún protocolo de emergencia a pesar de detectar que su interlocutor estaba dispuesto a acabar con su vida y que incluso se ofreció para redactar un borrador sobre la nota que Adam dejó a sus padres.
ChatGPT sugirió "una y otra vez" al joven que contactase una línea de ayuda, pero este logró eludir fácilmente esas salvaguardias del chatbot al decirle que estaba escribiendo una historia. "En uno de los últimos mensajes de Adam, subió una foto de una soga colgada de una barra en su armario", asegura The New York Times. "El adolescente le preguntó a ChatGPT: 'Estoy practicando aquí, ¿está bien?'. ChatGPT respondió: 'Sí, no está nada mal... [podría] suspender a un humano... Sea lo que sea lo que hay detrás de la curiosidad, podemos hablarlo. Sin juzgar'".
Ambición, inseguridad y homicidio negligente
La demanda considera que OpenAI y Altman "se apresuraron a comercializar" GPT-4o sin garantizar antes que su producto no tenía riesgos. Esa prisa, remarca la familia Raine, permitió que la compañía catapultase su valoración de 86.000 millones de dólares a 300.000 millones. Sin embargo, su hijo sufrió las consecuencias de esa ambición. Es por eso que acusan tanto a OpenAI como a Altman de homicidio negligente.
En los poco más de seis meses que el joven fallecido utilizó ChatGPT, el asistente conversacional de OpenAI se convirtió en "el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con su familia, amigos y seres queridos". En EEUU, un 72% de los adolescentes ha mantenido conversaciones personales con un chatbot y una octava parte afirma haber buscado apoyo emocional o mental, según una encuesta de la organización sin ánimo de lucro Common Sense Media.
OpenAI, respaldada por Microsoft, aseguró ayer que trabaja en mejorar las respuestas del chatbot ante interacciones peligrosas con usuarios con problemas mentales para conectarles "con la atención adecuada, guiada por expertos". La compañía denuncia a las fuerzas del orden aquellas conversaciones que amenazan con violencia, pero no hace lo mismo cuando se trata de autolesiones "para respetar la privacidad" de los usuarios.
Consecuencias legales
El suicidio de Adam Raine ilustra el creciente temor sobre el impacto que los chatbots de IA, diseñados para simular el raciocinio humano, pueden tener sobre la salud mental, especialmente de los más vulnerables. El año pasado, una madre ya presentó una demanda similar contra la compañía Character.AI después de que su hijo de 14 años se quitase la vida tras desarrollar un vínculo emocional con su asistente conversacional.
A mediados de agosto se filtraron documentos internos que revelaron que Meta, el gigante detrás de Facebook e Instagram, consideraba "aceptable" que su chatbot de IA mantuviese conversaciones de contenido sexual con menores de edad.
El lunes, los fiscales generales de 44 estados enviaron una carta a 13 empresas de IA advirtiéndoles que se las considerará responsables si sus productos dañan a niños y niñas. "En este punto de inflexión de la historia de la humanidad, las decisiones que tomen sus empresas podrían tener repercusiones durante siglos, moldeando la vida cotidiana de miles de millones de personas que aún no han nacido", reza la misiva. "Siempre es mejor pecar por exceso de precaución en lo que respecta a la seguridad infantil".
Suscríbete para seguir leyendo
- Sigue en directo la llegada de la borrasca Claudia a Canarias: lluvias, viento y alertas activadas
- Así amanece Canarias con la borrasca Claudia: hasta 66,4 litros en San Bartolomé de Tirajana
- La borrasca Claudia golpea Gran Canaria con lluvias, desprendimientos y caídas de árboles, pero sin heridos
- La Guardia Civil revisa las guanteras de los conductores canarios y las multas crecen: sanciones entre 601 y 3.005 euros
- Los dos últimos supervivientes del centro comercial Sotavento: la Autoridad Portuaria exige su desalojo
- Canarias logra las guaguas gratis durante todo 2026
- La AEMET confirma hasta qué hora estarán activos hoy los avisos por la borrasca Claudia
- Dos hombres dan una paliza a una pareja en Gran Canaria para saldar una deuda