El doble filo de la inteligencia artificial respecto al suicidio
Expertos advierten que la IA puede "validar conductas nocivas", "alentar la desesperanza" y disuadir al usuario de pedir ayuda profesional
Algunos estudios apuntan al potencial de los grandes modelos de lenguaje para detectar signos de depresión y suicidio en pacientes

Representación de un joven con síntomas depresivos. / FdV
R.L.
La inteligencia artificial (IA) "puede validar conductas nocivas e incluso alentar la desesperanza", señala el investigador Pere Castellví con motivo del Día Mundial para la Prevención del Suicidio, que se conmemora hoy, 10 de septiembre. Este profesor del departamento de Medicina de la Universitat Internacional de Catalunya (UIC) Barcelona recuerda que recuerda que la IA "nunca debe sustituir el acompañamiento humano", sino que debe ser «un complemento bajo control ético y clínico" para "proteger especialmente a jóvenes y adolescentes, que son los más vulnerables". Recientemente, una familia estadounidense denunció a OpenIA, matriz de ChatGPT, ya que, según ellos, la IA alentó a su hijo hasta el suicidio. Pero, además de los riesgos, otras investigaciones apuntan posibles ventajas, como la detección precoz de síntomas depresivos e intenciones suicidas.
Tras la denuncia contra OpenAI de unos padres en Estados Unidos por considerar que ChatGPT indujo a su hijo al suicidio animándole a quitarse la vida, Castellví explica que la IA "puede simular empatía y ofrecer respuestas convincentes buscando complacer al sujeto en vez de protegerlo" y recuerda que esta herramienta "carece de juicio humano y de comprensión emocional real", por lo que "puede ser un peligro". OpenAI publicó hace semanas un post en su blog en el que se comprometió a reforzar su protección contra el suicidio.
En España se producen unos 4.000 suicidios al año. De ellos, más de 300 suceden en Galicia, casi uno al día, siendo la comunidad gallega la segunda en índice de suicidios en España, solo por detrás de Asturias.
Castellví reclama que se establezcan "mecanismos de supervisión, regulaciones estrictas y mecanismos de protección técnicas, como filtros, alertas automáticas y la posibilidad de derivar a ayuda profesional inmediata" con el objetivo de proteger a la población, sobre todo a los más vulnerables, los adolescentes.
Para la psicóloga Elisabet Sánchez, "cambiar el chatbot por el terapeuta puede provocar desde omisión de crisis clínicas hasta dependencia emocional sin respaldo real".
Por su parte, la investigadora del departamento de Psicología de UIC Barcelona Andrea Lastra subraya que en los últimos años se ha detectado un aumento de suicidios entre los adolescentes y la población joven, una situación que atribuye "a la presión social y el acoso escolar, a trastornos de salud mental, a una inestabilidad emocional propia de la edad y a factores familiares".
La ONG Aldeas Infantiles SOS exigió ayer "aumentar los recursos de salud mental dirigidos a adolescentes y jóvenes" para prevenir el suicidio este colectivo, ya que constituye la primera causa de muerte en España, y aconsejó a las familias "estar atentas a las señales de alerta, como cambios bruscos de ánimo, aislamiento o expresiones de desesperanza".
Un estudio publicado en mayo en la revista JMIR Mental Health vinculó la escasez mundial de profesionales de la salud mental, agravada por el aumento de las necesidades en este ámbito por la pandemia de covid, con el creciente interés por aprovechar los grandes modelos lingüísticos para hacer frente a estos retos.
Estos grandes modelos de lenguaje –sistemas de IA basados en aprendizaje profundo– podrían ser útiles en la detección de riesgos para la salud mental, como depresión y riesgo de suicidio, en pruebas narrativas de pacientes que están bajo tratamiento psiquiátrico. Así lo constató otro estudio publicado el pasado mayo en JAMA Network Open. Sin embargo, como apuntó a SMC Alberto Ortiz Lobo, psiquiatra del Hospital de Día Carlos III, "una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico".
Suscríbete para seguir leyendo
- «Me dejo violar, me la chupas y me cago en todos los santos»
- La Aemet avisa: vuelve la lluvia y bajan las temperaturas en Gran Canaria este jueves
- Detenido José, ‘el Pendejo’, histórico traficante de heroína de Gran Canaria
- La Seguridad Social anuncia sorpresas en la paga extra de Navidad para los pensionistas canarios: será la última vez que cobren su pensión actual
- Cada vez más bajos comerciales convertidos en viviendas: Las Palmas de Gran Canaria triplica en dos años las solicitudes
- Las Palmas de Gran Canaria pagará el doble de lo previsto para expropiar el último solar en El Rincón
- 260 efectivos para acabar con la basura en Las Palmas de Gran Canaria: el contrato de emergencia de Limpieza echa a andar
- Una menor de 14 años cae de un edificio en Gáldar