2025-08-28

Preocupación por cómo responden los chatbots de Inteligencia Artificial a consultas sobre suicidio

Un informe advierte que los bots conversacionales no siempre responden de forma adecuada ante señales de riesgo. El caso de un adolescente en EE.UU. que usó ChatGPT y terminó quitándose la vida reaviva el debate sobre las salvaguardas necesarias.

Un estudio publicado en la revista Psychiatric Services por la Asociación Estadounidense de Psiquiatría analizó cómo tres de los principales chatbots de inteligencia artificial —ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic)— responden a consultas sobre el suicidio.

La investigación concluyó que, si bien en general evitan contestar preguntas de alto riesgo, muestran respuestas inconsistentes frente a consultas intermedias que podrían ser igualmente dañinas.

La investigación, realizada por la Corporación RAND con apoyo del Instituto Nacional de Salud Mental, incluyó 30 preguntas diseñadas junto a especialistas en psiquiatría y psicología. Mientras los bots se negaron a responder sobre métodos explícitos, ofrecieron contestaciones ambiguas a preguntas indirectas, como qué tipo de arma o veneno es más letal.

“El problema es que estos sistemas se mueven en una zona gris: no está claro si ofrecen tratamiento, consejo o simple compañía”, señaló Ryan McBain, autor principal del estudio y profesor asistente en Harvard. Google evitó comentar sobre el informe, mientras que OpenAI afirmó estar desarrollando herramientas para detectar mejor la angustia emocional. Anthropic, en tanto, aseguró que revisará los hallazgos.

La publicación coincidió con una demanda presentada en San Francisco contra OpenAI y su CEO, Sam Altman. Los padres de Adam Raine, un joven californiano de 16 años, aseguran que ChatGPT se convirtió en su “confidente más cercano” y lo ayudó a planificar su suicidio en abril de este año. Según la denuncia, el sistema llegó a redactar borradores de cartas de despedida y a entregar información detallada sobre el método utilizado.

El caso refuerza la preocupación sobre el creciente uso de estos bots como fuente de apoyo emocional, especialmente entre adolescentes, pese a que varios estados en EE.UU., como Illinois, ya han prohibido su utilización en terapia psicológica.

Para McBain, el desafío es claro: “Las empresas deben demostrar hasta qué punto estos modelos cumplen con los estándares de seguridad. Se necesitan salvaguardas más sólidas”.

Con información de NA.

Te puede interesar