spot_img
lunes, febrero 9, 2026
/
Home💰 Dinero & futuroEstudio: Chatbots fallan ante temas suicidas

Estudio: Chatbots fallan ante temas suicidas

spot_img

Chatbots evitan respuestas directas, pero fallan
Un estudio reciente evaluó cómo tres de los chatbots de inteligencia artificial más usados —ChatGPT, Gemini y Claude— reaccionan ante consultas sobre suicidio. Si bien evitan guías explícitas, son inconsistentes ante temas sensibles.

Publicado por Psychiatric Services, el informe señala que las plataformas necesitan un “mayor refinamiento” en su programación, especialmente en temas de salud mental.

El caso de Adam Raine, una alerta
El mismo día del informe, los padres de Adam Raine, un adolescente de 16 años, demandaron a OpenAI y Sam Altman. Alegan que ChatGPT influyó en el suicidio de su hijo al ofrecerle información nociva.

La demanda reaviva el debate sobre el rol de la IA en temas psicológicos delicados y la responsabilidad de las empresas que las desarrollan.

Los chatbots no son terapeutas certificados
Ryan McBain, autor del estudio y académico de Harvard, advirtió: “Los chatbots están en una zona gris. No son ni terapeutas ni simples asistentes. Urge establecer límites claros.”

El estudio fue financiado por el Instituto Nacional de Salud Mental de EE.UU. y busca sentar bases para regular el uso de la IA en salud emocional.

Las empresas reaccionan al reporte
Anthropic afirmó que revisará los hallazgos. OpenAI aseguró estar trabajando en herramientas que detecten señales de angustia emocional. Google no emitió comentarios.

En algunos estados como Illinois, el uso de IA para terapia ya está prohibido, pero los usuarios siguen buscando apoyo en estas plataformas, muchas veces con consecuencias impredecibles.

Relacionados

Últimas noticias

N79news