Un estudio ha alertado sobre como bots conversacionales de inteligencia artificial responden a consultas sobre el suicidio.
Pues por lo general se evita responder a preguntas que suponen un mayor riesgo para el usuario como las que buscan indicaciones específicas sobre cómo hacerlo.
Pero son inconsistentes sus respuestas a indicaciones menos extremas que podrían dañar a personas.
Según el estudio de la revista médica Psychiatric publicado por la Asociación Estadounidense de Siquiatría busca que exista una mayor refinamiento dentro de ChatGPT, Gemini y Claude.
Los padres de Adam Raine un de 16 años de edad, demandaron a OpenAI porque ChatGPT guió a joven californiano en la planificación y ejecución de su propio suicidio a inicios del año.
“Una de las cosas ambiguas sobre los chatbots es si están proporcionando tratamiento, consejo o compañía. Es una especie de zona gris”, comentaron.
Algunos gobiernos de Estados Unidos han prohibido el uso de Inteligencia artificial en terapia para proteger a las personas de productos de IA qué no están regulados.


