El suicidio de un adolescente desató una crisis en OpenAI. Ya tenemos las primeras medidas que llegarán a ChatGPT

El suicidio de un adolescente desató una crisis en OpenAI. Ya tenemos las primeras medidas que llegarán a ChatGPT

Los chatbots de IA están en el punto de mira por sus posibles riesgos sobre la salud mental, en especial ChatGPT. Hace poco ahondamos en esta problemática a raíz de las acusaciones de que ChatGPT era el culpable de causar delirios y hasta el suicidio de un adolescente en Estados Unidos. Aunque ya vimos que la realidad es mucho más compleja que un simple “la culpa es de la IA”, OpenAI ha respondido a la oleada de críticas y ya tiene un paquete de medidas que integrarán en ChatGPT para evitar más casos similares.

El plan de OpenAI. En respuesta a la polémica tras el caso de Adam Raine, OpenAI ha detallado las medidas que llegarán a ChatGPT, las cuales se centrarán en  facilitar el acceso a servicios de emergencia, contactar con personas de confianza y reforzar las medidas de protección enfocadas a adolescentes. La empresa se pone un plazo de 120 días para integrar estas novedades, aunque advierte que algunas tardarán un poco más que otras.

Modelos de razonamiento. GPT-5 elige el mejor modelo automáticamente en función de las necesidades. Una de las soluciones que propone OpenAI para conversaciones que toman una dirección preocupante es dirigirlas automáticamente a su modelo de razonamiento, independientemente del que haya seleccionado el usuario.

Control parental. Llegará el mes que viene y la edad mínima para usarlo será 13 años. Los padres podrán enlazar la cuenta de sus hijos a la suya propia y podrán desactivar funciones como la memoria y el historial de chats. Además, recibirán una notificación si detecta que su hijo “se encuentra en un momento de angustia aguda”.

Colaboración con expertos. OpenAI asegura que todas estas mejoras se implementarán bajo la supervisión de expertos en salud mental. Desde hace un tiempo cuentan con un Consejo de Expertos en Bienestar e Inteligencia Artificial que  se ha ampliado con expertos en adicciones, trastornos alimenticios y salud adolescente.

La demanda. No es el primer caso en el que se coloca a ChatGPT como responsable de una crisis de salud mental, pero sí uno de los más sonados. Los padres de Adam Raine demandaron a OpenAI tras el suicidio de su hijo, alegando que ChatGPT validó sus “pensamientos más dañinos y autodesctructivos”. En alguna de sus conversaciones llegó a discutir detalles de cómo hacer el nudo en la soga con la que planeaba suicidarse.

Salvaguardas débiles. En su informe Fake Friend, el ‘Centro para la lucha contra el odio digital’ ya comprobó que las salvaguardas de chatbots IA  son muy frágiles y el caso de Adam Raine lo corrobora. ChatGPT detectó varias veces que había riesgo de autolesiones y le insistió para que llamara a la línea de prevención de suicidios, Adam logró esquivar estos mensajes simplemente diciéndole que estaba buscando información para una historia de ficción. El nuevo control parental suena como la primera medida más sólida contra esta problemática.

Imagen | Kaboompics, vía Pexels 

En Xataka | En 2011 alguien publicó en Reddit «A858». Catorce años y miles de mensajes después, el misterio sigue irresuelto


La noticia

El suicidio de un adolescente desató una crisis en OpenAI. Ya tenemos las primeras medidas que llegarán a ChatGPT

fue publicada originalmente en

Xataka

por
Amparo Babiloni

.