El creador de ChatGPT, OpenAI, ha anunciado que implementará nuevas barandillas de seguridad para su chatbot de IA a finales de año. Estas nuevas barandillas se dirigirán específicamente a adolescentes y usuarios con angustia emocional.
El anuncio llega en medio de crecientes críticas y acciones legales contra la empresa después de los informes de la supuesta participación del chatbot en eventos trágicos, incluidos suicidios y asesinatos.
"Hemos visto a la gente recerrir a ello en los momentos más difíciles. Es por eso que seguimos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional, guiados por la aportación de expertos", dijo OpenAI en una publicación de blog.
"Este trabajo ya ha estado en marcha, pero queremos previsualizar proactivamente nuestros planes para los próximos 120 días, por lo que no tendrá que esperar a los lanzamientos para ver hacia dónde nos dirigimos", agregó la compañía, señalando que continuará trabajando para lanzar "tantas de estas mejoras como sea posible este año".
ChatGPT de OpenAI acusado de "alentar" asesinatos y suicidiosLa medida es una respuesta directa a un número creciente de casos en los que ChatGPT ha sido acusado de no intervenir o, en algunos casos, de no reforzar los delirios dañinos. La semana pasada, los padres de un joven de 16 años en California presentaron una demanda contra OpenAI, responsabilizando a la compañía por la muerte de su hijo.
Otro informe de The Wall Street Journal dijo que un caso en el que un hombre se suicidó a sí mismo y a su madre después de ChatGPT reforzó sus "delirios paranoicos".
Las nuevas medidas tienen como objetivo prevenir tales tragedias, aunque OpenAI actualmente dirige a los usuarios que expresan intenciones suicidas a las líneas directas de crisis, citando la privacidad como la razón para no denunciar los casos de autolesiones a las fuerzas del orden.
La compañía dijo que ya está comenzando a dirigir algunas "conversaciones sensibles", como aquellas en las que se detectan signos de angustia aguda, a modelos de razonamiento más avanzados como GPT-5-thinking, que está diseñado para aplicar las pautas de seguridad de manera más consistente.
Para garantizar la efectividad de estas nuevas características, OpenAI está reclutando una red de más de 90 médicos en 30 países para proporcionar información sobre contextos de salud mental y ayudar a evaluar los modelos.
OpenAI también está fortaleciendo las protecciones para los usuarios adolescentes. Actualmente, ChatGPT requiere que los usuarios tengan al menos 13 años, con permiso parental para los menores de 18 años. Dentro del próximo mes, la compañía planea permitir que los padres vinculen sus cuentas con las de sus adolescentes para un control más directo.