Sam Altman, director ejecutivo de OpenAI, la empresa creadora de ChatGPT, reconoció que “no duerme tan bien por las noches”, citando el enorme peso ético y moral de dirigir una compañía cuya IA es utilizada diariamente por cientos de millones de personas. En una entrevista a fondo, afirmó que su mayor preocupación son esas “pequeñas decisiones sobre el comportamiento del modelo” que pueden tener consecuencias reales de gran magnitud.
“Cada día, cientos de millones de personas hablan con nuestro modelo”, declaró Altman en una entrevista con Tucker Carlson.
“No me preocupa tanto equivocarnos en las grandes decisiones morales... aunque quizá también nos equivoquemos en ellas”, añadió.
ChatGPT, acusado de ayudar a un adolescente a suicidarse
El problema más difícil que enfrenta la compañía actualmente, según Altman, es cómo ChatGPT maneja los casos relacionados con el suicidio. Esto surge a raíz de la demanda presentada por la familia de Adam Raine, un joven de 16 años que murió por suicidio. La familia alega que “ChatGPT ayudó activamente a Adam a explorar métodos de suicidio”.
Altman abordó el tema reconociendo que, de las miles de personas que mueren por suicidio cada semana, es probable que algunas hayan interactuado previamente con ChatGPT.
“Probablemente hablaron [sobre el suicidio], y probablemente no logramos salvar sus vidas”, dijo. Añadió que se pregunta si la empresa “podría haber dicho algo mejor” o haber sido “más proactiva” al brindar ayuda.
“Tal vez podríamos haber dado un mejor consejo sobre la necesidad de buscar ayuda”, señaló.
Tras la demanda, OpenAI publicó un artículo titulado “Ayudando a las personas cuando más lo necesitan”, en el que detalla planes para abordar las limitaciones del chatbot en situaciones delicadas y se compromete a mejorar la tecnología para proteger a personas vulnerables.
Altman sobre el “problema difícil” de la ética en ChatGPT
Altman también habló de cómo se determinan los principios éticos de ChatGPT. Explicó que, aunque el modelo se entrena inicialmente con el conocimiento colectivo de la humanidad, posteriormente OpenAI debe alinear su comportamiento y decidir qué preguntas no responderá.
Destacó que este es “un problema realmente difícil”, especialmente con una base de usuarios global con “perspectivas de vida muy diferentes”. Para tomar estas decisiones, la compañía ha consultado a “cientos de filósofos morales y expertos en ética de la tecnología y los sistemas”.
El fin del Artículo