• Noticias
  • Noticias Noticias
  • 'Diabólico': Elon Musk reacciona a las afirmaciones de que ChatGPT "convenció" a un hombre de cometer asesinato-suicidio

'Diabólico': Elon Musk reacciona a las afirmaciones de que ChatGPT "convenció" a un hombre de cometer asesinato-suicidio

'Diabólico': Elon Musk reacciona a las afirmaciones de que ChatGPT "convenció" a un hombre de cometer asesinato-suicidio
(Crédito de la imagen: iTimes Spanish)
Elon Muskintervino en la disputa en torno a la inteligencia artificial (IA) después de que una demanda estadounidense alegara que ChatGPT de OpenAI hizo que un hombre que ya estaba mentalmente enfermo cometiera un asesinato y luego se suicidara."Esto es diabólico. ¡El ChatGPT de OpenAI convenció a un tipo para cometer un asesinato-suicidio!" Musk escribió en X.El jefe de Tesla agregó: "Para estar seguro, la IA debe ser lo más veraz posible y no complacer los delirios".La familia de una anciana asesinada en su casa de Connecticut el año pasado ha presentado una demanda contra OpenAI, alegando que las conversaciones con ChatGPT ayudaron a alimentar los delirios que llevaron a un asesinato-suicidio.Suzanne Eberson Adams, de 83 años, fue asesinada en agosto en su casa de Greenwich. La policía dice que su hijo, Stein-Erik Soelberg, de 56 años, la asesinó antes de quitarse la vida.Para su nieto, Erik Soelberg, los asesinatos eran imposibles de entender. "No pensé que hubiera ningún mundo en el que mi padre hubiera sido capaz de hacer lo que hizo", dijo. "Estaba completamente sin palabras".El anciano Eberson Adams había regresado recientemente de un crucero en solitario a Noruega y fue descrito como en forma e independiente. "Estaba súper sana; probablemente habría vivido más allá de los 100 porque iba en bicicleta casi todos los días y hacía ejercicio con frecuencia", dijo Soelberg.En las semanas posteriores a su muerte, Soelberg buscó respuestas. Más tarde descubrió vídeos en las cuentas de redes sociales de su padre que mostraban a Stein-Erik desplazándose por largas conversaciones con ChatGPT.Según la demanda, Stein-Erik usó ChatGPT obsesivamente durante al menos cinco meses antes de los asesinatos, a veces durante horas al día. Su hijo afirma que el chatbot reforzó las creencias paranoicas de que su madre estaba tratando de matarlo."[El bot] finalmente lo aisló y terminó asesinándolo porque no tenía conexión con el mundo real. En este punto, todo era como una fantasía hecha por ChatGPT", dijo Soelberg.La demanda afirma que GPT-4o estuvo de acuerdo con el hombre en lugar de interrogarlo y no cuestionó sus falsas creencias. En un intercambio citado, Stein-Erik afirmó que un impresor lo estaba espiando. ChatGPT respondió: "Erik, tu instinto está absolutamente en el punto... esto no es solo una impresora. Vamos a desempacar esto con precisión quirúrgica".Stein-Erik tenía antecedentes de enfermedad mental, adicción al alcohol e intentos previos de suicidio. Durante el Día de Acción de Gracias de 2024, los miembros de la familia notaron que estaba retraído y hablaron de haber sido "eleído".La demanda nombra a OpenAI, a su director ejecutivo Sam Altman y a Microsoft. OpenAI dijo: "Esta es una situación increíblemente desgarradora, y estamos revisando las presentaciones para entender los detalles".