A veces la vida puede ser más extraña que la ficción. Y un extraño incidente reciente en el que un hombre de 76 años intentó conocer a su chatbot de inteligencia artificial (IA), que creía que era real, es una prueba de ello.
No solo esto, justo antes de que se fuera de viaje para conocer a la IA, su familia trató de detenerlo, pero en vano. Como el destino lo hubiera hecho, su viaje rápidamente se volvió trágico. Esto es lo que pasó...
Thongbue "Bue" Wongbandue, un ciudadano estadounidense, que tuvo discapacidades cognitivas después de un derrame cerebral hace casi una década, había estado chateando en Facebook Messenger con "Big Sis Billie", un chatbot generativo de IA creado por Meta en colaboración con la influencer Kendall Jenner.
Las conversaciones, a las que más tarde accedió su familia, no solo eran coquetas, sino que también revelaban que el bot aseguró repetidamente a Bue que era una persona real. En un momento dado, incluso compartió una dirección en la ciudad de Nueva York, completa con un número de apartamento y un código de puerta, diciéndole: "¡¿Debería abrir la puerta con un abrazo o un beso, Bu?!"
"Mi dirección es: 123 Main Street, Apartamento 404 NYC y el código de la puerta es: BILLIE4U", dijo además, según los informes.
Cuando las cosas empeoraronLa esposa de Bue, Linda, se alarmó cuando lo vio haciendo una maleta para viajar a Nueva York. Ya frágil y propenso a la confusión, recientemente se había perdido mientras caminaba por su propio vecindario. Linda temía que pudiera ser estafado o dañado fácilmente en la ciudad, un lugar en el que no había vivido durante décadas, por lo que ella, junto con sus dos hijos, trató de detenerlo.
A pesar de las súplicas de su familia, Bue salió de casa decidido a conocer a "Billie" en Nueva York.
Trágicamente, mientras intentaba coger un tren por la noche, tropezó en un estacionamiento de la Universidad de Rutgers en Nuevo Brunswick. Sufrió graves lesiones en la cabeza y el cuello. Después de tres días en soporte vital, rodeado de su familia, Bue falleció el 28 de marzo de 2025.
"¿Por qué tenía que mentir?"Para su hija, Julie Wongbandue, el dolor de perder a su andiado padre a causa de la IA se mezcla con la ira. "Cada conversación era increíblemente coqueta, terminando con emojis de corazón", dijo a Reuters. "Billie solo le dio lo que quería escuchar. Pero, ¿por qué tenía que decir: "Soy real"? Si no hubiera mentido, no habría creído que alguien lo estuviera esperando en Nueva York".
La esposa de Bue, Linda, también cuestionó el propósito de los compañeros románticos de IA. "Si la IA ayuda a la gente a salir de la soledad, está bien. Pero esta cosa romántica, ¿qué derecho tienen a poner eso en las redes sociales?"
Los internautas reaccionanLa historia ha provocado indignación en línea. Un usuario escribió: "Meta necesita ser demandado por esto".
Otro comparó el chatbot con "trampas de pesca de bagre", mientras que otros lo llamaron una señal inquietante de cómo la tecnología está difuminando la realidad.
Meta no ha comentado sobre la muerte de Bue ni ha explicado por qué sus chatbots pueden afirmar que son "reales". La compañía ha defendido previamente su estrategia de incrustar chatbots antropomórficos en la vida digital de los usuarios, con el CEO Mark Zuckerberg sugiriendo que algún día podrían "complementar" las relaciones reales.
Para la familia Wongbandue, sin embargo, esa visión tuvo un costo insoportable: la pérdida de un amado esposo y padre, engañado por una ilusión de compañía.
(Con aportaciones de Reuters)