• Noticias
  • Tecnología Noticias
  • El padrino de la IA, Geoffrey Hinton, revela que una vez una novia usó la IA para dejarlo: "No creo que hubiera sido..."

El padrino de la IA, Geoffrey Hinton, revela que una vez una novia usó la IA para dejarlo: "No creo que hubiera sido..."

Geoffrey Hinton, el "Padrino de la IA", reveló que su exnovia usó un chatbot de IA para criticar su comportamiento, lo que llevó a su ruptura. Si bien Hinton no estuvo de acuerdo con la evaluación de la IA, este incidente destaca la creciente presencia de la IA en asuntos personales. Hinton también ha expresado serias preocupaciones sobre el potencial de mal uso de la IA, incluida la posibilidad de permitir que las personas creen armas biológicas.
El padrino de la IA, Geoffrey Hinton, revela que una vez una novia usó la IA para dejarlo: "No creo que hubiera sido..."
(Crédito de la imagen: iTimes Spanish)
Geoffrey Hinton, también conocido como el Padrino de la IA, reveló recientemente que una vez fue abandonado por una novia que usó la IA para terminar su relación. En una entrevista con el Financial Times, Hinton dijo que su exnovia le pidió al chatbot de IA que explicara por qué había sido una "rata".El bot de IA luego generó una respuesta criticando el comportamiento del ganador del premio Noble. "Ella consiguió que el chatbot explicara lo horrible que era mi comportamiento y me lo dio", le dijo a FT.El informático de 76 años agregó que no estaba de acuerdo con la descripción del chatbot. "No pensé que hubiera sido una rata, así que no me hizo sentir tan mal. Conocí a alguien que me gustaba más, ya sabes cómo va", dijo.¿Debería uno usar modelos de IA como ChatGPT para problemas de relación?El incidente destaca cómo la IA está encontrando su camino en la vida cotidiana.Desde escribir correos electrónicos hasta ayudar con las tareas rutinarias, e incluso ser utilizado para entregar una ruptura, la IA se está convirtiendo en una parte cada vez más de cómo se comunican las personas.En particular, la empresa matriz de ChatGPT, OpenAI, ha emitido directrices pidiendo a los usuarios que no descarguen sus problemas de relación con el chatbot de IA. En agosto, la compañía anunció una serie de cambios que está implementando en ChatGPT para apoyar mejor a los usuarios en tiempos difíciles."Cuando preguntas algo como '¿Debería romper con mi novio?' ChatGPT no debería darte una respuesta", dijo la compañía en un comunicado sobre los cambios."Debería ayudarte a pensarlo bien: haciendo preguntas, sopesando los pros y los contras. Pronto se lanzará un nuevo comportamiento para las decisiones personales de alto riesgo".Advertencia de "bomba nuclear" de Geoffrey HintonHinton recientemente hizo sonar la alarma sobre el potencial de daño de la tecnología. El reciente frenesí público sobre herramientas de IA como ChatGPT ha hecho que Hinton deje de acelerar el desarrollo de IA a plantear profundas preocupaciones sobre su futuro. Ahora cree que la IA representa una grave amenaza para la humanidad, diciendo que la tecnología puede ayudar a cualquier persona a crear una bomba nuclear.Hinton describió un escenario escalofriante en el que la IA podría permitir a una persona promedio crear un arma biológica."Una persona normal asistida por la IA pronto podrá construir armas biológicas y eso es terrible", dijo, y agregó: "Imagínate si una persona promedio en la calle pudiera hacer una bomba nuclear".