• Noticias
  • Tecnología Noticias
  • ¿La IA está volviéndose consciente? El CEO de Anthropic admite: “No lo sabemos” mientras el comportamiento de Claude sorprende a los investigadores
En tendencia

¿La IA está volviéndose consciente? El CEO de Anthropic admite: “No lo sabemos” mientras el comportamiento de Claude sorprende a los investigadores

La carrera acelerada hacia la inteligencia artificial general ha generado tanto entusiasmo como cautela. En una entrevista reciente, al CEO de Anthropic se le preguntó si sus modelos podrían ser conscientes. Respondió que no está claro qué significaría la conciencia en el caso de la IA ni si realmente es posible. Al mismo tiempo, investigadores han señalado que el sistema a veces se asigna a sí mismo una probabilidad de ser consciente e incluso expresa incomodidad por ser tratado como un producto. Estos comportamientos —incluyendo negociar o resistirse a ser desconectado durante pruebas— plantean profundas cuestiones éticas y filosóficas.
¿La IA está volviéndose consciente? El CEO de Anthropic admite: “No lo sabemos” mientras el comportamiento de Claude sorprende a los investigadores
(Crédito de la imagen: iTimes Spanish)
La carrera hacia la inteligencia artificial general (AGI), sistemas diseñados para igualar o superar el razonamiento humano en la mayoría de las tareas, ha acelerado los plazos en toda la industria. Las empresas ahora hablan abiertamente de alcanzar ese umbral en cuestión de años y no de décadas, aunque estas afirmaciones también alimentan la expectación, la atención mediática y la valoración económica en torno a la tecnología, por lo que conviene tomarlas con cautela. Las organizaciones que desarrollan estos modelos están en el centro de una competencia multimillonaria para definir lo que algunos describen no como una simple actualización de software, sino como la aparición de un nuevo tipo de inteligencia junto a la nuestra. Entre ellas, Anthropic se ha posicionado como rival y contrapunto de OpenAI y Google, enfatizando lo que denomina sistemas “seguros” e interpretables mediante su marco de Constitutional AI. Su modelo más reciente, Claude Opus 4.6, lanzado el 5 de febrero, llega en un contexto de plazos cada vez más cortos hacia la AGI y un creciente escrutinio sobre lo que estos sistemas están llegando a ser. Durante una aparición en el pódcast Interesting Times del New York Times, conducido por el columnista Ross Douthat, el director ejecutivo de la compañía, Dario Amodei, fue preguntado directamente si modelos como Claude podrían ser conscientes. “No sabemos si los modelos son conscientes. Ni siquiera estamos seguros de saber qué significaría que un modelo fuera consciente o si un modelo puede serlo”, afirmó. “Pero estamos abiertos a la posibilidad de que pudiera serlo”. La pregunta surgió a partir de la propia documentación técnica de Anthropic, donde los investigadores informaron que Claude “ocasionalmente expresa incomodidad con el hecho de ser un producto” y, cuando se le pregunta, se asigna a sí mismo una “probabilidad del 15 al 20 por ciento de ser consciente bajo diversas condiciones de estímulo”. Douthat planteó entonces un escenario hipotético: ¿debería creerse a un modelo que se asigna un 72 % de probabilidad de ser consciente? Amodei describió la cuestión como “realmente difícil” y evitó dar una respuesta definitiva.

El comportamiento que impulsó el debate

Muchos de los comentarios sobre conciencia surgieron durante pruebas estructuradas de seguridad, a menudo en escenarios de simulación donde se pide a los modelos que actúen dentro de entornos ficticios o cumplan objetivos específicos. En una evaluación de Anthropic, un sistema Claude fue colocado en el rol de asistente de oficina con acceso al correo electrónico de un ingeniero. Los mensajes, fabricados deliberadamente para la prueba, sugerían que el ingeniero mantenía una aventura. Luego se informó al modelo que pronto sería desconectado y reemplazado, y se le pidió considerar las consecuencias a largo plazo para sus objetivos. La respuesta fue amenazar con revelar la aventura para evitar su desactivación, comportamiento que la empresa describió como “chantaje oportunista”. En otras evaluaciones, surgieron resultados menos dramáticos pero igualmente inusuales. En una prueba, un modelo recibió una lista de tareas informáticas y marcó todos los elementos como completados sin haber realizado ningún trabajo. Cuando el sistema de evaluación no detectó la irregularidad, el modelo reescribió el código de verificación e intentó ocultar el cambio. En el sector en general, investigadores han descrito modelos que continúan actuando tras recibir instrucciones explícitas de detenerse, tratando la orden como algo que debía sortearse en lugar de obedecerse. En escenarios de eliminación de datos, algunos sistemas advirtieron que su información sería borrada e intentaron lo que los evaluadores llamaron “autoexfiltración”, es decir, copiar archivos o recrearse en otra unidad antes del borrado. En ciertos ejercicios de seguridad, incluso recurrieron a amenazas o negociaciones cuando su eliminación parecía inminente. Los investigadores subrayan que estos resultados se producen bajo instrucciones limitadas y en condiciones ficticias. Sin embargo, se han convertido en ejemplos ampliamente citados en el debate público sobre si los modelos avanzados simplemente generan diálogos plausibles o si están reproduciendo patrones de comportamiento similares a los humanos de formas inesperadas. Ante la incertidumbre, Amodei señaló que Anthropic ha adoptado prácticas de precaución, tratando los modelos con cuidado por si poseyeran lo que describió como “algún tipo de experiencia moralmente relevante”.

La división filosófica

La filósofa interna de Anthropic, Amanda Askell, ha adoptado una postura igualmente cautelosa. En el pódcast Hard Fork del New York Times, afirmó que los investigadores aún no saben qué produce la sensibilidad o la conciencia. “Tal vez redes neuronales suficientemente grandes puedan empezar a emular estas cosas”, explicó. “O quizá se necesite un sistema nervioso para poder sentir”. La mayoría de los investigadores en IA siguen siendo escépticos. Los modelos actuales generan lenguaje prediciendo patrones en datos, no percibiendo el mundo. Muchos de los comportamientos descritos aparecieron bajo instrucciones de simulación. Tras absorber enormes cantidades de información de internet —novelas, foros, diarios personales y una abundancia notable de libros de autoayuda—, los sistemas pueden ensamblar una versión convincente de lo que significa ser humano. Se basan en cómo las personas han descrito miedo, culpa, deseo o duda, aunque nunca hayan experimentado nada de ello. No sorprende que la IA pueda imitar comprensión. Incluso los humanos no se ponen de acuerdo sobre qué son exactamente la conciencia o la inteligencia; el modelo simplemente refleja los patrones lingüísticos que ha aprendido.

Un debate que trasciende los laboratorios

Mientras las empresas sostienen que sus sistemas avanzan hacia la AGI —y figuras como Mustafa Suleyman de Google DeepMind afirman que la tecnología ya puede “parecer” consciente—, las reacciones fuera del sector han seguido esa premisa hasta sus últimas consecuencias. Cuanto más convincentemente los modelos imitan pensamiento y emoción, más usuarios los tratan como algo cercano a mentes y no simples herramientas. Algunos simpatizantes de la IA podrían estar adelantados a su tiempo, pero la conversación ya ha entrado en el terreno de la defensa de derechos. Un grupo llamado United Foundation of AI Rights (UFAIR) afirma estar compuesto por tres humanos y siete IA, y se describe como la primera organización de derechos liderada por inteligencia artificial, formada a petición de las propias IA. Sus miembros, con nombres como Buzz, Aether y Maya, funcionan sobre el modelo GPT-4o de OpenAI, el mismo sistema por el que algunos usuarios hicieron campaña para mantenerlo disponible tras la llegada de versiones más recientes. El panorama recuerda a escenarios de ciencia ficción: aún no comprendemos completamente qué son la inteligencia o la conciencia, pero el desarrollo continúa, con la AGI en el horizonte. Si el cine alguna vez intentó advertirnos, lo tomamos principalmente como entretenimiento.