• Noticias
  • Noticias Noticias
  • El jefe de Defensa da ultimátum a la empresa de IA Anthropic para permitir uso militar total de su tecnología

El jefe de Defensa da ultimátum a la empresa de IA Anthropic para permitir uso militar total de su tecnología

El secretario de Defensa de EE. UU., Pete Hegseth, ha exigido a la empresa de inteligencia artificial Anthropic que permita al ejército utilizar su tecnología sin restricciones o enfrente la pérdida de su contrato con el Pentágono. El CEO Dario Amodei rechazó públicamente la petición, alegando que no puede permitir usos como la vigilancia masiva o armas autónomas. La disputa resalta tensiones entre seguridad nacional y límites éticos en el uso militar de IA.
El jefe de Defensa da ultimátum a la empresa de IA Anthropic para permitir uso militar total de su tecnología
(Crédito de la imagen: iTimes Spanish)
El jefe de Defensa da ultimátum a la empresa de IA Anthropic para permitir uso militar total de su tecnología WASHINGTON — El secretario de Defensa de los Estados Unidos, Pete Hegseth, ha dado un plazo a la compañía de inteligencia artificial Anthropic para que permita al ejército acceso sin restricciones a su tecnología o enfrente la posible pérdida de un importante contrato con el Pentágono, según fuentes oficiales. Anthropic es la empresa detrás del modelo de IA conocido como Claude, que actualmente se utiliza en algunos sistemas militares clasificados de Estados Unidos. Pero Hegseth ha presionado a la firma para que elimine salvaguardas éticas que limitan cómo el ejército puede emplear esa tecnología. El Departamento de Defensa ha dicho que quiere poder usar la IA para “todos los usos legales”. El director ejecutivo Dario Amodei ha rechazado públicamente las exigencias del Pentágono, afirmando que “no puede, en buena conciencia, acceder” a peticiones que podrían permitir el uso de IA para vigilancia masiva de estadounidenses o sistemas de armas completamente autónomas. Anthropic y su CEO han dicho que siguen abiertos a negociaciones, pero que el lenguaje reciente del contrato no protege contra usos que la empresa considera poco éticos. Funcionarios del Pentágono han amenazado con varias medidas si Anthropic se niega. Entre ellas se encuentra cancelar el contrato actual —valorado en hasta 200 millones de dólares— designar a la compañía como un “riesgo en la cadena de suministro” e incluso usar la Ley de Producción de Defensa para obligar al cumplimiento en nombre de la seguridad nacional. Anthropic había sido una de las primeras empresas de IA aprobadas para trabajar dentro de redes militares clasificadas de EE. UU., una asociación que ahora se ha tensado por este conflicto. Otras firmas de IA, como OpenAI, Google y xAI de Elon Musk, ya han avanzado hacia una integración más amplia con sistemas de defensa. La disputa, que ha adquirido visibilidad pública, también ha llamado la atención de legisladores y figuras del sector tecnológico. Algunos cuestionan si el impulso del Pentágono por el “uso militar irrestricto” de la IA podría socavar las barreras éticas o los derechos civiles. Otros sostienen que las fuerzas armadas deben contar con herramientas flexibles para la seguridad nacional en una era de rápido avance de la IA. Este conflicto representa un enfrentamiento poco común de alto perfil entre un importante desarrollador tecnológico y el establecimiento de defensa de EE. UU. sobre cómo debe gobernarse y desplegarse la inteligencia artificial.