La empresa de inteligencia artificial Anthropic, conocida por desarrollar el modelo Claude, fue recientemente designada como un “riesgo para la cadena de suministro de la seguridad nacional” por el Departamento de Guerra de Estados Unidos. Con esta decisión, Anthropic se convierte en la primera empresa estadounidense en recibir esta etiqueta.
El director ejecutivo Dario Amodei confirmó que la compañía recibió una carta oficial informando sobre la designación. Amodei afirmó que la empresa no está de acuerdo con la decisión y que planea impugnarla legalmente, ya que considera que la medida no tiene una base jurídica sólida.
Conflicto entre Anthropic y el Pentágono
El conflicto comenzó debido a desacuerdos entre Anthropic y el Departamento de Defensa de Estados Unidos sobre el uso militar de su tecnología de inteligencia artificial. Según los informes, el gobierno solicitó un acceso más amplio a los sistemas de IA de la empresa para fines militares.
Sin embargo, Anthropic se negó a eliminar ciertas restricciones de seguridad. La empresa ha declarado que su tecnología no debe utilizarse para la vigilancia masiva de ciudadanos ni para armas completamente autónomas que puedan actuar sin supervisión humana. Estas condiciones se convirtieron en un punto clave del desacuerdo con el gobierno.
Respuesta del gobierno y consecuencias
Después del desacuerdo, el gobierno estadounidense decidió clasificar a la empresa como un riesgo para la cadena de suministro. Esta etiqueta se ha utilizado históricamente contra compañías extranjeras consideradas una amenaza para la seguridad nacional.
Las autoridades también ordenaron a las agencias federales que reduzcan y eliminen gradualmente el uso de la tecnología de Anthropic en proyectos relacionados con el gobierno y el sector de defensa.
Debate creciente sobre la IA
El caso refleja el creciente debate sobre cómo deben utilizarse las tecnologías de inteligencia artificial en el ámbito militar y de seguridad nacional. Mientras algunas empresas tecnológicas cooperan con las demandas del gobierno, otras intentan establecer límites éticos claros sobre el uso de sus sistemas.
Anthropic ha reiterado que llevará el caso a los tribunales y que seguirá defendiendo sus principios sobre el desarrollo responsable de la inteligencia artificial.