El CEO de Anthropic publica nota de 800 palabras rechazando la demanda del Pentágono y podría llevar a la primera prohibición de una empresa de IA de EE. UU.
El director ejecutivo de Anthropic,
Dario Amodei, emitió un detallado comunicado público de unas 800 palabras para rechazar la exigencia del Departamento de Defensa de los Estados Unidos de permitir el uso sin restricciones de su modelo de inteligencia artificial,
Claude, con fines militares. El ultimátum, formulado por el secretario de Defensa
Pete Hegseth, dio a la compañía un plazo para aceptar los termos o enfrentar la posibilidad de ser catalogada como un riesgo para la seguridad nacional — un caso sin precedentes para una importante empresa de IA estadounidense.
En su declaración, Amodei sostuvo que los términos del Pentágono obligarían a Anthropic a eliminar salvaguardias éticas que consideran fundamentales para su trabajo. Señaló que aceptar el uso irrestricto significaría permitir aplicaciones como
vigilancia masiva dentro de EE. UU. y armas totalmente autónomas, que la empresa considera “líneas rojas” porque socavarían los valores democráticos y podrían ser peligrosas sin supervisión humana.
El Pentágono ha insistido en que quiere la capacidad de usar la IA de Anthropic para “cualquier uso legal”, entendiendo que esto es necesario para integrar completamente Claude en operaciones militares. Las autoridades advirtieron que, sin conformidad, la empresa podría ser catalogada como un “riesgo para la cadena de suministro” y perder contratos por hasta
200 millones de dólares, así como enfrentar acciones bajo la
Ley de Producción de Defensa, que permite al gobierno dirigir recursos industriales privados en emergencias nacionales.
Amodei también criticó al Pentágono por perseguir objetivos aparentemente contradictorios: apoyar públicamente una IA responsable mientras presiona a las empresas para abandonar límites diseñados para prevenir usos dañinos. Anthropic ha ofrecido continuar trabajando con el Departamento de Defensa manteniendo salvaguardias, pero afirma que su postura ética no puede ser comprometida.
El conflicto ha llamado la atención de trabajadores tecnológicos y legisladores, y algunos piden una supervisión legislativa más amplia sobre cómo se usa la IA en seguridad nacional. Si Anthropic fuera excluida de las redes militares o bloqueada, analistas dicen que este enfrentamiento podría marcar un precedente importante para la política futura de IA, especialmente en cómo se equilibran las fronteras éticas con las necesidades de defensa.