• Noticias
  • Tecnología Noticias
  • El CEO de Anthropic publica nota de 800 palabras rechazando la demanda del Pentágono y podría llevar a la primera prohibición de una empresa de IA de EE. UU.
En tendencia

El CEO de Anthropic publica nota de 800 palabras rechazando la demanda del Pentágono y podría llevar a la primera prohibición de una empresa de IA de EE. UU.

El director general de Anthropic, Dario Amodei, publicó un extenso comunicado de 800 palabras rechazando la exigencia del Pentágono de permitir el uso irrestricto de su modelo de inteligencia artificial Claude en operaciones militares, diciendo que ello “comprometería” los estándares éticos de la empresa. El Departamento de Defensa de EE. UU. ha amenazado con designar a la compañía como “riesgo para la cadena de suministro” y bloquearla de contratos si no cumple, en una confrontación pública poco común entre la industria tecnológica y el ejército. Amodei sostuvo que mantener restricciones contra la vigilancia masiva doméstica y las armas totalmente autónomas es una línea roja. Este conflicto podría sentar un precedente importante para el uso futuro de IA y los contratos militares.
El CEO de Anthropic publica nota de 800 palabras rechazando la demanda del Pentágono y podría llevar a la primera prohibición de una empresa de IA de EE. UU.
(Crédito de la imagen: iTimes Spanish)
El CEO de Anthropic publica nota de 800 palabras rechazando la demanda del Pentágono y podría llevar a la primera prohibición de una empresa de IA de EE. UU. El director ejecutivo de Anthropic, Dario Amodei, emitió un detallado comunicado público de unas 800 palabras para rechazar la exigencia del Departamento de Defensa de los Estados Unidos de permitir el uso sin restricciones de su modelo de inteligencia artificial, Claude, con fines militares. El ultimátum, formulado por el secretario de Defensa Pete Hegseth, dio a la compañía un plazo para aceptar los termos o enfrentar la posibilidad de ser catalogada como un riesgo para la seguridad nacional — un caso sin precedentes para una importante empresa de IA estadounidense. En su declaración, Amodei sostuvo que los términos del Pentágono obligarían a Anthropic a eliminar salvaguardias éticas que consideran fundamentales para su trabajo. Señaló que aceptar el uso irrestricto significaría permitir aplicaciones como vigilancia masiva dentro de EE. UU. y armas totalmente autónomas, que la empresa considera “líneas rojas” porque socavarían los valores democráticos y podrían ser peligrosas sin supervisión humana. El Pentágono ha insistido en que quiere la capacidad de usar la IA de Anthropic para “cualquier uso legal”, entendiendo que esto es necesario para integrar completamente Claude en operaciones militares. Las autoridades advirtieron que, sin conformidad, la empresa podría ser catalogada como un “riesgo para la cadena de suministro” y perder contratos por hasta 200 millones de dólares, así como enfrentar acciones bajo la Ley de Producción de Defensa, que permite al gobierno dirigir recursos industriales privados en emergencias nacionales. Amodei también criticó al Pentágono por perseguir objetivos aparentemente contradictorios: apoyar públicamente una IA responsable mientras presiona a las empresas para abandonar límites diseñados para prevenir usos dañinos. Anthropic ha ofrecido continuar trabajando con el Departamento de Defensa manteniendo salvaguardias, pero afirma que su postura ética no puede ser comprometida. El conflicto ha llamado la atención de trabajadores tecnológicos y legisladores, y algunos piden una supervisión legislativa más amplia sobre cómo se usa la IA en seguridad nacional. Si Anthropic fuera excluida de las redes militares o bloqueada, analistas dicen que este enfrentamiento podría marcar un precedente importante para la política futura de IA, especialmente en cómo se equilibran las fronteras éticas con las necesidades de defensa.