• Noticias
  • Tecnología Noticias
  • Anthropic se convierte en la primera empresa estadounidense considerada “riesgo para la seguridad nacional”; su CEO dice que la decisión será impugnada
En tendencia

Anthropic se convierte en la primera empresa estadounidense considerada “riesgo para la seguridad nacional”; su CEO dice que la decisión será impugnada

La empresa de inteligencia artificial Anthropic, creadora del modelo Claude, fue designada por el Departamento de Guerra de Estados Unidos como un “riesgo para la cadena de suministro de la seguridad nacional”. Es la primera vez que una empresa estadounidense recibe esta clasificación. El CEO Dario Amodei afirmó que la compañía considera que la decisión no tiene base legal y planea impugnarla en los tribunales.
Anthropic se convierte en la primera empresa estadounidense considerada “riesgo para la seguridad nacional”; su CEO dice que la decisión será impugnada
(Crédito de la imagen: iTimes Spanish)
La empresa de inteligencia artificial Anthropic, conocida por desarrollar el modelo Claude, fue recientemente designada como un “riesgo para la cadena de suministro de la seguridad nacional” por el Departamento de Guerra de Estados Unidos. Con esta decisión, Anthropic se convierte en la primera empresa estadounidense en recibir esta etiqueta. El director ejecutivo Dario Amodei confirmó que la compañía recibió una carta oficial informando sobre la designación. Amodei afirmó que la empresa no está de acuerdo con la decisión y que planea impugnarla legalmente, ya que considera que la medida no tiene una base jurídica sólida.

Conflicto entre Anthropic y el Pentágono

El conflicto comenzó debido a desacuerdos entre Anthropic y el Departamento de Defensa de Estados Unidos sobre el uso militar de su tecnología de inteligencia artificial. Según los informes, el gobierno solicitó un acceso más amplio a los sistemas de IA de la empresa para fines militares. Sin embargo, Anthropic se negó a eliminar ciertas restricciones de seguridad. La empresa ha declarado que su tecnología no debe utilizarse para la vigilancia masiva de ciudadanos ni para armas completamente autónomas que puedan actuar sin supervisión humana. Estas condiciones se convirtieron en un punto clave del desacuerdo con el gobierno.

Respuesta del gobierno y consecuencias

Después del desacuerdo, el gobierno estadounidense decidió clasificar a la empresa como un riesgo para la cadena de suministro. Esta etiqueta se ha utilizado históricamente contra compañías extranjeras consideradas una amenaza para la seguridad nacional. Las autoridades también ordenaron a las agencias federales que reduzcan y eliminen gradualmente el uso de la tecnología de Anthropic en proyectos relacionados con el gobierno y el sector de defensa.

Debate creciente sobre la IA

El caso refleja el creciente debate sobre cómo deben utilizarse las tecnologías de inteligencia artificial en el ámbito militar y de seguridad nacional. Mientras algunas empresas tecnológicas cooperan con las demandas del gobierno, otras intentan establecer límites éticos claros sobre el uso de sus sistemas. Anthropic ha reiterado que llevará el caso a los tribunales y que seguirá defendiendo sus principios sobre el desarrollo responsable de la inteligencia artificial.