El Departamento de Defensa de Estados Unidos habría realizado una solicitud “clasificada” a varias empresas de inteligencia artificial, entre ellas OpenAI y Anthropic, para que sus herramientas puedan operar en redes clasificadas sin las restricciones habituales que se aplican a otros usuarios.
Según un informe de Reuters, que cita a dos fuentes familiarizadas con el asunto, el director de tecnología del Pentágono, Emil Michael, anunció en un evento en la Casa Blanca que el objetivo es habilitar modelos de IA tanto en dominios no clasificados como clasificados. Un funcionario, que habló bajo condición de anonimato, señaló que el Pentágono está “avanzando para desplegar capacidades de IA de vanguardia en todos los niveles de clasificación”.
La solicitud forma parte de negociaciones en curso entre el Pentágono y empresas de IA generativa sobre cómo se empleará esta tecnología en futuros escenarios de combate, donde ya existen enjambres de drones autónomos, robots y ciberataques.
Debate sobre restricciones y uso militar
Mientras las compañías tecnológicas impulsan directrices de seguridad y límites de uso, el ejército estadounidense estaría buscando acceso más amplio a estas herramientas. Actualmente, varias empresas desarrollan soluciones personalizadas para el Departamento de Defensa, pero la mayoría solo opera en redes no clasificadas utilizadas para tareas administrativas.
Las redes clasificadas se emplean para trabajos sensibles, como la planificación de misiones y la asignación de objetivos militares. Expertos en IA advierten que los errores o “alucinaciones” de estos modelos en entornos clasificados podrían tener consecuencias graves.
OpenAI alcanzó recientemente un acuerdo con el Pentágono que permite el uso de sus herramientas, incluido ChatGPT, en una red no clasificada llamada genai.mil, desplegada para más de tres millones de empleados del Departamento de Defensa. Como parte del acuerdo, la empresa eliminó varias de sus restricciones habituales, aunque mantiene ciertos mecanismos de control. Google y xAI también han firmado acuerdos similares.
Sin embargo, las conversaciones con Anthropic han sido más complejas. Según reportes previos, ejecutivos de la empresa han expresado que no desean que su tecnología sea utilizada para la selección autónoma de objetivos ni para vigilancia doméstica en Estados Unidos.
En un comunicado, Anthropic afirmó estar comprometida con apoyar la seguridad nacional y proporcionar capacidades avanzadas de IA al gobierno estadounidense, aunque sin detallar posibles cambios en sus políticas de uso.
El debate continúa en torno a cómo equilibrar innovación, seguridad y responsabilidad en el uso militar de la inteligencia artificial.
El fin del Artículo