• Noticias
  • Noticias Noticias
  • "No hay discusiones para operaciones específicas": Anthropic niega el uso de Claude por parte del ejército estadounidense

"No hay discusiones para operaciones específicas": Anthropic niega el uso de Claude por parte del ejército estadounidense

"No hay discusiones para operaciones específicas": Anthropic niega el uso de Claude por parte del ejército estadounidense
(Crédito de la imagen: iTimes Spanish)
La empresa de IA Anthropic ha declarado que no ha mantenido conversaciones con el departamento de guerra de los Estados Unidos con respecto al uso de su sistema de IA, Claude, para operaciones específicas."Anthropic no ha discutido el uso de Claude para operaciones específicas con el departamento de guerra", dijo la empresa de IA, citada por Reuters.El ejército estadounidense ha pedido a cuatro laboratorios de inteligencia artificial líderes que permitan el uso de sus herramientas para "todos los fines legales", incluidas áreas delicadas como el desarrollo de armas, la recopilación de inteligencia y las operaciones en el campo de batalla.Anthropic no ha aceptado estos términos, lo que ha llevado a una creciente frustración dentro del Pentágono después de meses de difíciles negociaciones.Anthropic ha sostenido que dos áreas deben permanecer fuera de los límites: la vigilancia masiva de los estadounidenses y el armamento totalmente autónomo. Un alto funcionario de la administración señaló que hay una ambigüedad significativa sobre lo que cae dentro de estas categorías, lo que hace que sea poco práctico para el Pentágono negociar casos de uso individuales con Anthropic o arriesgar el sistema de IA, Claude, bloqueando inesperadamente ciertas aplicaciones.Las tensiones entre el Pentágono y Anthropic se intensificaron después de que The Wall Street Journal informara que el ejército estadounidense utilizó el modelo de inteligencia artificial de Anthropic, Claude, durante la operación para capturar al expresidente venezolano Nicolás Maduro.Según se informa, Claude fue desplegado como parte de la colaboración de Anthropic con la empresa de análisis de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el departamento de defensa de los Estados Unidos y las agencias federales de aplicación de la ley.A principios de enero, las fuerzas estadounidenses capturaron a Nicolás Maduro y a su esposa durante ataques en múltiples sitios en Caracas, y Maduro fue trasladado en avión a Nueva York para enfrentar cargos federales de tráfico de drogas.Las políticas de uso de Anthropic prohíben explícitamente que Claude sea utilizado para facilitar la violencia, desarrollar armas o realizar vigilancia. El Wall Street Journal informa que el modelo de IA estuvo involucrado en una redada que incluyó una operación de bombardeo, que ha llamado la atención sobre cómo se están desplegando herramientas de inteligencia artificial en contextos militares y si las salvaguardas existentes son efectivas.Según el informe, los desacuerdos sobre el uso deseado de Claude por parte del Pentágono han contribuido a las crecientes tensiones entre la empresa de IA y los funcionarios de defensa de los Estados Unidos, y algunos funcionarios de la administración están considerando cancelar un contrato por valor de hasta 200 millones de dólares.Según se informa, Anthropic fue el primer desarrollador de IA cuyo modelo fue utilizado en operaciones clasificadas por el departamento de defensa, aunque aún no está claro si se utilizaron otros sistemas de IA en la misión de Venezuela para tareas no clasificadas.Claude es un chatbot avanzado de inteligencia artificial y un gran modelo de lenguaje desarrollado por la empresa estadounidense de IA Anthropic. Diseñado para tareas como la generación de texto, el razonamiento, la codificación y el análisis de datos, Claude compite con otros grandes modelos de lenguaje, incluidos Chat GPT de OpenAI y Gemini de Google.El sistema puede resumir documentos, responder a consultas complejas, generar informes, ayudar con la programación y analizar grandes volúmenes de texto.