Estados Unidos utilizó el modelo de IA Claude de Anthropic en la redada de Venezuela que capturó a Maduro: Informe
(Crédito de la imagen:
iTimes Spanish)
El modelo de inteligencia artificial de Anthropic, Claude, se utilizó en la operación militar estadounidense que capturó al expresidente venezolano Nicolás Maduro, informó el viernes The Wall Street Journal, citando a personas familiarizadas con el asunto.
La misión para capturar a Maduro y a su esposa incluyó el bombardeo de varios sitios en Caracas el mes pasado. Estados Unidos detuvo a Maduro en una redada a principios de enero y lo transportó a Nueva York para enfrentar cargos de tráfico de drogas.
Según The Wall Street Journal, el despliegue de Claude se produjo a través de la asociación de Anthropic con la empresa de análisis de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el Departamento de Defensa de los Estados Unidos y las agencias federales de aplicación de la ley.
Reuters no pudo verificar el informe de forma independiente. El Departamento de Defensa de los Estados Unidos y la Casa Blanca no respondieron de inmediato a las solicitudes de comentarios. Palantir tampoco respondió de inmediato.
Anthropic dijo que no podía comentar sobre los detalles operativos.
"No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó para alguna operación específica, clasificada o de otro tipo", dijo un portavoz de Anthropic. "Cualquier uso de Claude, ya sea en el sector privado o en todo el gobierno, es necesario para cumplir con nuestras Políticas de Uso, que rigen cómo se puede implementar Claude.
Trabajamos en estrecha colaboración con nuestros socios para garantizar el cumplimiento".
El Departamento de Defensa se negó a hacer comentarios, según The Wall Street Journal.
Las políticas de uso de Anthropic prohíben que Claude sea utilizado para facilitar la violencia, desarrollar armas o llevar a cabo la vigilancia. El uso reportado del modelo en una redada que involucra operaciones de bombardeo pone de relieve las crecientes preguntas sobre cómo se están desplegando las herramientas de inteligencia artificial en contextos militares.
Trabajamos en estrecha colaboración con nuestros socios para garantizar el cumplimiento".
El Departamento de Defensa se negó a hacer comentarios, según The Wall Street Journal.
Las políticas de uso de Anthropic prohíben que Claude sea utilizado para facilitar la violencia, desarrollar armas o llevar a cabo la vigilancia. El uso reportado del modelo en una redada que involucra operaciones de bombardeo pone de relieve las crecientes preguntas sobre cómo se están desplegando las herramientas de inteligencia artificial en contextos militares.
El Wall Street Journal informó anteriormente que las preocupaciones de Anthropic sobre cómo Claude podría ser utilizado por el Pentágono han llevado a los funcionarios de la administración a considerar la cancelación de un contrato por valor de hasta 200 millones de dólares.
Anthropic fue el primer desarrollador de modelos de IA utilizado en operaciones clasificadas por el Departamento de Defensa, según personas familiarizadas con el asunto citado por The Wall Street Journal. No está claro si se utilizaron otras herramientas de IA en la operación de Venezuela para tareas no clasificadas.
El Pentágono ha estado presionando a las principales empresas de IA, incluidas OpenAI y Anthropic, para que sus herramientas estén disponibles en redes clasificadas sin muchas de las restricciones estándar aplicadas a los usuarios comerciales, informó en exclusiva Reuters a principios de esta semana.
Muchas empresas de IA están construyendo sistemas personalizados para el ejército de los Estados Unidos, aunque la mayoría opera solo en redes no clasificadas utilizadas para funciones administrativas.
Anthropic es actualmente el único gran desarrollador de IA cuyo sistema es accesible en entornos clasificados a través de terceros, aunque los usuarios del gobierno siguen sujetos a sus políticas de uso.
Anthropic, que recientemente recaudó 30 mil millones de dólares en una ronda de financiación que lo valoraba en 380 mil millones de dólares, se ha posicionado como una empresa de IA centrada en la seguridad. El director ejecutivo, Dario Amodei, ha pedido públicamente una regulación más fuerte y barandillas para mitigar los riesgos de los sistemas avanzados de IA.
En un evento de enero anunciando la colaboración del Pentágono con xAI, el Secretario de Defensa Pete Hegseth dijo que la agencia no "emplearía modelos de IA que no te permitan luchar en guerras", refiriéndose a las discusiones que los funcionarios de la administración han tenido con Anthropic, informó The Wall Street Journal.
La relación en evolución entre los desarrolladores de IA y el Pentágono refleja un cambio más amplio en la estrategia de defensa, ya que las herramientas de inteligencia artificial se utilizan cada vez más para tareas que van desde el análisis de documentos y el resumen de inteligencia hasta el soporte para sistemas autónomos.
El uso reportado de Claude en la redada de Maduro subraya el papel cada vez mayor de los modelos comerciales de IA en las operaciones militares estadounidenses, incluso mientras continúan los debates sobre los límites éticos, las políticas de uso y la supervisión regulatoria.
¿Qué es Claude de Anthropic?
Claude de Anthropic es un chatbot avanzado de inteligencia artificial y un gran modelo de lenguaje diseñado para la generación de texto, el razonamiento, la codificación y el análisis de datos, desarrollado por la empresa estadounidense de IA Anthropic.
Claude forma parte de una familia de grandes modelos de lenguaje creados para competir con sistemas como ChatGPT de OpenAI y Gemini de Google. Puede resumir documentos, responder a consultas complejas, generar informes, ayudar con tareas de programación y analizar grandes volúmenes de texto.
Anthropic posiciona a Claude como un sistema de IA centrado en la seguridad. La compañía ha creado políticas de uso que prohíben el uso del modelo para apoyar la violencia, desarrollar armas o realizar vigilancia.
Claude está disponible para empresas y clientes gubernamentales, incluso en ciertas redes clasificadas a través de asociaciones aprobadas.
Fundada en 2021 por antiguos ejecutivos de OpenAI, incluido el CEO Dario Amodei, Anthropic se ha convertido en una de las principales startups de IA a nivel mundial, con el respaldo de los principales inversores en tecnología y una valoración que va a cientos de miles de millones de dólares
La misión para capturar a Maduro y a su esposa incluyó el bombardeo de varios sitios en Caracas el mes pasado. Estados Unidos detuvo a Maduro en una redada a principios de enero y lo transportó a Nueva York para enfrentar cargos de tráfico de drogas.
Según The Wall Street Journal, el despliegue de Claude se produjo a través de la asociación de Anthropic con la empresa de análisis de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el Departamento de Defensa de los Estados Unidos y las agencias federales de aplicación de la ley.
Reuters no pudo verificar el informe de forma independiente. El Departamento de Defensa de los Estados Unidos y la Casa Blanca no respondieron de inmediato a las solicitudes de comentarios. Palantir tampoco respondió de inmediato.
Anthropic dijo que no podía comentar sobre los detalles operativos.
"No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó para alguna operación específica, clasificada o de otro tipo", dijo un portavoz de Anthropic. "Cualquier uso de Claude, ya sea en el sector privado o en todo el gobierno, es necesario para cumplir con nuestras Políticas de Uso, que rigen cómo se puede implementar Claude.
Trabajamos en estrecha colaboración con nuestros socios para garantizar el cumplimiento".
El Departamento de Defensa se negó a hacer comentarios, según The Wall Street Journal.
Las políticas de uso de Anthropic prohíben que Claude sea utilizado para facilitar la violencia, desarrollar armas o llevar a cabo la vigilancia. El uso reportado del modelo en una redada que involucra operaciones de bombardeo pone de relieve las crecientes preguntas sobre cómo se están desplegando las herramientas de inteligencia artificial en contextos militares.
Trabajamos en estrecha colaboración con nuestros socios para garantizar el cumplimiento".
El Departamento de Defensa se negó a hacer comentarios, según The Wall Street Journal.
Las políticas de uso de Anthropic prohíben que Claude sea utilizado para facilitar la violencia, desarrollar armas o llevar a cabo la vigilancia. El uso reportado del modelo en una redada que involucra operaciones de bombardeo pone de relieve las crecientes preguntas sobre cómo se están desplegando las herramientas de inteligencia artificial en contextos militares.
El Wall Street Journal informó anteriormente que las preocupaciones de Anthropic sobre cómo Claude podría ser utilizado por el Pentágono han llevado a los funcionarios de la administración a considerar la cancelación de un contrato por valor de hasta 200 millones de dólares.
Anthropic fue el primer desarrollador de modelos de IA utilizado en operaciones clasificadas por el Departamento de Defensa, según personas familiarizadas con el asunto citado por The Wall Street Journal. No está claro si se utilizaron otras herramientas de IA en la operación de Venezuela para tareas no clasificadas.
El Pentágono ha estado presionando a las principales empresas de IA, incluidas OpenAI y Anthropic, para que sus herramientas estén disponibles en redes clasificadas sin muchas de las restricciones estándar aplicadas a los usuarios comerciales, informó en exclusiva Reuters a principios de esta semana.
Muchas empresas de IA están construyendo sistemas personalizados para el ejército de los Estados Unidos, aunque la mayoría opera solo en redes no clasificadas utilizadas para funciones administrativas.
Anthropic es actualmente el único gran desarrollador de IA cuyo sistema es accesible en entornos clasificados a través de terceros, aunque los usuarios del gobierno siguen sujetos a sus políticas de uso.
Anthropic, que recientemente recaudó 30 mil millones de dólares en una ronda de financiación que lo valoraba en 380 mil millones de dólares, se ha posicionado como una empresa de IA centrada en la seguridad. El director ejecutivo, Dario Amodei, ha pedido públicamente una regulación más fuerte y barandillas para mitigar los riesgos de los sistemas avanzados de IA.
En un evento de enero anunciando la colaboración del Pentágono con xAI, el Secretario de Defensa Pete Hegseth dijo que la agencia no "emplearía modelos de IA que no te permitan luchar en guerras", refiriéndose a las discusiones que los funcionarios de la administración han tenido con Anthropic, informó The Wall Street Journal.
La relación en evolución entre los desarrolladores de IA y el Pentágono refleja un cambio más amplio en la estrategia de defensa, ya que las herramientas de inteligencia artificial se utilizan cada vez más para tareas que van desde el análisis de documentos y el resumen de inteligencia hasta el soporte para sistemas autónomos.
El uso reportado de Claude en la redada de Maduro subraya el papel cada vez mayor de los modelos comerciales de IA en las operaciones militares estadounidenses, incluso mientras continúan los debates sobre los límites éticos, las políticas de uso y la supervisión regulatoria.
¿Qué es Claude de Anthropic?
Claude de Anthropic es un chatbot avanzado de inteligencia artificial y un gran modelo de lenguaje diseñado para la generación de texto, el razonamiento, la codificación y el análisis de datos, desarrollado por la empresa estadounidense de IA Anthropic.
Claude forma parte de una familia de grandes modelos de lenguaje creados para competir con sistemas como ChatGPT de OpenAI y Gemini de Google. Puede resumir documentos, responder a consultas complejas, generar informes, ayudar con tareas de programación y analizar grandes volúmenes de texto.
Anthropic posiciona a Claude como un sistema de IA centrado en la seguridad. La compañía ha creado políticas de uso que prohíben el uso del modelo para apoyar la violencia, desarrollar armas o realizar vigilancia.
Claude está disponible para empresas y clientes gubernamentales, incluso en ciertas redes clasificadas a través de asociaciones aprobadas.
Fundada en 2021 por antiguos ejecutivos de OpenAI, incluido el CEO Dario Amodei, Anthropic se ha convertido en una de las principales startups de IA a nivel mundial, con el respaldo de los principales inversores en tecnología y una valoración que va a cientos de miles de millones de dólares
El fin del Artículo
Historias en tendencia
- "Muy buena relación": Donald Trump visitará Venezuela mientras Estados Unidos reconoce al gobierno interino
- "Detención civil segura y humana de extranjeros": la administración Trump gastará 38 mil millones de dólares para ampliar la capacidad de retención de ICE
- Lo que le pasó al YouTuber Jacob Chibi revisa a Seibers después de un sincero mensaje que hizo que los fans temieran por su vida
- Estados Unidos utilizó el modelo de IA Claude de Anthropic en la redada de Venezuela que capturó a Maduro: Informe
Lo próximo