Escucha el audio de esta noticia:
Un informe del Wall Street Journal dice que la inteligencia artificial de Anthropic apoyó a las fuerzas estadounidenses en la planificación y ejecución del operativo que terminó con la captura del exmandatario venezolano.
REDACCIÓN - Un informe del Wall Street Journal dice que la inteligencia artificial de Anthropic apoyó a las fuerzas estadounidenses en la planificación y ejecución del operativo que terminó con la captura del exmandatario venezolano.
Importante y delicado despliegue tecnológico en un operativo real
El ejército de los Estados Unidos utilizó la herramienta de inteligencia artificial Claude, desarrollada por la empresa Anthropic, durante la operación que capturó al expresidente venezolano Nicolás Maduro el mes pasado y que culminó con su traslado a territorio estadounidense para enfrentar cargos federales. La información proviene de personas familiarizadas con el asunto citadas por The Wall Street Journal.
El uso de Claude se habría realizado a través de la asociación de Anthropic con la empresa de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el Departamento de Defensa de EE. UU. y agencias federales.
Un portavoz de Anthropic respondió oficialmente que no podían confirmar si Claude se empleó en alguna operación específica, clasificada o no, y que cualquier uso del modelo —tanto en el sector privado como con gobiernos— debe cumplir con las políticas de uso de la empresa.

Un hito en el uso de IA en operaciones militares
Según el reporte, Claude sería el primer modelo de inteligencia artificial de un gran desarrollador usado en operaciones clasificadas por el Pentágono, un paso significativo en la integración de IA avanzada en misiones de seguridad nacional.
Estas herramientas pueden emplearse para variados fines, incluyendo resumen de documentos, análisis de datos complejos e, incluso, apoyo en decisiones estratégicas en entornos caóticos, como ocurre en operaciones militares reales.
Tensiones entre uso militar y políticas de seguridad de IA
El informe también señala que las directrices de Anthropic prohíben que Claude se utilice para facilitar violencia, diseñar armas o realizar vigilancia, lo que genera un punto de tensión con el despliegue en entornos clasificados.
De hecho, según algunos informes, el Pentágono consideró reevaluar su relación contractual de hasta 200 millones de dólares con Anthropic ante preocupaciones internas sobre cómo se podría emplear su tecnología.

La tecnología y el futuro de la seguridad
El uso de IA en misiones de defensa marca una evolución en la manera en que las fuerzas armadas integran herramientas digitales avanzadas en operaciones de alto riesgo.
Aunque no se han divulgado detalles concretos sobre el papel exacto de Claude en la operación, el reporte subraya que la integración de sistemas de IA en contextos reales está creciendo rápidamente, incluso en ámbitos tradicionalmente reservados a métodos convencionales de inteligencia y planificación.
Este hecho plantea interrogantes sobre cómo se regulan estas tecnologías y cómo equilibran los gobiernos su potencial estratégico con las políticas éticas y de seguridad de los propios desarrolladores de IA.
no hay comentarios
14-03-2026 2:03 p.m.
14-03-2026 midnight
14-03-2026 midnight
14-03-2026 midnight
14-03-2026 midnight
13-03-2026 2:12 p.m.
13-03-2026 1:22 p.m.
13-03-2026 8:46 a.m.
12-03-2026 8:17 p.m.
10-03-2026 9:39 p.m.
Un incendio arrasa una vivienda en Pozuelo junto a La Finca sin causar heridos09-01-2026 10:32 a.m.
Trump se reunirá la próxima semana con María Corina Machado tras la captura de Maduro05-01-2026 1:51 p.m.
Ayuso exige explicaciones a Zapatero por “cooperar con la dictadura” de Maduro