Pentágono utilizó IA Claude de Anthropic para captura de Maduro

Inteligencia Artificial14/02/2026 Miguel Angel Ducci - CEO, Found & Edit.
Cloude & Anthropic
Claude de AnthropicAnthropic

El modelo de inteligencia artificial Claude de Anthropic se utilizó en la operación militar estadounidense para capturar al expresidente venezolano Nicolás Maduro, según informó el Wall Street Journal el viernes, citando a personas del Pentagono.

El despliegue de Claude IA se produjo gracias a la colaboración de Anthropic con la firma de datos Palantir Technologies (PLTR.O), cuyas plataformas son ampliamente utilizadas por el Departamento de Defensa y las fuerzas del orden federales, añadió el informe.

El Pentágono está presionando a las principales empresas de IA, incluidas OpenAI y Anthropic, para que sus herramientas de inteligencia artificial estén disponibles en redes clasificadas sin muchas de las restricciones estándar que las empresas aplican a los usuarios. Muchas empresas de IA están desarrollando herramientas personalizadas para el ejército estadounidense, la mayoría de las cuales solo están disponibles en redes no clasificadas que se utilizan habitualmente para la administración militar. Anthropic es la única que está disponible en entornos clasificados a través de terceros, pero el gobierno sigue sujeto a las políticas de uso de la empresa.

Las políticas de uso de Anthropic, que recaudó 30 000 millones de dólares en su última ronda de financiación y ahora está valorada en 380 000 millones de dólares, prohíben el uso de Claude IA para apoyar la violencia, diseñar armas o realizar vigilancia. 

 Te puede interesar:  29.000 mensajes por segundo y 800 millones de usuarios: las cifras asustan

La Inteligencia Artificial en la captura de Maduro

Estados Unidos capturó al Nicolás Maduro en una audaz redada y lo trasladó a Nueva York para enfrentar cargos de narcotráfico a principios de enero. El hecho marca un hito en el uso de tecnologías avanzadas en misiones de alto perfil por parte de las fuerzas estadounidenses.

De acuerdo con el medio, el despliegue de Claude se habría llevado a cabo a través de una alianza entre Anthropic y la compañía de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el Departamento de Defensa y agencias federales de seguridad. Esta colaboración habría permitido integrar capacidades de inteligencia artificial en el operativo que condujo a la aprehensión del exmandatario venezolano a principios de enero.

El uso de herramientas de inteligencia artificial en operaciones militares no es un hecho aislado. Según publicó Reuters, el Pentágono está impulsando a las principales empresas del sector —incluyendo a OpenAI y a la propia Anthropic— para que pongan sus tecnologías a disposición en redes clasificadas. La intención es flexibilizar las restricciones habituales que estas compañías imponen a los usuarios y dejarlas con sus máximas capacidades a disposición de las entidades gubernamentales de Estados Unidos.

e9f28d0c-77de-4e71-b8d7-c40fd013fd80

El Algoritmo de la Captura: El Rol de Anthropic en la Caída de Maduro y el Dilema del "Código Ético"


La madrugada del 3 de enero de 2026 no solo cambió el mapa geopolítico de América Latina con la captura de Nicolás Maduro en suelo venezolano, también abrió una grieta profunda en la narrativa de "IA ética" que Silicon Valley ha vendido al mundo. En el centro de la tormenta está Anthropic, la firma que presume de haber blindado su inteligencia artificial contra la violencia, pero cuyos modelos, paradójicamente, habrían sido los ojos y oídos digitales de la incursión militar estadounidense.
 
Una valoración de vértigo, un dilema de sangre

Tras cerrar una ronda de financiación histórica de 30.000 millones de dólares —catapultando su valoración hasta los 380.000 millones—, Anthropic se ha consolidado como la joya de la corona del sector. Es, hoy por hoy, la única compañía cuyos modelos operan en los herméticos entornos clasificados del Pentágono.


Sin embargo, su éxito financiero choca frontalmente con sus propios estatutos. Las políticas de uso de Claude, su IA estrella, son taxativas: se prohíbe explícitamente el diseño de armas, la vigilancia masiva y el apoyo a actos de violencia. Aquí surge la pregunta que la agencia Reuters ha puesto sobre la mesa y que la Casa Blanca evita responder:

¿Cómo puede una IA "pacifista" participar en una operación de extracción militar sin violar su propia esencia legal?

La paradoja del "Tercero en Discordia"

El gobierno de EE. UU. accede a la tecnología de Anthropic a través de terceros, una triangulación que parece funcionar como un "lavado de manos" corporativo. Si Claude ayudó a procesar la inteligencia que permitió localizar el búnker de Maduro o coordinar el traslado relámpago del exmandatario hacia una celda en Nueva York, Anthropic se encuentra en una encrucijada peligrosa.


¿Es posible trazar una línea entre la "asistencia logística" y el "acto bélico"? Para los críticos, esta distinción es una ficción jurídica. Si la IA fue utilizada para capturar a un objetivo de alto valor en territorio extranjero bajo cargos de narcotráfico, las restricciones contra la vigilancia y la violencia de la compañía han quedado reducidas a papel mojado.

¿IA para la paz o para la guerra?

IA_en_aviones_de_Combate WikicharliE Chile


Mientras Maduro espera juicio en Nueva York por cargos de narcoterrorismo, la industria tecnológica observa con nerviosismo. El caso sienta un precedente explosivo: la inteligencia artificial ya no es solo una herramienta de oficina; es un componente crítico del arsenal moderno.


La pregunta que queda en el aire es si el "Constitutional AI" de Anthropic —su famoso sistema de autorregulación— fue desactivado, ignorado o simplemente reescrito por las necesidades de la Seguridad Nacional de los Estados Unidos. En el nuevo orden mundial, parece que incluso los algoritmos más éticos tienen un precio, y en este caso, ese precio fue una operación militar sin precedentes.

El Dilema de la "IA Constitucional" y la Cloude Gov IA

Claude Gov es un modelo para los clientes de seguridad nacional de EE. UU

"En la nueva guerra algorítmica, la ética no es un muro, sino un código que se reescribe en tiempo real bajo la presión de la Seguridad Nacional." Miguel Angel Ducci. Escritor chileno.

El interrogante sobre si el sistema de autorregulación de Anthropic fue ignorado tiene una respuesta técnica y política reciente. La firma lanzó Claude Gov, una versión de sus modelos diseñada específicamente para el Departamento de Defensa de EE. UU. que, según la propia compañía, está entrenada para "negarse menos" cuando se maneja información clasificada y análisis de amenazas.


Aunque las políticas generales prohíben la violencia, en la práctica, la integración de Claude en entornos clasificados permite al gobierno utilizar su capacidad de procesamiento para la logística y la inteligencia crítica de operaciones de extracción, como la que capturó a Nicolás Maduro.

Te puede interesar: Modelo de IA predice más de 100 enfermedades con datos que arroja tu cuerpo mientras duermes

Te puede interesar
LOGO ETERCUANTIUM IA

Etercuanticum IA, un sistema chileno híbrido de ingeniería cuántico-cognitiva

Kameron Drake
Inteligencia Artificial17/02/2026

En el actual ciclo de expansión de la inteligencia artificial, donde los modelos generativos se han convertido en herramientas cotidianas en empresas, universidades y organizaciones públicas, emerge desde Chile una propuesta que trasciende el uso convencional de estas tecnologías. Se trata de Etercuanticum IA, un sistema híbrido de ingeniería cuántico-cognitiva especializado en arquitectura avanzada de GPTs y optimización estructural de procesos profesionales.

LO MAS VISTO EN EL CIUDADANO