🚫 IA y guerra: Anthropic le dice no al Pentágono, OpenAI colabora con el ejército

Armas autónomas, vigilancia masiva y el conflicto por quién controla la IA militar

Durante décadas la relación entre Silicon Valley y el ejército de Estados Unidos fue relativamente simple.

El gobierno necesitaba tecnología. Las empresas la desarrollaban.

Internet, GPS, microchips y gran parte de la infraestructura digital actual nacieron en proyectos militares.

Pero la inteligencia artificial está cambiando esa relación.

Por primera vez, una empresa tecnológica está diciendo algo que casi nunca se había escuchado en Washington:

“No vamos a permitir que nuestra tecnología se use para matar.”

Ese es el centro del conflicto que acaba de estallar entre el Pentágono y la empresa de inteligencia artificial Anthropic, creadora del modelo Claude.

Y lo que está ocurriendo ahora podría definir cómo se usarán los sistemas de IA en la guerra durante las próximas décadas.

El origen del conflicto

El Departamento de Defensa de Estados Unidos lleva años intentando integrar inteligencia artificial en operaciones militares.

Los objetivos son claros:

  • Analizar inteligencia más rápido
  • Identificar objetivos en el campo de batalla
  • Automatizar decisiones tácticas
  • Procesar enormes cantidades de datos de satélites, drones y sensores

En teoría, la IA ayudaría a los militares a tomar mejores decisiones más rápido.

Pero el problema aparece cuando esa capacidad comienza a acercarse a algo mucho más delicado:

la decisión de usar fuerza letal.

Según reportes recientes (Reuters, Axios, febrero 2026), el Pentágono llevaba meses de negociación con cuatro empresas de IA —OpenAI, Anthropic, Google y xAI— exigiendo que sus modelos pudieran usarse para “todos los fines legales” dentro de operaciones militares, incluyendo desarrollo de armas, recolección de inteligencia y operaciones en el campo de batalla.

Eso incluye:

  • análisis de inteligencia
  • planificación militar
  • vigilancia
  • y potencialmente identificación de objetivos en combate

Ahí comenzó el conflicto.

Las dos líneas rojas de Anthropic

Anthropic decidió que había dos usos que no estaba dispuesto a permitir.

1. Armas autónomas

La empresa se negó a permitir que su IA participara en sistemas donde la tecnología pueda:

  • identificar un objetivo
  • seleccionar un ataque
  • ejecutar una acción letal

sin intervención humana directa.

Es lo que muchos investigadores llaman autonomous weapons. Un ejemplo concreto: un dron que, gracias a IA, identifica un vehículo como “objetivo hostil”, selecciona el ataque y dispara sin que un operador humano apruebe cada acción. Hoy la tecnología permite eso; la pregunta es quién autoriza usarla.

Anthropic considera que los modelos actuales no son lo suficientemente fiables para tomar decisiones de vida o muerte —y los datos les dan la razón: los modelos de lenguaje de última generación siguen cometiendo errores de clasificación y alucinaciones en un porcentaje no trivial de casos.

2. Vigilancia masiva

La segunda línea roja fue aún más política.

El Pentágono quería poder usar IA para analizar grandes volúmenes de datos, lo que podría incluir datos de ciudadanos estadounidenses.

Anthropic rechazó permitir que su tecnología se utilice para vigilancia masiva doméstica.

La empresa argumenta que cruzar esa línea podría acercar a democracias occidentales a modelos de control más propios de estados autoritarios.

La respuesta del Pentágono

El gobierno no reaccionó bien.

Funcionarios de defensa dijeron que las restricciones impuestas por empresas tecnológicas podrían interferir con misiones militares reales.

La posición del Pentágono es clara:

Si una operación militar es legal según la ley estadounidense, una empresa privada no debería decidir cómo se puede usar la tecnología.

El conflicto escaló rápidamente. A la vez, salió a la luz (Wall Street Journal, febrero 2026) que Claude había sido usado en una operación militar real: la captura del expresidente venezolano Nicolás Maduro, desplegado a través de la alianza de Anthropic con la firma de datos Palantir. Es decir, la frontera entre “no colaboramos con el Pentágono” y “nuestra IA ya se usa en operaciones sensibles” resultó más difusa de lo que parecía.

Entre las amenazas discutidas estuvieron:

  • cancelar contratos con Anthropic
  • excluir a la empresa de proyectos militares
  • declararla riesgo de seguridad nacional

En otras palabras: si no cooperas, quedas fuera.

El giro: OpenAI sí aceptó trabajar con el Pentágono

Mientras Anthropic se mantenía firme, otra empresa tomó un camino distinto.

OpenAI decidió colaborar con el gobierno estadounidense, aunque bajo ciertas condiciones.

La empresa afirma que su tecnología no puede usarse para armas autónomas ni vigilancia masiva, pero sí para otras aplicaciones militares.

Por ejemplo:

  • análisis de inteligencia
  • planificación logística
  • simulaciones estratégicas
  • asistencia a operadores humanos

Aun así, la decisión generó una fuerte reacción pública.

Según algunos reportes, más de 1,5 millones de usuarios cancelaron suscripciones a ChatGPT en menos de 48 horas tras conocerse el acuerdo con el Pentágono. Una cifra dura que muestra hasta qué punto la sociedad está atenta a quién usa la IA y para qué.

El debate sobre la militarización de la IA explotó inmediatamente.

El problema real: la “cadena de muerte” de la guerra moderna

En los sistemas militares modernos existe algo llamado kill chain.

Es el proceso completo de un ataque:

  1. detectar un objetivo
  2. identificarlo
  3. evaluar amenaza
  4. decidir acción
  5. ejecutar ataque

La inteligencia artificial ya participa en varias de esas etapas.

Pero la gran pregunta es: ¿qué pasa cuando participa en todas?

Si una IA detecta, identifica y recomienda atacar… la decisión humana podría volverse solo una formalidad.

Ese es el escenario que preocupa a muchos investigadores.

¿Qué está haciendo China?

Mientras Estados Unidos debate límites éticos, otros países están avanzando rápidamente.

China, por ejemplo, está invirtiendo enormes recursos en drones autónomos, sistemas de vigilancia con IA y análisis masivo de inteligencia. Según estimaciones de think tanks y prensa especializada, el gasto en IA de defensa a nivel global (incluyendo China, EE. UU. y aliados) se mueve en decenas de miles de millones de dólares anuales y crece a dos dígitos.

El enfoque chino suele ser más pragmático: si la tecnología existe, se integra al sistema militar.

Eso crea una presión estratégica.

Porque si una potencia adopta sistemas más automatizados, otras podrían sentir que no pueden quedarse atrás.

El riesgo que nadie quiere admitir

La comparación con Terminator o Skynet suele sonar exagerada.

Pero el problema real es más sutil.

Los sistemas de IA actuales tienen tres características peligrosas en contexto militar:

1. Pueden equivocarse. Los modelos generativos todavía cometen errores.

2. Pueden amplificar sesgos. Si los datos están incompletos o sesgados, las decisiones también.

3. Pueden escalar decisiones rápidamente. Un error humano afecta una decisión. Un error automatizado —por ejemplo, un modelo que etiqueta mal a civiles como combatientes en miles de horas de vídeo— puede afectar miles de decisiones en minutos.

Por eso muchos expertos creen que la IA debería asistir decisiones militares, no reemplazarlas.

Lo que este conflicto realmente significa

El choque entre Anthropic y el Pentágono no es solo una discusión contractual.

Es una señal de algo más grande.

Estamos entrando en una nueva etapa donde tres poderes chocan:

  • gobiernos
  • empresas tecnológicas
  • sistemas de inteligencia artificial cada vez más poderosos

Y todavía no existe una regla clara sobre quién debe tomar las decisiones finales.

La pregunta que queda abierta

El mundo probablemente verá cada vez más IA en defensa.

Eso parece inevitable.

La verdadera pregunta no es si ocurrirá.

Es esta:

¿Quién controla la inteligencia artificial cuando se usa en la guerra?

Los gobiernos. Las empresas. O los sistemas que estamos creando.

Fuentes

Este artículo se basa en las siguientes fuentes de prensa (enlaces externos, se abren en nueva pestaña):

  1. ReutersPentagon clashes with Anthropic over military AI use (29 ene 2026).
  2. AP NewsCobertura del conflicto Pentágono y empresas de IA.
  3. The Economic TimesPentagon threatens to cut off Anthropic in AI safeguards dispute (15 feb 2026; informe Axios/Reuters).

Si te interesa cómo la IA ya está transformando los conflictos modernos (drones, guerra electrónica, ciberdefensa), puedes leer: Cómo la IA está transformando la guerra moderna en 2025.

✍️ Claudio from ViaMind

Atrévete a imaginar, crear y transformar.


Comentarios
Los comentarios se comparten entre las versiones en español e ingles.

Suscribirse

Recibe un email mensual con los mejores posts sobre innovación, tecnología y futuro. Sin spam.

* obligatorio

Intuit Mailchimp