Tragedia en Irán: IA militar de EE.UU. causa bombardeo fatal
Tragedia en Irán: IA militar de EE.UU. causa bombardeo

Una tragedia sacude a Irán: el bombardeo de una escuela primaria, que dejó 150 niñas muertas, fue confirmado como un error de las fuerzas estadounidenses. Una investigación del The New York Times, basada en análisis de imágenes y videos, determinó que el ataque fue ejecutado por militares de Estados Unidos. Los hallazgos preliminares apuntan a un fatal error en el que la inteligencia artificial (IA) habría utilizado información incorrecta para sugerir la acción militar.

El proyecto Maven: origen de la IA militar

Desde hace años, el gobierno estadounidense emplea modelos de análisis de datos en el sector militar. Inspirado por los avances chinos en IA aplicada a la defensa, en 2017 el Departamento de Defensa creó el proyecto Algorithmic Warfare Cross-Function Team, conocido como Proyecto Maven. Su objetivo era analizar la vasta red de espionaje estadounidense, comenzando en Siria con operaciones contra el Estado Islámico (ISIS).

Inicialmente, Maven fue adjudicado a tres empresas: Palantir, Google y Anthropic. Sin embargo, Google se retiró en 2018 tras protestas de sus empleados. Posteriormente, se incorporó Anduril Industries, especializada en sistemas de seguridad, armas y drones operados con IA. También se sumaron Amazon Web Services (AWS) y Microsoft. En 2025 y 2026, el Pentágono integró a xAI y OpenAI para ampliar el uso de IA en misiones de seguridad.

Banner ancho de Pickt — app de listas de compras colaborativas para Telegram

Maven Smart System: de análisis a decisión letal

El Proyecto Maven desarrolló el software Maven Smart System (MSS), capaz de seleccionar objetivos militares, proponer opciones de ataque, elegir las armas adecuadas y optimizar el tiempo de ataque. Esto transformó la IA de una herramienta analítica a un sistema de apoyo a la toma de decisiones con implicaciones letales.

En 2023, Palantir creó la plataforma Army Intelligence Data Platform (AIDP), diseñada para unificar y agilizar operaciones de inteligencia en el ejército. Según la empresa, AIDP fue desarrollada en colaboración con las Brigadas de Inteligencia Militar. Desde 2024, ha sido adoptada por todas las bases del ejército estadounidense en el mundo. AIDP integra, organiza y distribuye grandes volúmenes de datos de drones, satélites e inteligencia de señales, mientras que Maven Smart System aplica modelos de aprendizaje automático para identificar patrones, clasificar objetos y generar recomendaciones militares.

Pruebas en Medio Oriente

Estas tecnologías fueron probadas en el campo, con Medio Oriente como teatro de experimentación. La red de espionaje estadounidense en la región facilitó el ensayo de nuevas herramientas de IA. El proyecto comenzó analizando videos de drones en Siria para identificar combatientes de ISIS. Posteriormente, en Afganistán, se integraron grabaciones, documentos y redes sociales, permitiendo predicciones de escenarios probables. La IA evolucionó de analítica a predictiva, adquiriendo la capacidad de seleccionar objetivos militares.

IA generativa en el conflicto con Irán

En el conflicto con Irán, se integraron modelos de lenguaje como Claude, de Anthropic, en una versión adaptada para uso militar. Esta herramienta facilita el análisis de datos en el ecosistema de IA del Pentágono, simplificando la toma de decisiones en tiempo real. Representa el paso de la IA predictiva a la generativa. La primera operación conocida con Claude fue la intervención en Venezuela, que llevó a la captura del presidente Nicolás Maduro y su esposa.

Esta operación provocó un enfrentamiento entre empresas desarrolladoras de IA y el Pentágono sobre los límites éticos. Tras la captura de Maduro, un ejecutivo de Anthropic contactó a Palantir para preguntar si su software había sido utilizado. Al filtrarse la información, el Pentágono, que planeaba una intervención en Irán, solicitó a Anthropic eliminar las restricciones éticas de Claude, a lo que la compañía se negó.

Debate ético y regulación

Anthropic ha programado a Claude bajo estrictos parámetros éticos: no debe tomar decisiones de ataque sin supervisión humana, tiene prohibido ejecutar acciones letales, participar en vigilancia masiva (salvo para ciudadanos estadounidenses) o intervenir en contextos ilegales o represivos. Sin embargo, el uso de Claude en la operación contra Maduro, considerada ilegal, cuestiona la efectividad de estos límites.

Banner post-artículo de Pickt — app de listas de compras colaborativas con ilustración familiar

Ante la negativa de Anthropic, el Pentágono dio por concluidos los contratos, calificando a la empresa como un riesgo en la cadena de suministro. El ejército argumenta que la IA es solo una herramienta y que los límites éticos deben aplicarse a los operadores, no a la tecnología. Palmer Luckey, fundador de Anduril Industries, sostiene que las empresas no deben imponer criterios éticos; deben ser los gobiernos quienes regulen.

Lecciones de Gaza y el futuro

Este debate plantea la necesidad de regular la IA. La historia muestra que cada nueva tecnología bélica requirió un marco regulatorio, pero siempre después de causar muerte y destrucción. En Gaza, el ejército israelí usa su sistema Lavender, con autonomía para elegir objetivos, causando miles de víctimas civiles. Sin límites éticos, la IA continúa operando sin control.

La tragedia en Irán subraya la urgencia de establecer regulaciones internacionales para la inteligencia artificial en contextos militares, antes de que más vidas inocentes se pierdan por errores tecnológicos.