El Pentágono ha alcanzado un acuerdo para incrementar el empleo de la inteligencia artificial de Google en operaciones clasificadas de Estados Unidos, según informaron varios medios estadounidenses el martes. Esta decisión se produce en un contexto donde las fuerzas armadas buscan reducir su dependencia de la IA de Anthropic, debido a la negativa de esta empresa a que sus modelos sean utilizados para vigilancia masiva o en sistemas de armas letales autónomas.
Antecedentes del conflicto con Anthropic
En febrero, el presidente Trump ordenó al gobierno dejar de usar la tecnología de Anthropic después de que el secretario de Defensa, Pete Hegseth, calificara a la empresa como un "riesgo" para la cadena de suministro de seguridad nacional, una designación que normalmente se aplica a organizaciones de países rivales. Anthropic llevó el caso ante los tribunales.
OpenAI y otros proveedores
Tras la crisis con Anthropic, su competidor OpenAI llegó a un acuerdo con el gobierno para integrar sus interfaces de IA en operaciones militares. Los acuerdos del Pentágono con los proveedores tecnológicos solo incluyen el uso de herramientas de IA dentro de los límites legales, según los reportes.
El cambio de estrategia de Google
En 2018, tras la presión de sus empleados, Google abandonó el Proyecto Maven, un programa del Pentágono para integrar IA en operaciones con drones. Sin embargo, en los últimos años, la compañía ha modificado su postura y ha reconstruido su negocio militar, compitiendo por contratos de computación en la nube para la defensa. Google no respondió de inmediato a las solicitudes de comentarios.
La carrera militar por la IA
El acuerdo con Google refleja la creciente competencia entre las grandes empresas tecnológicas por convertirse en proveedoras estratégicas del Departamento de Defensa. En los últimos años, el Pentágono ha multiplicado contratos en áreas como nube, análisis de datos e inteligencia artificial con empresas como Microsoft, Amazon, OpenAI y Palantir, con el objetivo de modernizar sus capacidades frente al avance tecnológico de China y Rusia. La IA es considerada por Washington como un factor clave en inteligencia, logística, ciberdefensa y toma de decisiones militares.
La relación entre Google y el Pentágono ha sido particularmente delicada desde 2018, cuando miles de empleados protestaron contra el Proyecto Maven. Las presiones internas llevaron a la compañía a retirarse del programa y a publicar principios éticos sobre IA. Sin embargo, desde 2022, Google ha cambiado gradualmente su enfoque y ha retomado la búsqueda de contratos gubernamentales, argumentando que puede participar bajo marcos legales y controles de uso responsables.
Tensión entre innovación y ética
Este nuevo movimiento también evidencia la tensión entre la innovación tecnológica y los límites éticos en el sector defensa. Empresas como Anthropic han marcado distancia respecto al uso de sus modelos para vigilancia masiva o sistemas letales autónomos, mientras que otras compañías aceptan colaborar en áreas más amplias de seguridad nacional. Analistas señalan que el debate sobre quién desarrolla la IA militar de Estados Unidos será central en los próximos años, a medida que estas herramientas pasen de ser apoyo operativo a funciones cada vez más críticas en conflictos reales.
Con información de AFP.



