Estados Unidos firma acuerdo militar con OpenAI y Trump prohíbe la IA de Anthropic
En un giro significativo en el ámbito de la inteligencia artificial y la defensa, el gobierno de Estados Unidos ha tomado decisiones divergentes respecto a dos de las principales empresas del sector. Mientras el Departamento de Guerra, comúnmente conocido como el Pentágono, ha llegado a un acuerdo con OpenAI para utilizar sus modelos en redes clasificadas, el presidente Donald Trump ha ordenado la prohibición inmediata del uso de la tecnología de Anthropic en todas las agencias federales.
OpenAI anuncia colaboración con el Pentágono bajo salvaguardias técnicas
Sam Altman, director ejecutivo de OpenAI, anunció este viernes un acuerdo con el Pentágono que permitirá el uso de sus modelos de inteligencia artificial en la red clasificada de la agencia de defensa. En un mensaje publicado en su red social X, Altman destacó que el acuerdo incluye "salvaguardias técnicas" para garantizar que los modelos se comporten de manera adecuada, alineándose con los principios de seguridad de la empresa.
Entre estos principios, Altman enfatizó la prohibición de la vigilancia masiva a nivel nacional y la necesidad de responsabilidad humana en el uso de la fuerza, lo que incluye sistemas de armas autónomas. "También implementaremos garantías técnicas para asegurarnos de que nuestros modelos se comporten como deben, algo que también deseaba el Departamento de Guerra", explicó el ejecutivo, quien además pidió al Pentágono que ofrezca condiciones similares a todas las empresas de inteligencia artificial.
El anuncio se produce en un contexto de tensión, luego de que Anthropic, una startup rival, desatara la indignación de la administración Trump al insistir en incluir salvaguardias similares en su propio acuerdo con el Pentágono. OpenAI pondrá ingenieros a disposición del Pentágono para asegurar que los modelos de IA se desplieguen únicamente en redes en la nube, buscando evitar acciones legales y gubernamentales conflictivas.
Trump ordena la prohibición de Anthropic tras rechazo de condiciones militares
Horas antes del anuncio de OpenAI, el presidente Donald Trump emitió una orden dirigida a todas las dependencias del gobierno de Estados Unidos para que dejen de usar "inmediatamente" la inteligencia artificial de Anthropic. Esta decisión se tomó después de que la empresa rechazara la exigencia del Pentágono de autorizar el uso militar incondicional de sus modelos Claude, que incluiría aplicaciones como vigilancia masiva y armas autónomas.
En una publicación en su plataforma Truth Social, Trump declaró: "Estoy ordenando A TODAS las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE todo el uso de la tecnología de Anthropic. No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos". Agregó que habrá un periodo de eliminación gradual de seis meses para agencias como el Departamento de Guerra que actualmente utilizan productos de Anthropic.
Anthropic, por su parte, respondió con un extenso comunicado en el que expresó su intención de revertir la prohibición, argumentando que impugnará en los tribunales cualquier designación como riesgo para la cadena de suministro. La empresa destacó su postura ética, insistiendo en que su tecnología no debe usarse para vigilancia masiva de ciudadanos estadounidenses o en sistemas autónomos de armamento, y pidió a los líderes que dejen de lado diferencias para rechazar las exigencias del Pentágono.
Contexto de tensión y acusaciones entre el Pentágono y Anthropic
La situación se ha vuelto aún más polémica con declaraciones del secretario de Defensa de Estados Unidos, Pete Hegseth, quien acusó a Anthropic de "arrogancia y traición" en un mensaje en X. Hegseth afirmó que la empresa dio una clase magistral sobre cómo no hacer negocios con el gobierno de Estados Unidos o el Pentágono, reflejando la frustración de las autoridades ante la negativa de Anthropic a aceptar condiciones sin restricciones.
El Pentágono había establecido un plazo hasta las 17:01 hora local del viernes para que Anthropic aceptara sus condiciones, bajo la amenaza de una orden de cumplimiento forzoso según la Ley de Producción de Defensa. Sin embargo, Dario Amodei, director ejecutivo de Anthropic, mantuvo la posición de la empresa, declarando el jueves que "no podemos en conciencia acceder a su solicitud", a pesar de estas presiones.
Este conflicto se enmarca en un escenario más amplio, donde la inteligencia artificial de Anthropic, Claude, fue vinculada recientemente por Bloomberg a un supuesto ciberataque contra el Servicio de Administración Tributaria (SAT) y el Instituto Nacional Electoral (INE) de México, aunque el SAT negó posteriormente dichos reportes. Estos eventos subrayan las complejidades éticas y de seguridad que rodean el uso de la IA en contextos militares y gubernamentales, marcando un capítulo crucial en la relación entre la tecnología y la defensa nacional.
