El Gobierno de Donald Trump contra Anthropic: ¿Quién controla a las IAs militares?
Todo empezó con la euforia de un contrato. En julio de 2025, Anthropic —el laboratorio de inteligencia artificial fundado por Dario Amodei y su hermana Daniela tras abandonar OpenAI con la misión explícita de hacer IA "segura para la humanidad"— firmó un acuerdo de 200 millones de dólares con el Departamento de Defensa de Estados Unidos. Claude, el popular modelo de IA de Anthropic, sería desplegado dentro de los sistemas clasificados del Ejército, donde era considerado como una plataforma de vanguardia. Los ejecutivos brindaron. Anunciaron que el acuerdo "abría un nuevo capítulo" para la empresa. No imaginaban que ese capítulo se convertiría en una novela de suspense político.
La llama que encendió la hoguera llegó desde Venezuela. En enero de 2026, durante la operación militar estadounidense para capturar al expresidente Nicolás Maduro, un empleado de Anthropic planteó inquietudes a Palantir —la empresa que provee la plataforma subyacente que integra el modelo de Anthropic— sobre cómo Claude había sido utilizado en la operación. Palantir corrió al Pentágono. El secretario de Defensa Pete Hegseth, exmilitar ungido por Trump como jefe del ya rebautizado "Departamento de Guerra", montó en cólera. Días después emitió un memorando: las empresas de IA debían retirar las restricciones sobre su tecnología.
Fue entonces cuando Anthropic plantó cara y solicitó garantías concretas al Pentágono: que Claude no fuera usado para vigilancia masiva de ciudadanos estadounidenses, ni en armas autónomas letales sin supervisión humana. El Pentágono interpretó estas exigencias como un insulto a la soberanía nacional.
El portavoz del Pentágono Sean Parnell, antiguo gobernador republicano de Alaska, lo puso en términos de ultimátum: "No permitiremos que ninguna empresa dicte los términos sobre cómo tomamos decisiones operativas." Fijó una fecha límite: las 17:01 del viernes 27 de febrero. Anthropic debía ceder o enfrentarse a las consecuencias.
Las amenazas eran concretas y deliberadamente contradictorias. El Departamento de Defensa amenazó con etiquetar a Anthropic como un riesgo para la "cadena de suministro" —medida usualmente reservada para rivales extranjeros— y con invocar la Ley de Producción de Defensa, un mecanismo de la Guerra Fría que permitiría al gobierno apropiarse de la tecnología de la empresa. El propio Amodei señaló la paradoja con fría elegancia: una de las amenazas los declaraba un riesgo para la seguridad nacional; la otra, esenciales para ella. No podían ser ambas cosas a la vez.
Cuando Amodei y Hegseth se reunieron cara a cara el pasado martes, el ambiente fue de confrontación pura. Emil Michael, el subsecretario de Defensa para Investigación e Ingeniería, acusó a Amodei en X de tener "un complejo de Dios" y de querer "controlar personalmente a las Fuerzas Armadas de Estados Unidos". En Silicon Valley, el mensaje cayó al vacío.
Veinticuatro horas antes del plazo, el CEO de Anthropic publicó una declaración importante: "no podemos, en conciencia, acceder" a las demandas del Pentágono. Explicó que, en su opinión, la propuesta de última hora que el Departamento de Defensa había presentado "como un compromiso" venía acompañada de "jerga legal que permitiría ignorar las salvaguardas a voluntad." El problema parace estar en la "ideología" que rodea a la Administración Trump, ya que Anthropic, por su propia cuenta, considera que esta es un custodio poco fiable de las tecnologías de IA militar y de vigilancia, y que la empresa debía imponer salvaguardas independientes para prevenir el abuso. Pero esta pretensión es como si un fabricante de aspirtadores exigiera a sus compradores saber cómo van a utilizar sus máquinas.
Lo que ocurrió cuando expiró el plazo fue una escalada sin precedentes en la historia de la relación entre Silicon Valley y Washington. Trump publicó en Truth Social que "los lunáticos izquierdistas de Anthropic han cometido un error desastroso intentando coaccionar al Departamento de Guerra", y ordenó que todas lasa agencias federalales cesaran en su uso de la tecnología de Anthropic". Hegseth remató la faena con un comunicado donde acusó a Amodei de haber dado "una clase magistral de arrogancia y traición" y de intentar "ejercer un poder de veto sobre las decisiones operativas de las Fuerzas Armadas de los Estados Unidos". "Los combatientes de América nunca serán rehenes de los caprichos ideológicos del Big Tech," concluyó. "Esta decisión es definitiva."
En un comunicado, Anthropic afirmó que impugnaría ante los tribunales cualquier designación de riesgo por parte del Departamento de Defensa. "Creemos que esta designación sería jurídicamente errónea y sentaría un peligroso precedente para cualquier empresa estadounidense que negocie con el Gobierno", afirmó la empresa. «Ningún tipo de intimidación o sanción por parte del Departamento de Guerra cambiará nuestra postura sobre la vigilancia masiva nacional o las armas totalmente autónomas».
A última hora del viernes, la más directa rival de Anthropic, OpenAI, creadora del celebérrimo ChatGPT, respaldada por Microsoft, anunció su propio acuerdo para implementar tecnología en la red clasificada del Departamento de Defensa. El director ejecutivo Sam Altman dijo en X que el Pentágono compartía sus principios sobre la responsabilidad humana en los sistemas de armas y la ausencia de vigilancia masiva en Estados Unidos. «Los incluimos en nuestro acuerdo», dijo Altman sobre los puntos. «También crearemos salvaguardias técnicas para garantizar que nuestros modelos se comporten como deben, algo que también quería el Departamento de Guerra».
Las empresas tecnológicas y el Pentágono han estado enfrentados repetidamente desde al menos 2018, cuando algunos empleados "progresistas" de Google, propiedad de Alphabet, protestaron contra el uso por parte del Pentágono de su IA para analizar imágenes de drones. Se produjo un acercamiento con empresas como Amazon y Microsoft, que compiten por el negocio de la defensa, mientras que varios directores ejecutivos de grandes empresas tecnológicas se comprometieron el año pasado a cooperar con la administración Trump.
Pero los presuntos «robots asesinos» siguen preocupando, ya que las guerras en Ucrania y Gaza han puesto de manifiesto el aumento de los sistemas automatizados. Las acciones militares más audaces de Estados Unidos en el último año han aumentado estas preocupaciones, según Jack Shanahan, que dirigió el proyecto Maven del Pentágono sobre guerra algorítmica. «La gente podría estar un poco más nerviosa por la ausencia de restricciones», dijo Shanahan. La aprobación legal de la Casa Blanca podría ser «una cobertura para cualquiera que haga algo que pueda dar lugar a la falta de garantías procesales, víctimas civiles o daños colaterales».
El Pentágono firmó acuerdos por valor de hasta 200 millones de dólares cada uno con los principales laboratorios de IA durante el año pasado, entre ellos Anthropic, OpenAI y Google.
Anthropic, que negoció premios por debajo de ese límite, había expresado su preocupación por la capacidad del sistema legal para seguir el ritmo de los avances en IA. En la actualidad, por ejemplo, las leyes estadounidenses no impiden el uso de tecnología para recopilar datos aparentemente inocuos con el fin de revelar información sobre la vida privada de las personas, según ha declarado su director ejecutivo, Amodei.
Todo empezó con la euforia de un contrato. En julio de 2025, Anthropic —el laboratorio de inteligencia artificial fundado por Dario Amodei y su hermana Daniela tras abandonar OpenAI con la misión explícita de hacer IA "segura para la humanidad"— firmó un acuerdo de 200 millones de dólares con el Departamento de Defensa de Estados Unidos. Claude, el popular modelo de IA de Anthropic, sería desplegado dentro de los sistemas clasificados del Ejército, donde era considerado como una plataforma de vanguardia. Los ejecutivos brindaron. Anunciaron que el acuerdo "abría un nuevo capítulo" para la empresa. No imaginaban que ese capítulo se convertiría en una novela de suspense político.
La llama que encendió la hoguera llegó desde Venezuela. En enero de 2026, durante la operación militar estadounidense para capturar al expresidente Nicolás Maduro, un empleado de Anthropic planteó inquietudes a Palantir —la empresa que provee la plataforma subyacente que integra el modelo de Anthropic— sobre cómo Claude había sido utilizado en la operación. Palantir corrió al Pentágono. El secretario de Defensa Pete Hegseth, exmilitar ungido por Trump como jefe del ya rebautizado "Departamento de Guerra", montó en cólera. Días después emitió un memorando: las empresas de IA debían retirar las restricciones sobre su tecnología.
Fue entonces cuando Anthropic plantó cara y solicitó garantías concretas al Pentágono: que Claude no fuera usado para vigilancia masiva de ciudadanos estadounidenses, ni en armas autónomas letales sin supervisión humana. El Pentágono interpretó estas exigencias como un insulto a la soberanía nacional.
El portavoz del Pentágono Sean Parnell, antiguo gobernador republicano de Alaska, lo puso en términos de ultimátum: "No permitiremos que ninguna empresa dicte los términos sobre cómo tomamos decisiones operativas." Fijó una fecha límite: las 17:01 del viernes 27 de febrero. Anthropic debía ceder o enfrentarse a las consecuencias.
Las amenazas eran concretas y deliberadamente contradictorias. El Departamento de Defensa amenazó con etiquetar a Anthropic como un riesgo para la "cadena de suministro" —medida usualmente reservada para rivales extranjeros— y con invocar la Ley de Producción de Defensa, un mecanismo de la Guerra Fría que permitiría al gobierno apropiarse de la tecnología de la empresa. El propio Amodei señaló la paradoja con fría elegancia: una de las amenazas los declaraba un riesgo para la seguridad nacional; la otra, esenciales para ella. No podían ser ambas cosas a la vez.
Cuando Amodei y Hegseth se reunieron cara a cara el pasado martes, el ambiente fue de confrontación pura. Emil Michael, el subsecretario de Defensa para Investigación e Ingeniería, acusó a Amodei en X de tener "un complejo de Dios" y de querer "controlar personalmente a las Fuerzas Armadas de Estados Unidos". En Silicon Valley, el mensaje cayó al vacío.
Veinticuatro horas antes del plazo, el CEO de Anthropic publicó una declaración importante: "no podemos, en conciencia, acceder" a las demandas del Pentágono. Explicó que, en su opinión, la propuesta de última hora que el Departamento de Defensa había presentado "como un compromiso" venía acompañada de "jerga legal que permitiría ignorar las salvaguardas a voluntad." El problema parace estar en la "ideología" que rodea a la Administración Trump, ya que Anthropic, por su propia cuenta, considera que esta es un custodio poco fiable de las tecnologías de IA militar y de vigilancia, y que la empresa debía imponer salvaguardas independientes para prevenir el abuso. Pero esta pretensión es como si un fabricante de aspirtadores exigiera a sus compradores saber cómo van a utilizar sus máquinas.
Lo que ocurrió cuando expiró el plazo fue una escalada sin precedentes en la historia de la relación entre Silicon Valley y Washington. Trump publicó en Truth Social que "los lunáticos izquierdistas de Anthropic han cometido un error desastroso intentando coaccionar al Departamento de Guerra", y ordenó que todas lasa agencias federalales cesaran en su uso de la tecnología de Anthropic". Hegseth remató la faena con un comunicado donde acusó a Amodei de haber dado "una clase magistral de arrogancia y traición" y de intentar "ejercer un poder de veto sobre las decisiones operativas de las Fuerzas Armadas de los Estados Unidos". "Los combatientes de América nunca serán rehenes de los caprichos ideológicos del Big Tech," concluyó. "Esta decisión es definitiva."
En un comunicado, Anthropic afirmó que impugnaría ante los tribunales cualquier designación de riesgo por parte del Departamento de Defensa. "Creemos que esta designación sería jurídicamente errónea y sentaría un peligroso precedente para cualquier empresa estadounidense que negocie con el Gobierno", afirmó la empresa. «Ningún tipo de intimidación o sanción por parte del Departamento de Guerra cambiará nuestra postura sobre la vigilancia masiva nacional o las armas totalmente autónomas».
A última hora del viernes, la más directa rival de Anthropic, OpenAI, creadora del celebérrimo ChatGPT, respaldada por Microsoft, anunció su propio acuerdo para implementar tecnología en la red clasificada del Departamento de Defensa. El director ejecutivo Sam Altman dijo en X que el Pentágono compartía sus principios sobre la responsabilidad humana en los sistemas de armas y la ausencia de vigilancia masiva en Estados Unidos. «Los incluimos en nuestro acuerdo», dijo Altman sobre los puntos. «También crearemos salvaguardias técnicas para garantizar que nuestros modelos se comporten como deben, algo que también quería el Departamento de Guerra».
Las empresas tecnológicas y el Pentágono han estado enfrentados repetidamente desde al menos 2018, cuando algunos empleados "progresistas" de Google, propiedad de Alphabet, protestaron contra el uso por parte del Pentágono de su IA para analizar imágenes de drones. Se produjo un acercamiento con empresas como Amazon y Microsoft, que compiten por el negocio de la defensa, mientras que varios directores ejecutivos de grandes empresas tecnológicas se comprometieron el año pasado a cooperar con la administración Trump.
Pero los presuntos «robots asesinos» siguen preocupando, ya que las guerras en Ucrania y Gaza han puesto de manifiesto el aumento de los sistemas automatizados. Las acciones militares más audaces de Estados Unidos en el último año han aumentado estas preocupaciones, según Jack Shanahan, que dirigió el proyecto Maven del Pentágono sobre guerra algorítmica. «La gente podría estar un poco más nerviosa por la ausencia de restricciones», dijo Shanahan. La aprobación legal de la Casa Blanca podría ser «una cobertura para cualquiera que haga algo que pueda dar lugar a la falta de garantías procesales, víctimas civiles o daños colaterales».
El Pentágono firmó acuerdos por valor de hasta 200 millones de dólares cada uno con los principales laboratorios de IA durante el año pasado, entre ellos Anthropic, OpenAI y Google.
Anthropic, que negoció premios por debajo de ese límite, había expresado su preocupación por la capacidad del sistema legal para seguir el ritmo de los avances en IA. En la actualidad, por ejemplo, las leyes estadounidenses no impiden el uso de tecnología para recopilar datos aparentemente inocuos con el fin de revelar información sobre la vida privada de las personas, según ha declarado su director ejecutivo, Amodei.











