Anthropic vs. Gobierno de EU: AI, seguridad nacional y veto

INTELIGENCIA ARTIFICIAL

Anthropic es oficialmente un riesgo para la seguridad nacional de EU; demandará al Gobierno



Dirección copiada

Dario Amodei confirmó que el Departamento de Guerra notificó a la compañía su decisión, que se rumoraba desde hace tiempo, el 4 de marzo mediante una carta.

Publicado el 6 mar 2026



Screenshot
Crédito: YouTube @CBS News

Anthropic, la startup estadounidense de inteligencia artificial (AI), reconoció que “no tiene otra opción” que demandar al Gobierno de Estados Unidos (EU) tras ser designado oficialmente como un riesgo para la cadena de suministro y la seguridad nacional.

El CEO de la startup, Dario Amodei, confirmó el 5 de marzo que el Departamento de Guerra —nombre alternativo dado al Departamento de Defensa durante la administración del presidente Donald Trump— notificó un día antes a la compañía su decisión, que se rumoraba desde hace tiempo, mediante una carta.

Esta designación, generalmente reservada para adversarios extranjeros, marca la primera vez que una empresa estadounidense recibe esta clasificación y, en la práctica, impide a Anthropic obtener contratos militares.

Amodei señaló en una publicación de blog que la decisión no es legalmente sólida y declaró: “No vemos otra opción que impugnarla en los tribunales”.

La ruptura de la relación se debe a la negativa de Anthropic a permitir que el Gobierno eliminara sus medidas de seguridad, una medida que habría permitido que su AI se utilizara para armas totalmente autónomas y vigilancia masiva nacional.

Un día después de que Anthropic declarara públicamente que no permitiría que su tecnología se usara de esta manera, el presidente Trump utilizó sus redes sociales para calificarla de “UNA EMPRESA RADICAL DE IZQUIERDA Y PROGRESISTA“, que cometió un “ERROR DESASTROSO” al intentar presionar al gobierno para que obedeciera sus términos de servicio.

Trump acusó a Anthropic de ignorar la Constitución de Estados Unidos e intentar arrebatarle el control de las operaciones militares a los mandos castrenses, antes de ordenar a todos los departamentos federales que dejaran de usar sus productos de IT.

Amodei declaró en su última misiva: “Estamos muy orgullosos del trabajo que hemos realizado junto con el Departamento”, y en los días previos hemos mantenido “conversaciones productivas” sobre las maneras en que podría colaborar con el gobierno, cumpliendo con sus dos principios innegociables.

“Como dijimos el viernes pasado, no creemos, ni nunca hemos creído, que sea responsabilidad de Anthropic ni de ninguna empresa privada participar en la toma de decisiones operativas; esa es la función de las fuerzas armadas”, declaró. Nuestras únicas preocupaciones han sido las excepciones en materia de armas totalmente autónomas y vigilancia doméstica masiva, que se relacionan con áreas de uso de alto nivel, y no con la toma de decisiones operativas.

El CEO también se disculpó por el tono de un memorando interno enviado a los empleados de Anthropic, el cual se filtró el 4 de marzo, poco después de la diatriba de Trump en redes sociales.

Anthropic no filtró esta publicación ni ordenó a nadie más que lo hiciera; no nos conviene agravar esta situación”, declaró.

“Fue un día difícil para la empresa y me disculpo por el tono de la publicación. No refleja mi punto de vista cuidadoso ni meditado. Además, fue escrito hace seis días y constituye una evaluación desactualizada de la situación actual”.

El memorando filtrado se produjo tras el anuncio de que OpenAI había llegado a un acuerdo con el Departamento de Guerra para utilizar su tecnología de GenAI en aplicaciones militares.

En un comunicado que describe su perspectiva sobre el acuerdo, OpenAI afirmó que su acuerdo “cuenta con más restricciones que cualquier otro acuerdo anterior para el despliegue de AI, incluido el de Anthropic“, con líneas rojas explícitas contra las armas autónomas, las decisiones automatizadas de alto riesgo, la vigilancia nacional masiva y el uso por parte de agencias de inteligencia como la NSA.

En el mismo comunicado, publicado originalmente el 28 de febrero y actualizado el 2 de marzo, OpenAI manifestó su desacuerdo con la decisión del gobierno de designar a Anthropic como un riesgo para la cadena de suministro.

“Un buen futuro requerirá una colaboración real y profunda entre el Gobierno y los laboratorios de AI“, declaró. “Como parte de nuestro acuerdo, solicitamos que se ofrecieran los mismos términos a todos los laboratorios de AI, y específicamente que el gobierno intentara resolver los problemas con Anthropic; la situación actual es una muy mala manera de iniciar esta siguiente fase de colaboración entre el gobierno y los laboratorios de AI“.

Sobre por qué tuvo éxito donde Anthropic aparentemente no, OpenAI destacó la capacidad de cumplimiento: implementación exclusivamente en la nube, un stack de seguridad funcional y personal autorizado informado. “Desconocemos por qué Anthropic no pudo llegar a este acuerdo, y esperamos que ellos y otros laboratorios lo consideren”.

“Basándonos en lo que sabemos, creemos que nuestro contrato ofrece mejores garantías y salvaguardas más responsables que los acuerdos anteriores, incluido el contrato original de Anthropic“.

Artículos relacionados