La guerra Anthropic vs. Pentágono abre una pregunta clave: ¿quién gobierna la IA?
El gobierno de Estados Unidos catalogó a la empresa como riesgo para la seguridad nacional luego de que rechazara eliminar restricciones que impiden vigilancia masiva y armamento autónomo. El episodio expuso el vacío legal que rodea a estas tecnologías.

El gobierno federal de Estados Unidos designó a Anthropic, uno de sus contratistas de IA, como un riesgo para la seguridad nacional. No lo hizo por haber cometido un acto ilegal, sino por negarse a eliminar los límites de su propia tecnología. 

El choque entre la empresa y el Departamento de Defensa concentró en apenas 72 horas una década de preguntas abiertas sobre la gobernanza de la IA. Además, dejó una respuesta provisoria a una de las discusiones más pesadas del momento: cuando una compañía fija un límite ético y el Estado exige que lo saque, ¿quién se impone?. @@FIGURE@@

Anthropic, el Pentágono y las líneas rojas

Vale la pena relatar con precisión la secuencia de eventos. En noviembre de 2024, Anthropic y Palantir anunciaron una alianza para incorporar a Claude a las operaciones de inteligencia y defensa del gobierno estadounidense. En julio de 2025, el Departamento de Defensa le otorgó a Anthropic un contrato prototipo de dos años, con un límite máximo de US$ 200 millones. Todo parecía ir por buen camino: el idealismo de Silicon Valley se adaptaba de a poco a las exigencias de los contratos gubernamentales. Entonces, el Pentágono insistió más.

La solicitud del Departamento de Defensa fue específica: Anthropic debía eliminar las restricciones que impedían el uso de Claude para la vigilancia doméstica masiva y para sistemas de armas totalmente autónomos. Anthropic se negó. En una declaración pública del 26 de febrero, el director ejecutivo, Dario Amodei, escribió: "Independientemente de esto, estas amenazas no cambian nuestra postura: no podemos acceder a su solicitud en conciencia". La frase "en conciencia" quedó como el eje central de toda la disputa.

La respuesta de la administración fue rápida y en etapas. El secretario de Defensa, Pete Hegseth, publicó en X un mensaje en el que apuntó contra la empresa y la acusó de dar "una clase magistral de arrogancia y traición". El presidente Donald Trump ordenó en Truth Social que las agencias federales dejaran de usar de inmediato su tecnología, con un período de salida de seis meses. 

@@FIGURE@@

En ese mismo posteo en X, Hegseth le indicó al Departamento de Defensa que la designara como Riesgo para la Cadena de Suministro, una categoría que, si se aplicaba de forma amplia, podía bloquearle negocios con contratistas militares, proveedores de servicios en la nube o clientes empresariales estadounidenses con vínculos con el gobierno.

Riesgos para Anthropic: morales, comerciales y existenciales

Anthropic enfrenta tres riesgos distintos, pero muy ligados entre sí. El riesgo moral es resignar el propósito central de la empresa, basado en la premisa de que la IA debe ser segura y beneficiosa. 

El riesgo comercial existe, pero se puede manejar: US$ 200 millones no es una cifra determinante para una compañía del tamaño de Anthropic. El riesgo más delicado es la propia designación de Riesgo para la Cadena de Suministro, por su capacidad de extenderse a inversores, alianzas en la nube, contratos empresariales y planes de salida a bolsa, de formas difíciles de contener. @@FIGURE@@

Para la tarde del 27 de febrero, la historia se volvió todavía más extraña. Sam Altman, de OpenAI, anunció a través de X que su empresa llegó a un acuerdo con el Departamento de Guerra para desplegar sus modelos en su red clasificada, incluido un entendimiento sobre prohibiciones contra la vigilancia doméstica masiva y los sistemas de armas autónomas. 

En otras palabras, OpenAI, a pocas horas de que el choque con Anthropic llegara a su punto más alto, firmó en los hechos los mismos términos que Anthropic reclamaba. Al mismo tiempo, The Wall Street Journal informó que agencias gubernamentales encendieron las alarmas por Grok, el chatbot de xAI, al que le dieron acceso de manera discreta a redes clasificadas a partir de un acuerdo sin restricciones, firmado a principios de año. El Pentágono buscó obediencia, y el mercado se la dio.

La reacción negativa del público y de trabajadores de la industria de la IA fue considerable. Una campaña de boicot contra ChatGPT, organizada bajo el lema de que había "aceptado el acuerdo de Trump sobre robots asesinos", sumó más de 2,5 millones de participantes. Una carta abierta firmada por empleados de Google y OpenAI, titulada "No nos dividiremos", les pidió a los líderes de ambas compañías que sostuvieran las mismas líneas trazadas por Anthropic, en especial sobre vigilancia doméstica y asesinatos autónomos sin supervisión humana. @@FIGURE@@

La cuestión de fondo que atraviesa este teatro es, en apariencia, simple. Las dos partes del choque entre Anthropic y el Pentágono sostuvieron posturas defendibles. El argumento del Departamento de Defensa, según el cual ninguna empresa privada debería imponerle condiciones al gobierno de Estados Unidos en materia de seguridad nacional, se apoya en un principio coherente de rendición de cuentas democrática.

 El planteo de Anthropic, de que no puede, en conciencia, eliminar salvaguardas pensadas para proteger a civiles, también se apoya en un principio coherente de responsabilidad corporativa. El problema es que esas dos posiciones no se resuelven solo con una negociación. Requieren un marco legal que todavía no existe.

La gobernanza de la IA no tiene ley: por qué el Congreso debe actuar

La resolución propuesta que surgió del acuerdo Altman-DoW se apoyó en dos palabras: uso legal. Pero esa fórmula solo patea el problema para más adelante. Hoy no existen leyes federales integrales de privacidad que regulen la vigilancia habilitada por IA. Tampoco hay una regulación de IA que defina qué pueden o no pueden hacer los sistemas de armas autónomas.  @@FIGURE@@

La expresión "uso legal" funciona como reemplazo de un proceso político que todavía no ocurrió. Como sostuve en Forbes en enero, 2026 será el año en que la IA se vuelva un tema político visible y pase de los libros blancos de políticas a las campañas electorales. El impasse de Anthropic aceleró ese calendario.

La respuesta a quién debe decidir no puede quedar en manos de las propias empresas. Las condiciones de servicio corporativas no reemplazan la gobernanza democrática, y quienes acusaron a Anthropic de querer ejercer un poder de veto sobre operaciones militares no estuvieron del todo equivocados, aunque los usos específicos que se le exigían resultaran realmente alarmantes. La respuesta tampoco puede ser un Poder Ejecutivo que actúe a través de coerción financiera en lugar de hacerlo por medio de la ley. 

Lo que hace falta, y lo que brilló por su ausencia, es el Congreso. Las cuestiones en juego acá, sobre las condiciones bajo las cuales la IA puede usarse para vigilancia, sobre el nivel de supervisión humana necesario para que un sistema de armas actúe, y sobre los derechos que conservan los ciudadanos frente al poder estatal impulsado por la IA, no son técnicas. Son políticas y constitucionales. Por eso tienen que resolverse con legislación, no con políticas de uso corporativo ni con publicaciones presidenciales en Truth Social.

El caso Anthropic probablemente quede en la memoria como un momento revelador, más allá de cómo termine la disputa contractual puntual. Mostró que la falta de ley no elimina el conflicto: solo lo deja en manos de quien tenga más influencia en ese momento. Eso no es gobernanza. Es improvisación, con demasiado en juego.

*Este artículo fue publicado originalmente por Forbes.com