Escrito por Alberto Fernández
Índice
El enfrentamiento entre el laboratorio de Inteligencia Artificial Anthropic, creador del modelo Claude, y el Departamento de Defensa de los Estados Unidos (recientemente llamado “Departamento de Guerra”) nos muestra qué pasa cuando un modelo deja de ser un software más y se convierte en infraestructura dentro de entornos sensibles. En este caso, defensa, inteligencia, administración y contratistas.
Pero, sobre todo, representa el primer choque frontal entre las políticas de seguridad de la IA comercial y los imperativos operativos de la seguridad nacional.
La negativa categórica de Anthropic a relajar ciertas restricciones éticas y técnicas frente a las demandas militares ha desencadenado una serie de represalias gubernamentales, con mensajes en redes incluidos, culminando en la designación de la compañía como un “riesgo para la cadena de suministro”.
Hasta ahora, el debate solía estar centrado en si la IA funcionaba o en cuánto ayudaba. Pero este caso va de algo que probablemente cada vez será más crítico: quién manda, quién pone límites y qué ocurre cuando esas líneas rojas chocan.
Contexto
Para entender el choque hay que observar dos corrientes que venían avanzando en paralelo.
Por un lado, en muchas administraciones se ha ido normalizando el uso de asistentes y modelos para tareas de análisis, redacción, clasificación de información, entre otros muchos casos de uso. Y en el ámbito de defensa e inteligencia, la presión es aún mayor: si existe una tecnología que puede acelerar los procesos o dar una ventaja, la tentación de integrarla cuanto antes es clara, incluso aunque no esté todavía madura.
Por otro lado, las empresas que desarrollan estos modelos, incluida Anthropic, han ido definiendo sus propias políticas de seguridad. No solo por convicción, sino porque la IA generativa puede usarse para fines muy distintos dependiendo de quién la tenga en sus manos y de qué datos la rodeen. Es por ello que estos laboratorios están obligados a poner diferentes límites, controles y condiciones de uso para reducir riesgos, ya sea a nivel técnico, legal o incluso reputacional.
Y aquí aparece el quid del problema.
- Gobiernos queriendo adoptar IA con rapidez y con el mayor margen posible.
- Empresas de IA imponiendo límites por seguridad, ética y responsabilidad.
- Leyes y directrices intentando poner orden, pero sin cubrir todavía todos los escenarios al nivel operativo que exige un despliegue real.
Cuando esas tres cosas no encajan, el conflicto es casi inevitable. Y a esto hay que añadir un matiz importante que añade aún más complejidad al asunto: en los laboratorios de IA, ciertas decisiones no solo se toman mirando a la opinión pública, sino a sus propios equipos y al talento que hace posible el producto.
Cronología
Antes del enfrentamiento público, Claude ya no era una herramienta más, sino que llevaba tiempo acercándose al ecosistema de defensa y a entornos clasificados.
Veamos algunas de las fechas importantes para entender mejor la cronología:
- 2024–2025: Claude deja de ser solo un asistente y empieza a entrar en entornos de defensa y seguridad nacional, con acuerdos e iniciativas para su uso en escenarios sensibles.
- Enero de 2026: Uso táctico de Claude en la incursión militar en Venezuela, lo que supone la primera demostración empírica de la viabilidad técnica de la IA en el campo de batalla real.
- 24–26 de febrero de 2026: el Pentágono exige a Anthropic aceptar un marco de “uso para cualquier fin legal”. Dario Amodei (Anthropic) se niega y hace públicas sus líneas rojas: no relajar salvaguardas vinculadas a la vigilancia doméstica masiva (concretamente el monitoreo sistemático, predictivo y a gran escala de ciudadanos estadounidenses dentro de las fronteras nacionales) y armas plenamente autónomas.
- 27 de febrero de 2026: la disputa escala hasta el punto de que Trump ordena a las agencias federales dejar de usar tecnología de Anthropic acusando a la empresa de ser operada por «fanáticos de la izquierda radical» que intentaban coaccionar al gobierno y forzar a las fuerzas armadas a obedecer unos términos de servicio comerciales por encima de la Constitución. Y aún más grave para Anthropic si cabe: Ese mismo día el Secretario de Defensa Hegseth instó al Departamento de Defensa a designar oficialmente a Anthropic como un «riesgo de cadena de suministro para la seguridad nacional». En un comunicado declaró que, como resultado de esta etiqueta, «con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos podrá realizar ninguna actividad comercial con Anthropic”.
- 28 de febrero de 2026: Sam Altman (OpenAI) anuncia la firma de un acuerdo con el Pentágono para ocupar el vacío dejado por Anthropic con límites más explícitos. Este anuncio provoca un aumento del 300% de las desintalaciones de ChatGPT en EEUU así como numerosas reseñas negativas. Asimismo, Claude se ve recompensada con un aumento notable de las descargas, alcanzando el puesto número 1 en la App Store de Estados Unidos el sábado y manteniendo el puesto hasta el lunes 2 de marzo.
- 2 de marzo de 2026: comienza el efecto dominó en agencias: Treasury y otros organismos anuncian que terminan el uso de productos de Anthropic en respuesta a la orden presidencial.
- 6 de marzo de 2026: el Pentágono reafirma la etiqueta de riesgo de cadena de suministro para la seguridad nacional “con efecto inmediato” y el caso entra en una fase de presión institucional (con las principales empresas tecnológicas incluidas mostrando su preocupación) y respuesta legal (Anthropic dice que lo impugnará).
El núcleo del conflicto: qué se está discutiendo de verdad
A primera vista, podría parecer que esto trata de si la IA puede o no puede usarse en defensa. Pero, si rascamos un poco, el debate real es otro. Mucho más incómodo y, probablemente, mucho más frecuente a partir de ahora.
El choque se resume en una pregunta muy simple: ¿quién pone los límites cuando un modelo se integra en sistemas críticos? ¿El cliente, porque paga y asume la responsabilidad operativa? ¿El proveedor, porque controla el acceso a la tecnología y pone condiciones? ¿O la ley, aunque a veces no baje al nivel de detalle que exige una implementación real?
El Departamento de Defensa alienta una idea clara: si un uso es legal, debería poder hacerse. Desde este enfoque podemos entender que los límites ya los marcarían las leyes, la supervisión interna y la cadena de mando. Y, por lo tanto, las restricciones que añade el proveedor se perciben más bien como un freno, ya no solo a la operativa, sino también a la soberanía y a la capacidad de respuesta.
Anthropic, por su parte, plantea lo contrario: incluso si algo puede defenderse como legal o queda en zona gris, hay usos que no quiere habilitar. Y aquí entran en juego sus dos líneas rojas, que ha repetido públicamente: vigilancia doméstica masiva y armas plenamente autónomas. La empresa sostiene que no se trata solo de postura ética o reputacional, sino también de seguridad: en determinados escenarios, los modelos no son lo bastante fiables como para operar sin un humano supervisando, especialmente cuando hablamos de decisiones con consecuencias irreversibles.
En el fondo, lo que este caso pone sobre la mesa es una distinción clave: legal no siempre equivale a aceptable, y aceptable no siempre equivale a seguro.
Cuando una tecnología avanza más rápido que la regulación, como es sin duda el caso de la IA, ese espacio intermedio se convierte en un terreno pantanoso y de fricción donde lo que antes era una política interna del proveedor pasa a ser una condición contractual, y lo que antes era una necesidad operativa del cliente pasa a chocar con límites que no controla.
Por eso, esta polémica no es solo una discusión ética (que también), sino que es una discusión básicamente de gobernanza: quién decide y con qué autoridad.
Panorama actual: en qué punto estamos ahora mismo
A día de hoy, el tablero está lejos de ser un simple desacuerdo entre una empresa y un cliente institucional. Ya podemos ver consecuencias.
La primera pieza es la más evidente: ruptura operativa y transición forzada.
Tras la escalada, el Pentágono ha formalizado la etiqueta de “riesgo para la cadena de suministro” con efecto inmediato, lo que empuja a agencias, contratistas y proveedores a cortar o replantear relaciones con Anthropic, aunque técnicamente el producto no haya cambiado de un día para otro. Esto podría tener consecuencias graves para Anthropic, sobre todo en su acceso al mercado público y enviar una señal incómoda a potenciales inversores.
La segunda pieza es la que convierte este caso en un aviso serio: la dependencia tecnológica.
Cambiar el modelo en los entornos en los que Claude estaba integrado no es algo inmediato. Reuters, por ejemplo, ha descrito el caso de Palantir y su software Maven: retirar Claude implica reemplazarlo y en algunos puntos rehacer partes del sistema. Es decir, cuando el modelo ya es infraestructura, el coste de salida existe y se paga.
Y la tercera pieza es que el hueco que deja un proveedor en un entorno tan sensible no suele quedarse vacío.
OpenAI anunció su propio acuerdo con el Departamento de Guerra y lo acompañó de una postura muy concreta: trabajar con defensa, sí, pero con límites explícitos, incluyendo un añadido posterior para dejar por escrito que sus herramientas no se usarán para vigilancia doméstica de personas en EEUU, ni mediante el uso o compra de datos personales comerciales. Al menos de cara a la galería.
Ahora bien, esa entrada también ha tenido un coste reputacional que es difícil aún de medir. Este movimiento se ha interpretado por parte de muchas personas como un movimiento oportunista hasta el punto de que Sam Altman reconoció incluso que el anuncio “pareció oportunista y chapucero” por cómo se comunicó, y esto ha llevado a una clase de boicot por parte de algunos usuarios contra la compañía y ChatGPT difícil de predecir.
Qué puede pasar a partir de ahora
Aunque no podemos saber lo que va a pasar y no tiene sentido hacer predicciones rotundas, podemos atisbar algunos escenarios probables en función de cómo evolucionen las negociaciones, la presión institucional y los costes de transición.
Acuerdo de mínimos y vuelta parcial
Lo más pragmático para ambas partes sería cerrar un marco que permita retomar parte del uso, pero con límites mejor definidos por escrito: qué se considera exactamente “vigilancia doméstica”, qué controles existen, quién audita y qué responsabilidades asume cada parte. Realmente no sería una reconciliación muy romántica, sino un parche bien atado para evitar el caos operativo y el coste de reestructurar todo.
Conflicto largo y retirada por fases
Si ninguna parte cede en el fondo, la situación podría alargarse indefinidamente, ya sea con impugnaciones, presión mediática, guerra de comunicados y una retirada gradual en la práctica, con excepciones puntuales donde no sea viable cambiar rápido. Esto provocaría un periodo prolongado de incertidumbre. En este escenario, el desgaste ya no sería solo de tipo reputacional sino también de recursos y de continuidad de proyectos.
Cambio de enfoque a menor dependencia de un único proveedor
Independientemente de quién gane el pulso, este caso deja una lección para cualquier organismo (y también para cualquier gran empresa): si una IA se vuelve infraestructura, hay que diseñar pensando en un plan B. Es decir, arquitecturas más modulares, posibilidad de alternar proveedores y planes de salida reales. No porque sea lo ideal, que no lo es, sino porque reduce el riesgo de que un conflicto así vuelva a paralizar operaciones.
Qué nos enseña este caso (y por qué debería importarnos)
Toda esta polémica sirve como caso de estudio precisamente porque no habla de futuros hipotéticos. Habla de riesgos reales que hasta ahora no se habían tenido demasiado en cuenta y que ya se están planteando cuando la IA deja de ser una herramienta y empieza a funcionar como infraestructura.
Si has llegado hasta aquí, seguramente ya has sacado tus propias conclusiones, pero estas son las enseñanzas más claras:
La dependencia tecnológica es un riesgo en sí misma
En cuanto un modelo se integra en procesos críticos, cambiarlo deja de ser una decisión rápida. Aparecen costes, retrasos, validaciones, reorganización de equipos o incluso reconstrucción de partes del sistema. Y esto hay que tenerlo en cuenta.
La pregunta de quién manda no viene resuelta de serie
El cliente paga y asume la responsabilidad operativa. El proveedor controla la tecnología y sus condiciones. Y la ley determina el marco. Pero lo cierto es que ese marco no siempre baja al nivel de detalle que exige un despliegue real, y es posible que nunca llegue del todo. Cuando esos tres elementos no encajan, el conflicto se vuelve casi inevitable, como en este caso.
Poner límites no es solo decirlos, hay que poder sostenerlos
Una cosa es publicar principios y otra muy distinta es convertirlos en condiciones que se puedan aplicar en la práctica: qué se prohíbe exactamente, cómo se detecta, quién lo revisa, qué consecuencias hay si se cruza la línea y qué parte asume la responsabilidad.
La ética aparece porque la tecnología va por delante
En un mundo ideal, todo estaría perfectamente regulado y cada caso tendría su marco. En el mundo real, la IA evoluciona más rápido que la capacidad de legislar teniendo en cuenta además la operativa. Y si a esto añadimos la falta de los conocimientos necesarios a nivel operativo de algunos legisladores en este campo, tenemos la tormenta perfecta. Por eso la ética no desaparece aunque haya leyes, sino que aparece como forma de poner límites donde la norma todavía no llega, o donde el margen de interpretación es demasiado grande.
Esto no va de Anthropic, va de lo que viene
Este caso importa porque nos enseña que la IA está entrando en zonas donde no basta con que funcione. Hace falta saber quién decide, qué pasa si mañana cambia el marco y cómo de dependiente te vuelves cuando la integras de verdad.
Como usuario, te recuerda que tu herramienta favorita no es neutra: está sujeta a acuerdos, límites y decisiones que pueden cambiar rápido.
Y como empresa, te deja una lección muy práctica: si vas a integrar IA en procesos importantes, conviene hacerlo con cabeza, pensando no solo en el qué me aporta, sino también en el qué pasa si mañana tengo que cambiar.





