tech

Anthropic en disputa con el Pentágono por controles de IA

FC
Fazen Capital Research·
7 min read
1,068 words
Key Takeaway

El FT informó el 29 de marzo de 2026 que el Pentágono solicitó límites contractuales sobre los modelos de Anthropic; fundada en 2021, Anthropic lanzó Claude en 2023, poniendo a prueba normas de contratación.

Párrafo inicial

La controversia entre Anthropic y el Departamento de Defensa de EE. UU. se cristalizó en una prueba de política pública a finales de marzo de 2026 cuando el Financial Times informó que funcionarios del Pentágono habían solicitado a la empresa garantías explícitas sobre cómo sus modelos podrían, o no, ser utilizados (FT, 29 de marzo de 2026). El intercambio eleva una disputa de contratación concreta a una cuestión más amplia sobre el poder de actores privados para establecer límites operativos en sistemas de IA fundacionales con potencial de doble uso. Anthropic, fundada en 2021, se ha posicionado como un desarrollador que prioriza la seguridad y lanzó su familia de modelos Claude a partir de 2023; esas fechas enmarcan una cronología comprimida en la que normas privadas, gobernanza corporativa y adquisiciones públicas colisionan (Anthropic, 2021; Anthropic, 2023). La cuestión práctica inmediata —si un proveedor puede negarse a realizar ciertas clases de trabajo gubernamental— se cruza con preguntas estratégicas más profundas sobre interoperabilidad, rendición de cuentas y el locus de control sobre tecnologías que se escalan rápidamente entre sectores y fronteras.

Contexto

El episodio Anthropic–Pentágono no puede desvincularse de la arquitectura posterior a 2018 para la adopción de IA en EE. UU. El Departamento de Defensa creó el Centro Conjunto de Inteligencia Artificial (JAIC) en 2018 para acelerar la integración de la IA en los flujos de trabajo de defensa, lo que señaló una intención institucional de asociarse con innovadores comerciales (DoD de EE. UU., 2018). Ese ímpetu institucional ha dado lugar a un entorno de adquisiciones en el que los proveedores privados son a la vez suministradores indispensables y posibles guardianes de capacidad. La postura pública de Anthropic —que enfatiza salvaguardias de seguridad y la denegación de casos de uso específicos— contrasta con proveedores comerciales anteriores que buscaron licencias amplias e integraciones a medida con compradores gubernamentales.

Desde la perspectiva de la política pública, la disputa pone a prueba la doctrina de adquisiciones vigente y los límites de las restricciones impuestas por los proveedores. Las regulaciones federales de adquisiciones de EE. UU. permiten a las agencias establecer especificaciones y términos, pero por lo general no obligan a un proveedor a realizar trabajos que considere inconsistentes con sus políticas o su ética. El equilibrio entre la demanda soberana de control (la necesidad del Pentágono de garantizar la seguridad operativa y el cumplimiento de la misión) y las prerrogativas del proveedor (mitigación de riesgos, gestión reputacional y exposición legal) no está bien definido para modelos de IA en rápida evolución. Esta ambigüedad crea complejidad para oficiales de contratación, funciones de cumplimiento y gestores de programas que deben conciliar la capacidad técnica con la claridad de gobernanza.

Finalmente, el posicionamiento geopolítico amplifica las apuestas internas. El DoD considera el acceso soberano a modelos avanzados como un imperativo estratégico; la negativa privada a aceptar ciertos usos puede interpretarse en el extranjero tanto como un freno a la militarización como una vulnerabilidad potencial. A medida que los responsables de políticas calibran controles de exportación y marcos de interoperabilidad, el caso Anthropic será escrutado como un precedente sobre cómo las normas del sector privado occidental configuran la adopción militar. El informe del FT del 29 de marzo de 2026, por tanto, se lee como algo más que una sola disputa de contratación: es un dato en una arquitectura internacional emergente para la gobernanza de la IA (FT, 29 de marzo de 2026).

Análisis detallado de datos

Hay un puñado de puntos de datos cronológicos e institucionales concretos que enmarcan el debate. Anthropic fue fundada en 2021 por exempleados de otros laboratorios de IA prominentes y abrió acceso comercial a la familia de modelos Claude en 2023 (Anthropic, 2021; Anthropic, 2023). El DoD creó el JAIC en 2018 para centralizar la adopción de IA y desde entonces ha emitido múltiples documentos orientativos destinados a acelerar la integración responsable de la IA en funciones de defensa (DoD de EE. UU., 2018). El artículo del FT que documenta el intercambio se publicó el 29 de marzo de 2026 e identificó las solicitudes explícitas del Pentágono de lenguaje contractual que limitara ciertos usos posteriores, así como la reticencia pública de Anthropic a adoptar esas estipulaciones (FT, 29 de marzo de 2026).

Cuantitativamente, las implicaciones operativas no son triviales. Una única integración de un modelo de lenguaje empresarial puede implicar decenas de miles de horas de cómputo facturables, compromisos en la nube por varios millones de dólares e inversiones sostenidas de ingeniería de software para un despliegue seguro. Si bien los valores precisos de las adquisiciones en las discusiones reportadas sobre Anthropic no son públicos, adquisiciones análogas del DoD en años recientes han oscilado desde cifras bajas de siete hasta cifras medias de ocho dígitos cuando implican despliegues a nivel empresarial y enclaves clasificados. Estas magnitudes son relevantes: crean estructuras de incentivos para que los proveedores acepten limitaciones impuestas por el gobierno a cambio de ingresos por escala o renuncien a ciertos contratos para preservar compromisos públicos sobre seguridad y riesgo reputacional.

En comparación, las posturas de los proveedores varían. La postura pública de Anthropic centrada en la seguridad contrasta con la de pares que han buscado acuerdos comerciales más permisivos con agencias gubernamentales. Por ejemplo, varios grandes proveedores de nube y empresas de IA han optado históricamente por personalizar soluciones para cumplir requisitos de seguridad y cumplimiento del DoD en lugar de imponer rechazos generales. Esto no es un binario simple: los proveedores difieren en flexibilidad contractual, cláusulas de indemnización y compromisos de pruebas adversas (red-teaming), pero la comparación direccional subraya por qué el enfoque del Pentágono respecto a un único proveedor puede fijar un punto de referencia más amplio en las adquisiciones.

Implicaciones para el sector

Para contratistas de defensa y proveedores comerciales de nube, la disputa Anthropic pone de relieve un punto de inflexión en la selección de proveedores y la evaluación de riesgos de la cadena de suministro. Los contratistas principales que integran capacidades de modelos de lenguaje grande para funciones de inteligencia, logística o apoyo a la decisión deben ahora incorporar las políticas de gobernanza de los proveedores en sus modelos de riesgo. Eso podría aumentar los costes de transacción al cambiar de proveedor a mitad de un programa e incentivar asociaciones estratégicas a largo plazo con proveedores dispuestos a aceptar casos de uso militar doméstico. Por el contrario, podría impulsar inversiones en alternativas nacionales o en soluciones locales, un

Vantage Markets Partner

Official Trading Partner

Trusted by Fazen Capital Fund

Ready to apply this analysis? Vantage Markets provides the same institutional-grade execution and ultra-tight spreads that power our fund's performance.

Regulated Broker
Institutional Spreads
Premium Support

Daily Market Brief

Join @fazencapital on Telegram

Get the Morning Brief every day at 8 AM CET. Top 3-5 market-moving stories with clear implications for investors — sharp, professional, mobile-friendly.

Geopolitics
Finance
Markets