El Departamento de Defensa de EE. UU. está considerando incluir en una lista negra a Anthropic, una de las principales empresas de inteligencia artificial de Estados Unidos y creadora del modelo de lenguaje Claude, después de que esta se negara a permitir que el ejército utilizara su tecnología sin límites éticos. Anthropic afirma que sus límites de uso son esenciales para proteger contra la vigilancia masiva y la creación de armas autónomas, mientras que, según se informa, el Pentágono está considerando designar a la empresa como «riesgo para la cadena de suministro» y romper los lazos de defensa tras el fracaso de meses de negociaciones.
La hasta ahora discreta colaboración tecnológica entre el Departamento de Defensa y Anthropic ha estallado en una disputa pública, filosófica y que podría sentar precedente. La cuestión es si una empresa de IA puede establecer límites éticos sobre el uso de su tecnología o si es el Gobierno quien debe decidir al respecto. Esta disputa plantea cuestiones más amplias sobre quién controla la IA: las empresas que la desarrollan, los ciudadanos cuyas libertades están en juego o las instituciones gubernamentales que quieren un acceso sin restricciones.
El Enfrentamiento: Riesgo en la Cadena de Suministro y Límites Éticos.
Se dice que el secretario de Defensa, Pete Hegseth, está "cerca" de romper lazos con Anthropic y calificar a la empresa como un riesgo en la cadena de suministro, una etiqueta históricamente reservada para adversarios extranjeros, porque Anthropic se ha negado a relajar las barreras éticas asociadas a sus herramientas de IA. Esos límites incluyen negarse a permitir que Claude sea utilizado para la vigilancia masiva interna de estadounidenses y armas totalmente autónomas que puedan disparar sin intervención humana.
La disputa no es hipotética; el Pentágono ha estado presionando a cuatro proveedores líderes de IA , OpenAI, Google, xAI y Anthropic, para que permitan que sus modelos se utilicen para "todos los fines legales", incluyendo áreas sensibles como el desarrollo de armas, la recopilación de inteligencia y las operaciones en el campo de batalla. Anthropic por sí sola ha sostenido que algunas solicitudes deberían permanecer fuera de límites, y esa postura ha provocado ahora una frustración abierta entre altos cargos de defensa.
El contrato de Anthropic con el Pentágono, adjudicado en julio de 2025 y valorado en hasta 200 millones de dólares, forma parte de un impulso más amplio del ejército estadounidense para integrar la mejor tecnología de IA en los flujos de trabajo de defensa. Claude fue el primer modelo aprobado para redes militares clasificadas y sigue siendo el único sistema de este tipo desplegado para tareas sensibles. Otras empresas han aceptado levantar sus salvaguardas para su uso en entornos gubernamentales no clasificados; solo Anthropic ha mantenido su postura en mantener límites éticos en todos los contextos.
El Pentágono sostiene que establecer límites previos para el uso legal es demasiado restrictivo. Un alto funcionario dijo supuestamente a Axios que negociar aprobaciones individuales caso por caso es poco práctico para la planificación militar y que los socios deben estar dispuestos a ayudar a "nuestros combatientes a ganar en cualquier combate." Ese funcionario también advirtió que Anthropic podría enfrentar consecuencias por resistirse, reflejando lo grave que se ha vuelto el enfrentamiento.
Anthropic no sabía que Claude AI fue utilizada para capturar a Maduro.
La línea filosófica de fractura en esta disputa se aclaró tras los informes de que Claude fue accedido durante la operación militar estadounidense en enero de 2026 para capturar al presidente venezolano Nicolás Maduro. Según varios medios, Claude fue utilizado a través de un sistema desarrollado por Palantir, sin embargo, las disposiciones de Anthropic sobre violencia y política de uso prohíben que sus modelos se utilicen para "facilitar o promover cualquier acto de violencia" o para diseñar o desplegar armas. El ejército no ha confirmado detalles, y Anthropic ha declarado que no habló del uso de Claude en operaciones específicas, insistiendo en que sus políticas de uso se aplican a todos los contextos.
Esto revela una desconexión entre cómo el gobierno interpreta el "uso legal" y cómo la antropía interpreta la contención ética. Para muchos, el incidente de Maduro ejemplifica el riesgo inherente a la incorporación de IA comercial en operaciones militares: las empresas prometen estándares morales, pero cuando los gobiernos despliegan la tecnología a través de terceros, esos estándares pueden ser eludidos o ignorados.
¿Ética o eficiencia? Anthropic se mantiene firme.
En su esencia, esta disputa es filosófica más que simplemente contractual. El CEO y la dirección de Anthropic han defendido públicamente medidas de seguridad que impidan la vigilancia civil y el desarrollo autónomo de armas sin restricciones. Estas son posturas basadas en preocupaciones sobre las libertades civiles y el posible daño social del despliegue de IA sin restricciones. Esa postura resuena con sectores del público, especialmente entre aquellos que ven el exceso de autoridad como una amenaza para la privacidad y la libertad, e incluso se ha convertido en un punto de encuentro para quienes presentan a Anthropic como una persona de principios y al Pentágono como autoritario.
Pero desde la perspectiva del Pentágono, las restricciones ralentizan la innovación y complican la planificación de la defensa. En una época en la que competidores casi iguales compiten por aplicar IA avanzada en contextos militares, los responsables ven la vacilación como una carga operativa. El impulso del Pentágono para que una IA pueda usarse para "cualquier propósito legal" refleja esta urgencia, pero también plantea preguntas sobre la supervisión civil del uso militar de IA.
A la tensión se suma la realidad de que modelos de IA como Claude están ampliamente integrados en la infraestructura corporativa, supuestamente utilizados por ocho de las diez mayores empresas estadounidenses, lo que significa que una designación de riesgo en la cadena de suministro no solo afectaría a las relaciones de defensa, sino que podría repercutir en ecosistemas comerciales más amplios.
Lo que hemos aprendido de la disputa entre Anthropic y el Pentagon.
Este enfrentamiento pone de manifiesto un dilema más amplio de la era de la IA: ¿quién determina cómo se utiliza la tecnología avanzada una vez que pasa del desarrollo y entra en instituciones poderosas? Anthropic intenta afirmar que los límites deben ser establecidos por los creadores que entienden tanto el poder como los riesgos de sus herramientas. El Pentágono, encargado de la defensa nacional, afirma que debe ser sin restricciones en la forma en que utiliza la tecnología que ha contratado y desplegado.
La cuestión más profunda es si las restricciones éticas deberían seguir a la tecnología en todas las esferas de uso, o si los gobiernos deberían poder anularlas en nombre de la seguridad. La respuesta tiene implicaciones mucho más allá de un solo contrato. Aborda temas de privacidad, autonomía militar, responsabilidad corporativa y, en última instancia, si ciudadanos o gobiernos —y qué tipo de gobiernos— moldean los límites de la tecnología.
Reflexión final.
En el tira y afloja entre Anthropic y el Pentágono, se plantea una pregunta fundamental sobre nuestro futuro: cuándo se crean herramientas poderosas, ¿quién determina cómo se aplican?, ¿las empresas que las construyen, los Gobiernos que las utilizan o el público cuyas libertades están en juego?
The Exposé News - 18 de febrero de 2026
por G. Calder