Fecha: 28 de febrero de 2026
En lo que ya se considera el enfrentamiento ético más importante en la historia de la inteligencia artificial, Anthropic, la empresa creadora del modelo Claude, ha rechazado formalmente un ultimátum del Departamento de Defensa de los Estados Unidos (DoW). La compañía se niega a eliminar las salvaguardas éticas de sus sistemas, una decisión que pone en riesgo un contrato de 200 millones de dólares y podría acarrear sanciones legales sin precedentes bajo la Ley de Producción de Defensa.
El punto de fricción radica en una nueva cláusula impuesta por el Pentágono, bajo la dirección del Secretario de Defensa Pete Hegseth, que exige que cualquier IA contratada esté disponible para "todos los fines legales", sin restricciones externas. Esto permitiría al ejército utilizar a Claude en dos áreas que Anthropic considera sus "líneas rojas":
Armas letales autónomas: Sistemas capaces de seleccionar y atacar objetivos sin intervención humana directa.
Vigilancia masiva doméstica: El uso de IA para analizar y monitorizar datos de ciudadanos estadounidenses a gran escala.
Dario Amodei, CEO de Anthropic, ha sido contundente en un comunicado reciente: "No podemos, en buena conciencia, acceder a esta petición. Existen usos de la IA que socavan, en lugar de defender, los valores democráticos y que están fuera de lo que la tecnología actual puede hacer de forma segura".
La respuesta del Pentágono no se ha hecho esperar. Funcionarios de defensa han amenazado con designar a Anthropic como un "riesgo para la cadena de suministro", una etiqueta reservada habitualmente para empresas de países adversarios como China o Rusia. Esta medida prohibiría a cualquier contratista de defensa (incluidos gigantes como Palantir o Amazon Web Services) utilizar tecnología de Anthropic, lo que supondría un golpe demoledor para su modelo de negocio.
A pesar de la tensión, Anthropic ha recordado que su tecnología ya ha sido clave en operaciones estratégicas, como la reciente captura de Nicolás Maduro en Venezuela, pero insisten en que la IA no debe tomar decisiones de vida o muerte de forma autónoma debido a su imprevisibilidad técnica.
Este pulso ha provocado una reacción en cadena en Silicon Valley. Más de 200 empleados de Google y OpenAI han firmado una carta de apoyo a la postura de Anthropic, mientras que en el Congreso de EE. UU., senadores como Mark Warner urgen a crear un marco legal vinculante que defina los límites de la IA en la seguridad nacional.
Mientras competidores como xAI de Elon Musk parecen dispuestos a aceptar las condiciones del Pentágono, Anthropic se mantiene firme, demostrando que su concepto de "IA Constitucional" no es solo una estrategia de marketing, sino un compromiso que están dispuestos a defender incluso a costa de su rentabilidad financiera.
Fuentes: MIT Technology Review, The Verge, Associated Press, Axios, Xataka.