Fecha: 2 de marzo de 2026
En un movimiento que ha sacudido los cimientos de Silicon Valley y el panorama tecnológico internacional, el Gobierno de los Estados Unidos ha emitido una orden ejecutiva sin precedentes: el veto total al uso de las herramientas de Anthropic, incluyendo su célebre modelo de lenguaje Claude, en todas las agencias e instituciones federales. Esta decisión, calificada por expertos como un "punto de inflexión" en la gobernanza de la IA, se fundamenta en preocupaciones críticas sobre la seguridad nacional y la integridad de los datos estatales.
Anthropic, fundada por ex-miembros de OpenAI y conocida por su enfoque en la "IA Constitucional" (una metodología diseñada para hacer a la IA más segura y alineable con los valores humanos), era hasta hoy uno de los socios estratégicos preferidos por organismos públicos debido a su reputación de ética y transparencia.
Sin embargo, informes recientes del Departamento de Comercio y agencias de inteligencia sugieren que se han detectado vulnerabilidades en la arquitectura de los modelos de Claude que podrían permitir la filtración de información clasificada o la manipulación de procesos de decisión automatizados por parte de actores externos. Aunque no se han hecho públicos los detalles técnicos exactos, el comunicado oficial menciona la detección de "patrones de respuesta anómalos" en entornos de simulación de defensa.
La noticia ha provocado una caída inmediata en las expectativas de mercado para las startups de IA que dependen de contratos gubernamentales. Según fuentes de MIT Technology Review y The Verge, este veto marca el inicio de una era de "proteccionismo algorítmico".
Xataka y El País destacan que esta medida podría tener un efecto dominó en Europa, donde la Ley de IA (AI Act) ya impone restricciones severas, pero donde un veto de esta magnitud por razones de seguridad nacional aún no se había materializado contra una empresa estadounidense de primer nivel.
Desde OpenAI y Google AI, el silencio es absoluto, aunque analistas de VentureBeat sugieren que estas compañías están reforzando a contrarreloj sus protocolos de "Red Teaming" para evitar correr la misma suerte que Anthropic.
Dario Amodei, CEO de Anthropic, ha defendido la robustez de sus sistemas, afirmando que su tecnología es "más segura que nunca" y que cooperarán plenamente con las autoridades para revertir esta situación. No obstante, el sector se pregunta si este veto responde exclusivamente a fallos técnicos o si existe una estrategia subyacente para favorecer infraestructuras de IA soberanas, totalmente controladas por el Estado.
Para los usuarios finales y las empresas privadas, Claude sigue estando disponible, pero la sombra de la desconfianza institucional podría desplazar el interés hacia otras alternativas como Gemini o GPT-5, que actualmente mantienen sus certificaciones de seguridad federal.
Fuentes: MIT Technology Review, The Verge, Xataka, VentureBeat, El País, Departamento de Comercio de EE. UU.