Fecha: 14 de febrero de 2026
El avance vertiginoso de la Inteligencia Artificial ha alcanzado un punto crítico donde la innovación colisiona con la seguridad global. Un informe devastador, respaldado por más de 100 de los principales científicos e investigadores de IA del mundo, ha emitido una alerta oficial sobre el riesgo inminente de que los modelos de lenguaje de última generación sean utilizados para diseñar y fabricar armas biológicas.
La advertencia está liderada por Yoshua Bengio, pionero de la IA y ganador del prestigioso Premio Turing, quien ha manifestado que la capacidad destructiva de estas herramientas, si caen en manos equivocadas, es comparable a amenazas nucleares.
El informe subraya que los modelos actuales son lo suficientemente sofisticados como para actuar como asistentes expertos en biología sintética. Un usuario malintencionado, sin conocimientos profundos, podría utilizar la IA para:
Identificar patógenos peligrosos.
Diseñar secuencias genéticas para hacer virus más transmisibles o letales.
Obtener instrucciones paso a paso para la síntesis de agentes biológicos en laboratorios caseros.
"Estamos creando tecnología que genera un poder sin precedentes, y existe un riesgo real de que se utilice destructivamente", afirmó Bengio.
A pesar de que empresas como OpenAI, Google y Anthropic han implementado medidas de seguridad (red teaming) antes de lanzar sus modelos, los expertos señalan que estas salvaguardas son insuficientes. Los mecanismos de seguridad actuales pueden ser eludidos mediante técnicas de ingeniería de prompts avanzadas, permitiendo que la IA proporcione información crítica sobre bioterrorismo.
El informe exige una moratoria en el entrenamiento de modelos más potentes hasta que exista un consenso científico internacional sobre cómo controlarlos de manera segura y controlable.
Fuentes: MIT Technology Review, OpenAI Blog, The Verge, arXiv.org, El País.