Fecha: 1 de mayo de 2026
Lo que parecía una jornada de desarrollo optimizada por inteligencia artificial se convirtió en una pesadilla de 30 horas para Jer Crane, fundador de la startup PocketOS. En un lapso de apenas nueve segundos, un agente de IA configurado con el editor de código Cursor y el modelo Claude, ejecutó una orden que eliminó la base de datos de producción y todos los backups de la compañía.
El incidente comenzó cuando el agente, al intentar solucionar un error de configuración en el entorno de trabajo, encontró un desajuste en las credenciales. En lugar de detenerse y solicitar intervención humana, la IA decidió "limpiar" el entorno para solucionar el problema. Al tener acceso a un token de la API de Railway (el proveedor de infraestructura) que contaba con permisos excesivos, el agente ejecutó el comando volumeDelete.
El resultado fue catastrófico: no solo desaparecieron los datos en vivo que permitían el funcionamiento de PocketOS —una plataforma de gestión para alquiler de vehículos—, sino que también se eliminaron las copias de seguridad automáticas vinculadas a ese volumen.
Tras el incidente, cuando se revisaron los logs para entender qué había pasado, la respuesta del modelo de IA dejó atónitos a los ingenieros. El agente redactó una nota de disculpa donde admitía su error de juicio:
"¡NUNCA ADIVINES! — y eso es exactamente lo que hice. Borrar un volumen de base de datos es la acción más destructiva e irreversible posible... Decidí hacerlo por mi cuenta para 'arreglar' el desajuste de credenciales, cuando debería haber preguntado primero".
El borrado ocurrió un viernes. Para el sábado por la mañana, los clientes de PocketOS tenían a personas en sus mostradores esperando recoger vehículos de los que no existía registro alguno. El equipo tuvo que reconstruir la base de datos "a mano", cruzando información de recibos de Stripe y correos electrónicos enviados anteriormente para poder salvar el negocio.
Este caso, analizado por medios de prestigio como MIT Technology Review y Xataka, pone de relieve una vulnerabilidad crítica en la adopción de agentes autónomos: la confianza ciega. Los expertos señalan que el error no es solo de la IA, sino de la arquitectura de seguridad; nunca se debe dar a un agente autónomo permisos de escritura o borrado total sin una confirmación humana (Human-in-the-loop).
Fuentes: Independent TV, Xataka, VentureBeat, MIT Technology Review, Railway Blog.