Fecha: 31 de enero de 2026
La era de la Inteligencia Artificial dependiente de gigantescos centros de datos está llegando a su fin. Liquid AI, la startup nacida en el MIT, ha anunciado el lanzamiento de LFM2.5-1.2B-Thinking, un modelo de lenguaje de tan solo 1.200 millones de parámetros que es capaz de ejecutar razonamiento lógico avanzado de forma totalmente offline en dispositivos móviles y portátiles.
Lo que hace especial a este modelo no es solo su tamaño —ocupa menos de 900 MB de memoria RAM, menos que muchas aplicaciones móviles convencionales—, sino su capacidad de razonamiento sistemático. A diferencia de los modelos compactos tradicionales que predicen la siguiente palabra de forma estadística, LFM-Thinking utiliza "trazas de pensamiento" (thinking traces). Esto significa que el modelo desglosa los problemas paso a paso internamente antes de ofrecer una respuesta final, permitiendo resolver tareas complejas de matemáticas, programación y lógica que antes requerían modelos diez veces más grandes.
Basado en la arquitectura de Redes Neuronales Líquidas (LNN), este modelo no utiliza la estructura tradicional de Transformers al 100%. Gracias a su diseño híbrido, logra una eficiencia sin precedentes:
Velocidad de infarto: Alcanza los 82 tokens por segundo en unidades de procesamiento neuronal (NPU) de móviles y hasta 239 tokens por segundo en CPUs modernas como las de AMD o Apple Silicon.
Superando a la competencia: A pesar de tener un 40% menos de parámetros, iguala o supera en pruebas de razonamiento a modelos como Qwen3-1.7B.
Privacidad absoluta: Al funcionar localmente, los datos nunca abandonan el dispositivo, eliminando riesgos de seguridad y costes de API.
La verdadera aplicación de LFM2.5-1.2B-Thinking reside en los agentes de IA. Gracias a su soporte nativo para el uso de herramientas (tool use) y su ventana de contexto de 32K, el modelo puede actuar como el "cerebro planificador" de un teléfono inteligente. Puede leer correos, organizar calendarios o automatizar flujos de trabajo sin necesidad de conexión a internet, garantizando una latencia mínima y una soberanía de datos total para el usuario.
El modelo ya está disponible en plataformas como Hugging Face y cuenta con soporte desde el primer día para marcos de trabajo como llama.cpp, MLX y vLLM, facilitando su integración en aplicaciones de Android, iOS y Windows.
Editor: Mariano
Fuentes: Liquid AI Blog, MIT Technology Review, Xataka, Jon Hernández, AMD AI News.