Google DeepMind ha dado un golpe de autoridad en el ecosistema del código abierto con el lanzamiento de Gemma 4, su familia de modelos más avanzada hasta la fecha. Construida sobre la arquitectura de Gemini 3, esta nueva generación no solo redefine la potencia por parámetro, sino que elimina las barreras de uso al adoptar una licencia Apache 2.0, permitiendo a desarrolladores y empresas una libertad comercial y técnica total.
La familia Gemma 4 se presenta en cuatro variantes estratégicas, diseñadas para cubrir desde dispositivos móviles hasta servidores locales de alto rendimiento:
Gemma 4 E2B y E4B: Modelos de 2 y 4 billones de parámetros efectivos. Están optimizados para su ejecución en el "edge" (móviles, navegadores como Chrome y dispositivos IoT), ofreciendo procesamiento nativo de audio y visión con una latencia mínima.
Gemma 4 26B MoE: Utiliza una arquitectura de Mezcla de Expertos (Mixture-of-Experts) para ofrecer un razonamiento avanzado y un rendimiento de nivel superior con una eficiencia computacional sorprendente.
Gemma 4 31B Dense: El modelo denso más potente de la serie, diseñado para cerrar la brecha entre el rendimiento de servidor y la ejecución en estaciones de trabajo locales.
A diferencia de sus predecesores, Gemma 4 es nativamente multimodal. Puede procesar texto, imagen y audio, y en sus versiones más ligeras, es capaz de funcionar completamente offline. Una de sus mayores innovaciones es el soporte nativo para flujos de trabajo de agentes (agentic workflows), facilitando la planificación, el uso de herramientas mediante llamadas a funciones y la generación de salidas estructuradas en JSON.
Además, la ventana de contexto se ha ampliado significativamente, alcanzando hasta 256K tokens en los modelos superiores, lo que permite analizar repositorios de código completos o documentos extensos en una sola consulta. Con soporte para más de 140 idiomas, Google busca democratizar el acceso a una IA de vanguardia que respete la soberanía digital de los usuarios.
Desde el primer día, Gemma 4 está disponible en plataformas clave como Hugging Face, Kaggle y Google AI Studio. Es compatible con herramientas populares de ejecución local como Ollama y LM Studio, asegurando que los desarrolladores puedan integrar estos modelos en sus flujos de trabajo existentes de manera inmediata.
Fuentes: Google DeepMind Blog, Google AI for Developers, MIT Technology Review, Xataka, The Verge.