Gemma 4 el modelo de IA que lanzo Google DeepMind, open-source más potente y avanzado

Construida sobre la misma base tecnológica que impulsó a Gemini 3, Gemma 4 no solo rompe récords en razonamiento, código y capacidades multimodales, sino que lo hace de una forma radicalmente accesible: modelos que corren en tu teléfono, en una laptop o en un servidor local, bajo una licencia Apache 2.0 completamente permisiva.

¿Qué es Gemma 4?

Gemma 4 no es un solo modelo, sino una familia de cuatro variantes diseñadas para diferentes entornos y necesidades de hardware:

  • E2B (Effective 2B) y E4B (Effective 4B): Modelos ultracompactos optimizados para dispositivos móviles, edge computing, navegadores y smartphones (como Pixel).
  • 26B MoE (Mixture of Experts, activo ~4B): Un equilibrio entre potencia y eficiencia.
  • 31B Dense: El modelo más potente de la familia, ideal para workstations y servidores locales.

Estas versiones logran un rendimiento impresionante «byte por byte», superando en muchos casos a modelos mucho más grandes (hasta 20 veces su tamaño).

Características principales

  • Multimodal nativo — Soporta texto, imágenes y audio (especialmente en los modelos pequeños). Puede procesar entradas visuales y auditivas sin necesidad de fine-tuning especializado.
  • Contexto largo — Hasta 256K tokens, perfecto para documentos extensos, código grande o conversaciones prolongadas.
  • Más de 140 idiomas — Excelente soporte multilingüe desde el primer día.
  • Agéntico y razonamiento avanzado — Destaca en planificación multi-paso, uso de herramientas, generación de código offline y flujos de trabajo autónomos.
  • Función calling nativa — Facilita la integración con sistemas externos.
  • Eficiencia extrema — Los modelos pequeños corren en hardware de consumo (incluso en un solo GPU de 80 GB para los más grandes).

Rendimiento en benchmarks

Gemma 4 marca un avance notable respecto a Gemma 3:

BenchmarkGemma 4 31BGemma 4 26B MoEGemma 4 E4BGemma 3 27B
Arena AI (chat)145214411365
MMMLU (multilingüe)85.2%82.6%69.4%67.6%
MMMU Pro (multimodal)76.9%73.8%52.6%49.7%
AIME 2026 (Matemáticas)89.2%88.3%42.5%20.8%
LiveCodeBench (Código)80.0%77.1%52.0%29.1%
GPQA Diamond (Ciencia)84.3%82.3%58.6%42.4%

Los modelos destacan especialmente en razonamiento matemático, código competitivo y tareas agenticas.

escritory

Tecnología, ciencia, internet

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Meta presenta Muse Spark

8 abril

Meta ha presentado Muse Spark, el primero de una nueva familia de modelos de inteligencia artificial desarrollados por Meta Superintelligence Labs (MSL). Este lanzamiento marca un punto de inflexión en la estrategia de IA de la compañía, con un enfoque ambicioso en la creación de modelos cada vez más potentes y orientados a productos reales. […]

Intel se une a Elon Musk: Terafab

7 abril

Intel ha confirmado su participación en el proyecto Terafab, la iniciativa masiva de Elon Musk para construir una fábrica de semiconductores avanzados en Texas junto a Tesla, SpaceX y xAI. El objetivo principal del Terafab es producir procesadores de alto rendimiento a escala masiva, con la ambición de alcanzar 1 teravatio (TW) de potencia de […]

Anthropic filtra por error el código fuente de Claude Code

1 abril

Anthropic filtró accidentalmente parte del código de Claude Code tras publicar archivos internos en un repositorio público. El contenido fue descubierto por un investigador y rápidamente analizado por desarrolladores. La filtración revela que la herramienta tiene una arquitectura más compleja de lo esperado, con un sistema central que gestiona tareas como edición de código y […]