No parece evidente, pero Google está liderando la carrera de la inteligencia artificial. Al menos en cuanto al rendimiento de sus modelos, que siguen destacándose en los más prestigiosos benchmarks.
Su modelo más reciente, Gemini 2.5 Pro Experimental, ha obtenido las mejores puntuaciones tanto en el Artificial Analysis Intelligence Index como en LMArena. Estos índices combinan resultados de diversos benchmarks específicos (matemáticas, programación, temas científicos) mostrando que el modelo de Gemini supera actualmente a sus competidores.


Fuente: Artificial Analysis Intelligence Index.
Sin embargo, ganar en benchmarks no siempre es lo esencial. La percepción del usuario convencional a menudo difiere. Para quienes usamos distintos modelos regularmente, la impresión es que todos son sobresalientes en muchos casos.
A pesar de esto, Gemini 2.5 Pro también ha recibido elogios recientes en redes sociales. El modelo no solo es eficiente:
- Es más rápido en generación de tokens por segundo que sus competidores.
- Es uno de los más económicos.
- Tiene una ventana de contexto de un millón de tokens, solo superada por el reciente lanzamiento de Llama 4.
Google también tiene otra carta bajo la manga: Gemini 2.5 Flash, que aunque no es tan potente en benchmarks, es aún más rápido y mucho más económico que su versión superior.


El precio de Gemini 2.5 Pro Experimental es realmente competitivo en comparación con sus principales rivales. Fuente: Artificial Analysis Intelligence Index.
Incluso es más barato que DeepSeek V3 y R1, que tradicionalmente lideraban ese apartado. Esta versión es además más compacta, lo que la hace muy atractiva para integrarse en nuestros dispositivos móviles.
En el ámbito de modelos de código abierto, Google también está bien posicionado. Gemma 3, lanzado hace un mes, prueba que es tan eficaz como Llama 3.3. Sin embargo, en los análisis comparativos, los resultados no son tan alentadores.