Home / Technology / OpenAI impulsa la innovación: lanza GPT-4.1 y dos nuevos modelos de lenguaje para liderar la IA

OpenAI impulsa la innovación: lanza GPT-4.1 y dos nuevos modelos de lenguaje para liderar la IA

China Redefines Trade Tactics with Target on Hollywood.

La semana comienza de manera dinámica en el ámbito de la inteligencia artificial (IA). OpenAI ha lanzado una nueva línea de modelos de lenguaje: GPT-4.1, GPT-4.1 mini, y GPT-4.1 nano. Estas tres versiones están diseñadas para cumplir con diversas necesidades, desde trabajos intensivos hasta tareas más simples, y están especialmente pensadas para integraciones en aplicaciones.

Por ahora, estas tres alternativas estarán disponibles exclusivamente a través de la API de OpenAI, lo que significa que su uso se limitará al entorno de desarrollo y no estarán accesibles directamente en ChatGPT para el público general.

Características de los nuevos modelos de OpenAI

Con la introducción de estos nuevos modelos surge la pregunta inevitable: ¿cómo se posicionan frente a otras ofertas de OpenAI? La empresa asegura que superan a los modelos GPT-4o y GPT-4o mini, presentados el año pasado, “en casi todas las dimensiones”. De hecho, afirman que incluso mejoran algunos aspectos comparados con GPT-4.5, lanzado a principios de este año.

Uno de los principales avances es una capacidad de contexto de hasta un millón de tokens, lo que se traduce en la cantidad de texto que el modelo puede considerar simultáneamente para generar una respuesta. Además, OpenAI ha actualizado la base de conocimiento del modelo hasta junio de 2024, lo que significa que cuenta con información más actualizada.

La compañía liderada por Sam Altman asegura que esta nueva familia de modelos ha sido diseñada para ser útil en escenarios reales, enfocándose en los resultados y el rendimiento que pueden ofrecer, más allá de los benchmarks, que no siempre reflejan el desempeño real de los modelos.

En todo caso, GPT-4.1 destaca en benchmarks en tres áreas:

Puntos De Referencia Gpt 4 1
Puntos De Referencia Gpt 4 1

  • Programación. GPT-4.1 alcanza una puntuación del 54,6% en SWE-bench Verified, superando a GPT-4o por 21,4 puntos y a GPT-4.5 por 26,6 puntos.
  • Capacidad de seguir instrucciones. En el benchmark MultiChallenge de Scale, que evalúa cuán bien un modelo sigue instrucciones, GPT-4.1 logra un 38,3%, mejorando en 10,5 puntos a GPT-4o.
  • Contexto largo. En Video-MME, un test enfocado a la comprensión de contextos largos y multimodales, GPT-4.1 alcanza un nuevo máximo: 72,0% en la categoría “larga sin subtítulos”, mejorando en 6,7 puntos a GPT-4o.

Generalmente, a mayor tamaño y potencia del modelo, más recursos se necesitan para su funcionamiento, lo cual aumenta los costes. Sin embargo, el precio no es el único elemento a considerar: suelen ser también más lentos. Aquí es donde los modelos “mini” son útiles, ideales

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *