En los últimos meses, Microsoft Research ha estado lanzando una serie de modelos de lenguaje pequeños (SLM) llamados “Phi”. El primero fue Phi-1, con 1.3 mil millones de parámetros, especializado para la codificación básica de Python. En septiembre, Microsoft Research lanzó el modelo Phi-1.5 con 1.3 mil millones de parámetros, pero fue entrenado con una nueva fuente de datos que incluía varios textos sintéticos de NLP. A pesar de su pequeño tamaño, Phi-1.5 estaba entregando un rendimiento casi de última generación en comparación con otros modelos de tamaño similar.
Phi-2: Rendimiento de vanguardia en un paquete compacto
Hoy, Microsoft ha anunciado el lanzamiento del modelo Phi-2 con 2.7 mil millones de parámetros. Microsoft Research afirma que este nuevo SLM ofrece un rendimiento de última generación entre los modelos de lenguaje base con menos de 13 mil millones de parámetros. En algunos benchmarks complejos, Phi-2 iguala o supera a modelos hasta 25 veces más grandes.
La semana pasada, Google anunció la suite de modelos de lenguaje Gemini. El Gemini Nano es el modelo más eficiente de Google, construido para tareas en dispositivos y puede ejecutarse directamente en procesadores móviles. Un modelo de lenguaje pequeño como Gemini Nano permite funciones como la resumen de texto, respuestas inteligentes contextuales y corrección avanzada de gramática y ortografía.
Phi-2 frente a Gemini Nano-2
Según Microsoft, el nuevo modelo Phi-2 iguala o supera al nuevo Google Gemini Nano-2, a pesar de ser más pequeño en tamaño. A continuación, se muestra la comparación de los benchmarks entre los modelos Google Gemini Nano-2 y Phi-2.
Modelo | Tamaño | BBH | BoolQ | MBPP | MMLU |
---|---|---|---|---|---|
Gemini Nano 2 | 3.2B | 42.4 | 79.3 | 27.2 | 55.8 |
Phi-2 | 2.7B | 59.3 | 83.3 | 59.1 | 56.7 |
Además de superar a Gemini Nano-2, Phi-2 también supera el rendimiento de los modelos Mistral y Llama-2 con 7B y 13B de parámetros en varios benchmarks. Un éxito increíble para el equipo de Microsoft Research y su pequeño gran modelo.
Modelo | Tamaño | BBH | Comprensión del razonamiento común | Comprensión del lenguaje | Matemáticas | Codificación |
---|---|---|---|---|---|---|
Llama-2 | 7B | 40.0 | 62.2 | 56.7 | 16.5 | 21.0 |
Mistral | 7B | 57.2 | 66.4 | 63.7 | 46.4 | 39.4 |
Phi-2 | 2.7B | 59.2 | 68.8 | 62.0 | 61.1 | 53.7 |
Mientras que los dos modelos phi anteriores estaban disponibles en Hugging Face, Phi-2 ha sido puesto a disposición en el catálogo de modelos de Azure. Esta plataforma ya ofrece tecnologías a la vanguardia y sin rival.