Microsoft Research ha anunciado Orca-Math. Este es un modelo de lenguaje pequeño (SLM) que supera a modelos más grandes como Gemini Pro y GPT-3.5 en la resolución de problemas matemáticos. Este logro destaca el potencial de los SLM especializados en dominios específicos.
Orca-Math, un pequeño gran modelo matemático
Orca-Math, creado a partir del modelo Mistral 7B, ha logrado un impresionante 86.81% en GSM8k pass@1, superando a modelos de Meta, Google y OpenAI. Este rendimiento se debe a la utilización de datos sintéticos de alta calidad y un proceso de aprendizaje iterativo.
El entrenamiento de Orca-Math en un conjunto de datos de 200,000 problemas matemáticos y la mejora continua basada en la retroalimentación de una señal “maestra” han sido fundamentales para su éxito.
Parece que los diferentes modelos de lenguaje siguen avanzando a máxima velocidad. La revolución de la IA es increíble y está afectando a todos los ámbitos. Como podemos observar puede ser muy fácil hacer modelos SLM y que sean expertos en ciertas áreas.
Microsoft parece haber tomado la delantera. Pero, en un mercado tan dinámico y joven es imposible dilucidar quien puede llevar la delantera en este ámbito. Veremos como responden Google, Amazon y otras empresas a este nuevo jaque de Microsoft.
Puede ser muy interesante ver hasta donde pueden llegar con estos modelos más pequeños. Esto puede permitir disponer de soluciones a la medida de cada mercado y circunstancia.
A ver si es verdad que estos modelos mejoran, porque la última vez que le pregunté a BingChat por un problema matemático falló todas las veces. En cálculo de porcentajes progresivos. Una decepción total.