martes, 16 abril 2024

Orca-Math, el modelo de Microsoft que supera los límites de las matemáticas

Microsoft Research ha anunciado Orca-Math. Este es un modelo de lenguaje pequeño (SLM) que supera a modelos más grandes como Gemini Pro y GPT-3.5 en la resolución de problemas matemáticos. Este logro destaca el potencial de los SLM especializados en dominios específicos.

Orca-Math, un pequeño gran modelo matemático

Orca-Math, creado a partir del modelo Mistral 7B, ha logrado un impresionante 86.81% en GSM8k pass@1, superando a modelos de Meta, Google y OpenAI. Este rendimiento se debe a la utilización de datos sintéticos de alta calidad y un proceso de aprendizaje iterativo.

El entrenamiento de Orca-Math en un conjunto de datos de 200,000 problemas matemáticos y la mejora continua basada en la retroalimentación de una señal “maestra” han sido fundamentales para su éxito.

Parece que los diferentes modelos de lenguaje siguen avanzando a máxima velocidad. La revolución de la IA es increíble y está afectando a todos los ámbitos. Como podemos observar puede ser muy fácil hacer modelos SLM y que sean expertos en ciertas áreas.

Microsoft parece haber tomado la delantera. Pero, en un mercado tan dinámico y joven es imposible dilucidar quien puede llevar la delantera en este ámbito. Veremos como responden Google, Amazon y otras empresas a este nuevo jaque de Microsoft.

Puede ser muy interesante ver hasta donde pueden llegar con estos modelos más pequeños. Esto puede permitir disponer de soluciones a la medida de cada mercado y circunstancia.

VíaMSPU
FuenteMicrosoft
José Palacios
José Palacioshttps://microsofters.com
Todo esto empezó con Windows 8 y ya vamos por Windows 11. La tecnología y la comunidad es la mezcla perfecta para seguir después de tantos años.

1 COMENTARIO

Suscríbete
Notificar de
guest

1 Comentario
Más votados
Más nuevos Más antiguos
Opinión Inline
Ver todos los comentarios
Jacinto

A ver si es verdad que estos modelos mejoran, porque la última vez que le pregunté a BingChat por un problema matemático falló todas las veces. En cálculo de porcentajes progresivos. Una decepción total.

Últimas noticias