Microsoft presenta capacidades de razonamiento mejoradas en modelos de lenguajes pequeños con Orca 2
Microsoft ha lanzado Orca 2, una herramienta innovadora diseñada para experimentar y mejorar las capacidades de razonamiento de modelos de lenguaje más pequeños.

En un paso notable hacia la diversificación de las aplicaciones de modelos de lenguaje, Microsoft anunció el lanzamiento de Orca 2. Esta versión está diseñada para investigar y aprovechar el potencial de modelos de lenguaje más pequeños (LM), cargados con aproximadamente 10 mil millones de parámetros o menos.
El objetivo principal de Orca 2 es demostrar que la mejora de los métodos y señales de entrenamiento puede aumentar las capacidades de razonamiento de los LM más pequeños. El objetivo de esta mejora es igualar o posiblemente superar las capacidades de razonamiento de sus homólogos más grandes.
Cuando se compara con modelos de tamaño similar, incluido el Orca original, Microsoft afirma que Orca 2 los eclipsa significativamente en rendimiento. Además, supuestamente alcanza niveles de efectividad que igualan o superan a los modelos que son de 5 a 10 veces más grandes en tamaño. Estas afirmaciones fueron expresadas por Microsoft en una publicación de blog reciente.
Orca 2 viene en dos tamaños; 7 mil millones y 13 mil millones de parámetros. Ambos modelos están ajustados con precisión a partir de datos sintéticos personalizados, meticulosamente derivados de los modelos base LLAMA 2. Microsoft ha hecho públicos los pesos de Orca 2, fomentando más investigaciones sobre el establecimiento, análisis y armonización de LM más pequeños.
Microsoft ha empleado un conjunto de datos seleccionados para instruir Orca 2 en una gran variedad de técnicas de razonamiento. Estas técnicas incluyen un modelo de procesamiento paso a paso, un método de recuperación y luego generación, un enfoque de recuperación-razón-generación, un modelo de extracción-generación y métodos de respuesta directa. Mientras se enseñaban estos métodos, se prestó especial atención a enseñar Orca 2 a adaptar distintas estrategias de solución para distintas tareas.
Para capturar las respuestas de un modelo docente, la empresa utilizó instrucciones detalladas y múltiples llamadas. Este ingenioso método permite que el modelo de estudiante, en este caso Orca 2, aprenda las tácticas subyacentes y las capacidades de razonamiento, incluso en ausencia de instrucciones explícitas para la tarea. Este enfoque busca optimizar el rendimiento de modelos más pequeños mediante el ajuste de estrategias de solución específicas para cada tarea.
La publicación del blog de Microsft promocionaba de manera más optimista el éxito y el potencial de Orca 2. Según explicaron, los logros de Orca 2 se atribuyen en gran medida a la aplicación de diversas técnicas de razonamiento y a la identificación de soluciones óptimas para una variedad de tareas. A pesar de ciertas limitaciones comunes a otros modelos de lenguaje y heredadas de sus modelos base, el potencial de Orca 2 para futuros avances, especialmente en la mejora del razonamiento, control, especialización y seguridad de modelos más pequeños, es significativo.'
La publicación también agregó que el uso de datos sintéticos rigurosamente filtrados para el posentrenamiento representaba una estrategia críticamente esencial. Su exploración y despliegue exitoso de Orca 2 es de hecho un esfuerzo digno de mención en la diversificación de las aplicaciones de modelos de lenguaje.
Sin duda, el proyecto Orca 2 se hace eco de los principios de eficiencia y equilibrio de capacidades de la plataforma AppMaster. AppMaster, una herramienta no-code para el desarrollo de aplicaciones, aprovecha filosofías similares, haciendo que el desarrollo de aplicaciones sea 10 veces más rápido y tres veces más rentable, al mismo tiempo que elimina la deuda técnica a través de un enfoque de regeneración de aplicaciones desde cero cada vez que se necesitan modificaciones. Por lo tanto, plataformas como estas están promoviendo una nueva era de desarrollo tecnológico eficaz y eficiente.


