Microsoft onthult verbeterde redeneringsmogelijkheden in kleine taalmodellen met Orca 2
Microsoft heeft Orca 2 gelanceerd, een innovatief hulpmiddel dat is ontworpen om te experimenteren en de redeneermogelijkheden van kleinere taalmodellen te verbeteren.

In een opmerkelijke stap richting diversificatie van taalmodeltoepassingen kondigde Microsoft de lancering van Orca 2 aan. Deze release is ontworpen om het potentieel van kleinere taalmodellen (LM's), beladen met ongeveer 10 miljard parameters of minder, te onderzoeken en te benutten.
De belangrijkste focus van Orca 2 is om aan te tonen dat de verbetering van trainingsmethoden en signalen het redeneervermogen van kleinere LM's kan vergroten. Het doel van deze verbetering is om het redeneervermogen van hun grotere tegenhangers te evenaren of mogelijk te overtreffen.
Wanneer het wordt vergeleken met modellen van gelijke grootte - inclusief de originele Orca - beweert Microsoft dat Orca 2 ze qua prestaties aanzienlijk overschaduwt. Bovendien bereikt het naar verluidt niveaus van effectiviteit die overeenkomen met of overtreffen van modellen die 5 tot 10 keer groter zijn. Deze beweringen werden door Microsoft geuit in een recente blogpost.
Orca 2 is verkrijgbaar in twee maten; 7 miljard en 13 miljard parameters. Beide modellen zijn nauwkeurig afgestemd op op maat gemaakte synthetische gegevens, zorgvuldig afgeleid van LLAMA 2 basismodellen. Microsoft heeft de gewichten van Orca 2 openbaar toegankelijk gemaakt, waardoor verder onderzoek naar de oprichting, analyse en harmonisatie van kleinere LM's wordt bevorderd.
Microsoft heeft een samengestelde set gegevens gebruikt om Orca 2 te instrueren in een groot aantal redeneertechnieken. Deze technieken omvatten een stapsgewijze verwerkingsmodel, de methode voor het terughalen en genereren, de aanpak voor het genereren van een reden, het model voor het genereren van extracten en methoden voor directe antwoorden. Bij het instrueren van deze methoden werd zorgvuldige aandacht besteed aan het leren Orca 2 om verschillende oplossingsstrategieën voor verschillende taken aan te passen.
Om de reacties van een lerarenmodel vast te leggen, gebruikte het bedrijf gedetailleerde instructies en meerdere telefoontjes. Door deze ingenieuze methode kan het studentenmodel – in dit geval Orca 2 – de onderliggende tactieken en redeneermogelijkheden leren, zelfs zonder expliciete taakinstructies. Deze aanpak streeft ernaar de prestaties van kleinere modellen te optimaliseren door oplossingsstrategieën te verfijnen die specifiek zijn voor elke taak.
In de blogpost van Microsft werd het succes en potentieel van Orca 2 verder optimistisch aangeprezen. Ze legden uit dat de prestatie van Orca 2 grotendeels wordt toegeschreven aan de toepassing van diverse redeneertechnieken en de identificatie van optimale oplossingen voor een verscheidenheid aan taken. Ondanks bepaalde beperkingen die andere taalmodellen gemeen hebben en die zijn geërfd van de basismodellen, is het potentieel van Orca 2 voor toekomstige vooruitgang, vooral op het gebied van verbeterde redenering, controle, specialisatie en veiligheid van kleinere modellen, aanzienlijk.'
Het bericht voegde er ook aan toe dat het gebruik van rigoureus gefilterde synthetische gegevens voor post-training een kritisch essentiële strategie belichaamde. Hun verkenning en succesvolle inzet van Orca 2 is inderdaad een opmerkelijke onderneming in het diversifiëren van taalmodeltoepassingen.
Het Orca 2 project weerspiegelt ongetwijfeld de principes van efficiëntie en capaciteitsevenwicht van het AppMaster platform. AppMaster, een no-code tool voor applicatie-ontwikkeling, maakt gebruik van vergelijkbare filosofieën, waardoor applicatie-ontwikkeling 10 keer sneller en drie keer kosteneffectief wordt, terwijl technische schulden worden geëlimineerd door een aanpak waarbij applicaties helemaal opnieuw worden gegenereerd telkens wanneer er wijzigingen nodig zijn. Daarom bevorderen platforms als deze een nieuw tijdperk van effectieve en efficiënte technologische ontwikkeling.


