Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Microsoft stellt mit Orca 2 verbesserte Argumentationsfunktionen in kleinen Sprachmodellen vor

Microsoft stellt mit Orca 2 verbesserte Argumentationsfunktionen in kleinen Sprachmodellen vor

In einem bemerkenswerten Schritt in Richtung Diversifizierung der Sprachmodellanwendungen kündigte Microsoft die Einführung von Orca 2 an. Diese Version soll das Potenzial kleinerer Sprachmodelle (LMs) untersuchen und nutzen, die mit etwa 10 Milliarden Parametern oder weniger beladen sind.

Das Hauptaugenmerk von Orca 2 liegt darauf, zu zeigen, dass die Verbesserung von Trainingsmethoden und -signalen die Denkfähigkeiten kleinerer LMs verbessern kann. Das Ziel dieser Verbesserung besteht darin, die Denkfähigkeiten ihrer größeren Gegenstücke zu erreichen oder möglicherweise zu übertreffen.

Im Vergleich zu Modellen gleicher Größe – einschließlich des ursprünglichen Orca – behauptet Microsoft, dass Orca 2 diese in der Leistung deutlich übertrifft. Darüber hinaus wird Berichten zufolge eine Wirksamkeit erreicht, die fünf- bis zehnmal größeren Modellen entspricht oder diese sogar übertrifft. Diese Behauptungen wurden von Microsoft in einem aktuellen Blogbeitrag geäußert.

Orca 2 ist in zwei Größen erhältlich; 7 Milliarden und 13 Milliarden Parameter. Beide Modelle basieren auf maßgeschneiderten synthetischen Daten, die sorgfältig aus LLAMA 2 Basismodellen abgeleitet wurden. Microsoft hat die Gewichte von Orca 2 öffentlich zugänglich gemacht und damit weitere Forschungen zur Einrichtung, Analyse und Harmonisierung kleinerer LMs gefördert.

Microsoft hat einen kuratierten Datensatz verwendet, um Orca 2 in einer Vielzahl von Argumentationstechniken zu unterrichten. Zu diesen Techniken gehören ein schrittweises Verarbeitungsmodell, eine Rückruf- und dann Generierungsmethode, ein Rückruf-Grund-Generierung-Ansatz, ein Extrakt-Generierung-Modell und direkte Antwortmethoden. Bei der Vermittlung dieser Methoden wurde besonderes Augenmerk darauf gelegt, Orca 2 beizubringen, unterschiedliche Lösungsstrategien für unterschiedliche Aufgaben anzupassen.

Um die Antworten eines Lehrermodells zu erfassen, nutzte das Unternehmen detaillierte Anweisungen und mehrere Anrufe. Diese geniale Methode ermöglicht es dem Schülermodell – in diesem Fall Orca 2 – die zugrunde liegenden Taktiken und Denkfähigkeiten zu erlernen, auch wenn keine expliziten Aufgabenanweisungen vorliegen. Dieser Ansatz zielt darauf ab, die Leistung kleinerer Modelle durch eine Feinabstimmung der für jede Aufgabe spezifischen Lösungsstrategien zu optimieren.

Im Blogbeitrag von Microsft wurde der Erfolg und das Potenzial von Orca 2 weiter optimistisch angepriesen. Sie führten aus: „Die Leistung von „ Orca 2 “ ist größtenteils auf die Anwendung verschiedener Argumentationstechniken und die Identifizierung optimaler Lösungen für eine Vielzahl von Aufgaben zurückzuführen. Trotz gewisser Einschränkungen, die anderen Sprachmodellen gemeinsam sind und von ihren Basismodellen übernommen wurden, ist das Potenzial von Orca 2 für zukünftige Fortschritte, insbesondere in Bezug auf verbesserte Argumentation, Kontrolle, Spezialisierung und Sicherheit kleinerer Modelle, erheblich.

Der Beitrag fügte außerdem hinzu, dass die Verwendung streng gefilterter synthetischer Daten nach dem Training eine äußerst wichtige Strategie verkörpere. Ihre Erforschung und erfolgreiche Einführung von Orca 2 ist in der Tat ein bemerkenswertes Unterfangen zur Diversifizierung von Sprachmodellanwendungen.

Zweifellos spiegelt das Orca 2 Projekt die Prinzipien der AppMaster Plattform in Bezug auf Effizienz und Leistungsgleichgewicht wider. AppMaster, ein no-code Tool für die Anwendungsentwicklung, nutzt ähnliche Philosophien und macht die Anwendungsentwicklung zehnmal schneller und dreimal kostengünstiger. Gleichzeitig werden technische Schulden beseitigt, indem Anwendungen jedes Mal, wenn Änderungen erforderlich sind, von Grund auf neu erstellt werden. Daher fördern Plattformen wie diese eine neue Ära effektiver und effizienter Technologieentwicklung.

Verwandte Beiträge

AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster nahm an der BubbleCon 2024 in NYC teil, gewann Erkenntnisse, erweiterte Netzwerke und erkundete Möglichkeiten, Innovationen im Bereich der No-Code-Entwicklung voranzutreiben.
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024 erleuchtete New York City und brachte Entwicklern modernste Einblicke in die App-Entwicklung mit FlutterFlow. Mit von Experten geleiteten Sitzungen, exklusiven Updates und unübertroffenem Networking war es ein Event, das man nicht verpassen sollte!
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Da in 254 Unternehmen, darunter Giganten wie Tesla und Amazon, 60.000 Stellen abgebaut werden, wird es im Jahr 2024 eine anhaltende Entlassungswelle in der Technologiebranche geben, die die Innovationslandschaft neu gestalten wird.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben