Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Meta stellt OPT-175B vor, das den Zugang zu groß angelegten Sprach-KI-Modellen für die Forschung demokratisiert

Meta stellt OPT-175B vor, das den Zugang zu groß angelegten Sprach-KI-Modellen für die Forschung demokratisiert

Meta(ehemals Facebook) hat seinen Open Pretrained Transformer (OPT-175B) vorgestellt, ein umfassendes KI-Sprachmodell mit über 100 Milliarden Parametern. Diese bemerkenswerte Entwicklung steht für die Bemühungen des Tech-Giganten, den Zugang zu modernster KI-Forschung zu demokratisieren, wie in einem kürzlich veröffentlichten Blog-Post dargelegt.

Unter einer nicht-kommerziellen Lizenz wird das Modell in erster Linie für Forschungszwecke zur Verfügung gestellt. Der Zugang wird akademischen Forschern sowie staatlichen, zivilgesellschaftlichen und industriellen Forschungslabors weltweit gewährt. Der Umfang des Zugangs für Forscher bleibt jedoch ungewiss. Wer an der Nutzung des Modells interessiert ist, kann einfach ein Antragsformular ausfüllen.

Verständnis von großen Sprachmodellen

Große Sprachmodelle sind fortschrittliche Systeme zur Verarbeitung natürlicher Sprache, die auf riesige Textmengen trainiert werden, um kreative und kohärente Inhalte in verschiedenen Formaten zu erstellen. Solche Modelle können Nachrichtenartikel, juristische Zusammenfassungen und Filmdrehbücher erstellen und sogar als Chatbots für den Kundendienst dienen.

Das GPT-3 von OpenAI ist eines der branchenweit führenden großen Sprachmodelle mit über 175 Milliarden Parametern für den privaten und kommerziellen Gebrauch. In ähnlicher Weise bietet Meta mit OPT-175B nicht nur ein umfangreiches Sprachmodell, sondern auch eine zugehörige Codebasis und eine umfassende Dokumentation, die den Trainingsprozess detailliert beschreibt. Meta hat auch eine Reihe kleinerer Basismodelle mit weniger Parametern auf den Markt gebracht.

Der Kohlenstoff-Fußabdruck des Deep Learning

Die meiste innovative KI-Forschung wird von großen Technologieunternehmen wie Google, Meta, Microsoft und Nvidia vorangetrieben. Das Training und der Betrieb großer KI-Modelle erfordert eine enorme Menge an Rechenleistung und Energie, was zu erheblichen Kosten und einem potenziell großen Kohlenstoff-Fußabdruck führt. Eine Studie von Roy Schwartz und Jesse Dodge aus dem Jahr 2019 zeigt, dass sich die Zahl der Deep-Learning-Berechnungen alle paar Monate verdoppelt, was zu einem geschätzten 300.000-fachen Anstieg von 2012 bis 2018 führt - und zu einer erheblichen Umweltbelastung.

Meta behauptet, das Kohlenstoffproblem gelöst zu haben, indem es den Kohlenstoff-Fußabdruck des OPT-175B auf ein Siebtel des GPT-3 von OpenAI reduziert hat. Das Unternehmen gibt an, das Modell auf 992 Nvidia A100-GPUs (je 80 Gigabyte) trainiert zu haben, wobei der gesamte CO2-Fußabdruck nur 75 Tonnen betrug, verglichen mit den geschätzten 500 Tonnen von GPT-3. OpenAI hat sich zu diesen Behauptungen noch nicht geäußert.

Zukünftige Auswirkungen

Die jüngste Ankündigung von Meta dürfte zu einem Innovationsschub in der Deep-Learning-Forschung führen. Neben den technologischen Fortschritten müssen jedoch auch ethische Fragen im Zusammenhang mit dem verantwortungsvollen Einsatz von KI weltweit geklärt werden. Meta hofft, dass die KI-Gemeinschaft - bestehend aus akademischen Forschern, der Zivilgesellschaft, politischen Entscheidungsträgern und Fachleuten aus der Industrie - sich zusammenschließen wird, um Antworten zu finden. Mit dem Aufkommen leistungsfähigerer Tools wie OPT-175B bietet die Demokratisierung des Zugangs zu KI-Innovationen Plattformen wie AppMaster die Möglichkeit, solche Fortschritte in ihre eigenen no-code Lösungen zu integrieren und den Nutzern die Entwicklung umfassender Anwendungen für verschiedene Branchen zu ermöglichen.

Verwandte Beiträge

AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster nahm an der BubbleCon 2024 in NYC teil, gewann Erkenntnisse, erweiterte Netzwerke und erkundete Möglichkeiten, Innovationen im Bereich der No-Code-Entwicklung voranzutreiben.
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024 erleuchtete New York City und brachte Entwicklern modernste Einblicke in die App-Entwicklung mit FlutterFlow. Mit von Experten geleiteten Sitzungen, exklusiven Updates und unübertroffenem Networking war es ein Event, das man nicht verpassen sollte!
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Da in 254 Unternehmen, darunter Giganten wie Tesla und Amazon, 60.000 Stellen abgebaut werden, wird es im Jahr 2024 eine anhaltende Entlassungswelle in der Technologiebranche geben, die die Innovationslandschaft neu gestalten wird.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben