Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Meta wprowadza OPT-175B, demokratyzując dostęp do wielkoskalowych modeli językowej sztucznej inteligencji dla celów badawczych.

Meta wprowadza OPT-175B, demokratyzując dostęp do wielkoskalowych modeli językowej sztucznej inteligencji dla celów badawczych.

Metaznany wcześniej jako Facebook, zaprezentował Open Pretrained Transformer (OPT-175B), ekspansywny model językowy AI, który może pochwalić się ponad 100 miliardami parametrów. Ten niezwykły rozwój reprezentuje wysiłki giganta technologicznego, aby zdemokratyzować dostęp do najnowocześniejszych badań AI, jak opisano w ich ostatnim poście na blogu.

Na podstawie niekomercyjnej licencji, model zostanie udostępniony przede wszystkim do celów badawczych. Dostęp do niego uzyskają naukowcy akademiccy, a także rządowe, obywatelskie i przemysłowe laboratoria badawcze na całym świecie. Zakres dostępu dla naukowców pozostaje jednak niepewny. Osoby zainteresowane wykorzystaniem modelu mogą po prostu wypełnić formularz zgłoszeniowy.

Zrozumienie dużych modeli językowych

Duże modele językowe to zaawansowane systemy przetwarzania języka naturalnego, przeszkolone na ogromnych ilościach tekstu, aby generować kreatywne i spójne treści w różnych formatach. Takie modele mogą tworzyć artykuły informacyjne, streszczenia prawne, scenariusze filmowe, a nawet służyć jako chatboty do obsługi klienta.

GPT-3 firmy OpenAI to jeden z wiodących w branży dużych modeli językowych, zawierający ponad 175 miliardów parametrów, przeznaczony zarówno do użytku osobistego, jak i komercyjnego. Podobnie, OPT-175B firmy Meta dostarcza nie tylko duży model językowy, ale także towarzyszącą mu bazę kodów oraz obszerną dokumentację opisującą proces szkolenia. Meta wprowadziła również serię modeli bazowych o mniejszej skali i mniejszej liczbie parametrów.

Rozwiązanie problemu śladu węglowego głębokiego uczenia

Większość innowacyjnych badań nad AI jest napędzana przez największe korporacje technologiczne, takie jak Google, Meta, Microsoft i Nvidia. Szkolenie i obsługa dużych modeli AI wymaga ogromnej ilości mocy obliczeniowej i energii, co powoduje znaczne wydatki i potencjalnie duży ślad węglowy. Badanie z 2019 roku przeprowadzone przez Roya Schwartza i Jesse Dodge'a ujawniło, że obliczenia głębokiego uczenia podwajały się co kilka miesięcy, co doprowadziło do szacowanego 300 000-krotnego wzrostu od 2012 do 2018 roku - i znacznego wpływu na środowisko.

Meta twierdzi, że rozwiązała problem węgla, zmniejszając ślad węglowy OPT-175B do jednej siódmej GPT-3 OpenAI. Firma twierdzi, że wytrenowała model na 992 jednostkach GPU Nvidia A100 (80 gigabajtów każda), przy czym całkowity ślad węglowy wyniósł tylko 75 ton, w porównaniu do szacowanych 500 ton GPT-3. OpenAI nie skomentowało jeszcze tych twierdzeń.

Przyszłe implikacje

Spodziewajcie się, że wraz z ostatnim ogłoszeniem Meta, nastąpi gwałtowny wzrost innowacji w badaniach nad głębokim uczeniem. Jednak oprócz postępu technologicznego, należy zająć się kwestiami etycznymi dotyczącymi odpowiedzialnego wykorzystania AI na całym świecie. Meta ma nadzieję, że społeczność AI - obejmująca badaczy akademickich, społeczeństwo obywatelskie, decydentów i specjalistów z branży - połączy siły, aby znaleźć odpowiedzi. W miarę pojawiania się coraz potężniejszych narzędzi, takich jak OPT-175B, demokratyzacja dostępu do innowacji AI stanowi okazję dla platform takich jak AppMaster do zintegrowania takich osiągnięć z własnymi rozwiązaniami no-code, co jeszcze bardziej umożliwi użytkownikom tworzenie wszechstronnych aplikacji dla różnych branż.

Powiązane posty

AppMaster na BubbleCon 2024: Eksploracja trendów No-Code
AppMaster na BubbleCon 2024: Eksploracja trendów No-Code
Firma AppMaster wzięła udział w konferencji BubbleCon 2024 w Nowym Jorku, zdobywając wiedzę, rozszerzając sieci kontaktów i badając możliwości napędzania innowacji w obszarze tworzenia oprogramowania bez kodu.
Podsumowanie FFDC 2024: Kluczowe wnioski z konferencji FlutterFlow Developers Conference w Nowym Jorku
Podsumowanie FFDC 2024: Kluczowe wnioski z konferencji FlutterFlow Developers Conference w Nowym Jorku
FFDC 2024 rozświetliło Nowy Jork, przynosząc deweloperom najnowocześniejsze spostrzeżenia na temat rozwoju aplikacji z FlutterFlow. Dzięki sesjom prowadzonym przez ekspertów, ekskluzywnym aktualizacjom i niezrównanemu networkingowi było to wydarzenie, którego nie można było przegapić!
Zwolnienia w branży technologicznej w 2024 r.: ciągła fala wpływająca na innowacyjność
Zwolnienia w branży technologicznej w 2024 r.: ciągła fala wpływająca na innowacyjność
W 254 firmach, w tym u takich gigantów jak Tesla i Amazon, likwidacja 60 000 miejsc pracy przyniesie kontynuację fali zwolnień w branży technologicznej, która zmieni krajobraz innowacji.
ROZPOCZNIJ BEZPŁATNIE
Zainspirowany do samodzielnego wypróbowania?

Najlepszym sposobem na zrozumienie mocy AppMaster jest zobaczenie tego na własne oczy. Stwórz własną aplikację w ciągu kilku minut z bezpłatną subskrypcją

Wprowadź swoje pomysły w życie