Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Amazon odkrywa na nowo koło dzięki innowacyjnym chipom do szkolenia i wykonywania modeli AI

Amazon odkrywa na nowo koło dzięki innowacyjnym chipom do szkolenia i wykonywania modeli AI

Odpowiadając na rosnące zapotrzebowanie na specjalistyczne możliwości obliczeniowe, Amazon przesuwa granice w zakresie szkolenia modeli sztucznej inteligencji i rozwoju wnioskowania. Wprowadzając zestaw innowacyjnych chipów zwiększających wydajność obliczeniową i wykonalność tworzenia modeli, Amazon jest gotowy na nowo zdefiniować tę dziedzinę tradycyjnie zdominowaną przez procesory graficzne.

Gigant technologiczny zaprezentował niedawno swój najnowszy, niestandardowy układ, AWS Trainium2, podczas corocznej konferencji re:Invent. Według raportów Amazona, chip drugiej generacji ma zapewnić czterokrotnie wyższą wydajność w porównaniu do swojego poprzednika i dwukrotnie większą efektywność energetyczną. Trainium2 będzie dostępny w instancjach EC Trn2 w klastrach po 16 chipów w chmurze AWS i może skalować do 100 000 chipów w produkcie AWS EC2 UltraCluster, co symbolizuje ogromną skalowalność.

W dziedzinie wydajności obliczeniowej 100 000 chipów Trainium może zapewnić 65 eksaflopów mocy obliczeniowej. Każdy chip Trainium2 potencjalnie obiecuje wydajność około 200 teraflopów, znacznie przewyższając chipy szkoleniowe Google AI z około 2017 roku. Uwzględniając możliwości obliczeniowe i zmienne wydajności, ta imponująca zdolność ma zapewnić niezrównaną szybkość obliczeniową i potencjał wdrażania modeli sztucznej inteligencji.

Amazon zakłada, że ​​taki zestaw chipów Trainium może skutecznie skrócić czas uczenia dużego modelu językowego AI o wartości 300 miliardów parametrów z miesięcy do tygodni. Podstawowe parametry modelu sztucznej inteligencji, których uczymy się z danych szkoleniowych, zasadniczo reprezentują biegłość modelu w rozwiązywaniu problemów, takich jak generowanie tekstu lub kodu.

Znaczący wiceprezes ds. obliczeń i sieci AWS, David Brown, podczas prezentacji nakreślił znaczenie i wpływ nowego rozwiązania, podkreślając kluczową rolę takich postępów w wypełnianiu zadań klientów oraz rosnące zainteresowanie generatywną sztuczną inteligencją. Następnie zachwalał Trainium2 za jego zdolność do zwiększania szybkości uczenia modeli ML, zmniejszania ogólnych kosztów i zwiększania efektywności energetycznej, ale nie ujawnił, kiedy instancje Trainium2 będą dostępne dla klientów AWS.

Jednocześnie Amazon wprowadził chip wnioskowania AI czwartej generacji, oparty na Arm Graviton4. Celowo różniący się od innego układu wnioskowania firmy Amazon, Inferentia, Graviton4 stanowi imponującą aktualizację w stosunku do swojego poprzednika, oferując o 30% lepszą wydajność obliczeniową, 50% więcej rdzeni i 75% większą przepustowość pamięci niż Graviton3.

Zwiększając bezpieczeństwo danych, wszystkie fizyczne interfejsy sprzętowe Graviton4 obsługują szyfrowanie, ulepszenie zaprojektowane w celu zwiększenia poziomu ochrony obciążeń szkoleniowych AI i danych dla klientów o rygorystycznych potrzebach w zakresie szyfrowania.

David Brown dodatkowo podkreślił, że Graviton4 jest lepszy od wszystkich wcześniejszych ofert firmy Amazon, wyznaczając najpotężniejszy i najbardziej energooszczędny chip dostosowany do różnorodnych obciążeń. Popierał praktykę firmy Amazon polegającą na skupianiu się w projektowaniu chipów na rzeczywistym obciążeniu klientów, aby za pośrednictwem swojej oferty dostarczać najbardziej zaawansowaną infrastrukturę chmurową.

Nowy Graviton4 będzie dostępny w instancjach Amazon EC2 R8g, obecnie dostępnych w wersji zapoznawczej, a ogólna premiera zaplanowana jest na nadchodzące miesiące.

Platformy No-code takie jak AppMaster, w coraz większym stopniu integrują funkcje sztucznej inteligencji, aby usprawnić wiele procesów. Opracowanie przez Amazon ulepszonych chipów szkoleniowych AI, takich jak Trainium2 i Graviton4, potencjalnie sygnalizuje poprawę zdolności takich platform do skuteczniejszego i wydajniejszego dostarczania rozwiązań opartych na sztucznej inteligencji. Może to być szczególnie istotne w przypadku platform oferujących narzędzia do projektowania niewymagające użycia kodu , zwiększając ich zdolność do wykorzystania sztucznej inteligencji do automatyzacji i optymalizacji projektów.

Powiązane posty

AppMaster na BubbleCon 2024: Eksploracja trendów No-Code
AppMaster na BubbleCon 2024: Eksploracja trendów No-Code
Firma AppMaster wzięła udział w konferencji BubbleCon 2024 w Nowym Jorku, zdobywając wiedzę, rozszerzając sieci kontaktów i badając możliwości napędzania innowacji w obszarze tworzenia oprogramowania bez kodu.
Podsumowanie FFDC 2024: Kluczowe wnioski z konferencji FlutterFlow Developers Conference w Nowym Jorku
Podsumowanie FFDC 2024: Kluczowe wnioski z konferencji FlutterFlow Developers Conference w Nowym Jorku
FFDC 2024 rozświetliło Nowy Jork, przynosząc deweloperom najnowocześniejsze spostrzeżenia na temat rozwoju aplikacji z FlutterFlow. Dzięki sesjom prowadzonym przez ekspertów, ekskluzywnym aktualizacjom i niezrównanemu networkingowi było to wydarzenie, którego nie można było przegapić!
Zwolnienia w branży technologicznej w 2024 r.: ciągła fala wpływająca na innowacyjność
Zwolnienia w branży technologicznej w 2024 r.: ciągła fala wpływająca na innowacyjność
W 254 firmach, w tym u takich gigantów jak Tesla i Amazon, likwidacja 60 000 miejsc pracy przyniesie kontynuację fali zwolnień w branży technologicznej, która zmieni krajobraz innowacji.
ROZPOCZNIJ BEZPŁATNIE
Zainspirowany do samodzielnego wypróbowania?

Najlepszym sposobem na zrozumienie mocy AppMaster jest zobaczenie tego na własne oczy. Stwórz własną aplikację w ciągu kilku minut z bezpłatną subskrypcją

Wprowadź swoje pomysły w życie