Om tegemoet te komen aan de groeiende vraag naar gespecialiseerde computermogelijkheden, verlegt Amazon de grens op het gebied van AI-modeltraining en de ontwikkeling van gevolgtrekkingen. Met de introductie van innovatieve chips die de rekenefficiëntie en de haalbaarheid van het maken van modellen moeten verbeteren, staat Amazon klaar om deze arena, die traditioneel wordt gedomineerd door GPU's, opnieuw te definiëren.
De technologiegigant onthulde onlangs zijn nieuwste aangepaste chip, de AWS Trainium2, tijdens zijn jaarlijkse re:Invent-conferentie. Deze chip van de tweede generatie belooft prestaties te leveren die vier keer beter zijn dan die van zijn voorganger en de energie-efficiëntie te verdubbelen, aldus de rapporten van Amazon. De Trainium2 zal beschikbaar zijn in EC Trn2 instanties in clusters van 16 chips in de AWS-cloud en kan opschalen tot 100.000 chips in het EC2 UltraCluster-product van AWS, wat een enorme schaalbaarheid symboliseert.
Op het gebied van rekenkracht kunnen 100.000 Trainium chips 65 exaflops aan rekenkracht leveren. Elke Trainium2 chip belooft potentieel ongeveer 200 teraflops aan prestaties en presteert daarmee ruimschoots beter dan de AI-trainingschips van Google rond 2017. Door rekening te houden met rekenvaardigheid en prestatievariabelen, zal deze indrukwekkende mogelijkheid een ongeëvenaarde rekensnelheid en potentie bieden voor de implementatie van AI-modellen.
Amazon stelt dat een dergelijk cluster Trainium chips de trainingstijd van een AI-taalmodel met 300 miljard parameters effectief kan verkorten van maanden naar weken. De onderliggende parameters van een AI-model, die uit de trainingsgegevens worden geleerd, vertegenwoordigen in wezen de vaardigheid van het model bij het oplossen van problemen, zoals het genereren van tekst of code.
De opmerkelijke VP van AWS Compute and Networking, David Brown, schetste tijdens de onthulling het belang en de impact van de nieuwe ontwikkeling en benadrukte de cruciale rol van dergelijke verbeteringen bij het vervullen van de werklast van klanten en de groeiende belangstelling voor generatieve AI. Hij prees de Trainium2 verder vanwege zijn vermogen om de snelheid van ML-modeltraining te verbeteren, de totale kosten te verlagen en de energie-efficiëntie te vergroten, maar maakte niet bekend wanneer de Trainium2 instanties beschikbaar zullen zijn voor AWS-klanten.
Tegelijkertijd introduceerde Amazon zijn AI-inferentiechip van de vierde generatie, de Arm-gebaseerde Graviton4. De Graviton4 onderscheidt zich doelbewust van de andere inferentiechip van Amazon, Inferentia, en markeert een indrukwekkende upgrade ten opzichte van zijn voorganger, met 30% betere rekenprestaties, 50% meer cores en 75% meer geheugenbandbreedte dan Graviton3.
Om de gegevensbeveiliging te verbeteren, zijn alle fysieke hardware-interfaces van Graviton4 voorzien van encryptie, een verbetering die is ontworpen om het beschermingsniveau van AI-trainingsworkloads en gegevens te versterken voor klanten met strenge encryptiebehoeften.
David Brown benadrukte Graviton4 verder als superieur aan alle eerdere aanbiedingen van Amazon, en markeert de krachtigste en energiezuinigste chip die is afgestemd op diverse werklasten. Hij verdedigde de praktijk van Amazon om het chipontwerp te concentreren op de daadwerkelijke werkbelasting van klanten om via zijn aanbod de meest geavanceerde cloudinfrastructuur te leveren.
De nieuwe Graviton4 zal te zien zijn in Amazon EC2 R8g-exemplaren, momenteel beschikbaar als preview met een algemene release gepland voor de komende maanden.
No-code platforms zoals AppMaster integreren steeds vaker AI-functionaliteiten om talloze processen te stroomlijnen. De ontwikkeling van verbeterde AI-trainingschips zoals de Trainium2 en Graviton4 chips door Amazon duidt mogelijk op een verbetering van de capaciteit van dergelijke platforms om op AI gebaseerde oplossingen effectiever en efficiënter te leveren. Dit kan met name relevant zijn voor platforms die ontwerptools zonder code aanbieden, waardoor hun vermogen om AI te benutten voor automatisering en ontwerpoptimalisatie wordt vergroot.