Rispondendo alla crescente domanda di capacità informatiche specializzate, Amazon sta spingendo la frontiera nell’addestramento dei modelli di intelligenza artificiale e nello sviluppo di inferenze. Con l'introduzione di chip innovativi volti a migliorare l'efficienza computazionale e la fattibilità della creazione di modelli, Amazon è pronta a ridefinire quest'arena tradizionalmente dominata dalle GPU.
Il colosso della tecnologia ha recentemente presentato il suo ultimo chip personalizzato, AWS Trainium2, alla sua conferenza annuale re:Invent. Questo chip di seconda generazione promette di fornire prestazioni quattro volte superiori a quelle del suo predecessore e di raddoppiare l'efficienza energetica, secondo i rapporti di Amazon. Trainium2 sarà disponibile nelle istanze EC Trn2 in cluster di 16 chip nel cloud AWS e potrà scalare fino a 100.000 chip nel prodotto EC2 UltraCluster di AWS, a simboleggiare un'enorme scalabilità.
Nel campo delle capacità computazionali, 100.000 chip Trainium possono fornire 65 exaflop di calcolo. Ogni chip Trainium2 promette potenzialmente circa 200 teraflop di prestazioni, superando di un margine significativo i chip di addestramento AI di Google del 2017. Tenendo conto della capacità computazionale e delle variabili prestazionali, questa straordinaria capacità è destinata a fornire velocità e potenza computazionali senza precedenti per l’implementazione del modello di intelligenza artificiale.
Amazon ipotizza che un tale cluster di chip Trainium possa effettivamente ridurre da mesi a settimane il tempo di addestramento di un modello linguistico di grandi dimensioni AI da 300 miliardi di parametri. I parametri sottostanti di un modello di intelligenza artificiale, appresi dai dati di addestramento, rappresentano essenzialmente la competenza del modello nella risoluzione di problemi, come la generazione di testo o codice.
Il noto vicepresidente di elaborazione e rete AWS, David Brown, ha delineato l'importanza e l'impatto del nuovo sviluppo durante la presentazione, sottolineando il ruolo cruciale di tali progressi nell'adempimento del carico di lavoro dei clienti e il crescente interesse per l'intelligenza artificiale generativa. Ha inoltre pubblicizzato Trainium2 per la sua capacità di migliorare la velocità dell'addestramento dei modelli ML, ridurre i costi complessivi e rafforzare l'efficienza energetica, ma non ha rivelato quando le istanze Trainium2 saranno disponibili per i clienti AWS.
Allo stesso tempo, Amazon ha introdotto il suo chip di inferenza AI di quarta generazione, Graviton4 basato su Arm. Volutamente distinto dall'altro chip di inferenza di Amazon, Inferentia, Graviton4 segna un impressionante aggiornamento rispetto al suo predecessore, offrendo prestazioni di elaborazione migliori del 30%, il 50% in più di core e il 75% in più di larghezza di banda di memoria rispetto a Graviton3.
Aumentando la sicurezza dei dati, tutte le interfacce hardware fisiche di Graviton4 sono dotate di crittografia, un miglioramento progettato per rafforzare il livello di protezione dei carichi di lavoro e dei dati di formazione AI per i clienti con rigorose esigenze di crittografia.
David Brown ha inoltre evidenziato Graviton4 come superiore a tutte le offerte precedenti di Amazon, contrassegnando il chip più potente ed efficiente dal punto di vista energetico su misura per diversi carichi di lavoro. Ha sostenuto la pratica di Amazon di focalizzare la progettazione dei chip sui carichi di lavoro reali dei clienti per fornire l'infrastruttura cloud più avanzata attraverso le sue offerte.
Il nuovo Graviton4 sarà presente nelle istanze R8g di Amazon EC2, attualmente disponibili in anteprima con un rilascio generale previsto per i prossimi mesi.
Le piattaforme No-code come AppMaster integrano sempre più funzionalità di intelligenza artificiale per semplificare numerosi processi. Lo sviluppo di chip di addestramento AI potenziati come i chip Trainium2 e Graviton4 da parte di Amazon segnala potenzialmente un miglioramento della capacità di tali piattaforme di fornire soluzioni basate sull’intelligenza artificiale in modo più efficace ed efficiente. Ciò può essere particolarmente rilevante per le piattaforme che offrono strumenti di progettazione senza codice , aumentando la loro capacità di sfruttare l’intelligenza artificiale per l’automazione e l’ottimizzazione della progettazione.