Um der wachsenden Nachfrage nach spezialisierten Rechenfunktionen gerecht zu werden, verschiebt Amazon die Grenzen des KI-Modelltrainings und der Inferenzentwicklung. Mit der Einführung innovativer Chips, die die Recheneffizienz und die Durchführbarkeit der Modellerstellung verbessern sollen, ist Amazon bereit, diesen traditionell von GPUs dominierten Bereich neu zu definieren.
Der Technologieriese stellte kürzlich auf seiner jährlichen re:Invent-Konferenz seinen neuesten maßgeschneiderten Chip vor, den AWS Trainium2. Laut Amazon-Berichten verspricht dieser Chip der zweiten Generation eine viermal höhere Leistung als sein Vorgänger und eine doppelt so hohe Energieeffizienz. Das Trainium2 wird in EC Trn2 Instanzen in Clustern von 16 Chips in der AWS-Cloud verfügbar sein und kann im EC2-UltraCluster-Produkt von AWS auf bis zu 100.000 Chips skaliert werden, was eine enorme Skalierbarkeit symbolisiert.
Im Bereich der Rechenleistung können 100.000 Trainium Chips 65 Exaflops an Rechenleistung liefern. Jeder Trainium2 Chip verspricht potenziell eine Leistung von rund 200 Teraflops und übertrifft damit die KI-Trainingschips von Google um 2017 deutlich. Unter Berücksichtigung von Rechenfähigkeit und Leistungsvariablen wird diese beeindruckende Fähigkeit eine beispiellose Rechengeschwindigkeit und Leistungsfähigkeit für die Bereitstellung von KI-Modellen bieten.
Amazon geht davon aus, dass ein solcher Cluster von Trainium Chips die Trainingszeit eines großen KI-Sprachmodells mit 300 Milliarden Parametern effektiv von Monaten auf Wochen verkürzen kann. Die zugrunde liegenden Parameter eines KI-Modells, die aus den Trainingsdaten gelernt werden, stellen im Wesentlichen die Kompetenz des Modells bei der Lösung von Problemen dar, beispielsweise beim Generieren von Text oder Code.
Der bekannte Vizepräsident von AWS Compute and Networking, David Brown, beschrieb bei der Enthüllung die Bedeutung und Auswirkungen der neuen Entwicklung und betonte die entscheidende Rolle solcher Fortschritte bei der Erfüllung der Kundenarbeitslast und das wachsende Interesse an generativer KI. Er lobte Trainium2 außerdem für seine Fähigkeit, die Geschwindigkeit des ML-Modelltrainings zu erhöhen, die Gesamtkosten zu senken und die Energieeffizienz zu steigern, gab jedoch nicht bekannt, wann die Trainium2 Instanzen für AWS-Kunden verfügbar sein werden.
Gleichzeitig stellte Amazon seinen KI-Inferenzchip der vierten Generation vor, den Arm-basierten Graviton4. Der Graviton4 unterscheidet sich bewusst vom anderen Inferenzchip von Amazon, Inferentia, und stellt ein beeindruckendes Upgrade gegenüber seinem Vorgänger dar. Er bietet 30 % bessere Rechenleistung, 50 % mehr Kerne und 75 % mehr Speicherbandbreite als Graviton3.
Um die Datensicherheit zu erhöhen, verfügen alle physischen Hardwareschnittstellen von Graviton4 über Verschlüsselung, eine Verbesserung, die das Schutzniveau von KI-Trainings-Workloads und -Daten für Kunden mit strengen Verschlüsselungsanforderungen erhöhen soll.
David Brown betonte darüber hinaus, dass Graviton4 allen früheren Angeboten von Amazon überlegen sei und dass es sich um den leistungsstärksten und energieeffizientesten Chip handele, der auf unterschiedliche Arbeitslasten zugeschnitten sei. Er befürwortete die Praxis von Amazon, das Chip-Design auf die tatsächlichen Arbeitslasten der Kunden zu konzentrieren, um mit seinen Angeboten die fortschrittlichste Cloud-Infrastruktur bereitzustellen.
Der neue Graviton4 wird in Amazon EC2 R8g-Instanzen enthalten sein, die derzeit als Vorschau verfügbar sind. Eine allgemeine Veröffentlichung ist für die kommenden Monate geplant.
No-code Plattformen wie AppMaster integrieren zunehmend KI-Funktionalitäten, um zahlreiche Prozesse zu rationalisieren. Die Entwicklung verbesserter KI-Trainingschips wie der Trainium2 und Graviton4 Chips durch Amazon signalisiert möglicherweise eine Verbesserung der Fähigkeit solcher Plattformen, KI-basierte Lösungen effektiver und effizienter bereitzustellen. Dies kann besonders für Plattformen relevant sein, die No-Code-Designtools anbieten und ihre Fähigkeit verbessern, KI für die Automatisierung und Designoptimierung zu nutzen.