Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Amazon erfindet das Rad mit innovativen Chips für das Training und die Ausführung von KI-Modellen neu

Amazon erfindet das Rad mit innovativen Chips für das Training und die Ausführung von KI-Modellen neu

Um der wachsenden Nachfrage nach spezialisierten Rechenfunktionen gerecht zu werden, verschiebt Amazon die Grenzen des KI-Modelltrainings und der Inferenzentwicklung. Mit der Einführung innovativer Chips, die die Recheneffizienz und die Durchführbarkeit der Modellerstellung verbessern sollen, ist Amazon bereit, diesen traditionell von GPUs dominierten Bereich neu zu definieren.

Der Technologieriese stellte kürzlich auf seiner jährlichen re:Invent-Konferenz seinen neuesten maßgeschneiderten Chip vor, den AWS Trainium2. Laut Amazon-Berichten verspricht dieser Chip der zweiten Generation eine viermal höhere Leistung als sein Vorgänger und eine doppelt so hohe Energieeffizienz. Das Trainium2 wird in EC Trn2 Instanzen in Clustern von 16 Chips in der AWS-Cloud verfügbar sein und kann im EC2-UltraCluster-Produkt von AWS auf bis zu 100.000 Chips skaliert werden, was eine enorme Skalierbarkeit symbolisiert.

Im Bereich der Rechenleistung können 100.000 Trainium Chips 65 Exaflops an Rechenleistung liefern. Jeder Trainium2 Chip verspricht potenziell eine Leistung von rund 200 Teraflops und übertrifft damit die KI-Trainingschips von Google um 2017 deutlich. Unter Berücksichtigung von Rechenfähigkeit und Leistungsvariablen wird diese beeindruckende Fähigkeit eine beispiellose Rechengeschwindigkeit und Leistungsfähigkeit für die Bereitstellung von KI-Modellen bieten.

Amazon geht davon aus, dass ein solcher Cluster von Trainium Chips die Trainingszeit eines großen KI-Sprachmodells mit 300 Milliarden Parametern effektiv von Monaten auf Wochen verkürzen kann. Die zugrunde liegenden Parameter eines KI-Modells, die aus den Trainingsdaten gelernt werden, stellen im Wesentlichen die Kompetenz des Modells bei der Lösung von Problemen dar, beispielsweise beim Generieren von Text oder Code.

Der bekannte Vizepräsident von AWS Compute and Networking, David Brown, beschrieb bei der Enthüllung die Bedeutung und Auswirkungen der neuen Entwicklung und betonte die entscheidende Rolle solcher Fortschritte bei der Erfüllung der Kundenarbeitslast und das wachsende Interesse an generativer KI. Er lobte Trainium2 außerdem für seine Fähigkeit, die Geschwindigkeit des ML-Modelltrainings zu erhöhen, die Gesamtkosten zu senken und die Energieeffizienz zu steigern, gab jedoch nicht bekannt, wann die Trainium2 Instanzen für AWS-Kunden verfügbar sein werden.

Gleichzeitig stellte Amazon seinen KI-Inferenzchip der vierten Generation vor, den Arm-basierten Graviton4. Der Graviton4 unterscheidet sich bewusst vom anderen Inferenzchip von Amazon, Inferentia, und stellt ein beeindruckendes Upgrade gegenüber seinem Vorgänger dar. Er bietet 30 % bessere Rechenleistung, 50 % mehr Kerne und 75 % mehr Speicherbandbreite als Graviton3.

Um die Datensicherheit zu erhöhen, verfügen alle physischen Hardwareschnittstellen von Graviton4 über Verschlüsselung, eine Verbesserung, die das Schutzniveau von KI-Trainings-Workloads und -Daten für Kunden mit strengen Verschlüsselungsanforderungen erhöhen soll.

David Brown betonte darüber hinaus, dass Graviton4 allen früheren Angeboten von Amazon überlegen sei und dass es sich um den leistungsstärksten und energieeffizientesten Chip handele, der auf unterschiedliche Arbeitslasten zugeschnitten sei. Er befürwortete die Praxis von Amazon, das Chip-Design auf die tatsächlichen Arbeitslasten der Kunden zu konzentrieren, um mit seinen Angeboten die fortschrittlichste Cloud-Infrastruktur bereitzustellen.

Der neue Graviton4 wird in Amazon EC2 R8g-Instanzen enthalten sein, die derzeit als Vorschau verfügbar sind. Eine allgemeine Veröffentlichung ist für die kommenden Monate geplant.

No-code Plattformen wie AppMaster integrieren zunehmend KI-Funktionalitäten, um zahlreiche Prozesse zu rationalisieren. Die Entwicklung verbesserter KI-Trainingschips wie der Trainium2 und Graviton4 Chips durch Amazon signalisiert möglicherweise eine Verbesserung der Fähigkeit solcher Plattformen, KI-basierte Lösungen effektiver und effizienter bereitzustellen. Dies kann besonders für Plattformen relevant sein, die No-Code-Designtools anbieten und ihre Fähigkeit verbessern, KI für die Automatisierung und Designoptimierung zu nutzen.

Verwandte Beiträge

AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster nahm an der BubbleCon 2024 in NYC teil, gewann Erkenntnisse, erweiterte Netzwerke und erkundete Möglichkeiten, Innovationen im Bereich der No-Code-Entwicklung voranzutreiben.
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024 erleuchtete New York City und brachte Entwicklern modernste Einblicke in die App-Entwicklung mit FlutterFlow. Mit von Experten geleiteten Sitzungen, exklusiven Updates und unübertroffenem Networking war es ein Event, das man nicht verpassen sollte!
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Da in 254 Unternehmen, darunter Giganten wie Tesla und Amazon, 60.000 Stellen abgebaut werden, wird es im Jahr 2024 eine anhaltende Entlassungswelle in der Technologiebranche geben, die die Innovationslandschaft neu gestalten wird.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben