Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Amazon erfindet das Rad mit innovativen Chips für das Training und die Ausführung von KI-Modellen neu

Amazon erfindet das Rad mit innovativen Chips für das Training und die Ausführung von KI-Modellen neu

Um der wachsenden Nachfrage nach spezialisierten Rechenfunktionen gerecht zu werden, verschiebt Amazon die Grenzen des KI-Modelltrainings und der Inferenzentwicklung. Mit der Einführung innovativer Chips, die die Recheneffizienz und die Durchführbarkeit der Modellerstellung verbessern sollen, ist Amazon bereit, diesen traditionell von GPUs dominierten Bereich neu zu definieren.

Der Technologieriese stellte kürzlich auf seiner jährlichen re:Invent-Konferenz seinen neuesten maßgeschneiderten Chip vor, den AWS Trainium2. Laut Amazon-Berichten verspricht dieser Chip der zweiten Generation eine viermal höhere Leistung als sein Vorgänger und eine doppelt so hohe Energieeffizienz. Das Trainium2 wird in EC Trn2 Instanzen in Clustern von 16 Chips in der AWS-Cloud verfügbar sein und kann im EC2-UltraCluster-Produkt von AWS auf bis zu 100.000 Chips skaliert werden, was eine enorme Skalierbarkeit symbolisiert.

Im Bereich der Rechenleistung können 100.000 Trainium Chips 65 Exaflops an Rechenleistung liefern. Jeder Trainium2 Chip verspricht potenziell eine Leistung von rund 200 Teraflops und übertrifft damit die KI-Trainingschips von Google um 2017 deutlich. Unter Berücksichtigung von Rechenfähigkeit und Leistungsvariablen wird diese beeindruckende Fähigkeit eine beispiellose Rechengeschwindigkeit und Leistungsfähigkeit für die Bereitstellung von KI-Modellen bieten.

Amazon geht davon aus, dass ein solcher Cluster von Trainium Chips die Trainingszeit eines großen KI-Sprachmodells mit 300 Milliarden Parametern effektiv von Monaten auf Wochen verkürzen kann. Die zugrunde liegenden Parameter eines KI-Modells, die aus den Trainingsdaten gelernt werden, stellen im Wesentlichen die Kompetenz des Modells bei der Lösung von Problemen dar, beispielsweise beim Generieren von Text oder Code.

Der bekannte Vizepräsident von AWS Compute and Networking, David Brown, beschrieb bei der Enthüllung die Bedeutung und Auswirkungen der neuen Entwicklung und betonte die entscheidende Rolle solcher Fortschritte bei der Erfüllung der Kundenarbeitslast und das wachsende Interesse an generativer KI. Er lobte Trainium2 außerdem für seine Fähigkeit, die Geschwindigkeit des ML-Modelltrainings zu erhöhen, die Gesamtkosten zu senken und die Energieeffizienz zu steigern, gab jedoch nicht bekannt, wann die Trainium2 Instanzen für AWS-Kunden verfügbar sein werden.

Gleichzeitig stellte Amazon seinen KI-Inferenzchip der vierten Generation vor, den Arm-basierten Graviton4. Der Graviton4 unterscheidet sich bewusst vom anderen Inferenzchip von Amazon, Inferentia, und stellt ein beeindruckendes Upgrade gegenüber seinem Vorgänger dar. Er bietet 30 % bessere Rechenleistung, 50 % mehr Kerne und 75 % mehr Speicherbandbreite als Graviton3.

Um die Datensicherheit zu erhöhen, verfügen alle physischen Hardwareschnittstellen von Graviton4 über Verschlüsselung, eine Verbesserung, die das Schutzniveau von KI-Trainings-Workloads und -Daten für Kunden mit strengen Verschlüsselungsanforderungen erhöhen soll.

David Brown betonte darüber hinaus, dass Graviton4 allen früheren Angeboten von Amazon überlegen sei und dass es sich um den leistungsstärksten und energieeffizientesten Chip handele, der auf unterschiedliche Arbeitslasten zugeschnitten sei. Er befürwortete die Praxis von Amazon, das Chip-Design auf die tatsächlichen Arbeitslasten der Kunden zu konzentrieren, um mit seinen Angeboten die fortschrittlichste Cloud-Infrastruktur bereitzustellen.

Der neue Graviton4 wird in Amazon EC2 R8g-Instanzen enthalten sein, die derzeit als Vorschau verfügbar sind. Eine allgemeine Veröffentlichung ist für die kommenden Monate geplant.

No-code Plattformen wie AppMaster integrieren zunehmend KI-Funktionalitäten, um zahlreiche Prozesse zu rationalisieren. Die Entwicklung verbesserter KI-Trainingschips wie der Trainium2 und Graviton4 Chips durch Amazon signalisiert möglicherweise eine Verbesserung der Fähigkeit solcher Plattformen, KI-basierte Lösungen effektiver und effizienter bereitzustellen. Dies kann besonders für Plattformen relevant sein, die No-Code-Designtools anbieten und ihre Fähigkeit verbessern, KI für die Automatisierung und Designoptimierung zu nutzen.

Verwandte Beiträge

Samsung stellt das Galaxy A55 mit innovativer Sicherheit und erstklassiger Verarbeitung vor
Samsung stellt das Galaxy A55 mit innovativer Sicherheit und erstklassiger Verarbeitung vor
Samsung erweitert sein Mittelklasse-Sortiment mit den Modellen Galaxy A55 und A35, die über Knox Vault-Sicherheit und verbesserte Designelemente verfügen und dem Segment Flaggschiffqualitäten verleihen.
Cloudflare stellt Firewall für KI zum Schutz großer Sprachmodelle vor
Cloudflare stellt Firewall für KI zum Schutz großer Sprachmodelle vor
Cloudflare geht mit Firewall for AI voran, einer fortschrittlichen WAF, die darauf ausgelegt ist, potenzielle Missbräuche, die auf große Sprachmodelle abzielen, präventiv zu erkennen und zu verhindern.
ChatGPT von OpenAI spricht jetzt: Die Zukunft der sprachinteraktiven KI
ChatGPT von OpenAI spricht jetzt: Die Zukunft der sprachinteraktiven KI
ChatGPT hat mit der Einführung von Sprachfunktionen durch OpenAI einen Meilenstein erreicht. Benutzer können jetzt freihändig interagieren, da ChatGPT Antworten auf iOS, Android und im Internet vorliest.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben