Untuk mengatasi meningkatnya permintaan akan kemampuan komputasi khusus, Amazon mendorong yang terdepan dalam pelatihan model AI dan pengembangan inferensi. Memperkenalkan chip inovatif yang dirancang untuk meningkatkan efisiensi komputasi dan kelayakan pembuatan model, Amazon siap untuk mendefinisikan kembali arena yang biasanya didominasi oleh GPU.
Raksasa teknologi ini baru-baru ini meluncurkan chip kustom terbarunya, AWS Trainium2, pada konferensi tahunan re:Invent. Chip generasi kedua ini menjanjikan kinerja empat kali lebih unggul dari pendahulunya dan efisiensi energi dua kali lipat, menurut laporan Amazon. Trainium2 akan tersedia dalam instans EC Trn2 dalam cluster yang terdiri dari 16 chip di cloud AWS dan dapat menskalakan hingga 100.000 chip dalam produk EC2 UltraCluster AWS, yang melambangkan skalabilitas yang luar biasa.
Dalam bidang kecakapan komputasi, 100.000 chip Trainium dapat menghasilkan 65 exaflop komputasi. Setiap chip Trainium2 berpotensi menjanjikan kinerja sekitar 200 teraflops, mengungguli chip pelatihan AI Google sekitar tahun 2017 dengan selisih yang signifikan. Dengan mempertimbangkan variabel kemampuan komputasi dan kinerja, kemampuan mengesankan ini dirancang untuk memberikan kecepatan dan potensi komputasi yang tak tertandingi untuk penerapan model AI.
Amazon berpendapat bahwa cluster chip Trainium seperti itu dapat secara efektif mengurangi waktu pelatihan model bahasa AI besar dengan 300 miliar parameter dari bulan ke minggu. Parameter yang mendasari model AI, yang dipelajari dari data pelatihan, pada dasarnya mewakili kemahiran model dalam memecahkan masalah, seperti menghasilkan teks atau kode.
VP komputasi dan jaringan AWS terkemuka, David Brown, menggambarkan pentingnya dan dampak pengembangan baru ini selama peresmian, menekankan peran penting kemajuan tersebut dalam pemenuhan beban kerja pelanggan dan meningkatnya minat terhadap AI generatif. Dia lebih lanjut memuji Trainium2 atas kemampuannya dalam meningkatkan kecepatan pelatihan model ML, mengurangi biaya keseluruhan, dan meningkatkan efisiensi energi, namun tidak mengungkapkan kapan instans Trainium2 akan tersedia untuk pelanggan AWS.
Pada saat yang sama, Amazon memperkenalkan chip inferensi AI generasi keempat, Graviton4 berbasis Arm. Berbeda dengan chip inferensi Amazon lainnya, Inferentia, Graviton4 menandai peningkatan yang mengesankan dari pendahulunya, menawarkan kinerja komputasi 30% lebih baik, core 50% lebih banyak, dan bandwidth memori 75% lebih banyak dibandingkan Graviton3.
Meningkatkan keamanan data, semua antarmuka perangkat keras fisik Graviton4 dilengkapi enkripsi, sebuah peningkatan yang dirancang untuk meningkatkan tingkat perlindungan beban kerja pelatihan AI dan data untuk pelanggan dengan kebutuhan enkripsi yang ketat.
David Brown lebih lanjut menyoroti Graviton4 sebagai yang lebih unggul dari semua penawaran sebelumnya dari Amazon, menandai chip paling kuat dan hemat energi yang dirancang untuk beragam beban kerja. Dia memperjuangkan praktik Amazon yang memfokuskan desain chip pada beban kerja pelanggan sebenarnya untuk menghadirkan infrastruktur cloud paling canggih melalui penawarannya.
Graviton4 baru akan ditampilkan dalam instans Amazon EC2 R8g, saat ini tersedia dalam pratinjau dengan rilis umum yang dijadwalkan pada beberapa bulan mendatang.
Platform No-code seperti AppMaster semakin mengintegrasikan fungsi AI untuk menyederhanakan berbagai proses. Pengembangan chip pelatihan AI yang ditingkatkan seperti chip Trainium2 dan Graviton4 oleh Amazon berpotensi menandakan peningkatan kapasitas platform tersebut untuk memberikan solusi berbasis AI secara lebih efektif dan efisien. Hal ini sangat relevan dengan platform yang menawarkan alat desain tanpa kode , sehingga meningkatkan kemampuan mereka dalam memanfaatkan AI untuk otomatisasi dan optimalisasi desain.