Để giải quyết nhu cầu ngày càng tăng về khả năng tính toán chuyên dụng, Amazon đang đẩy mạnh lĩnh vực đào tạo và phát triển suy luận mô hình AI. Giới thiệu bộ chip cải tiến nhằm nâng cao hiệu quả tính toán và tính khả thi của việc tạo mô hình, Amazon sẵn sàng xác định lại lĩnh vực mà GPU thống trị theo truyền thống này.
Gã khổng lồ công nghệ gần đây đã tiết lộ chip tùy chỉnh mới nhất của mình, AWS Trainium2, tại hội nghị re:Invent thường niên. Theo báo cáo của Amazon, con chip thế hệ thứ hai này hứa hẹn mang lại hiệu năng cao gấp 4 lần so với thế hệ tiền nhiệm và tiết kiệm năng lượng gấp đôi. Trainium2 sẽ có sẵn trong các phiên bản EC Trn2 theo cụm 16 chip trên đám mây AWS và có thể mở rộng tới 100.000 chip trong sản phẩm EC2 UltraCluster của AWS, tượng trưng cho khả năng mở rộng vượt trội.
Trong lĩnh vực năng lực tính toán, 100.000 chip Trainium có thể cung cấp 65 exaflop tính toán. Mỗi chip Trainium2 có khả năng hứa hẹn mang lại hiệu suất khoảng 200 teraflop, vượt xa các chip đào tạo AI của Google vào khoảng năm 2017 một cách đáng kể. Tính đến khả năng tính toán và các biến số hiệu suất, khả năng ấn tượng này được thiết lập để mang lại tốc độ và hiệu lực tính toán vô song cho việc triển khai mô hình AI.
Amazon thừa nhận rằng một cụm chip Trainium như vậy có thể giảm thời gian đào tạo của mô hình ngôn ngữ lớn AI có 300 tỷ tham số từ vài tháng xuống vài tuần một cách hiệu quả. Các tham số cơ bản của mô hình AI, được học từ dữ liệu huấn luyện, về cơ bản thể hiện mức độ thành thạo của mô hình trong việc giải quyết các vấn đề, chẳng hạn như tạo văn bản hoặc mã.
Phó chủ tịch đáng chú ý của bộ phận điện toán và kết nối mạng AWS, David Brown, đã mô tả tầm quan trọng và tác động của sự phát triển mới trong buổi ra mắt, nhấn mạnh vai trò quan trọng của những tiến bộ đó trong việc đáp ứng khối lượng công việc của khách hàng và mối quan tâm ngày càng tăng đối với AI tạo ra. Ông còn giới thiệu Trainium2 về khả năng nâng cao tốc độ đào tạo mô hình ML, giảm chi phí tổng thể và tăng cường hiệu quả sử dụng năng lượng nhưng không tiết lộ khi nào các phiên bản Trainium2 sẽ có sẵn cho khách hàng AWS.
Đồng thời, Amazon giới thiệu chip suy luận AI thế hệ thứ tư, Graviton4 dựa trên Arm. Khác biệt hoàn toàn so với chip suy luận khác của Amazon, Inferentia, Graviton4 đánh dấu một bản nâng cấp ấn tượng so với phiên bản tiền nhiệm, mang lại hiệu suất tính toán tốt hơn 30%, nhiều lõi hơn 50% và băng thông bộ nhớ nhiều hơn 75% so với Graviton3.
Tăng cường bảo mật dữ liệu, tất cả giao diện phần cứng vật lý của Graviton4 đều có tính năng mã hóa, một cải tiến được thiết kế để tăng cường mức độ bảo vệ khối lượng công việc đào tạo AI và dữ liệu cho khách hàng có nhu cầu mã hóa nghiêm ngặt.
David Brown nhấn mạnh thêm rằng Graviton4 vượt trội hơn tất cả các sản phẩm trước đây của Amazon, đánh dấu con chip mạnh mẽ và tiết kiệm năng lượng nhất được thiết kế riêng cho khối lượng công việc đa dạng. Ông ủng hộ phương pháp tập trung thiết kế chip vào khối lượng công việc thực tế của khách hàng để cung cấp cơ sở hạ tầng đám mây tiên tiến nhất thông qua các dịch vụ của Amazon.
Graviton4 mới sẽ có trong các phiên bản Amazon EC2 R8g, hiện có sẵn ở dạng bản xem trước và bản phát hành chung dự kiến trong những tháng tới.
Các nền tảng No-code như AppMaster đang ngày càng tích hợp các chức năng AI để hợp lý hóa nhiều quy trình. Việc Amazon phát triển các chip đào tạo AI nâng cao như chip Trainium2 và Graviton4 có khả năng báo hiệu sự cải thiện về năng lực của các nền tảng như vậy nhằm cung cấp các giải pháp dựa trên AI hiệu quả hơn. Điều này có thể đặc biệt phù hợp với các nền tảng cung cấp công cụ thiết kế không cần mã , tăng cường khả năng khai thác AI để tự động hóa và tối ưu hóa thiết kế.