AWS "bắt tay" NVIDIA cung cấp hạ tầng và dịch vụ siêu máy tính mới cho nhu cầu AI tạo sinh
Amazon Web Services Inc (AWS) và NVIDIA công bố việc mở rộng hợp tác chiến lược để cung cấp cơ sở hạ tầng, phần mềm và dịch vụ tiên tiến nhất nhằm hỗ trợ những đổi mới về trí tuệ nhân tạo tạo sinh (generative AI) cho khách hàng.
Cụ thể là từ các hệ thống đa nút mới nhất của NVIDIA bao gồm GPU, CPU và phần mềm AI thế hệ tiếp theo, đến các giải pháp bảo mật và ảo hóa nâng cao của AWS Nitro System, kết nối Elastic Fabric Adapter (EFA) cũng như UltraCluster có khả năng mở rộng, lý tưởng cho việc đào tạo các mô hình nền tảng và xây dựng các ứng dụng generative AI.
Trong đó, AWS sẽ là nhà cung cấp đám mây đầu tiên đưa siêu chip NVIDIA GH200 Grace Hopper với công nghệ NVLink đa nút mới lên đám mây. Nền tảng đa nút NVIDIA GH200 NVL32 kết nối 32 siêu chip Grace Hopper với công nghệ NVIDIA NVLink và NVSwitch vào một phiên bản.
Nền tảng này sẽ có sẵn trên các phiên bản Amazon Elastic Computing Cloud (Amazon EC2) được kết nối với mạng mạnh mẽ (EFA) của Amazon, hỗ trợ bởi ảo hóa nâng cao (AWS Nitro System) và phân cụm siêu quy mô (Amazon EC2 UltraClusters), cho phép các khách hàng chung mở rộng quy mô tới hàng nghìn GH200.
NVIDIA và AWS sẽ cộng tác để lưu trữ NVIDIA DGX Cloud, dịch vụ đào tạo AI của NVIDIA, trên AWS. Đây sẽ là đám mây DGX đầu tiên có GH200 NVL32, cung cấp cho các nhà phát triển bộ nhớ dùng chung lớn nhất trong một phiên bản duy nhất. DGX Cloud trên AWS sẽ tăng tốc đào tạo AI tiên tiến và các mô hình ngôn ngữ lớn có thể đạt tới hơn 1.000 tỷ tham số.
NVIDIA và AWS đang hợp tác trong Project Ceiba để xây dựng siêu máy tính AI hỗ trợ GPU nhanh nhất thế giới - một hệ thống quy mô lớn với kết nối GH200 NVL32 và Amazon EFA do AWS tổ chức cho nhóm nghiên cứu và phát triển của NVIDIA. Siêu máy tính đầu tiên này, có 16.384 NVIDIA GH200 và khả năng xử lý 65 exaflop AI, sẽ được NVIDIA sử dụng để thúc đẩy làn sóng đổi mới AI tạo sinh tiếp theo của mình.
Ngoài ra, AWS sẽ giới thiệu thêm ba phiên bản Amazon EC2 mới. Phiên bản P5e, được hỗ trợ bởi NVIDIA H200 Tensor Core GPU, dành cho khối lượng công việc AI và HPC tổng hợp quy mô lớn và tiên tiến; phiên bản G6 và G6e, lần lượt được hỗ trợ bởi NVIDIA L4 GPUs và NVIDIA L40S GPU, dành cho một loạt ứng dụng như tinh chỉnh AI, suy luận, khối lượng công việc đồ họa và video.
Phiên bản G6e đặc biệt thích hợp để phát triển quy trình làm việc 3D, bản sao kỹ thuật số và các ứng dụng khác sử dụng NVIDIA Omniverse, một nền tảng để kết nối và xây dựng các ứng dụng 3D tổng hợp hỗ trợ AI.