Tốc độ xử lý AI tiếp tục cải thiện trong MLPerf Training
Mục lục
- Tổng quan về MLPerf Training v4.1
- Kết quả nổi bật của MLPerf Training v4.1
- Sự cạnh tranh giữa các nhà cung cấp phần cứng
- Kết luận
Tổng quan về MLPerf Training v4.1
Bài báo gốc từ Blocks and Files báo cáo về kết quả mới nhất của MLPerf Training v4.1, một bộ chuẩn mực đánh giá hiệu năng huấn luyện mô hình trí tuệ nhân tạo (AI) do MLCommons công bố. MLCommons nhấn mạnh sự phù hợp cao giữa bộ chuẩn mực này và xu hướng hiện tại của ngành công nghiệp AI. MLPerf Training tập trung vào việc đo lường tốc độ huấn luyện các mô hình AI đạt đến một chỉ số chất lượng mục tiêu. Phiên bản v4.1 bao gồm các kết quả từ danh mục thử nghiệm sử dụng các bộ tăng tốc phần cứng mới và sắp ra mắt, bao gồm Google Trillium TPUv6 và Nvidia Blackwell B200.
Kết quả nổi bật của MLPerf Training v4.1
Kết quả MLPerf Training v4.1 cho thấy sự gia tăng đáng kể về số lượng bài nộp cho ba chuẩn mực đại diện cho các khối lượng công việc huấn luyện AI thế hệ mới: GPT-3, Stable Diffusion và Llama 2 70B LoRA, với tổng số bài nộp tăng 46%. Hai chuẩn mực mới nhất trong bộ chuẩn mực MLPerf Training, Llama 2 70B LoRA và Graph Neural Network (GNN), đều có tỷ lệ bài nộp cao hơn đáng kể: tăng 16% cho Llama 2 và 55% cho GNN. Cả hai chuẩn mực này cũng cho thấy sự cải thiện hiệu năng đáng kể trong vòng v4.1 so với v4.0, với tốc độ tăng lần lượt là 1.26x và 1.23x.
Tổng cộng, vòng v4.1 có 155 kết quả từ 17 tổ chức tham gia, bao gồm các tên tuổi lớn như ASUSTeK, Azure, Cisco, Dell, Fujitsu, Google, NVIDIA, Oracle, và nhiều tổ chức khác. Việc Dell lần đầu tiên cung cấp kết quả đo lường cả hiệu năng và mức tiêu thụ điện năng được MLCommons đánh giá cao. Sự tham gia của các nhà cung cấp mới như FlexAI và Lambda cũng được chào đón tích cực.
Sự cạnh tranh giữa các nhà cung cấp phần cứng
Bài báo cũng đề cập đến sự cạnh tranh giữa Google và Nvidia, hai nhà cung cấp phần cứng hàng đầu trong lĩnh vực AI. Phân tích của Karl Freund từ Cambrian-AI Research cho thấy, mặc dù Google Trillium TPU cho thấy kết quả tốt, nhưng Nvidia Blackwell lại thể hiện hiệu năng vượt trội hơn nhiều về tốc độ trên mỗi bộ tăng tốc. Điều này cho thấy Nvidia có thể tiếp tục dẫn đầu thị trường xử lý AI trong tương lai.
Kết luận
MLPerf Training v4.1 cho thấy tốc độ xử lý AI đang liên tục được cải thiện. Sự tham gia của nhiều tổ chức và sự cạnh tranh giữa các nhà cung cấp phần cứng thúc đẩy sự đổi mới, hiệu năng và hiệu quả năng lượng cho toàn ngành công nghiệp. Nvidia được dự đoán sẽ tiếp tục giữ vững vị thế dẫn đầu trong lĩnh vực này.
0 comments Blogger 0 Facebook
Đăng nhận xét