Trong các bài kiểm tra hiệu suất chip AI

Trong các bài kiểm tra hiệu suất chip AI

Với lượng dữ liệu khổng lồ, Nvidia thống trị thị trường chip huấn luyện mô hình trí tuệ nhân tạo (AI). Sau khi được huấn luyện, các mô hình AI này được sử dụng rộng rãi trong các nhiệm vụ "suy luận" bằng cách thực hiện các tác vụ như tạo ra câu trả lời văn bản cho các câu hỏi và quyết định liệu một hình ảnh có chứa con vật hay không.

Các nhà phân tích cho rằng thị trường chip truy vấn trung tâm dữ liệu sẽ tăng trưởng nhanh chóng khi các doanh nghiệp đưa công nghệ AI vào sản phẩm của họ, nhưng các doanh nghiệp như Google đã tìm ra cách giảm chi phí phát sinh.

Điện là một trong những chi phí lớn. Để tạo ra chip Cloud AI 100 nhằm mục đích tiêu thụ điện tiết kiệm, Qualcomm đã sử dụng lịch sử thiết kế chip cho các thiết bị chạy bằng pin như smartphone.

Chip Cloud AI 100 của Qualcomm đã vượt qua chip H100 của Nvidia trong việc phân loại hình ảnh, dựa trên số lượng truy vấn máy chủ trung tâm dữ liệu mà mỗi chip có thể thực hiện trên mỗi watt, trong dữ liệu kiểm tra được công bố hôm 5.4 bởi MLCommons, liên minh kỹ thuật giữ các tiêu chuẩn kiểm tra tiêu chuẩn được sử dụng rộng rãi trong ngành chip AI. Cụ thể hơn, Cloud AI 100 thực hiện 197,6 truy vấn máy chủ trên mỗi watt so với 108,4 trên mỗi watt của H100.

Với 227 truy vấn trên mỗi watt, chip của Neuchips, một công ty khởi nghiệp do Youn-Long Lin (giáo sư về chip kỳ cựu người Đài Loan) thành lập, đã giành vị trí dẫn đầu.

Với điểm số là 3,2 truy vấn trên mỗi watt so với 2,4 truy vấn trên mỗiwatt, Cloud AI 100 đã đánh bại H100 về khả năng phát hiện đối tượng. Để xem nơi người mua sắm thường lui tới nhất, tính năng phát hiện đối tượng có thể được sử dụng trong các ứng dụng như phân tích cảnh quay từ các cửa hàng bán lẻ.

Công nghệ AI, được sử dụng rộng rãi nhất trong các hệ thống như chatbot, chip Nvidia, đã đứng đầu cả về hiệu quả tuyệt đối và hiệu quả tiết kiệm năng lượng trong một bài kiểm tra xử lý ngôn ngữ tự nhiên.

H100 có 10,8 mẫu trên mỗi watt, chip Neuchips đứng thứ hai với 8,9 mẫu trên mỗi watt và Cloud AI 100 đứng thứ ba với 7,5 mẫu trên mỗi watt.

nvidia-qualcomm-tranh-vi-tri-dau-bang-o-cac-bai-kiem-tra-hieu-suat-chip-ai.jpg
Qualcomm Cloud AI 100 của đã đánh bại Nvidia H100 ở hai trong số ba phép đo về hiệu quả sử dụng năng lượng

Thông tin mới về siêu máy tính mà Google sử dụng để huấn luyện các mô hình AI đã được công bố vào ngày 4.4. Theo Google, các siêu máy tính này vừa nhanh hơn vừa tiết kiệm năng lượng hơn hệ thống tương đương của Nvidia.

Gã khổng lồ công nghệ Tensor Processing Unit (TPU) đã tạo ra chip chỉnh của riêng mình. Google sử dụng những con chip đó cho hơn 90% công việc của công ty về đào tạo trí tuệ nhân tạo (AI), quy trình cung cấp dữ liệu thông qua các mô hình để làm cho chúng hữu ích trong các tác vụ như tạo hình ảnh hoặc trả lời truy vấn bằng văn bản giống con người. TPU của Google đang ở thế hệ thứ tư.

Bằng cách sử dụng các công tắc quang học do chính họ tạo ra để hỗ trợ kết nối các máy tính với nhau, Google đã xuất bản bài viết khoa học mô tả chi tiết cách họ kết nối hơn 4.000 chip lại với nhau thành một siêu máy tính vào ngày 4.4.

Bởi vì các mô hình ngôn ngữ lớn (làm nền tảng cho Google Bard hoặc ChatGPT của OpenAI) đã tăng đáng kể về kích thước, nghĩa là quá lớn để lưu trữ trên một con chip duy nhất, nên việc tăng cường kết nối này đã trở thành điểm cạnh tranh chính giữa các nhà chế tạo siêu máy tính AI.

Thay vì chỉ có một chip, các mô hình ngôn ngữ lớn được lưu trữ trên hàng ngàn chip. Sau đó, các chip này phải hợp tác với nhau trong vài tuần hoặc hơn nữa để huấn luyện mô hình ngôn ngữ lớn.

Bằng cách chia nó và đặt nó trên hai siêu máy tính có 4.000 chip, mô hình PaLM của Google, mô hình ngôn ngữ lớn nhất mà công ty công bố công khai cho đến thời điểm này, đã được huấn luyện trong hơn 50 ngày.

Theo Google, các siêu máy tính của họ giúp dễ dàng sắp xếp lại kết nối giữa các chip một cách nhanh chóng, giúp tránh các sự cố và tinh chỉnh được để đạt hiệu suất tốt hơn.

"Chuyển mạch giúp việc định tuyến xung quanh các thành phần bị lỗi trở nên đơn giản. Theo Norm Jouppi và David Patterson, hai kỹ sư Google, trong một bài đăng trên blog về hệ thống, tính linh hoạt này cho phép chúng tôi thay đổi cấu trúc liên kết siêu máy tính để tăng hiệu suất của mô hình học máy tính.

Hiện tại, Google đã công bố thông tin toàn diện về siêu máy tính của mình. Tuy nhiên, nó đã có mặt bên trong công ty từ năm 2020 tại một trung tâm dữ liệu ở quận Mayes, bang Oklahoma, Mỹ.

Theo Google, công ty khởi nghiệp Midjourney đã sử dụng siêu máy tính của họ để đào tạo mô hình ngôn ngữ (tạo ra những hình ảnh mới sau khi được cung cấp vài từ).

Theo bài viết, Google tuyên bố rằng siêu máy tính của họ nhanh hơn tới 1,7 lần và tiết kiệm điện hơn 1,9 lần so với siêu máy tính dựa trên chip Nvidia A100 (được tung ra cùng thời điểm với TPU thế hệ thứ tư). Người phát ngôn Nvidia từ chối bình luận.

Theo Google, không có sự so sánh giữa TPU thế hệ thứ tư và chip H100 hàng đầu hiện tại của Nvidia. Điều này là do thực tế là H100 được sản xuất bằng công nghệ mới hơn và được tung ra thị trường sau TPU thế hệ thứ 4.

Google gợi ý rằng công ty có thể đang làm việc trên một TPU mới sẽ cạnh tranh với Nvidia H100 nhưng không tiết lộ chi tiết. Theo Norm Jouppi, Google có "hệ thống chip tiềm năng trong tương lai để phát triển".

Với trụ sở chính tại thành phố Santa Clara, bang California, Mỹ, Nvidia đã thống trị lĩnh vực chip được sử dụng để tạo ra các công nghệ generative AI.

Máy tính có thể tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, bằng cách lập trình trí tuệ nhân tạo được gọi là hệ thống generative AI. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu (deep learning) hoặc học máy (machine learning), trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.

Những công nghệ mới này dựa trên việc huấn luyện hệ thống AI trên kho dữ liệu khổng lồ bằng cách sử dụng hàng ngàn chip Nvidia cùng lúc. Chẳng hạn, Microsoft đã tạo ra một hệ thống với hơn 10.000 chip Nvidia cho OpenAI để sử dụng trong việc tạo ra các công nghệ làm nền tảng cho ChatGPT, cụ thể là GPT.

Mặc dù có sự cạnh tranh trên thị trường chip AI từ AMD và một số công ty khởi nghiệp, nhưng Nvidia chiếm hơn 80% thị phần chip được sử dụng trong huấn luyện hệ thống AI.

Cổ phiếu Nvidia đã tăng mạnh trong năm 2023 nhờ sự bùng nổ về AI. Với vốn hóa thị trường là 664 tỉ USD, Nvidia đã mở rộng để trở thành có giá trị gấp khoảng 5 lần so với Intel, đối thủ lâu năm.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận