Theo Google, các siêu máy tính này hoạt động nhanh hơn và tiết kiệm năng lượng hơn so với hệ thống tương đương của Nvidia.
Tensor Processing Unit (TPU) là tên được đặt cho chip chỉnh do Google tạo ra. Hơn 90% công việc của công ty về đào tạo trí tuệ nhân tạo (AI), quy trình cung cấp dữ liệu thông qua các mô hình, được Google sử dụng những con chip đó. Chúng rất hữu ích trong các tác vụ như tạo hình ảnh hoặc trả lời truy vấn bằng văn bản giống như con người. TPU của Google đang ở thế hệ thứ tư.
Bằng cách sử dụng các công tắc quang học do chính họ tạo ra để hỗ trợ kết nối các máy tính với nhau, Google hôm 4.3 đã xuất bản bài viết khoa học mô tả chi tiết cách họ kết nối hơn 4.000 chip lại với nhau thành một siêu máy tính.
Bởi vì các mô hình ngôn ngữ lớn (làm nền tảng cho Bard của Google hoặc ChatGPT của OpenAI) đã tăng đáng kể về kích thước, nghĩa là quá lớn để lưu trữ trên một con chip duy nhất, nên việc tăng cường kết nối này đã trở thành điểm cạnh tranh chính giữa các nhà chế tạo siêu máy tính AI.
Thay vì chỉ có một chip, các mô hình ngôn ngữ lớn được lưu trữ trên hàng ngàn chip. Sau đó, các chip này phải hợp tác với nhau trong vài tuần hoặc hơn nữa để huấn luyện mô hình ngôn ngữ lớn.
Bằng cách chia nó và đặt nó trên hai siêu máy tính có 4.000 chip, mô hình PaLM của Google, mô hình ngôn ngữ lớn nhất mà công ty công bố công khai cho đến thời điểm này, đã được huấn luyện trong hơn 50 ngày.
Theo Google, các siêu máy tính của họ giúp dễ dàng sắp xếp lại kết nối giữa các chip một cách nhanh chóng, giúp tránh các sự cố và tinh chỉnh được để đạt hiệu suất tốt hơn.
"Chuyển mạch giúp việc định tuyến xung quanh các thành phần bị lỗi trở nên đơn giản. Theo Norm Jouppi và David Patterson, hai kỹ sư Google, trong một bài đăng trên blog về hệ thống, tính linh hoạt này cho phép chúng tôi thay đổi cấu trúc liên kết siêu máy tính để tăng hiệu suất của mô hình học máy tính.
Hiện tại, Google đã công bố thông tin toàn diện về siêu máy tính của mình. Tuy nhiên, nó đã có mặt bên trong công ty từ năm 2020 tại một trung tâm dữ liệu ở quận Mayes, bang Oklahoma, Mỹ.
Theo Google, công ty khởi nghiệp Midjourney đã sử dụng siêu máy tính của họ để đào tạo mô hình ngôn ngữ (tạo ra những hình ảnh mới sau khi được cung cấp vài từ).
Theo bài viết, Google tuyên bố rằng siêu máy tính của họ nhanh hơn tới 1,7 lần và tiết kiệm điện hơn 1,9 lần so với siêu máy tính dựa trên chip Nvidia A100 (được tung ra cùng thời điểm với TPU thế hệ thứ tư). Người phát ngôn Nvidia từ chối bình luận.
Theo Google, không có sự so sánh giữa TPU thế hệ thứ tư và chip H100 hàng đầu hiện tại của Nvidia. Điều này là do thực tế là H100 được sản xuất bằng công nghệ mới hơn và được tung ra thị trường sau TPU thế hệ thứ 4.
Google gợi ý rằng công ty có thể đang làm việc trên một TPU mới sẽ cạnh tranh với Nvidia H100 nhưng không tiết lộ chi tiết. Theo Norm Jouppi, Google có "hệ thống chip tiềm năng trong tương lai để phát triển".
Trong lĩnh vực chip AI
Lĩnh vực chip được sử dụng để tạo ra các công nghệ generative AI đã được thống trị bởi Nvidia (có trụ sở tại thành phố Santa Clara, bang California, Mỹ).
Máy tính được lập trình để tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, bằng cách sử dụng trí tuệ nhân tạo được gọi là kỹ thuật tạo văn bản. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu (deep learning) hoặc học máy (machine learning), trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có thể tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện. Các mô hình ngôn ngữ tự động tạo văn bản, các hệ thống nhận dạng hình ảnh, video và âm thanh đều là những ví dụ về cách sử dụng generative AI.
Những công nghệ mới này dựa trên việc huấn luyện hệ thống AI trên kho dữ liệu khổng lồ bằng cách sử dụng hàng ngàn chip Nvidia cùng lúc. Chẳng hạn, Microsoft đã tạo ra một hệ thống với hơn 10.000 chip Nvidia cho OpenAI để sử dụng trong việc tạo ra các công nghệ làm nền tảng cho ChatGPT, cụ thể là GPT.
Mặc dù có sự cạnh tranh trên thị trường chip AI từ AMD và một số công ty khởi nghiệp, nhưng Nvidia chiếm hơn 80% thị phần chip được sử dụng trong huấn luyện hệ thống AI.
Cổ phiếu Nvidia đã tăng mạnh trong năm 2023 nhờ sự bùng nổ về AI. Với giá trị vốn hóa thị trường là 678 tỷ USD, Nvidia đã phát triển trở nên có giá trị gấp khoảng 5 lần so với đối thủ lâu năm Intel.
Trang SCMP đầu tháng 3 báo cáo rằng do thiếu chip AI tiên tiến, hy vọng tạo chatbot giống ChatGPT của Trung Quốc có thể bị đe.
Sau khi bị Mỹ chặn mua các chip tiên tiến nhất, các doanh nhân và kỹ sư trong nước có thể phải dựa vào số lượng thay vì chất lượng GPU (bộ xử lý đồ) để đào tạo các mô hình ngôn ngữ lớn cần thiết cho các chatbot AI như ChatGPT.
Doanh nhân công nghệ AI trong hội đồng của Hiệp hội Trí tuệ Nhân tạo Trung Quốc nói ở cuộc hội thảo kín rằng Mỹ dẫn trước Trung Quốc về sức mạnh điện toán chủ yếu nhờ ưu thế về các GPU. Ví dụ, mô hình ngôn ngữ lớn là động cơ hơi nước của kỷ nguyên hiện đại. Do cách sử dụng tính toán đồng thời một cách hiệu quả, GPU có lợi thế đặc biệt trong học máy so với CPU (bộ xử lý trung tâm).
"Chúng ta không có GPU mạnh như A100, nhưng chúng ta có thể tập hợp các GPU kém mạnh hơn để giành chiến thắng nhờ số lượng. Theo doanh nhân này, sức mạnh tính toán vẫn là một yếu tố rất quan trọng, mang tính quyết định để giành chiến thắng trong cuộc cạnh tranh sau này. Trung tâm dữ liệu của Nvidia A100 là chip AI cho trung tâm dữ liệu mà Mỹ đã cấm xuất khẩu sang Trung Quốc.
Giống như những người khác được trích dẫn trong câu chuyện này, doanh nhân trên yêu cầu không nêu tên vì tính nhạy cảm của chủ đề.
Kể từ khi OpenAI phát hành ChatGPT vào tháng 11.2022, mức độ phổ biến đáng kinh ngạc của chatbot này đã dẫn đến cuộc chạy đua giữa các hãng công nghệ lớn để tạo các phiên bản sản phẩm generative AI của riêng họ. Điều này đã được mở rộng sang Trung Quốc, nơi công ty tìm kiếm Internet Baidu, chủ sở hữu ứng dụng TikTok - ByteDance, gã khổng lồ về truyền thông xã hội và game Tencent Holdings, và hãng khổng lồ thương mại điện tử Alibaba đều tham gia cuộc đua.
Tuy nhiên, các chuyên gia đã cảnh báo rằng Trung Quốc phải đối mặt với một số khó khăn đáng kể trong việc sản xuất chatbot giống như ChatGPT. Sản phẩm này có thể bị hạn chế do kiểm duyệt hoặc các hạn chế ngày càng tăng đối với việc tiếp cận các chất bán dẫn tiên tiến. GPU là thành phần chính khi nói đến chip được sử dụng để đào tạo AI.
Việc triển khai một số lượng lớn GPU hiệu suất cao giúp rút ngắn thời gian đào tạo generative AI, đòi hỏi phải sàng lọc lượng dữ liệu khổng lồ, theo TrendForce (công ty nghiên cứu thị trường và dự báo xu hướng công nghệ có trụ sở tại Đài Loan).
Theo TrendForce, trong trường hợp mô hình GPT cung cấp sức mạnh cho ChatGPT, số lượng tham số đào tạo tăng từ khoảng 120 triệu vào năm 2018 lên gần 180 tỉ vào năm 2020.
"Số lượng GPU cần thiết để thương mại hóa mô hình GPT dự kiến sẽ trên 30.000," TrendForce cho biết trong ghi chú, đưa ra ước tính giả định việc sử dụng A100 của Nivida.
Trong số các nhà cung cấp dịch vụ đám mây AI của Trung Quốc, CPU và GPU tiên tiến của các nhà phát triển hàng đầu như Intel, AMD và Nvidia được sử dụng rộng rãi.
Một số chuyên gia lo ngại rằng các kế hoạch tạo chatbot AI tương tự ChatGPT của các hãng công nghệ lớn Trung Quốc có thể bị cản trở do thiếu chip cung cấp sức mạnh tính toán khổng lồ cần thiết để hỗ trợ các mô hình AI tinh vi tại Hội nghị các nhà phát triển AI toàn cầu ở thành phố Thượng Hải cuối tháng 2.
Theo Zheng Weimin, giáo sư Đại học Thanh Hoa trực thuộc Học viện Kỹ thuật Trung Quốc, "Nếu Trung Quốc muốn tạo ChatGPT của riêng mình, chúng ta cần hàng chục ngàn chip Nvidia A100 để cung cấp sức mạnh tính toán cần thiết."
Giá chip A100 đã tăng 50% trong hai tuần qua do sự náo nhiệt xung quanh ChatGPT, theo Yang Fan, đồng sáng lập và Phó chủ tịch của SenseTime (công ty phần mềm AI hàng đầu Trung Quốc đã bị Mỹ trừng phạt thương mại kể từ năm 2019).
Yang Fan nhấn mạnh rằng Trung Quốc vẫn chưa thể sản xuất chip và phần mềm có thể hỗ trợ ít nhất 50 đến 70% công suất tính toán cần thiết để chạy ChatGPT.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: 1thegioi.vn
Tham gia bình luận