Microsoft đã tạo chip AI để giảm chi phí và OpenAI có thể tốn hơn 700.000 USD/ngày để vận hành ChatGPT.

Microsoft đã tạo chip AI để giảm chi phí và OpenAI có thể tốn hơn 700.000 USD/ngày để vận hành ChatGPT.

Bởi vì ChatGPT yêu cầu sức mạnh tính toán khổng lồ để phản hồi yêu cầu của người dùng.

Theo lời của Dylan Patel với trang The Information, "Hầu hết các chi phí này được xác định dựa trên các máy chủ đắt tiền mà OpenAI yêu cầu."

Trong cuộc gọi điện thoại với trang Insider, Dylan Patel cho biết việc OpenAI vận hành ChatGPT ngay bây giờ thậm chí còn tốn kém hơn vì ước tính ban đầu của ông dựa trên mô hình GPT-3.

Theo Dylan Patel, mô hình mới nhất của OpenAI, GPT-4, thậm chí còn tốn kém hơn để chạy.

Các câu hỏi của Insider không được OpenAI trả lời ngay lập tức.

Theo nhà phân tích khác tại SemiAnalysis, Dylan Patel và Afzal Ahmad, "Việc đào tạo các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Tuy nhiên, khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo.

"Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí đào tạo hàng tuần," họ nhấn mạnh.

Trong nhiều năm, các doanh nghiệp sử dụng mô hình ngôn ngữ lớn của OpenAI đã phải trả giá đắt đỏ. Theo trang CNBC, Nick Walton, Giám đốc điều hành Latitude, công ty khởi nghiệp đứng sau game AI Dungeon sử dụng lời nhắc để tạo cốt truyện, nói việc chạy mô hình ngôn ngữ lớn này cùng với các khoản thanh toán cho máy chủ Amazon Web Services khiến công ty phải trả 200.000 USD mỗi tháng để AI trả lời hàng triệu truy vấn của người dùng vào năm 2021.

Nick Walton giải thích rằng chi phí cao là nguyên nhân dẫn đến quyết định chuyển sang một nhà cung cấp phần mềm ngôn ngữ được hỗ trợ bởi AI21 Labs. Điều này đã giảm một nửa chi phí AI hàng tháng của Latitude xuống còn 100.000 USD.

Nick Walton nói với CNBC: "Chúng tôi nói đùa rằng có cả nhân viên con người và nhân viên AI. Chúng tôi đã chi cho mỗi bên số tiền như nhau. Chúng tôi đã bỏ ra hàng trăm nghìn đô la mỗi tháng cho AI và do không phải là một công ty khởi nghiệp lớn nên chi phí đó là một khoản rất lớn.

openai-co-the-tieu-ton-hon-700000-usd-ngay-de-van-hanh-chatgpt.jpg
Microsoft đang phát triển chip AI để giảm chi phí vận hành ChatGPT cho đối tác OpenAI - Ảnh: Getty Images

Chip AI bí mật

Theo trang The Information, Microsoft đang tạo ra chip AI Athena để giảm chi phí chạy các mô hình generative AI. Dự án bắt đầu vào năm 2019, diễn ra nhiều năm sau khi Microsoft thực hiện thuận trị giá 1 tỉ USD với OpenAI, yêu cầu công ty khởi nghiệp có trụ sở tại thành phố San Francisco (Mỹ) chạy các mô hình của mình độc quyền trên máy chủ đám mây Microsoft Azure.

Máy tính có thể tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, bằng cách lập trình trí tuệ nhân tạo được gọi là hệ thống generative AI. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu (deep learning) hoặc học máy (machine learning), trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.

Theo The Information, ý tưởng đằng sau Athena có hai mục đích. Theo một nguồn tin am hiểu về chủ đề này nói với The Information, các lãnh đạo Microsoft biết rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình.

Ngoài ra, Microsoft được cho là đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên bộ xử lý đồ Nvidia) và quyết định phát triển một chip ít tốn kém hơn.

Theo The Information, hơn 300 nhân viên Microsoft đang làm việc trên chip này gần đây. Theo hai nguồn tin quen thuộc với vấn đề này nói với The Information, Athena có thể được phát hành để sử dụng nội bộ bởi Microsoft và OpenAI vào đầu năm tới.

Khi được trang Insider liên hệ, Microsoft từ chối bình luận.

Trong một thuận kéo dài nhiều năm sẽ biến gã khổng lồ phần mềm trở thành nhà cung cấp dịch vụ đám mây độc quyền cho "cha đẻ" ChatGPT, Microsoft đã thông báo vào ngày 23.1 rằng họ đã đầu tư hàng tỷ USD vào OpenAI.

Theo Satya Nadella, Giám đốc điều hành Microsoft, chúng tôi đã thiết lập quan hệ đối tác với OpenAI trong nỗ lực chung nhằm thúc đẩy nghiên cứu AI tiên tiến một cách có trách nhiệm và dân chủ hóa AI như một nền tảng công nghệ mới. Các nhà phát triển và tổ chức trong các ngành sẽ có quyền truy cập vào cơ sở hạ tầng, mô hình và chuỗi công cụ AI tốt nhất với Azure để xây dựng và chạy các ứng dụng của họ ở giai đoạn hợp tác tiếp theo của chúng tôi.

Theo thuận này, Microsoft sẽ tăng cường đầu tư vào việc tạo và triển khai các hệ thống siêu máy tính để hỗ trợ nghiên cứu OpenAI. Microsoft là đối tác đám mây độc quyền cho OpenAI, đây là một thành phần quan trọng của thuận. Tất cả khối lượng công việc của OpenAI sẽ được hỗ trợ bởi các dịch vụ đám mây của Microsoft về sản phẩm, dịch vụ API và nghiên cứu.

Trên nhiều sản phẩm dành cho người tiêu dùng và doanh nghiệp, Microsoft triển khai các mô hình OpenAI.

Ngoài ra, Microsoft thách thức Google với việc tích hợp ChatGPT vào Bing phiên bản mới. Ngoài ra, nhà sản xuất hệ điều hành Windows tích hợp AI vào các ứng dụng Word, PowerPoint và Outlook của mình.

Microsoft không tiết lộ chính xác số tiền họ đã đầu tư vào OpenAI, nhưng họ đang tìm cách sử dụng mối quan hệ thân thiết này để tiếp tục thương mại hóa dịch vụ Azure OpenAI của mình.

Để huấn luyện hệ thống AI qua kho dữ liệu khổng lồ, các mô hình ngôn ngữ lớn yêu cầu sử dụng hàng ngàn chip Nvidia cùng lúc. Chẳng hạn, Microsoft đã tạo ra một hệ thống với hơn 10.000 chip Nvidia cho để sử dụng trong việc tạo ra các công nghệ làm nền tảng cho ChatGPT, cụ thể là GPT.

GPT là một mô hình ngôn ngữ lớn (LLM) được viết bởi nhà nghiên cứu AI Alec Radford, sau đó được OpenAI phát triển và gần đây đã được nâng cấp lên phiên bản GPT-4 mạnh mẽ.

Google thảo luận về siêu máy tính AI nhanh hơn và tiết kiệm năng lượng hơn so với chip Nvidia. Google đã công bố thông tin mới về siêu máy tính mà công ty sử dụng để huấn luyện các mô hình AI vào đầu tháng 4. Công ty tuyên bố rằng các siêu máy tính này vừa nhanh hơn vừa tiết kiệm năng lượng hơn hệ thống tương đương của Nvidia. Trong một bài đăng trên blog của mình được gọi là Tensor Processing Unit (TPU), công ty đã mô tả chip chỉnh của riêng mình. Google sử dụng những chip đó cho hơn 90% công việc của công ty về đào tạo AI, quy trình cung cấp dữ liệu thông qua các mô hình để làm cho chúng hữu ích trong các tác vụ như trả lời truy vấn bằng văn bản giống như con người hoặc tạo hình ảnh. TPU của Google đang ở thế hệ thứ tư. Google hôm 4.3 đã xuất bản một bài viết khoa học giải thích chi tiết cách kết nối hơn 4.000 chip với nhau để tạo ra một siêu máy tính bằng cách sử dụng các công tắc quang học do chính họ phát triển để giúp kết nối các máy tính với nhau. Do các mô hình ngôn ngữ lớn đã tăng đáng kể về kích thước, nghĩa là quá lớn để lưu trữ trên một chip duy nhất, nên việc cải thiện các kết nối này đã trở thành điểm cạnh tranh chính giữa các công ty chế tạo siêu máy tính AI. Các mô hình liên kết siêu máy tính lớn được lưu trữ trên hàng ngàn chip thay vì một chip. Sau đó, các chip này phải hoạt động cùng nhau trong vài tuần hoặc lâu hơn để huấn luyện mô hình ngôn ngữ lớn. Mô hình PaLM của Google được huấn luyện trong hơn 50 ngày.

openai-co-the-tieu-ton-hon-700000-usd-ngay-de-van-hanh-chatgpt1.jpg
TPU, chip tùy chỉnh của Google, hiện ở thế hệ thứ tư

Google gần đây đã công bố thông tin chi tiết về siêu máy tính của mình. Tuy nhiên, nó đã hoạt động bên trong công ty từ năm 2020 tại một trung tâm dữ liệu ở quận Mayes, bang Oklahoma, Mỹ. Theo Google, công ty khởi nghiệp Midjourney đã sử dụng siêu máy tính của họ để đào tạo mô hình ngôn ngữ (tạo ra những hình ảnh mới sau khi được cung cấp vài từ) trong bài viết. Theo bài viết, Google tuyên bố rằng siêu máy tính của họ nhanh hơn tới 1,7 lần và tiết kiệm điện hơn 1,9 lần so với siêu máy tính dựa trên chip Nvidia A100 (được phát hành cùng thời điểm với TPU thế hệ thứ tư). TPU của thế hệ thứ tư và chip H100 hàng đầu hiện tại của Nvidia không thể hoán đổi cho nhau, theo Google. Điều này là do TPU được sản xuất bằng công nghệ mới hơn và được tung ra thị trường sau TPU thế hệ thứ bốn. Google gợi ý rằng công ty có thể đang làm việc trên một TPU mới để cạnh tranh với Nvidia H100 nhưng không tiết lộ chi tiết. Theo Norm Jouppi, Google có "hệ thống chip tiềm năng trong tương lai để phát triển."

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận