Để ChatGPT trả lời các câu hỏi của người dùng trên toàn thế giới, OpenAI đã phải trả một khoản lỗ khá lớn.

 

Con số này thể hiện chi phí mà OpenAI phải trả để triển khai một sản phẩm trí tuệ nhân tạo (AI) thương mại. Vào đầu năm nay, OpenAI đã phải xoay xở để có được khoản đầu tư nhiều tỉ USD từ Microsoft.

Chi phí xây dựng và chạy ChatGPT bắt nguồn từ yêu cầu về sức mạnh tính toán cực lớn, điều này rất quan trọng đối với việc tạo câu trả lời cho lời nhắc của người dùng.

Nhà phân tích chính của công ty tư vấn SemiAnalysis, Dylan Patel, đã nói với trang The Information vào tháng trước rằng ChatGPT có thể làm tiêu tốn của OpenAI khoảng 700.000 USD mỗi ngày do các chi phí liên quan đến tính toán.

Theo lời của Dylan Patel với trang The Information, "Hầu hết các chi phí này được xác định dựa trên các máy chủ đắt tiền mà OpenAI yêu cầu."

Theo trang Insider, vì ước tính ban đầu của Dylan Patel dựa trên mô hình GPT-3, nên việc OpenAI vận hành ChatGPT hiện nay thậm chí còn tốn kém hơn.

Theo Dylan Patel, mô hình mới nhất của OpenAI, GPT-4, thậm chí còn tốn kém hơn để chạy.

Theo nhà phân tích khác tại SemiAnalysis, Dylan Patel và Afzal Ahmad, "Việc đào tạo các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD." Tuy nhiên, khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo.

"Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí đào tạo hàng tuần," họ nhấn mạnh.

Trong nhiều năm, các doanh nghiệp sử dụng mô hình ngôn ngữ lớn của OpenAI đã phải trả giá đắt đỏ. Theo trang CNBC, Nick Walton, Giám đốc điều hành Latitude, công ty khởi nghiệp đứng sau game AI Dungeon sử dụng lời nhắc để tạo cốt truyện, nói việc chạy mô hình ngôn ngữ lớn này cùng với các khoản thanh toán cho máy chủ Amazon Web Services khiến công ty phải trả 200.000 USD mỗi tháng để AI trả lời hàng triệu truy vấn của người dùng vào năm 2021.

Nick Walton giải thích rằng chi phí cao là nguyên nhân dẫn đến quyết định chuyển sang một nhà cung cấp phần mềm ngôn ngữ được hỗ trợ bởi AI21 Labs. Điều này đã giảm một nửa chi phí AI hàng tháng của Latitude xuống còn 100.000 USD.

Nick Walton nói với CNBC: "Chúng tôi nói đùa rằng có cả nhân viên con người và nhân viên AI. Chúng tôi đã chi cho mỗi bên số tiền như nhau. Chúng tôi đã bỏ ra hàng trăm nghìn đô la mỗi tháng cho AI và do không phải là một công ty khởi nghiệp lớn nên chi phí đó là một khoản rất lớn.

John Hennessy, Chủ tịch Alphabet (công ty mẹ của Google), trước đây đã từng tuyên bố rằng một tìm kiếm trên chatbot Bard tốn gấp 10 lần so với một tìm kiếm thông thường.

Mặc dù OpenAI đã củng cố tài chính với sự hỗ trợ của Microsoft, nhưng nhu cầu ngày càng tăng đối với ChatGPT sẽ tạo thêm áp lực về chi phí. ChatGPT trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử sau khi đạt 100 triệu người dùng hoạt động hàng tháng chỉ 60 ngày sau khi ra mắt vào cuối tháng 11.2022.

Sam Altman, Giám đốc điều hành OpenAI, đã ám chỉ đến chi phí gia tăng vào đầu tuần này và gợi ý rằng đây "sẽ là công ty khởi nghiệp sử dụng nhiều vốn nhất trong lịch sử Thung lũng Silicon."

Theo The Information, Sam Altman đã "gợi ý trong nội bộ" rằng OpenAI có thể cố gắng gây quỹ khoảng 100 tỷ USD trong những năm tới khi công ty đang làm việc để tạo ra một generative AI mạnh mẽ như bộ não con người.

Máy tính được lập trình để tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, trong một loại trí tuệ nhân tạo được gọi là hệ thống tương tác hóa AI. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu (deep learning) hoặc học máy (machine learning), trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.

Doanh thu của OpenAI được dự đoán sẽ tăng đáng kể trong năm 2023. Theo hãng Reuters, các nhà phân tích dự đoán doanh thu của OpenAI sẽ đạt 200 triệu USD trong năm nay trước khi tăng lên 1 tỉ USD vào năm 2024.

openai-chiu-khoan-lo-lon-de-chatgpt-tra-loi-cau-hoi-cua-nguoi-dung-khap-the-gioi1.jpg
Sam Altman tin rằng OpenAI có thể là công ty khởi nghiệp sử dụng nhiều vốn nhất trong lịch sử Thung lũng Silicon - Ảnh: Getty Images

Theo Demis Hassabis, Giám đốc điều hành DeepMind (công ty có trụ sở tại London, thủ đô Anh) thuộc sở hữu của Google, AI mạnh mẽ như bộ não con người có thể phát triển trong vòng vài năm tới khi nghiên cứu AI tăng tốc.

Demis Hassabis thừa nhận rằng "sự tiến bộ trong vài năm qua là khá khó tin" trong bài phát biểu tại hội nghị của Wall Street Journal hôm 2.5, và ông nói thêm: "Tôi nghĩ rằng chúng ta sẽ có các hệ thống AI có khả năng học hỏi và tự cải thiện một cách tự động vài năm tới."

Khi Google đang cố gắng tăng cường kinh doanh bằng cách tập trung gấp đôi vào lĩnh vực AI trong nỗ lực chống lại sự cạnh tranh từ OpenAI và bảo vệ đơn vị tìm kiếm cốt lõi của mình, các bình luận của Demis Hassabis đã được đưa ra.

Demis Hassabis đang đóng vai trò quan trọng trong sứ mệnh của Google nhằm cải thiện khả năng AI. Google đã công bố Demis Hassabis là nhà lãnh đạo của đơn vị mới thành lập vào tháng 4, kết hợp DeepMind với Google Brain (bộ phận nghiên cứu AI riêng biệt).

Khi người dùng nhận thấy công nghệ này có thể mang lại một số lợi ích, chẳng hạn như tăng năng suất, mức độ phổ biến của các công cụ generative AI như ChatGPT đã tăng lên nhanh chóng trong những tháng gần đây. Triển vọng về sự đột phá và thay đổi của nhiều ngành công nghiệp trong tương lai cũng được các nhà đầu tư quan tâm.

Theo Goldman Sachs, một ngân hàng đầu tư nổi tiếng ở Hoa Kỳ, các generative AI như ChatGPT có thể thay thế 300 triệu việc làm toàn thời gian, giúp GDP tăng 7%.

Để giảm chi phí chạy mô hình

Theo trang The Information, Microsoft đang tạo ra chip AI Athena để giảm chi phí chạy các mô hình generative AI. Dự án bắt đầu vào năm 2019, diễn ra nhiều năm sau khi Microsoft thực hiện thuận trị giá 1 tỉ USD với OpenAI, yêu cầu công ty khởi nghiệp có trụ sở tại thành phố San Francisco (Mỹ) chạy các mô hình của mình độc quyền trên máy chủ đám mây Microsoft Azure.

Ý tưởng đằng sau Athena có hai mục tiêu. Theo một nguồn tin am hiểu về chủ đề này nói với The Information, các nhà lãnh đạo Microsoft biết rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình.

Ngoài ra, Microsoft được cho là đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên bộ xử lý đồ Nvidia) và quyết định phát triển một chip ít tốn kém hơn.

Hơn 300 nhân viên Microsoft đang làm việc trên chip này vào gần bốn năm sau. Theo hai nguồn tin quen thuộc với vấn đề này nói với The Information, Athena có thể được phát hành để sử dụng nội bộ bởi Microsoft và OpenAI vào đầu năm tới.

Để huấn luyện hệ thống AI qua kho dữ liệu khổng lồ, các mô hình ngôn ngữ lớn yêu cầu sử dụng hàng ngàn chip Nvidia cùng lúc. Chẳng hạn, Microsoft đã tạo ra một hệ thống với hơn 10.000 chip Nvidia cho để sử dụng trong việc tạo ra các công nghệ làm nền tảng cho ChatGPT, cụ thể là GPT.

GPT là một mô hình ngôn ngữ lớn (LLM) được viết bởi nhà nghiên cứu AI Alec Radford, sau đó được OpenAI phát triển và gần đây đã được nâng cấp lên phiên bản GPT-4 mạnh mẽ.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống