Mây đen bao phủ cuộc cách mạng ChatGPT và Intrtive AI: Chi phí khổng lồ

Mây đen bao phủ cuộc cách mạng ChatGPT và Intrtive AI: Chi phí khổng lồ

Khi phát triển ChatGPT vào năm ngoái, OpenAI đã bị lỗ khoảng 540 triệu USD. Theo trang The Information, cần 100 tỉ USD để hoàn thành các mục tiêu của mình.

Trong một thuận kéo dài nhiều năm sẽ biến gã khổng lồ phần mềm trở thành nhà cung cấp dịch vụ đám mây độc quyền cho "cha đẻ" ChatGPT, Microsoft đã thông báo vào ngày 23.1 rằng họ đã đầu tư hàng tỷ USD vào OpenAI.

Khi được hỏi về chi phí cho cuộc phiêu lưu AI của mình, Microsoft trả lời rằng họ đảm bảo sẽ chú ý đến lợi nhuận cuối cùng.

Sẽ cần một khoản đầu tư đáng kể vào các chip hiện đại và tuyển dụng các nhà nghiên cứu từng đoạt giải thưởng để tạo ra thứ gì đó gần bằng kích thước của những gì OpenAI, Microsoft hoặc Google cung cấp.

"Nhiều người không biết rằng để thực hiện nhiều công việc AI như ChatGPT đòi hỏi lượng lớn sức mạnh xử lý. Theo Jack Gold, một nhà phân tích độc lập, việc huấn luyện các mô hình đó có thể tốn hàng chục triệu USD.

Jack Gold đặt câu hỏi: "Có bao nhiêu công ty thực sự có đủ khả năng để mua hệ thống 10.000 Nvidia H100 (bộ xữ lý đồ tiên tiến của Nvidia) với giá hàng chục nghìn USD mỗi chiếc.

Câu trả lời là không phổ biến. Trong ngành công nghệ, nếu không thể xây dựng cơ sở hạ tầng, bạn sẽ thuê nó; nhiều doanh nghiệp đã làm điều này bằng cách giao việc tính toán của họ cho Microsoft, Google và Amazon Web Services.

Với sự ra đời của generative AI, sự phụ thuộc vào điện toán đám mây và những gã khổng lồ công nghệ ngày càng phức tạp hơn, các chuyên gia cảnh báo.

Theo Stefan Sigg, Giám đốc sản phẩm của Software AG, công ty tạo phần mềm cho doanh nghiệp, chi phí không thể đoán trước của điện toán đám mây "là vấn đề bị đánh giá thấp với nhiều công ty".

Nếu để các kỹ sư của mình thanh toán hóa đơn trong quá trình điên cuồng xây dựng công nghệ, chẳng hạn như AI, Stefan Sigg so sánh chi phí đám mây với hóa đơn tiền điện và nói rằng các công ty không biết về điều này sẽ gặp phải "bất ngờ lớn".

chi-phi-khong-lo-may-den-bao-phu-cuoc-cach-mang-chatgpt.jpg
OpenAI chịu lỗ 540 triệu USD vào năm ngoái khi phát triển ChatGPT

Theo một số nhà quan sát, việc Microsoft đặt cược vào AI là để bảo vệ thành công dịch vụ điện toán đám mây Azure và đảm bảo duy trì nguồn thu lớn này trong tương lai.

Trong nhiều năm, Microsoft đã sử dụng Azure làm trụ cột gia đình không nổi tiếng của mình, mang lại lợi nhuận khổng lồ nhưng không thu hút sự chú ý như iPhone hay các phương tiện truyền thông xã hội khác đến người tiêu dùng.

Theo Dan Ives, chuyên gia phân tích công nghệ của hãng Wedbush Securities, "Với Microsoft, việc tận dụng và khai thác Azure là nguồn lợi nhuận quan trọng vì chúng ta đang nói về cơ hội có thể là 20, 30, 40 tỷ USD hàng năm trong tương lai nếu Microsoft đặt cược vào AI thành công."

Theo Satya Nadella, Giám đốc điều hành Microsoft, Research Engines đang "đi đúng hướng."

Dan Ives dự đoán rằng Satya Nadella sẽ mất 6 hoặc 9 tháng để chứng minh vụ cá cược của Microsoft vào AI dẫn đến chiến thắng.

Amy Hood, Giám đốc tài chính của Microsoft, đã nói với các nhà phân tích trong tháng 5 rằng công ty phải "dẫn đầu làn sóng này", mặc dù thừa nhận rủi ro.

Theo bà, "Chúng tôi sẽ tính phí cho những tính năng AI đó và cuối cùng sẽ đạt được lợi nhuận hoạt động."

Tích lũy lợi nhuận của Microsoft là chuyển chi phí AI cho khách hàng.

Từ các doanh nghiệp nhỏ đến các công ty lớn và nổi tiếng, sự phụ thuộc vào AI để tăng cường sức mạnh sẽ đòi hỏi chi phí đáng kể. Để giảm bớt hóa đơn, họ cũng như nhà đầu tư đang tìm kiếm các giải pháp thay thế.

Theo Tenry Fu, Giám đốc điều hành Spectro Cloud, "huấn luyện AI, huấn luyện GPT sẽ trở thành dịch vụ đám mây rất quan trọng trong tương lai."

Giống như nhiều doanh nghiệp khác trong ngành này, Spectro Cloud hỗ trợ các doanh nghiệp tối ưu hóa công nghệ đám mây để giảm chi phí.

Theo Tenry Fu, "Sau khi đào tạo, một công ty sẽ có thể lấy mô hình của họ để ứng dụng AI thực sự" và hy vọng sự phụ thuộc vào những gã khổng lồ trên nền tảng đám mây sẽ giảm bớt.

Các cơ quan quản lý đang hy vọng có thể theo kịp và không để những gã khổng lồ chi phối, áp đặt các điều khoản của họ lên các doanh nghiệp nhỏ hơn.

Khi nói đến việc các doanh nghiệp nào có đủ nguồn lực để cung cấp nền tảng cho generative AI, có lẽ đã quá muộn.

"Số lượng các doanh nghiệp có thể đào tạo các mô hình AI tiên tiến thực sự sẽ rất ít, chỉ vì chúng ta thiếu các nguồn lực cần thiết," Sam Altman nói tại ban Thượng viện Mỹ hôm 16.5. Sam Altman tin rằng cần phải có sự giám sát chặt chẽ với cả chúng ta và các đối thủ cạnh tranh của chúng ta.

Để ChatGPT trả lời các câu hỏi của người dùng trên toàn thế giới, OpenAI đã phải trả một khoản lỗ khá lớn.

Theo trang The Information, trích dẫn ba người có kiến thức về tài chính của OpenAI, OpenAI phải trả giá cực kỳ đắt để phát triển công nghệ, với khoản lỗ tăng gần gấp đôi lên khoảng 540 triệu USD vào năm 2022.

Con số này thể hiện chi phí mà OpenAI phải trả để triển khai một sản phẩm AI thương mại. Để có được khoản đầu tư nhiều tỉ USD từ Microsoft vào đầu năm nay, OpenAI đã phải xoay xở.

Chi phí xây dựng và chạy ChatGPT bắt nguồn từ yêu cầu về sức mạnh tính toán cực lớn, điều này rất quan trọng đối với việc tạo câu trả lời cho lời nhắc của người dùng.

Nhà phân tích chính của công ty tư vấn SemiAnalysis, Dylan Patel, đã nói với trang The Information vào tháng trước rằng ChatGPT có thể làm tiêu tốn của OpenAI khoảng 700.000 USD mỗi ngày do các chi phí liên quan đến tính toán.

Theo lời của Dylan Patel với trang The Information, "Hầu hết các chi phí này được xác định dựa trên các máy chủ đắt tiền mà OpenAI yêu cầu."

Theo trang Insider, vì ước tính ban đầu của Dylan Patel dựa trên mô hình GPT-3, nên việc OpenAI vận hành ChatGPT hiện nay thậm chí còn tốn kém hơn.

Theo Dylan Patel, mô hình mới nhất của OpenAI, GPT-4, thậm chí còn tốn kém hơn để chạy.

Theo nhà phân tích khác tại SemiAnalysis, Dylan Patel và Afzal Ahmad, "Việc huấn luyện các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Tuy nhiên, khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo.

"Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí huấn luyện hàng tuần," họ nhấn mạnh.

Trong nhiều năm, các doanh nghiệp sử dụng mô hình ngôn ngữ lớn của OpenAI đã phải trả giá đắt đỏ. Theo trang CNBC, Nick Walton, Giám đốc điều hành Latitude, công ty khởi nghiệp đứng sau game AI Dungeon sử dụng lời nhắc để tạo cốt truyện, nói việc chạy mô hình ngôn ngữ lớn này cùng với các khoản thanh toán cho máy chủ Amazon Web Services khiến công ty phải trả 200.000 USD mỗi tháng để AI trả lời hàng triệu truy vấn của người dùng vào năm 2021.

Nick Walton giải thích rằng chi phí cao là nguyên nhân dẫn đến quyết định chuyển sang một nhà cung cấp phần mềm ngôn ngữ được hỗ trợ bởi AI21 Labs. Điều này đã giảm một nửa chi phí AI hàng tháng của Latitude xuống còn 100.000 USD.

Nick Walton nói với CNBC: "Chúng tôi nói đùa rằng có cả nhân viên con người và nhân viên AI. Chúng tôi đã chi cho mỗi bên số tiền như nhau. Chúng tôi đã bỏ ra hàng trăm nghìn đô la mỗi tháng cho AI và do không phải là một công ty khởi nghiệp lớn nên chi phí đó là một khoản rất lớn.

John Hennessy, Chủ tịch Alphabet (công ty mẹ của Google), trước đây đã từng tuyên bố rằng một tìm kiếm trên chatbot Bard tốn gấp 10 lần so với một tìm kiếm thông thường.

Mặc dù OpenAI đã củng cố tài chính với sự hỗ trợ của Microsoft, nhưng nhu cầu ngày càng tăng đối với ChatGPT sẽ tạo thêm áp lực về chi phí. ChatGPT trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử sau khi đạt 100 triệu người dùng hoạt động hàng tháng chỉ 60 ngày sau khi ra mắt vào cuối tháng 11.2022.

Theo The Information, Sam Altman dự đoán rằng "OpenAI sẽ là công ty khởi nghiệp sử dụng nhiều vốn nhất trong lịch sử Thung lũng Silicon."

Theo The Information, Sam Altman đã "gợi ý trong nội bộ" rằng OpenAI có thể cố gắng gây quỹ khoảng 100 tỷ USD trong những năm tới khi công ty đang làm việc để tạo ra một generative AI mạnh mẽ như bộ não con người.

Doanh thu của OpenAI được dự đoán sẽ tăng đáng kể trong năm 2023. Theo hãng Reuters, các nhà phân tích dự đoán doanh thu của OpenAI sẽ đạt 200 triệu USD trong năm nay trước khi tăng lên 1 tỉ USD vào năm 2024.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận