Bing chatbot và Google Bard có thể tăng giá gấp 10 lần so với tìm kiếm từ thông thường

 

Các nhà lãnh đạo trong lĩnh vực công nghệ đang thảo luận về cách vận hành chatbot AI như ChatGPT trong khi xem xét chi phí cao. Theo Sam Altman, Giám đốc điều hành của công ty khởi nghiệp OpenAI (Mỹ), ChatGPT có chi phí tính toán đáng kinh ngạc từ vài xu Mỹ trở lên cho mỗi cuộc trò chuyện.

John Hennessy, Chủ tịch Alphabet, đã nói với Reuters trong một cuộc phỏng vấn rằng việc trò chuyện với AI được biết đến là mô hình ngôn ngữ lớn có thể tốn kém gấp 10 lần so với tìm kiếm từ tiêu chuẩn, nhưng việc tinh chỉnh sẽ giúp giảm giá nhanh chóng.

Theo các nhà phân tích, công nghệ này có thể ảnh hưởng đến lợi nhuận cuối cùng của Alphabet ngay cả khi có thu nhập từ quảng cáo tìm kiếm dựa trên trò chuyện tiềm năng, với một số chi phí khiến lợi nhuận tăng thêm vài tỷ USD. Năm 2022, công ty có trụ sở chính tại thành phố Mountain View, bang California, Mỹ, có lợi nhuận ròng gần 60 tỷ USD.

Theo Ngân hàng đầu tư Morgan Stanley, 3,3 nghìn tỷ truy vấn tìm kiếm của Google vào năm ngoái tiêu tốn khoảng 1/5 xu Mỹ cho mỗi truy vấn, điều này sẽ tăng thuộc vào lượng văn bản mà AI cần để tạo ra. Chẳng hạn, nếu AI giống như ChatGPT xử lý một nửa số truy vấn mà họ nhận được với câu trả lời dài 50 từ, các nhà phân tích dự đoán rằng Google có thể phải đối mặt với khoản chi phí tăng 6 tỉ USD vào năm 2024. Google dường như không cần một chatbot để xử lý các tìm kiếm điều hướng cho các trang web như Wikipedia.

Theo SemiAnalysis, công ty nghiên cứu và tư vấn tập trung vào công nghệ chip, việc thêm AI kiểu ChatGPT vào tìm kiếm có thể tiêu tốn của Alphabet 3 tỷ USD, với điều kiện dùng chip nội bộ Tensor do Google sản xuất cùng các tối ưu hóa khác.

Sức mạnh tính toán được sử dụng là điều làm cho hình thức AI này đắt hơn so với tìm kiếm thông thường. Theo các nhà phân tích, hàng tỷ USD chip, một chi phí phải được phân bổ trong thời gian sử dụng chip hàng năm, là thứ mà AI như vậy phụ thuộc vào. Ngoài ra, điện năng tăng giá và gây áp lực cho các doanh nghiệp có mục tiêu về lượng khí thải carbon.

"Suy luận", trong đó một "mạng lưới thần kinh" được mô hình hóa dựa trên đặc điểm sinh học của bộ não con người đưa ra câu trả lời cho một câu hỏi từ quá trình đào tạo trước đó, là quá trình xử lý các truy vấn tìm kiếm do AI cung cấp.

Mặt khác, trong tìm kiếm truyền thống, trình thu thập dữ liệu web của Google quét toàn bộ Internet để tạo một chỉ mục dữ liệu. Google sẽ cung cấp các câu trả lời phù hợp nhất được lưu trữ trong chỉ mục khi người dùng nhập truy vấn.

John Hennessy nói với Reuters: "Bạn phải giảm chi phí suy luận xuốngvà mô tả đó là "tồi tệ nhất trong vài năm."

Bất chấp chi phí, Alphabet phải đối mặt với áp lực phải chấp nhận thách thức. Để giới thiệu kế hoạch tích hợp công nghệ trò chuyện AI vào công cụ tìm kiếm Bing của mình, Microsoft đã tổ chức một sự kiện vào đầu tháng 2 tại trụ sở của mình ở thành phố Redmond, bang Washington, Mỹ. Các giám đốc điều hành hàng đầu của công ty tập trung vào thị phần tìm kiếm của Google hiện là 91%.

Một ngày sau, Alphabet thảo luận về kế hoạch cải thiện công cụ tìm kiếm của mình, nhưng video quảng cáo Google Bard cho thấy chatbot AI này trả lời sai câu hỏi, dẫn đến đợt trượt giá cổ phiếu khiến vốn hóa thị trường công ty giảm hơn 100 tỷ USD.

Khi Bing chatbot thể hiện một số hành vi gây lo ngại, thậm chí nói dối, tranh cãi và mắng người dùng dù trả lời sai, Microsoft sau đó đã tự xem xét kỹ lưỡng. Do đó, công ty phải hạn chế các phiên trò chuyện dài mà họ cho là "khiêu khích" Bing chatbot trả lời ngoài ý muốn.

Amy Hood, Giám đốc tài chính Microsoft, nói với các nhà phân tích rằng lợi ích từ việc thu hút người dùng và doanh thu quảng cáo vượt qua chi phí khi Bing phiên bản mới được triển khai đến hàng triệu người tiêu dùng.Ngay cả khi chúng tôi phải bàn bạc về chi phí phục vụ, đó là số tiền lợi nhuận gộp tăng thêm cho chúng tôi.", bà nói.

bing-chatbot-google-bard-co-the-gay-ton-kem-gap-10-lan-tim-kiem-tu-khoa.jpg
Những gã khổng lồ tìm kiếm và truyền thông xã hội với hàng tỉ người dùng không thể tung ra chatbot AI trong một sớm một chiều vì chi phí quá cao - Ảnh: Internet

You.com là một đối thủ cạnh tranh khác của Google. Theo Richard Socher, Giám đốc điều hành công cụ tìm kiếm You.com, việc bổ sung trải nghiệm trò chuyện AI cũng như các ứng dụng cho biểu đồ, video và công nghệ tổng hợp khác làm tăng giá từ 30% đến 50%. "Theo quy mô và thời gian, công nghệ sẽ trở nên rẻ hơn.", ông nói.

Theo một nguồn thân cận với Google, còn quá sớm để ước tính chi phí chính xác của chatbot vì hiệu quả và cách sử dụng khác nhau rất nhiều thuộc vào công nghệ liên quan và AI cung cấp sức mạnh cho các sản phẩm như tìm kiếm.

Theo Paul Daugherty, Giám đốc công nghệ Accenture (công ty tư vấn quản lý chuyên cung cấp dịch vụ chiến lược, tư vấn, kỹ thuật số, công nghệ và hoạt động), việc thanh toán hóa đơn là một trong hai lý do chính khiến những gã khổng lồ tìm kiếm và truyền thông xã hội với hàng tỉ người dùng không tung ra chatbot AI trong một sớm một chiều.

"Một là độ chính xác và thứ hai là bạn có thể mở rộng quy mô này theo đúng cách.”, ông nói.

Tính toán chi phi

Các chuyên gia tại Alphabet và các tổ chức khác đã nghiên cứu cách tạo và vận hành các mô hình ngôn ngữ lớn với chi phí thấp hơn trong nhiều năm. 

Tính ưu việt giống con người của AI đã tăng lên kích thước rất lớn, đạt tới 175 tỉ tham số hoặc các giá trị khác nhau mà thuật toán phải tính đến cho mô hình OpenAI được cập nhật thành ChatGPT, khiến nó gây ấn tượng cho người tiêu dùng. Chi phí cũng thay đổi thuộc vào độ dài truy vấn của người dùng, được đo bằng token hoặc các phần của từ.

Theo một giám đốc cấp cao về công nghệ, việc sản xuất AI như vậy vẫn rất đắt để đưa chúng đến tay hàng triệu người tiêu dùng.Cấp độ phát minh tiếp theo sẽ giảm chi phí đào tạo và xem xét các mô hình này để chúng tôi có thể sử dụng nó trong mọi ứng dụng vì những mô hình này rất đắt tiền.", người này nói với điều kiện giấu tên.

Theo một người quen thuộc với nỗ lực này, các nhà khoa học máy tính bên trong OpenAI hiện đang tìm ra cách tối ưu hóa chi phí suy luận bằng cách sử dụng mã phức tạp giúp chip hoạt động hiệu quả hơn.

Làm thế nào để giảm số lượng tham số trong mô hình AI xuống 10 hoặc thậm chí 100 lần mà không làm giảm độ chính xác là một vấn đề dài hạn.

Theo Naveen Rao, người trước đây điều hành các nỗ lực về chip AI của Intel và đang làm việc để giảm giá điện toán AI thông qua công ty khởi nghiệp MosaicML của mình, "Đó vẫn là một câu hỏi mở về cách hiệu quả nhất để loại bỏ các tham số.”.

Trong thời gian chờ đợi, một số người đã đề xuất tính phí truy cập, chẳng hạn như trả 20 đô la mỗi tháng cho OpenAI để có thể sử dụng dịch vụ ChatGPT tốt hơn. Theo các chuyên gia công nghệ, một giải pháp thay thế là sử dụng các mô hình AI nhỏ hơn cho các tác vụ đơn giản hơn mà Alphabet đang tìm kiếm.

Alphabet cho biết trong tháng này rằng một phiên bản mô hình nhỏ hơn của công nghệ AI LaMDA khổng lồ sẽ cung cấp năng lực cho chatbot Bard, yêu cầu "sức mạnh tính toán ít hơn đáng kể, cho phép chúng tôi mở rộng quy mô tới nhiều người dùng hơn".

John Hennessy đã được hỏi về các chatbot như ChatGPT và Bard tại một hội nghị TechSurge tuần trước khi được hỏi về chúng. Thay vì một hệ thống làm mọi thứ, các mô hình tập trung hơn sẽ giúp "kiểm soát chi phí".

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống