Tại sao nhiều nhà phát triển phần mềm chuyển sang các mô hình nền tảng AI thay OpenAI

Tại sao nhiều nhà phát triển phần mềm chuyển sang các mô hình nền tảng AI thay OpenAI

Nhiều nhà đầu tư và doanh nghiệp khởi nghiệp ủng hộ các đối thủ cạnh tranh với OpenAI với mong muốn có các mô hình phù hợp với các nhiệm vụ cụ thể và cơ hội cắt giảm chi phí mà không phải phụ thuộc vào một công ty duy nhất. Điều này làm nổi bật tham vọng chiếm ưu thế trong lĩnh vực AI của OpenAI và Microsoft.

Chương tiếp theo của generative AI có thể mở ra, theo một số nhà phát triển phần mềm chuyển sang các mô hình nền tảng AI thay thế GPT của OpenAI.

Máy tính có thể lập trình để tự động tạo ra nội dung mới như văn bản, hình ảnh, âm thanh và video bằng cách sử dụng trí tuệ nhân tạo được gọi là kỹ thuật tạo văn bản. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu hoặc học máy, trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện. Các mô hình ngôn ngữ tự động tạo văn bản, các hệ thống nhận dạng hình ảnh, video và âm thanh đều là những ví dụ về cách sử dụng generative AI.

GPT (Generative Pre-training Transformer) là một mô hình ngôn ngữ khá lớn do nhà nghiên cứu AI Alec Radford viết, sau đó được OpenAI phát triển làm nền tảng cho ChatGPT và gần đây đã được nâng cấp lên phiên bản GPT-4 mạnh mẽ.

George Mathew, nhà đầu tư AI tại hãng Insight Partners, đã so sánh các mô hình nền tảng AI với những đột phá công nghệ khác đã tạo ra sự cạnh tranh. Một hệ thống AI được đào tạo trên các tập dữ liệu lớn với khả năng học hỏi để thực hiện nhiều nhiệm vụ khác nhau được gọi là mô hình nền tảng.

Theo George Mathew, "Có phải chúng ta chỉ có một nhà cung cấp dịch vụ Internet duy nhất không? Để có một hệ sinh thái hoạt động mạnh, chúng ta sẽ cần nhiều nhà cung cấp mô hình nền tảng. Lợi thế hiện tại của OpenAI sẽ không khiến nó trở thành một lựa chọn duy nhất.

Ban đầu được phát triển trên GPT-3, mô hình nền tảng được OpenAI phát hành lần đầu tiên vào năm 2020, Tome, công ty khởi nghiệp kể chuyện AI hỗ trợ người dùng tạo các trang trình chiếu nhanh hơn, ban đầu được xây dựng trên GPT-3. Trong tháng này, Tome thông báo đã đạt 3 triệu người dùng và bắt đầu thử nghiệm các mô hình khác.

Tome đã thêm một mô hình văn bản từ đối thủ của OpenAI là Anthropic và có kế hoạch chuyển từ DALL-E (mô hình tạo ảnh từ văn bản của OpenAI) sang mô hình nguồn mở Stable Diffusion (do Stability AI tạo ra).

Theo Keith Peiris, Giám đốc điều hành Tome, mục tiêu là tạo ra mô hình hoạt động tốt nhất cho từng hành động với độ trễ ít nhất và chất lượng tốt nhất.

Các nhà đầu tư và phát triển AI cho biết có một sự đồng thuận mới trong ngành nhằm giảm bớt sự phụ thuộc vào một mô hình duy nhất và cung cấp các dịch vụ đáng tin cậy hơn, giảm chi phí và tận dụng lợi thế chuyên môn hóa của các mô hình khác nhau.

Sau khi ra mắt chatbot ChatGPT, được nhiều người choáng váng với khả năng trả lời các câu hỏi phức tạp bằng ngôn ngữ rõ ràng, phù hợp với ngữ pháp giống như tiếng con người, OpenAI đã trở nên nổi tiếng. Khi các đối thủ lớn của Microsoft, bao gồm cả Google, đang gấp rút tạo ra các mô hình mới, OpenAI đã thu hút được khoản đầu tư 10 tỷ USD từ Microsoft.

Theo nhiều tiêu chuẩn, mô hình nền tảng AI mạnh nhất vẫn là GPT-4 của OpenAI. Theo Sam Altman, Giám đốc điều hành OpenAI, GPT-4 đã được cải tiến theo hướng sáng tạo hơn và ít thiên vị hơn so với bản trước đó. Ông nhấn mạnh rằng đây là công nghệ AI tiên tiến chưa từng có, được tạo ra bằng cách sử dụng phản hồi của con người kết hợp công nghệ học sâu. Người dùng có thể tương tác với nhiều chế độ khác nhau với GPT-4 nhờ khả năng xử lý đa phương thức đầu vào, bao gồm cả hình ảnh.

nhieu-nha-phat-trien-phan-mem-chuyen-sang-mo-hinh-nen-tang-ai-thay-openai.jpg
GPT-4 vẫn là mô hình nền tảng AI mạnh nhất theo nhiều tiêu chuẩn

Giải pháp thay thế OpenAI

Theo công ty PitchBook, thị trường generative AI dự kiến sẽ tăng lên 98,1 tỷ USD vào năm 2026.

Các mô hình nền tảng AI đã thu hút nhiều tiền nhất từ các nhà đầu tư mạo hiểm và chiến lược vì chúng là nền tảng cơ sở hạ tầng của các ứng dụng AI. Các nhà cung cấp như OpenAI rất quan trọng đối với cách các ứng dụng sử dụng các mô hình nền tảng AU và trả tiền cho các dịch vụ này. Công ty này dự kiến sẽ kiếm được 1 tỷ đô la doanh thu vào năm 2024.

Trong năm 2023, OpenAI được dự đoán sẽ tạo ra doanh thu 200 triệu USD. Như một minh về cách kiếm tiền, OpenAI tính phí 6 cent để xử lý 1.000 mã gợi ý trong mô hình GPT-4 và tính phí 20 USD/tháng với phiên bản ChatGPT Pro cho người dùng.

Khi gã khổng lồ công nghệ đưa các mô hình từ OpenAI vào các sản phẩm từ công cụ tìm kiếm Bing đến bộ sản phẩm Office, một số công ty khởi nghiệp lo ngại rằng Microsoft có thể cạnh tranh với các khách hàng AI của mình.

"Một số ứng dụng này sẽ sử dụng dữ liệu nhạy cảm của các doanh nghiệp. Các mô hình nền tảng sẽ quan sát thấy tương tác giữa các doanh nghiệp này và khách hàng của họ. Mike Volpi, đối tác tại Index Ventures và là nhà đầu tư của Cohere, đối thủ của OpenAI, cho biết nhiều doanh nghiệp trong số này sẽ cảm thấy không thoải mái khi phụ thuộc vào Microsoft hoặc một công ty thường xuyên nằm dưới sự kiểm soát của Microsoft.

Microsoft và OpenAI từ chối bình luận.

Giám đốc điều hành Dave Rogenmoser tiết lộ nói với Reuters rằng Công ty Jasper.ai (trợ lý viết) đã bắt đầu với GPT nhưng không muốn dựa vào một mô hình duy nhất.

Để hỗ trợ các nhà tiếp thị chỉnh giọng nói bằng cách sử dụng kết hợp nhiều mô hình, Jasper.ai đã thêm Cohere và Anthropic, hai công ty cung cấp mô hình ngôn ngữ lớn khác có quan hệ đối tác điện toán đám mây với Google và đang tung ra công cụ AI.

Theo Matt Shumer, Giám đốc điều hành của HyperWrite (trợ lý viết khác), mô hình phù hợp với từng hành động của người dùng được chọn dựa trên một số yếu tố khác nhau. Ví dụ, HyperWrite sử dụng mô hình OpenAI để tạo bài viết dài và mô hình Cohere để tự động hoàn thành các câu với tốc độ nhanh hơn, giá cả phải chăng hơn.

Chỉ vì OpenAI gặp khó khăn trong việc xử lý nhu cầu tăng cao, các công ty khởi nghiệp khác đã chuyển sang mô hình nền tảng thay thế. "Các máy chủ OpenAI thường xuyên sập. Theo Srinath Sridhar, Giám đốc điều hành Regie.ai, trợ lý viết bài phục vụ nhóm bán hàng, chúng tôi muốn người dùng của mình có trải nghiệm tốt hơn và việc sử dụng nhiều mô hình giúp chúng tôi xử lý các yêu cầu với chi phí thấp hơn.

Một số công ty khởi nghiệp vẫn hợp tác với OpenAI, bao gồm cả hãng phần mềm dịch vụ khách hàng Intercom.

Theo Fergal Reid, Giám đốc học máy của Intercom, chi phí trả cho GPT-4 rất cao. Để có được mức độ chính xác cần thiết cho dịch vụ khách hàng, ông nói thêm: "Chúng tôi hiện tin rằng phải sử dụng GPT-4."

Để cộng đồng nghiên cứu và sử dụng miễn phí, Cerebra tung 7 mô hình mã nguồn mở giống GPT.

Cerebras Systems, công ty khởi nghiệp chip AI, đã thông báo vào ngày 28.3 rằng họ đã phát hành 7 mô hình nền tảng AI mã nguồn mở giống GPT để cộng đồng nghiên cứu và doanh nghiệp sử dụng miễn phí trong nỗ lực thúc đẩy cộng tác nhiều hơn.

Cerebra Systems, có trụ sở tại Thung lũng Silicon (Mỹ), đã sản xuất bảy mô hình nền tảng AI. Tất cả đều được tạo bằng siêu máy tính AI có tên Andromeda, có các mô hình ngôn ngữ nhỏ hơn 111 triệu tham số cho đến một mô hình ngôn ngữ lớn hơn với 13 tỉ tham số.

Theo Andrew Feldman, người sáng lập và Giám đốc điều hành Cerebras Systems, "Hiện nay có một phong trào lớn để đóng lại những gì được chia sẻ về mã nguồn mở trong AI." Điều này không ngạc nhiên khi có rất nhiều tiền đang được đầu tư vào lĩnh vực này. Mã nguồn mở trong AI được chia sẻ rộng rãi, điều này phần lớn góp phần vào sự phấn khích của cộng đồng và sự tiến bộ mà chúng ta đạt được.

Các chức năng generative (tạo sinh) phức tạp hơn có thể được thực hiện với các mô hình có nhiều tham số hơn. Chẳng hạn, ChatGPT của OpenAI, được phát hành vào tháng 11.2022 với 175 tỷ tham số, có thể tạo thơ, đơn xin việc và thôi việc, sách điện tử, mã phần mềm... Điều này giúp thu hút sự quan tâm và tài trợ lớn hơn cho AI.

Theo Cerebras Systems, các mô hình nhỏ hơn có thể được triển khai trên iPhone hoặc loa thông minh, trong khi các mô hình lớn hơn chạy trên PC hoặc máy chủ, mặc dù các tác vụ phức tạp như tóm tắt đoạn văn lớn yêu cầu các mô hình lớn hơn. Tuy nhiên, Karl Freund, nhà tư vấn chip tại công ty Cambrian AI, cho biết mô hình lớn hơn không phải lúc nào cũng tốt hơn.

Karl Freund giải thích: "Đã có một số bài viết thú vị được xuất bản minh một mô hình nhỏ hơn có thể chính xác nếu bạn huấn luyện nó nhiều hơn. Do đó, có sự khác biệt giữa mô hình lớn hơn và được đào tạo tốt hơn.

Do kiến trúc của Cerebras Systems, bao gồm chip có kích thước bằng chiếc đĩa ăn được chế tạo để huấn luyện AI, Andrew Feldman cho biết mô hình lớn nhất của ông mất hơn một tuần để huấn luyện, mặc dù công việc thường có thể mất vài tháng.

Mặc dù phần lớn mô hình AI hiện đang được huấn luyện trên chip của Nvidia, nhưng ngày càng có nhiều công ty khởi nghiệp như Cerebras Systems đang cố gắng chiếm thị phần trong thị trường đó.

Andrew Feldman tuyên bố rằng các mô hình được huấn luyện trên máy Cerebras Systems cũng có thể được sử dụng trên các hệ thống Nvidia để huấn luyện hoặc chỉnh thêm.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận