Amazon thu hút hàng ngàn người dùng thử dịch vụ AI cạnh tranh với Microsoft, Google

Amazon thu hút hàng ngàn người dùng thử dịch vụ AI cạnh tranh với Microsoft, Google

Hôm 26.7, Amazon cũng công bố các công cụ AI mới, bao gồm  chương trình giúp xây dựng các trợ lý dịch vụ khách hàng có khả năng giao tiếp mạnh mẽ hơn, truy cập vào công nghệ của công ty khởi nghiệp Cohere và hệ thống chăm sóc sức khỏe để tạo ra ghi chú lâm sàng sau khi bệnh nhân đến khám.

Sony, Ryanair và Sun Life đã dùng thử Amazon Bedrock, dịch vụ mà công ty từng giới thiệu vào tháng 4 cho phép các doanh nghiệp tạo ứng dụng với nhiều mô hình AI, theo Phó chủ tịch Amazon - Swami Sivasubramanian. Công nghệ như vậy hỗ trợ tạo ra văn bản, hình ảnh mới và nội dung khác theo yêu cầu.

"Sứ mệnh của chúng tôi là biến mọi công ty trở thành hãng AI", Swami Sivasubramanian nói trong một cuộc phỏng vấn được liên kết với hội nghị thượng đỉnh mà nhà cung cấp đám mây tổ chức ở thành phố New York (Mỹ).

Amazon Bedrock là câu trả lời của công ty cho các dịch vụ được công bố bởi Google và Microsoft, hai đối thủ trong lĩnh vực đám mây đã phát triển hoặc tiếp thị AI để thu hút sự chú ý rất lớn của công chúng. Microsoft đã đầu tư hàng tỉ USD vào OpenAI, công ty khởi nghiệp tạo ra ChatGPT và mô hình ngôn ngữ lớn GPT-4.

Việc tiết lộ có hàng ngàn người dùng Bedrock cho thấy những nỗ lực của Amazon đang thu hút sự quan tâm.

Anazon muốn cung cấp nhiều loại mô hình AI hơn so với các công ty cùng ngành để giành được thị phần, gồm cả quyền truy cập vào công nghệ mới nhất từ công ty khởi nghiệp Anthropic và Stability AI.

Vai trò là nhà cung cấp dịch vụ đám mây lớn nhất theo doanh thu và chứa đựng dữ liệu của vô số khách hàng cũng là điểm khác biệt, theo Amazon.

Swami Sivasubramanian nói Amazon Bedrock sẽ rất sớm được cung cấp rộng rãi cho bất cứ khách hàng nào. Ông không tiết lộ thời điểm cụ thể, đồng thời cho biết Amazon đặt mục tiêu giải quyết các vấn đề liên quan đến phân bổ chi phí và kiểm soát doanh nghiệp trước tiên.

Ngành công nghiệp đã tiếp tục vật lộn với chi phí của AI. Microsoft hôm 25.7 đã báo cáo chi tiêu vốn hàng quý cao nhất kể từ năm tài chính 2016 khi xây dựng các trung tâm dữ liệu để hỗ trợ AI và cạnh tranh với các công ty đám mây khác để mua các chip hàng đầu từ Nvidia (nhà sản xuất chip giá trị nhất thế giới).

Ngoài ra, Amazon đã mở rộng khả năng tiếp cận công nghệ được cho là hiệu quả hơn để đào tạo AI, dựa trên chip Nvidia.

Công ty cũng giới thiệu trước Agents for Amazon Bedrock, cho phép các doanh nghiệp tạo ra chatbot thực hiện các nhiệm vụ và cung cấp câu trả lời cá nhân hóa dựa trên dữ liệu độc quyền của họ.

Ví dụ, một hãng hàng không có thể xây dựng trợ lý ảo đặt chuyến bay cho khách du lịch dựa trên yêu cầu về giá, điểm đến và chỗ ngồi của khách hàng. Tiềm năng kinh doanh với những trợ lý ảo như vậy thu hút sự quan tâm ở Thung lũng Silicon.

Như một phần trong nỗ lực thúc đẩy AI của mình, Amazon đã đưa ra lời kêu gọi đặc biệt với ngành chăm sóc sức khỏe. Công ty đã công bố dịch vụ AWS HealthScribe để cho phép các nhà cung cấp phần mềm xây dựng các ứng dụng để phiên âm và phân tích cuộc hội thoại giữa bác sĩ với bệnh nhân.

Amazon cho biết một đơn vị của hãng 3M có kế hoạch sử dụng dịch vụ này để để tăng tốc quá trình tạo văn bản lâm sàng.

amazon.jpg
Bộ phận đám mây của Amazon đã thu hút hàng ngàn khách hàng dùng thử dịch vụ Bedrock - Ảnh: Reuters

AI dự kiến sẽ mang lại lợi nhuận lớn cho những gã khổng lồ công nghệ như Microsoft và Alphabet (công ty mẹ Google) vào một ngày nào đó. Thế nhưng, các công ty này cho biết cần đầu tư nhiều hơn trước nữa trước khi thu về lợi nhuận nhỏ giọt.

Microsoft cho biết chi phí tăng mạnh khi họ xây dựng các trung tâm dữ liệu mới để hỗ trợ AI. Chi phí vốn sẽ tiếp tục tăng vì mua chip từ Nvidia để cung cấp sức mạnh cho các trung tâm dữ liệu đó.

Theo các nhà phân tích, Microsoft đang chịu chi phí AI theo hai cách:

1. Cung cấp sức mạnh cho các sản phẩm của chính họ, chẳng hạn trợ lý AI Copilot sắp ra mắt với giá 30 USD/tháng.

2. Phục vụ các công ty muốn sử dụng dịch vụ điện toán đám mây Azure của mình để tạo ra các sản phẩm AI.

Các lãnh đạo Microsoft cho biết Azure sẽ bắt đầu tạo ra phần lớn doanh thu trong nửa sau năm tài chính 2024 kết thúc vào ngày 30.6.

"Microsoft đang mua hàng loạt H100", Ben Bajarin, Giám đốc điều hành và nhà phân tích chính của hãng Creative Strategies, đề cập đến các chip AI hàng đầu của Nvidia.

Bạn có thể sẽ thấy điều tương tự với Amazon, nếu không phải quý này thì quý sau, vì cả hai đều sở hữu dịch vụ đám mây mà đại đa số thị trường đang sử dụng để đào tạo hệ thống AI vào lúc này", Ben Bajarin nói thêm.

Tuy nhiên, Alphabet đang giảm chi phí dù có thể không lâu. Giám đốc tài chính Alphabet - Ruth Porat cho biết sự chậm trễ trong việc xây dựng trung tâm dữ liệu là lý do khiến các khoản chi tiêu vốn trong quý 2/2023 thấp hơn dự kiến.

Scott Kessler, lãnh đạo mảng công nghệ truyền thông và viễn thông toàn cầu tại công ty Third Bridge, nhận định: "Trong thập kỷ qua, Google có thể đã chi khoảng 200 tỉ USD vào đầu tư AI, nhưng phần lớn trong số đó không được đánh giá cao bởi người dùng và nhà đầu tư”.

Theo nhận định từ các nhà phân tích, một ưu điểm của Google là sở hữu chip tùy chỉnh riêng có tên Tensor Processor Unit (TPU) để xử lý công việc AI, giúp giảm chi phí.

Nhà phân tích James Cordwell của hãng Atlantic Equities nói Microsoft có thể đang "mua hàng loạt chip Nvidia do không có chip riêng để thay thế".

Thế nhưng, Google thừa nhận sẽ mua chip từ các công ty khác cũng như sử dụng chip của riêng mình. Ruth Porat nói rằng việc tiêu tiền có thể giảm lợi nhuận và tăng trưởng.

Gene Munster, thành viên quản lý tại hãng Deepwater Asset Management, bình luận: "Microsoft và Google đều gửi đi thông điệp tương tự về sự khởi đầu mới trong lĩnh vực AI. Thế nhưng, điểm khác biệt là các nhà đầu tư của Microsoft muốn thấy nhiều hơn".

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận