Cổ phiếu Nvidia tăng mạnh hôm 22.2 lên 207,54 USD nhờ triển vọng bán hàng tốt.
Các hãng công nghệ lớn đang xây dựng các dịch vụ như công cụ tìm kiếm có khả năng tương tác bằng chatbot, chẳng hạn như Microsoft, đang sử dụng Nvidia làm nhà cung cấp phần cứng chính. Để đào tạo AI, chip Nvidia được sử dụng trong các trung tâm dữ liệu.
Một trong số ít lĩnh vực mà các hãng công nghệ vẫn đang chi tiêu ngay cả khi cắt giảm việc làm là AI. Chẳng hạn, Microsoft và Alphabet đều sa thải hàng ngàn nhân viên nhưng bị cuốn vào cuộc đua đưa công nghệ chatbot vào các công cụ tìm kiếm của họ, mặc dù thực tế việc làm như vậy có thể tiêu tốn hàng tỷ USD chi phí hoạt động.
Các nhà lãnh đạo trong lĩnh vực công nghệ đang thảo luận về cách vận hành chatbot AI như ChatGPT trong khi xem xét chi phí cao. Theo Sam Altman, Giám đốc điều hành của công ty khởi nghiệp OpenAI (Mỹ), ChatGPT có chi phí tính toán đáng kinh ngạc từ vài xu Mỹ trở lên cho mỗi cuộc trò chuyện.
John Hennessy, Chủ tịch Alphabet, đã nói với Reuters trong một cuộc phỏng vấn rằng việc trò chuyện với AI được biết đến là mô hình ngôn ngữ lớn có thể tốn kém gấp 10 lần so với tìm kiếm từ tiêu chuẩn, nhưng việc tinh chỉnh sẽ giúp giảm giá nhanh chóng.
Theo các nhà phân tích, công nghệ này có thể ảnh hưởng đến lợi nhuận cuối cùng của Alphabet ngay cả khi có thu nhập từ quảng cáo tìm kiếm dựa trên trò chuyện tiềm năng, với một số chi phí khiến lợi nhuận tăng thêm vài tỷ USD. Năm 2022, công ty có trụ sở chính tại thành phố Mountain View, bang California, Mỹ, có lợi nhuận ròng gần 60 tỷ USD.
Theo Ngân hàng đầu tư Morgan Stanley, 3,3 nghìn tỷ truy vấn tìm kiếm của Google vào năm ngoái tiêu tốn khoảng 1/5 xu Mỹ cho mỗi truy vấn, điều này sẽ tăng thuộc vào lượng văn bản mà AI cần để tạo ra. Chẳng hạn, nếu AI giống như ChatGPT xử lý một nửa số truy vấn mà họ nhận được với câu trả lời dài 50 từ, các nhà phân tích dự đoán rằng Google có thể phải đối mặt với khoản chi phí tăng 6 tỉ USD vào năm 2024. Google dường như không cần một chatbot để xử lý các tìm kiếm điều hướng cho các trang web như Wikipedia.
Theo SemiAnalysis, công ty nghiên cứu và tư vấn tập trung vào công nghệ chip, việc thêm AI kiểu ChatGPT vào tìm kiếm có thể tiêu tốn của Alphabet 3 tỷ USD, với điều kiện dùng chip nội bộ Tensor do Google sản xuất cùng các tối ưu hóa khác.
Sức mạnh tính toán được sử dụng là điều làm cho hình thức AI này đắt hơn so với tìm kiếm thông thường. Theo các nhà phân tích, hàng tỷ USD chip, một chi phí phải được phân bổ trong thời gian sử dụng chip hàng năm, là thứ mà AI như vậy phụ thuộc vào. Ngoài ra, điện năng tăng giá và gây áp lực cho các doanh nghiệp có mục tiêu về lượng khí thải carbon.
"Suy luận", trong đó một "mạng lưới thần kinh" được mô hình hóa dựa trên đặc điểm sinh học của bộ não con người đưa ra câu trả lời cho một câu hỏi từ quá trình đào tạo trước đó, là quá trình xử lý các truy vấn tìm kiếm do AI cung cấp.
Mặt khác, trong tìm kiếm truyền thống, trình thu thập dữ liệu web của Google quét toàn bộ Internet để tạo một chỉ mục dữ liệu. Google sẽ cung cấp các câu trả lời phù hợp nhất được lưu trữ trong chỉ mục khi người dùng nhập truy vấn.
John Hennessy gọi đó là "vần đề tồi tệ nhất trong vài năm" và nói với Reuters, "Đó là chi phí suy luận mà bạn cần giảm xuống."
Do chiếm lĩnh khoảng 80% thị trường GPU (bộ xử lý đồ) được sử dụng để tăng tốc độ hoạt động của AI, các nhà phân tích cho rằng Nvidia, hơn bất kỳ công ty nào khác, có vị trí tốt nhất để hưởng lợi từ động thái trên.
Trong một cuộc gọi hội nghị với các nhà đầu tư, Giám đốc điều hành Nvidia - Jensen Huang đã công bố một dịch vụ mới trong đó Nvidia sẽ trực tiếp cung cấp dịch vụ điện toán đám mây cho các công ty thuê tất cả công nghệ của họ để tạo ra các dịch vụ Generative AI riêng.
Thay vì chỉ đơn thuần là phân loại hoặc dự đoán dữ liệu, các mô hình máy tính được sử dụng trong lĩnh vực trí tuệ nhân tạo được gọi là phân loại cognitive AI để tạo ra những thứ mới, chẳng hạn như hình ảnh, âm thanh, văn bản hoặc video.
“Mặc dù thực tế là AI chưa được triển khai rộng rãi trong các doanh nghiệp, nhưng chúng tôi nghĩ rằng bằng cách lưu trữ mọi thứ trên đám mây, từ cơ sở hạ tầng cho đến hệ điều hành, tất cả thông qua các mô hình được đào tạo trước, chúng tôi có thể đẩy nhanh việc áp dụng nó trong các doanh nghiệp.”, Jensen Huang nói.
Theo thông tin từ Refinitiv (nhà cung cấp toàn cầu của Mỹ - Anh về cơ sở hạ tầng và dữ liệu thị trường tài chính), Nvidia dự báo doanh thu quý 1/2023 là 6,50 tỷ USD, cộng hoặc trừ 2%. Theo dữ liệu từ Refinitiv, nhà cung cấp toàn cầu của Nvidia về cơ sở hạ tầng.
Theo nhà phân tích của công ty dịch vụ tài chính Edward Jones Logan Purk, "Việc áp dụng nhanh các GPU H100 mới của Nvidia sẽ được thúc đẩy bởi việc ra mắt các mô hình generative AI và cuộc chạy đua AI đang diễn ra.”.

Triển vọng táo bạo của Nvidia cũng góp phần nâng cao giá cổ phiếu của các đối thủ cạnh tranh như Advanced Micro Devices (AMD). Sau thông báo của Nvidia, cổ phiếu AMD đã tăng 3%.
Với trụ sở chính tại thành phố Santa Clara (bang California, Mỹ), Nvidia bắt đầu đẩy mạnh kinh doanh chip đồ cho PC để giúp video game trông chân thực hơn. Mặc dù doanh thu vượt qua kỳ vọng của Phố Wall, doanh số bán hàng Nvidia vẫn giảm so với cùng thời điểm năm ngoái khi công ty đối mặt với sự suy thoái của thị trường PC.
Tuy nhiên, thị trường chip cho trung tâm dữ liệu đang tăng trưởng nhanh chóng. Theo các nhà phân tích tại Bank of America Global, sự bùng nổ của các phần mềm sử dụng hệ thống AI như chatbot và các dịch vụ tạo hình ảnh có thể giúp doanh thu Nvidia tăng thêm 14 tỷ USD vào năm 2027.
Trong quý 4/2022, doanh thu từ mảng kinh doanh trung tâm dữ liệu của Nvidia là 3,62 tỉ USD, thấp hơn một chút so với dự đoán của các nhà phân tích là 3,84 tỉ USD. Dữ liệu từ Refinitiv cho thấy doanh số chip chuyên dụng cho game của nVidia là 1,83 tỉ USD, cao hơn ước tính 1,52 tỉ USD của các nhà phân tích. Lợi nhuận điều chỉnh của nVidia trong quý 4/2022 là 88 xu Mỹ trên mỗi cổ phiếu, cao hơn ước tính 81 xu của các nhà phân tích cho số tiền đó.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: 1thegioi.vn
Tham gia bình luận