'Generative AI sẽ trở thành thị trường trị giá 1.320 tỉ USD trong một thập kỷ tới'

'Generative AI sẽ trở thành thị trường trị giá 1.320 tỉ USD trong một thập kỷ tới'

Máy tính được lập trình để tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, bằng cách sử dụng trí tuệ nhân tạo được gọi là rô-bốt. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu hoặc học máy, trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.

Theo báo cáo của Bloomberg Intelligence, ngành công nghiệp selecttive AI tạo ra doanh thu khoảng 40 tỷ USD vào năm 2022. Theo báo cáo, con số đó có thể là 1.320 tỷ đô la vào năm 2032, với tốc độ tăng trưởng gộp hàng năm của ngành là 42%.

Theo báo cáo của Bloomberg Intelligence, được chia nhỏ theo ngành kinh doanh, phần mềm AI như trợ lý AI, sản phẩm cơ sở hạ tầng và chương trình tăng tốc mã hóa có thể tạo ra 280 tỷ USD vào năm 2032 với tốc độ tăng trưởng hàng năm là 69%. Phần cứng sẽ chiếm phần lớn doanh thu 1.320 tỷ đô la, tương đương 641 tỷ đô la vào năm 2032, theo ước tính của Bloomberg Intelligence. Trong số 641 tỷ đô la đó, 168 tỷ đô la được tạo ra từ thiết bị và 473 tỷ USD được tạo ra từ cơ sở hạ tầng.

Máy chủ AI, bộ lưu trữ AI, sản phẩm AI thị giác máy tính và các công cụ chatbot AI, trị giá 108 tỷ USD, sẽ là những ví dụ về doanh thu phần cứng.

Theo báo cáo, phần mềm trợ lý AI sẽ trị giá 89 tỷ USD và quảng cáo kỹ thuật số liên quan đến AI sẽ đạt doanh thu 192 tỷ USD.

Theo Bloomberg Intelligence, vào năm 2032, thị trường phần cứng CNTT, dịch vụ phần mềm, chi tiêu quảng cáo và thị trường trò chơi sẽ được dự đoán sẽ tăng từ 10% đến 12%, so với mức dưới 1% hiện tại.

Theo Mandeep Singh, nhà phân tích công nghệ cao cấp tại Bloomberg Intelligence và là tác giả chính của báo cáo, "Thế giới đã sẵn sàng chứng kiến sự bùng nổ tăng trưởng ở lĩnh vực generative AI trong 10 năm tới, hứa hẹn sẽ thay đổi căn bản cách thức hoạt động của lĩnh vực công nghệ."

Theo Mandeep Singh, "Công nghệ này sẽ trở thành một thành phần ngày càng quan trọng trong chi tiêu CNTT, chi tiêu quảng cáo và an ninh mạng khi nó trở nên phổ biến hơn."

capture.jpg
Doanh thu ngành công nghiệp generative AI có thể tăng từ 40 tỉ USD trong năm 2022 lên 1.320 tỉ USD vào 2032- - Ảnh: Yuichiro Chino

Khi ChatGPT của OpenAI được phát hành lần đầu tiên vào tháng 11.2022, nó đã trở nên phổ biến rộng rãi nhờ khả năng thực hiện các cuộc trò chuyện thông minh, soạn nhạc, viết mã và thậm chí viết bài luận. ChatGPT đã trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử internet, đạt 100 triệu người dùng chỉ sau hai tháng trình làng.

Do ChatGPT đã thúc đẩy sự cường điệu xung quanh AI, các gã khổng lồ công nghệ đã cạnh tranh để tung ra các ứng dụng giống như Google Bard và Bing phiên bản mới được tích họp AI.

Sự phát triển của AI đã dẫn đến những lo ngại ngày càng tăng, bao gồm cả những vấn đề quan trọng với sự phát triển của nó, rằng công nghệ này có thể gây ra mối đe cho nhân loại. Giám đốc điều hành các hãng AI lớn tuyên bố rằng AI có "nguy cơ gây diệt vong" loài người nếu không được quản lý hợp lý trong một bức thư ngỏ tuần này.

Các chuyên gia tin rằng siêu AI nguy hiểm không kém vũ khí hạt nhân hay đại dịch trong cảnh báo dài 22 từ bằng tiếng Anh.

Theo một thông báo do Trung tâm An toàn AI (CAIS) tại thành phố San Francisco (Mỹ) đăng trên trang web ngày 30 tháng 5, "Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hoặc chiến tranh hạt nhân."

350 người, bao gồm các nhà lãnh đạo và chuyên gia hàng đầu trong lĩnh vực AI, đã ký vào thông điệp. Demis Hassabis (Giám đốc điều hành Google DeepMind), Dario Amodei (Giám đốc Điều hành Anthropic), chuyên gia Yoshua Bengio và Geoffrey Hinton (người được coi là "cha đỡ đầu" của ngành AI; anh ấy vừa rời Google để có thể trực tiếp cảnh báo về mối đe của AI) là những người khác được đề cập bên cạnh Sam Altman (giám đốc điều hành OpenAI). Không có ai từ Meta Platforms, công ty cũng đang theo đuổi siêu AI, trong số này.

Elon Musk và Steve Wozniak (đồng sáng lập Apple) và hơn 1.800 người được xem là "giới tinh hoa" trong lĩnh vực công nghệ vào cuối tháng 3 đã ký một bức thư kêu gọi các doanh nghiệp, tổ chức toàn cầu ngừng phát triển hệ thống AI mạnh hơn GPT-4 của OpenAI trong sáu tháng để cùng nhau tạo ra bộ quy tắc công nghệ này.

Giữa tháng 4, Sundar Pichai (Giám đốc điều hành Alphabet) đã nói rằng AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI.

"Nếu triển khai sai, nó có thể là thảm. Theo Sundar Pichai, chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra vì AI cuối cùng sẽ có những khả năng vượt xa trí tưởng tượng của con người.

Tương tự, Sam Altmam khẳng định rằng mặc dù AI có thể mang lại lợi ích to lớn, nhưng nó lại gây ra mối lo ngại về thông tin sai lệch, cú sốc kinh tế hoặc thứ gì đó "ở mức độ vượt xa bất cứ điều gì con người đã chuẩn bị". Ông liên tục nhắc đến cảm giác lo lắng về AI và thừa nhận đã sốc vì ChatGPT quá phổ biến.

Các chuyên gia đang lo ngại về một mô hình cao cấp hơn là AGI trong cơn sốt AI. Khảo sát của Đại học Stanford từ tháng trước cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin rằng trong tương lai gần, các nhà khoa học máy tính sẽ bắt đầu chuyển dịch sang AGI. Trang Fortune ước tính rằng AGI phức tạp hơn nhiều so với mô hình generative AI nhờ khả năng tự nhận thức những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo ngại trong tương lai.

Theo kết quả khảo sát, 58% chuyên gia AI coi AGI là "mối lo lớn", 36% nói rằng công nghệ này có thể dẫn đến "thảm cấp hạt nhân". Một số người cho rằng AGI có thể đại diện cho "điểm kỳ dị về công nghệ" hoặc điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe cho nền văn minh.

"Sự tiến bộ của AI và các mô hình AGI trong vài năm qua thật đáng kinh ngạc. Tôi không nhận thấy bất kỳ lý do nào khiến tiến độ chậm lại. Demis Hassabis nói với Fortune rằng chúng ta chỉ còn khoảng vài năm, hoặc ít nhất là một thập kỷ để chuẩn bị.

OpenAI: Để ngăn nguy cơ siêu AI diệt loài người, cần có một tổ chức như Cơ quan Năng lượng Nguyên tử Quốc tế.

Theo các nhà lãnh đạo OpenAI, cần có một tổ chức có thể so sánh với Cơ quan Năng lượng Nguyên tử Quốc tế để bảo vệ chống lại những rủi ro do trí tuệ nhân tạo (AI) "siêu thông minh" gây ra.

Ý tưởng về AI tự tiến hóa, trong đó AI có khả năng trở thành hệ thống tự phát triển vượt qua sự hiểu biết và khả năng kiểm soát của con người, được gọi là "siêu thông minh".

Có những lo ngại về những rủi ro tiềm ẩn nếu không được quản lý đúng cách, mặc dù việc phát triển các hệ thống AI như vậy mang lại triển vọng lớn để giải quyết các vấn đề phức tạp và thúc đẩy các lĩnh vực khác nhau.

Các nhà lãnh đạo OpenAI, công ty khởi nghiệp phát triển ChatGPT, đã yêu cầu áp đặt quy định về các AI "siêu thông minh". Họ lập luận rằng để bảo vệ chúng ta khỏi nguy cơ vô tình tạo ra thứ gì đó có sức mạnh diệt loài người, cần có một tổ chức tương đương với Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA).

Trong một ghi chú ngắn đăng trên trang web OpenAI, Greg Brockman, Ilya Sutskever và Sam Altman, ba người đồng sáng lập công ty, kêu gọi thành lập một cơ quan quản lý quốc tế để bắt đầu làm việc về cách "kiểm tra hệ thống, yêu cầu kiểm toán, thử nghiệm tuân thủ các tiêu chuẩn an toàn và đặt hạn chế về mức triển khai cùng bảo mật" nhằm giảm bớt nguy cơ mà các AI "siêu thông minh" có thể gây ra.

Họ viết: "Có thể hình dung rằng các hệ thống AI sẽ vượt qua trình độ chuyên gia trong hầu hết các lĩnh vực trong vòng 10 năm tới và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay. AI "siêu thông minh" sẽ mạnh hơn so với các công nghệ khác mà nhân loại phải đối mặt trong quá khứ, xét về mặt tích cực và tiêu cực. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều, nhưng chúng ta cần quản lý rủi ro để đạt được điều đó. Chúng ta phải có cách tiếp cận tích cực để đối phó với khả năng xảy ra rủi ro hiện hữu.

Trong tương lai ngắn hạn, ba nhà đồng sáng lập OpenAI yêu cầu "mức độ phối hợp" giữa các doanh nghiệp đang làm việc trong lĩnh vực nghiên cứu AI tiên tiến để đảm bảo việc phát triển các mô hình mạnh mẽ hơn tích hợp một cách suôn sẻ với xã hội trong khi vẫn ưu tiên sự an toàn. Sự phối hợp này có thể thông qua một dự án do chính phủ tài trợ hoặc một thuận tập thể nhằm hạn chế sự phát triển khả năng của AI.

Các nhà nghiên cứu từ lâu đã cảnh báo về những rủi ro tiềm ẩn của AI siêu thông minh, nhưng khi sự phát triển AI đang diễn ra nhanh chóng, những rủi ro đó đã trở nên cụ thể hơn.

Trung tâm An toàn AI (CAIS), một tổ chức có trụ sở chính tại Mỹ có mục tiêu "giảm thiểu rủi ro quy mô xã hội do AI gây ra", đã liệt kê 8 loại rủi ro "thảm" và "hiện hữu" mà sự phát triển của AI có thể dẫn đến.

CAIS mô tả những tác hại nguy hiểm khác, mặc dù vô tình hay cố ý, trong khi một số người lo lắng về việc một AI mạnh mẽ sẽ diệt hoàn toàn loài người. Theo CAIS, một thế giới trong đó hệ thống AI được chuyển giao công việc ngày càng nhiều có thể dẫn đến nhân loại "sự suy yếu", được mô tả là "mất khả năng tự quản lý và hoàn toàn phụ thuộc vào máy móc." Một nhóm nhỏ người quản lý các hệ thống mạnh mẽ có thể "biến AI thành một lực lượng tập trung", dẫn đến "khóa giá trị" (hệ thống phân tầng vĩnh viễn giữa kẻ cai trị và bị cai trị).

Theo các lãnh đạo OpenAI, những rủi ro đó đồng nghĩa với việc "người dân trên khắp thế giới nên quyết định theo hình thức dân chủ về các giới hạn và thiết lập mặc định cho các hệ thống AI", nhưng họ thừa nhận rằng họ chưa biết cách thiết kế một hệ thống như vậy. Tuy nhiên, các lãnh đạo OpenAI khẳng định rằng việc tiếp tục phát triển các hệ thống AI mạnh mẽ là không thể tránh khỏi.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận