Ngày càng nhiều doanh nghiệp cấm phần mềm "kiểu ChatGPT"

Ngày càng nhiều doanh nghiệp cấm phần mềm "kiểu ChatGPT"

Ngày càng có nhiều doanh nghiệp trên toàn thế giới thiết lập rào cản đối với các chatbot trí tuệ nhân tạo (AI), bao gồm Samsung, Amazon, ngân hàng Đức Deutsche Bank và gần đây nhất là Google, "cha đẻ" của phần mềm chat AI Bard.

Alphabet, công ty mẹ của Google, vừa khuyên nhân viên không nên nhập dữ liệu bí mật hoặc nhạy cảm trực tiếp vào các chatbot AI, bao gồm cả "phần mềm cây nhà lá vườn" Bard của họ. Ngoài ra, Alphabet đã cảnh báo các kỹ sư của mình không được sử dụng trực tiếp mã máy tính mà chatbot tạo ra.

Điều này khá trớ trêu vì Google đang đầu tư rất nhiều tiền vào cuộc chạy đua phần mềm chat AI với OpenAI (với sự chống lưng của Microsoft) và rất nhiều đại gia phần mềm khác, nhưng chính họ lại cảnh báo nhân viên của mình không nên sử dụng. Mặc dù vậy, Google giờ đây đang xúc tiến việc triển khai dịch vụ của Bard tới hơn 180 quốc gia và vùng lãnh thổ với 40 ngôn ngữ khác nhau.

Các chatbot kiểu này, được gọi là ChatGPT, là các chương trình sử dụng AI tổng hợp sáng tạo nội dung (generative AI) để tạo các cuộc đối thoại giống với người thật và giải quyết nhiều nhu cầu khác nhau của người dùng. Công cụ này có thể soạn thảo email, tài liệu, thậm chí cả viết phần mềm, và hứa hẹn sẽ tăng tốc đáng kể tốc độ hoạt động của con người.

Trong một cuộc khảo sát được thực hiện vào tháng 1, kết quả cho thấy 43% các chuyên gia đang sử dụng ChatGPT hoặc các công cụ AI có liên quan khác. Trên thực tế, không ít doanh nghiệp sử dụng ChatGPT và các công cụ trí tuệ nhân tạo khác, chẳng hạn như Google Bard, để tăng năng suất.

Tuy nhiên, nội dung do chatbot hiện nay tạo ra có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc thậm chí là nội dung có bản quyền trên mạng. Với nhiều công ty hơn, các rủi ro bảo mật lớn hơn nhiều lợi ích về năng suất.

Trên thực tế, người dùng phải nhập dữ liệu của mình khi ra lệnh hoặc trò chuyện với chatbot AI. Và những dữ liệu này thường rất quan trọng, chẳng hạn như thông tin nhận dạng cá nhân, dữ liệu tài chính, dữ liệu sức hoặc bất kỳ dữ liệu bí mật công ty, thương mại nào khác.

Những dữ liệu này được máy chủ của các đơn vị vận hành phần mềm chat AI và vô hình trung thu thập dữ liệu người dùng quan tâm.

Đáng chú ý hơn, các nhà nghiên cứu đã phát hiện ra rằng AI của chatbot có thể tái tạo dữ liệu mà nó hấp thụ trong quá trình đào tạo, dẫn đến nguy cơ rò rỉ dữ liệu và thông tin do người dùng tải lên.

Mặc dù cuộc đua phần mềm chat AI đang cực kỳ nóng, thu hút rất nhiều doanh nghiệp đổ hàng tỷ đô la vào việc chạy đua, nhưng hành động cấm của các doanh nghiệp này cho thấy chính họ cũng hiểu rất rõ những hạn chế của những "đứa con đẻ" của mình.

Một hướng đi mới đã mở ra trong lĩnh vực chat AI này trước tình trạng trên. Đó là tìm cách chat bảo mật hơn.

Cụ thể, Cloudflare, công ty chuyên bảo vệ các trang web khỏi các cuộc tấn công mạng và cung cấp các dịch vụ đám mây khác nhau, đang quảng cáo khả năng cho phép các công ty gắn thẻ và hạn chế một số dữ liệu nội bộ "chảy" ra bên ngoài.

Google và Microsoft đang cung cấp các công cụ chatbot AI cho khách hàng doanh nghiệp với mức giá cao hơn, nhưng không để dữ liệu bị hấp thụ vào các mô hình AI công cộng, song song với cuộc đua phát triển chatbot AI tự do như mọi người vẫn đang thấy.

Theo những điều này, thị trường chat AI có nhiều tiềm năng nhưng vẫn đang ở giai đoạn sơ khai và có nhiều hướng đi khác nhau cho các công ty phần mềm nhỏ thay vì toàn bộ thị trường nằm trong tay các ông lớn như Microsoft hay Google như vẫn tưởng bấy lâu nay.

Diễn đàn Doanh nghiệp

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận