Ngày càng nhiều doanh nghiệp trên khắp thế giới thiết lập rào cản đối với các chatbot trí tuệ nhân tạo (AI), trong số đó có Samsung, Amazon, ngân hàng Đức Deutsche Bank và mới đây nhất là Google - “cha đẻ” của phần mềm chat AI Bard.
Alphabet - công ty mẹ của Google vừa ra khuyến nghị nhân viên không nên nhập thông tin bí mật hoặc nhạy cảm vào các chatbot AI, kể cả là “phần mềm cây nhà lá vườn” Bard của họ. Ngoài ra, Alphabet cũng cảnh báo các kỹ sư của mình không được sử dụng trực tiếp mã máy tính mà chatbot tạo ra.
Điều này khá trớ trêu vì Google đang đổ rất nhiều tiền vào cuộc chạy đua phần mềm chat AI với OpenAI (với sự chống lưng của Microsoft) và rất nhiều đại gia phần mềm khác, thế nhưng chính họ lại cảnh báo nhân viên của mình không nên dùng. Mặc dù, Google giờ đây vẫn đang xúc tiến việc triển khai dịch vụ của Bard tới hơn 180 quốc gia và vùng lãnh thổ với 40 ngôn ngữ khác nhau.
Các chatbot kiểu này, tiêu biểu là ChatGPT, là các chương trình sử dụng AI tổng hợp sáng tạo nội dung (generative AI) để xây dựng các cuộc đối thoại giống với người thật và trả lời vô số yêu cầu khác nhau của người dùng. Công cụ này có thể soạn thảo email, tài liệu, thậm chí cả viết phần mềm, hứa hẹn giúp tăng tốc đáng kể các hoạt động của con người.
Trong một cuộc khảo sát hồi tháng 1, kết quả cho thấy 43% các chuyên gia đang sử dụng ChatGPT hoặc các công cụ AI tương tự khác. Trên thực tế, không ít công ty sử dụng ChatGPT và các công cụ trí tuệ nhân tạo khác như Google Bard để cải thiện năng suất.
Tuy nhiên, nội dung do chatbot hiện nay tạo ra có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc thậm chí là các nội dung có bản quyền trên mạng. Nghiêm trọng hơn, với nhiều công ty, các rủi ro bảo mật lớn hơn nhiều lợi ích về năng suất.
Thực tế, khi ra lệnh, hoặc trò chuyện với chatbot AI, người dùng phải nhập thông tin của mình vào. Và những thông tin này thường chứa nhiều điều quan trọng, ví dụ thông tin nhận dạng cá nhân, thông tin tài chính, thông tin sức khỏe hoặc bất kỳ dữ liệu bí mật công ty, bí mật thương mại nào khác.
Những thông tin này được truyền về máy chủ của các đơn vị vận hành phần mềm chat AI và vô hình trung, họ nắm hết thông tin nhạy cảm của người dùng.
Đáng chú ý hơn, các nhà nghiên cứu phát hiện ra rằng AI của chatbot có thể tái tạo dữ liệu mà nó hấp thụ trong quá trình đào tạo, dẫn đến nguy cơ rò rỉ thông tin và dữ liệu do người dùng tải lên.
Thành thử, mặc dù cuộc đua phần mềm chat AI đang rất nóng, thu hút rất nhiều công ty đổ hàng tỷ đô vào để chạy đua, nhưng hành động cấm của các công ty này cho thấy chính họ cũng hiểu rất rõ những hạn chế của những “đứa con đẻ” của mình.
Trước tình trạng trên, một hướng đi khác đã mở ra trong lĩnh vực chat AI này. Đó là tìm cách chat bảo mật hơn.
Cụ thể, Cloudflare - công ty chuyên bảo vệ các trang web khỏi các cuộc tấn công mạng và cung cấp các dịch vụ đám mây khác nhau - đang quảng cáo khả năng cho phép các công ty gắn thẻ và hạn chế một số dữ liệu nội bộ “chảy” ra bên ngoài.
Song song với cuộc đua phát triển chatbot AI tự do như mọi người vẫn đang thấy, Google và Microsoft cũng đang cung cấp các công cụ chatbot AI cho khách hàng doanh nghiệp với mức giá cao hơn, nhưng không để dữ liệu bị hấp thụ vào các mô hình AI công cộng.
Những điều này cho thấy, thị trường chat AI nhiều tiềm năng nhưng vẫn đang ở giai đoạn sơ khai và còn nhiều hướng đi khác nhau cho các công ty phần mềm nhỏ, thay vì toàn bộ thị trường nằm trong tay các ông lớn như Microsoft hay Google như vẫn tưởng bấy lâu nay.
Theo Diễn đàn Doanh nghiệp
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống