Công ty mẹ Google yêu cầu nhân viên cảnh giác với cả Bard

Công ty mẹ Google yêu cầu nhân viên cảnh giác với cả Bard

Google tung ra một chatbot trí tuệ nhân tạo (AI) có tên Bard để cạnh tranh với ChatGPT của OpenAI.

Alphabet đã cảnh báo nhân viên không nhập thông tin bí mật của mình vào các chatbot AI, bao gồm cả Bard, trích dẫn chính sách bảo mật thông tin lâu dài.

Để tiến hành trò chuyện với người dùng và trả lời nhiều truy vấn khác nhau, các chatbot như Bard và ChatGPT sử dụng generative AI. Người đánh giá có thể đọc các cuộc trò chuyện và các nhà nghiên cứu phát hiện ra rằng AI có thể tái tạo dữ liệu mà nó hấp thụ trong quá trình huấn luyện, dẫn đến nguy cơ rò rỉ dữ liệu.

Một loại trí tuệ nhân tạo được gọi là tương tác AI được lập trình để tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.

Alphabet cảnh báo các kỹ sư của mình không sử dụng trực tiếp mã máy tính mà chatbot AI tạo ra.

Khi được đề nghị bình luận về vấn đề trên, Alphabet cho biết Bard có thể đưa ra các đề xuất mã máy tính không mong muốn khi được yêu cầu, nhưng trong cả hai trường hợp, chatbot này cũng có lợi cho các lập trình viên. Google cũng tuyên bố muốn minh bạch về những hạn chế trong công nghệ của mình.

Những lo ngại trên cho thấy Google muốn tránh tác hại kinh doanh do Bard mang lại. Google, Microsoft và các doanh nghiệp đang cạnh tranh để giành được lợi ích kinh doanh và doanh thu tiềm năng từ việc triển khai các ứng dụng AI mới.

Ngoài ra, sự thận trọng của Google phản ánh tiêu chuẩn bảo mật đang trở thành chuẩn mực cho các doanh nghiệp, tức là cảnh báo nhân viên về việc sử dụng các chatbot AI.

Ngày càng có nhiều doanh nghiệp trên toàn thế giới đã đưa ra các quy định hạn chế hoặc cấm sử dụng các chatbot AI, bao gồm cả Apple, Samsung Electronics, Amazon và Deutsche Bank.

Khoảng 43% các chuyên gia đang sử dụng ChatGPT hoặc các công cụ AI khác kể từ tháng 1, thường không báo với sếp của họ, theo một cuộc khảo sát với gần 12.000 người (gồm cả từ các công ty hàng đầu ở Mỹ) được thực hiện bởi trang mạng Fishbowl.

Trang Insider báo cáo rằng Google đã yêu cầu nhân viên thử nghiệm Bard (trước thời điểm ra mắt) không cung cấp thông tin nội bộ cho chatbot AI này vào tháng Hai. Là một nền tảng để thúc đẩy sự sáng tạo, Google đang triển khai Bard trên hơn 180 quốc gia và 40 ngôn ngữ. Các cảnh báo của Google cũng được mở rộng đến các gợi ý mã máy tính từ Bard.

Sau khi trang Politico cho biết công ty hoãn việc ra mắt Bard ở Liên minh Châu Âu (EU) trong tuần này để chờ thêm thông tin về tác động từ chatbot AI của mình với quyền riêng tư, Google cho biết đã có các cuộc trò chuyện cụ thể với Ủy ban Bảo vệ dữ liệu của Ireland và đang giải đáp thắc mắc từ cơ quan quản lý.

google-yeu-cau-nhan-vien-canh-giac-voi-chinh-bard.jpg
Alphabet khuyên nhân viên không nhập thông tin bí mật của mình vào các chatbot AI, gồm cả Bard - Ảnh: Internet

Lo lộ thông tin nhạy cảm

Chatbot AI hứa hẹn sẽ giúp nhiều người tăng tốc trong công việc và có thể soạn thảo email, làm thơ, viết bài luận, v.v. Tuy nhiên, nội dung do chúng tạo ra có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc trích đoạn từ các cuốn sách có bản quyền.

Thông báo về quyền riêng tư của Google được cập nhật vào ngày 1.6 nêu rõ: "Không nhập thông tin bí mật hoặc nhạy cảm vào các cuộc trò chuyện trên Bard của bạn."

Để giải quyết những lo ngại như vậy, một số doanh nghiệp đã tạo ra phần mềm. Chẳng hạn, Cloudflare đang tiếp thị khả năng cho các doanh nghiệp gắn thẻ và hạn chế một số dữ liệu chảy ra bên ngoài. Công ty bảo vệ các trang web khỏi các cuộc tấn công mạng là Cloudflare. Công ty này cũng cung cấp các dịch vụ đám mây.

Ngoài ra, Google và Microsoft đang cung cấp các công cụ trò chuyện cho khách hàng doanh nghiệp với mức giá cao hơn nhưng không hấp thụ dữ liệu vào các mô hình AI công khai. Cài đặt mặc định trong Bard và ChatGPT là lưu lịch sử hội thoại của người dùng, nhưng có thể chọn khi muốn.

Theo Yusuf Mehdi, Giám đốc tiếp thị người tiêu dùng của Microsoft, các công ty có lý khi không muốn nhân viên sử dụng chatbot AI cho công việc.

Khi so sánh Bing chatbot miễn phí với phần mềm doanh nghiệp của Microsoft, Yusuf Mehdi khẳng định rằng "các công ty đang đưa ra quan điểm thận trọng đúng đắn." Ông nhấn mạnh rằng "ở đó, các chính sách của chúng tôi nghiêm ngặt hơn nhiều."

Microsoft từ chối bình luận về việc liệu có cấm hoàn toàn nhân viên nhập dữ liệu bí mật vào các chatbot AI công khai hay không, bao gồm cả ứng dụng của chính họ. Tuy nhiên, một nhà quản lý khác của Microsoft cho biết cá nhân ông đã hạn chế sử dụng các chatbot này.

Theo Matthew Prince, Giám đốc điều hành Cloudflare, việc nhập thông tin bí mật vào chatbot AI giống như "để hàng loạt nghiên cứu sinh truy cập vào tất cả hồ sơ riêng tư của bạn".

Sau khi phát hiện có kỹ sư dán mã nhạy cảm lên chatbot AI này, Samsung Electronics đã cấm nhân viên sử dụng các công cụ chia sẻ dữ liệu chia sẻ dữ liệu phổ biến như ChatGPT vào đầu tháng 5.

Một nhân viên Samsung Electronics đã sao chép mã nguồn từ cơ sở dữ liệu bán dẫn bị lỗi để dán vào ChatGPT và yêu cầu chatbot AI của OpenAI tìm cách khắc phục, theo truyền thông Hàn Quốc. Trong một trường hợp khác, một nhân viên của công ty lớn nhất Hàn Quốc đã chia sẻ mã bí mật để tìm cách khắc phục thiết bị bị lỗi. Khi một nhân viên Samsung Electronics gửi toàn bộ nội dung cuộc họp đến ChatGPT, anh ta yêu cầu chatbot này tạo biên bản tóm tắt nội dung.

Sau khi biết về những rò rỉ, Samsung Electronics đã nỗ lực giảm thiểu thiệt hại bằng cách cảnh báo các quản lý và nhân viên của mình về những nguy cơ tiềm ẩn của việc rò rỉ dữ liệu bí mật. Tất nhiên, vì chúng được lưu trữ trên các máy chủ OpenAI nên doanh nghiệp không thể bỏ hoặc khôi phục dữ liệu này. Điều đáng nói là Samsung Electronics đã từng dỡ bỏ lệnh cấm nhân viên sử dụng ChatGPT hồi tháng 4 do lo ngại các vấn đề về rò rỉ thông tin bí mật.

Theo một bản ghi nhớ, công ty có trụ sở tại thành phố Suwon (Hàn Quốc) lo ngại rằng dữ liệu truyền tới các nền tảng AI như Google Bard và Bing được lưu trữ trên các máy chủ bên ngoài, gây khó khăn cho việc truy xuất và, đồng thời có thể bị tiết lộ cho những người dùng khác. Đầu tháng 5, Samsung Electronics đã thông báo cho nhân viên về chính sách mới là "cấm sử dụng các công cụ generative AI phổ biến như ChatGPT".

Vào tháng 4, Samsung Electronics đã tiến hành một cuộc khảo sát về việc sử dụng các công cụ AI trong nội bộ và tuyên bố rằng 65% số người được hỏi nghĩ rằng các dịch vụ đó gây rủi ro bảo mật. Theo bản ghi nhớ, kỹ sư của Samsung Electronics đã vô tình làm rò rỉ mã nguồn nội bộ vào đầu tháng 4 khi đưa nó lên ChatGPT. Đại diện của Samsung Electronics từ chối bình luận và không rõ thông tin bao gồm những gì.

"Mối quan tâm đến các nền tảng dựa trên năng lực, chẳng hạn như ChatGPT, đang gia tăng cả trong và ngoài nước. Mặc dù mối quan tâm này tập trung vào tính hữu ích và hiệu quả của các nền tảng này, Samsung Electronics thông báo với nhân viên rằng rủi ro bảo mật do generative AI gây ra ngày càng tăng.

Sau khi ChatGPT khuấy động sự quan tâm đến generative AI vào tháng 2, một số ngân hàng Phố Wall, bao gồm JPMorgan Chase & Co, Bank of America và Citigroup, đã cấm hoặc hạn chế sử dụng chatbot của OpenAI.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận