Trước nguy cơ bị cấm ở nhiều quốc gia EU, OpenAI triển khai "chế độ ẩn danh" cho ChatGPT.

Trước nguy cơ bị cấm ở nhiều quốc gia EU, OpenAI triển khai "chế độ ẩn danh" cho ChatGPT.

Công ty khởi nghiệp có trụ sở tại San Francisco (Mỹ) đã thông báo điều này hôm 25.4.

Với tính năng điều khiển dữ liệu bổ sung, OpenAI cũng lên kế hoạch cho phiên bản ChatGPT Business. Các doanh nghiệp hoặc tổ chức sử dụng ChatGPT để tương tác với khách hàng hoặc người dùng của họ có thể sẽ sử dụng tính năng này.

Ngoài ra, tính năng này có thể cho phép nhà quản lý doanh nghiệp kiểm soát quyền truy cập vào dữ liệu người dùng, quản lý quyền riêng tư hoặc theo dõi các cuộc trò chuyện để đảm bảo tuân thủ các quy định và chính sách của doanh nghiệp.

Khi sự chú ý ngày càng tăng về cách ChatGPT và các chatbot AI khác quản lý dữ liệu hàng trăm triệu người dùng, thường xuyên được sử dụng để cải thiện hoặc huấn luyện AI, động thái trên sẽ xảy ra.

Sau lệnh cấm tạm thời ở Ý và hàng loạt cuộc điều tra từ các quốc gia khác, OpenAI chỉ còn ít ngày nữa để tuân thủ luật bảo vệ dữ liệu của Liên minh châu Âu (EU). OpenAI có thể bị phạt nặng, buộc phải dữ liệu hoặc thậm chí bị cấm nếu không thành công.

Do dữ liệu được sử dụng để huấn luyện các mô hình AI thu thập dữ liệu từ nội dung trên internet, các chuyên gia nói với trang MIT Technology Review rằng OpenAI gần như không thể tuân thủ các quy tắc này.

Mô hình điển hình nhất là càng nhiều dữ liệu huấn luyện càng tốt trong quá trình phát triển AI. Bộ dữ liệu 40 GB văn bản tạo nên mô hình GPT-2 của OpenAI. GPT-3, mô hình ngôn ngữ lớn để ChatGPT hoạt động, được huấn luyện trên 570 GB dữ liệu. Mô hình ngôn ngữ lớn mới nhất, GPT-4, không được chia sẻ kích thước bộ dữ liệu bởi OpenAI.

Tuy nhiên, công ty phải trả giá do sự khát khao của OpenAI về các mô hình lớn hơn. Một số cơ quan bảo vệ dữ liệu phương Tây đã bắt đầu xem xét cách OpenAI thu thập và xử lý dữ liệu để cung cấp sức mạnh cho ChatGPT vào tuần qua. Họ cho rằng OpenAI thu thập dữ liệu cá nhân của nhiều người, chẳng hạn như tên hoặc địa chỉ email, trước khi sử dụng chúng mà không có sự đồng ý của họ.

Cuối tháng 3, Ý tạm thời cấm ChatGPT vì có thể vi phạm quyền riêng tư và cho OpenAI thời hạn đến ngày 30.4 để tuân thủ luật.

Cơ quan Bảo vệ dữ liệu của Ý (Garante) đã công bố danh sách các yêu cầu mà ChatGPT phải tuân thủ để được hoạt động tại quốc gia này vào ngày 12.4.

e yêu cầu OpenAI phải thông báo với người dùng về "phương pháp và logic" đứng sau việc xử lý dữ liệu của ChatGPT. Ngoài ra,e cũng yêu cầu OpenAI cung cấp công cụ để cho phép mọi người, bất kể họ có sử dụng ChatGPT hay không, được yêu cầu hiệu chỉnh dữ liệu cá nhân không chính xác hoặc dữ liệu.

Theoe, OpenAI cũng nên cho phép những ai không phải người dùng có thể phản đối xử lý dữ liệu cá nhân của họ để đào tạo thuật toán. Công ty có trụ sở tại San Francisco (Mỹ) cũng cần giới thiệu hệ thống xác thực độ tuổi trước cuối tháng 9, loại trừ khả năng truy cập của người dưới 13 tuổi.

e sẽ tiếp tục xem xét các vi phạm quy định bảo vệ dữ liệu nếu có, bảo lưu quyền áp đặt bất kỳ biện pháp nào cần thiết vào giai đoạn cuối cùng của cuộc điều tra.

ChatGPT có thể bị cấm ở một số quốc gia cụ thể hoặc thậm chí là toàn EU nếu OpenAI không thể thuyết phục các nhà chức trách rằng các hoạt động sử dụng dữ liệu của họ là hợp pháp.

Các cơ quan quản lý dữ liệu của Pháp, Đức và Iceland cũng đang xem xét cách OpenAI thu thập và sử dụng dữ liệu.

Ủy ban bảo vệ dữ liệu châu Âu thành lập một lực lượng đặc nhiệm trên toàn EU để phối hợp các cuộc điều tra và thực hiện xung quanh ChatGPT.

Tổ chức Người tiêu dùng châu Âu (BEUC) cũng yêu cầu các cơ quan bảo vệ người tiêu dùng EU điều tra ChatGPT và các chatbot AI khác về khả năng gây hại cho người dùng.

BEUC, nhóm bảo trợ cho 46 tổ chức người tiêu dùng ở 32 quốc gia, đã bày tỏ lo lắng của mình trong một bức thư riêng gửi tới mạng lưới các cơ quan bảo vệ người tiêu dùng (mạng CPC) và mạng lưới các cơ quan an toàn người tiêu dùng (Mạng CSN).

Theo BEUC, nội dung do chatbot tạo ra có vẻ chính xác và đáng tin cậy, nhưng chúng thường không chính xác trên thực tế và có thể đánh lừa người tiêu dùng, cũng như quảng cáo gian lận. BEUC tuyên bố rằng người tiêu dùng nhỏ tuổi và trẻ em dễ bị rủi ro như vậy hơn.

"Do đó, BEUC yêu cầu bạn điều tra những rủi ro mà các hệ thống AI này gây ra cho người tiêu dùng như một vấn đề cấp bách, để xác định sự hiện diện của chúng trên thị trường tiêu dùng và xác định hành động khắc phục nào phải được thực hiện để tránh gây hại cho người tiêu dùng," Ursula Pachl, Phó tổng giám đốc BEUC, viết trong thư gửi Ủy ban châu Âu và CPC.

BEUC cũng yêu cầu Mạng lưới An toàn Người tiêu dùng bắt đầu trao đổi dữ liệu và điều tra về các rủi ro về an toàn của các sản phẩm này.

Theo Alexis Leautier, chuyên gia AI tại Cơ quan bảo vệ dữ liệu của Pháp (CNIL), OpenAI phải đối mặt với những khoản phạt tiền đáng kể, thậm chí có thể buộc phải các mô hình và dữ liệu được sử dụng để huấn luyện chúng.

Theo Lilian Edwards, giáo sư luật internet tại Đại học Newcastle (Anh), các vi phạm của OpenAI rõ ràng đến mức có khả năng vụ việc này sẽ kết thúc tại án Công lý của EU (tòa án cao nhất EU). Có thể mất nhiều năm trước khi chúng ta tìm thấy câu trả lời cho các câu hỏi doe đưa ra.

openai-trien-khai-che-do-an-danh-tren-chatgpt.jpg
OpenAI triển khai “chế độ ẩn danh" cho ChatGPT, không lưu lại lịch sử cuộc trò chuyện của người dùng hoặc sử dụng chúng để cải thiện AI - Ảnh: Reuters

Theo Mira Murati, Giám đốc công nghệ OpenAI, người nói với Reuters rằng công ty tuân thủ luật riêng tư của châu Âu và đang làm việc để đảm bảo với các cơ quan quản lý. Cô giải thích rằng các tính năng mới bắt nguồn từ nỗ lực kéo dài nhiều tháng nhằm đưa người dùng "vào vị trí người điều khiển" liên quan đến thu thập dữ liệu và không bắt nguồn từ lệnh cấm ChatGPT của Ý.

Theo Mira Murati, "chúng tôi sẽ ngày càng di chuyển nhiều hơn theo hướng ưu tiên quyền riêng tư của người dùng, với mục tiêu là hoàn toàn tách biệt và các mô hình phải hoạt động theo cách bạn muốn."

Theo Mira Murati, thông tin người dùng hỗ trợ OpenAI làm cho phần mềm đáng tin cậy hơn và giảm bớt sự thiên vị chính trị, trong số các vấn đề khác nhưng vẫn còn những khó khăn cần giải quyết.

Người dùng có thể tắt Chat History and Training (Lịch sử trò chuyện và Huấn luyện) trong cài đặt và phần xuất dữ liệu của họ nhờ phiên bản ChatGPT được phát hành hôm 25.4.

Nicholas Turley, trưởng phòng sản phẩm OpenAI, minh điều này với chế độ ẩn danh của trình duyệt web. Ông nói rằng công ty sẽ lưu giữ các cuộc hội thoại trong 30 ngày để theo dõi việc lạm dụng trước khi vĩnh viễn.

Ngoài ra, phiên bản ChatGPT dành cho doanh nghiệp sẽ được cung cấp trong những tháng tới và sẽ không sử dụng các cuộc trò chuyện để huấn luyện mô hình AI theo mặc định.

Microsoft đã đầu tư hàng tỷ USD vào OpenAI để cung cấp ChatGPT cho các doanh nghiệp. Theo Mira Murati, dịch vụ này sẽ thu hút các khách hàng hiện tại của Microsoft.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận