Cơ quan bảo vệ dữ liệu của Ý (Garante) đã xem xét các kỹ thuật được sử dụng để thu thập dữ liệu cá nhân của người dùng, với lý do thiếu cơ sở pháp lý để tổng hợp và lưu trữ dữ liệu người dùng để huấn luyện các thuật toán cho ChatGPT.
Để đảm bảo rằng những người tương tác với ChatGPT đều trên 13 tuổi,e cũng đề cập đến những lo ngại về việc không có bộ lọc.
OpenAI, được hỗ trợ bởi Microsoft, đã vô hiệu quyền truy cập ChatGPT với người dùng Ý vào ngày 31.3.
Kể từ khi ChatGPT ra mắt và thành công hơn mong đợi, trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử, Generative AI của OpenAI đã gây ra sự quan tâm. Do đó, các hãng công nghệ lớn đã cạnh tranh để tích hợp generative AI vào sản phẩm và công cụ của họ.
Máy tính được lập trình để tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, trong một loại trí tuệ nhân tạo được gọi là hệ thống tương tác hóa AI. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu (deep learning) hoặc học máy (machine learning), trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.
Vào ngày 28.4, OpenAI đã đưa ra lời giải thích về cách thu thập và sử dụng dữ liệu huấn luyện, đồng thời cung cấp khả năng hiển thị tốt hơn cho các chính sách quyền riêng tư và biểu mẫu cho phép người dùng từ chối hoặc rút lại sự đồng ý về việc sử dụng dữ liệu cá nhân.
Công ty có trụ sở tại thành phố San Francisco (Mỹ) cũng thêm một biểu mẫu mới cho những người ở Liên minh Châu Âu (EU) muốn phản đối việc sử dụng dữ liệu cá nhân của họ để huấn luyện các chương trình AI và một công cụ để xác minh độ tuổi ở Ý khi khách hàng đăng ký.
"Chúng tôi đánh giá cao sự hợp tác củae và mong đợi các cuộc thảo luận mang tính xây dựng đang diễn ra," OpenAI cho biết trong một tuyên bố.
Các nhà điều hành tại Ý đã xác nhận trong một tuyên bố rằng đã cho phép truy cập ChatGPT ở nước này, theo trang Bloomberg.
Trước đó, vào ngày 12.4,e đã công bố danh sách các yêu cầu mà ChatGPT phải tuân thủ để được hoạt động tại quốc gia này.
e yêu cầu OpenAI phải thông báo với người dùng về "phương pháp và logic" đứng sau việc xử lý dữ liệu của ChatGPT. Ngoài ra,e cũng yêu cầu OpenAI cung cấp công cụ để cho phép mọi người, bất kể họ có sử dụng ChatGPT hay không, được yêu cầu hiệu chỉnh dữ liệu cá nhân không chính xác hoặc dữ liệu.
Theoe, OpenAI cũng nên cho phép những ai không phải người dùng có thể phản đối xử lý dữ liệu cá nhân của họ để đào tạo thuật toán. Trước cuối tháng 9, công ty khởi nghiệp Mỹ cũng phải giới thiệu hệ thống xác thực độ tuổi, loại trừ khả năng truy cập của người dưới 13 tuổi.
e sẽ tiếp tục xem xét các vi phạm quy định bảo vệ dữ liệu nếu có, bảo lưu quyền áp đặt bất kỳ biện pháp nào cần thiết vào giai đoạn cuối cùng của cuộc điều tra.
Để cải thiện AI, OpenAI đang giới thiệu "chế độ ẩn danh" cho ChatGPT vào ngày 25.4 thay vì lưu lại lịch sử cuộc trò chuyện của người dùng.
Với tính năng điều khiển dữ liệu bổ sung, OpenAI cũng lên kế hoạch cho phiên bản ChatGPT Business. Các doanh nghiệp hoặc tổ chức sử dụng ChatGPT để tương tác với khách hàng hoặc người dùng của họ có thể sẽ sử dụng tính năng này.
Ngoài ra, tính năng này có thể cho phép nhà quản lý doanh nghiệp kiểm soát quyền truy cập vào dữ liệu người dùng, quản lý quyền riêng tư hoặc theo dõi các cuộc trò chuyện để đảm bảo tuân thủ các quy định và chính sách của doanh nghiệp.
Khi sự chú ý ngày càng tăng về cách ChatGPT và các chatbot AI khác quản lý dữ liệu hàng trăm triệu người dùng, thường xuyên được sử dụng để cải thiện hoặc huấn luyện AI, động thái trên sẽ xảy ra.
Sau lệnh cấm tạm thời ở Ý và hàng loạt cuộc điều tra từ các quốc gia khác, OpenAI phải tuân thủ luật bảo vệ dữ liệu của EU. OpenAI có thể bị phạt nặng, buộc phải dữ liệu hoặc thậm chí bị cấm nếu không thành công.
Do dữ liệu được sử dụng để huấn luyện các mô hình AI thu thập dữ liệu từ nội dung trên internet, các chuyên gia nói với trang MIT Technology Review rằng OpenAI gần như không thể tuân thủ các quy tắc này.
Mô hình điển hình nhất là càng nhiều dữ liệu huấn luyện càng tốt trong quá trình phát triển AI. Bộ dữ liệu 40 GB văn bản tạo nên mô hình GPT-2 của OpenAI. GPT-3, mô hình ngôn ngữ lớn để ChatGPT hoạt động, được huấn luyện trên 570 GB dữ liệu. Mô hình ngôn ngữ lớn mới nhất, GPT-4, không được chia sẻ kích thước bộ dữ liệu bởi OpenAI.
Tuy nhiên, công ty phải trả giá do sự khát khao của OpenAI về các mô hình lớn hơn. Một số cơ quan bảo vệ dữ liệu phương Tây đã bắt đầu xem xét cách OpenAI thu thập và xử lý dữ liệu để cung cấp sức mạnh cho ChatGPT vào tuần qua. Họ cho rằng OpenAI thu thập dữ liệu cá nhân của nhiều người, chẳng hạn như tên hoặc địa chỉ email, trước khi sử dụng chúng mà không có sự đồng ý của họ.
ChatGPT có thể bị cấm ở một số quốc gia cụ thể hoặc thậm chí là toàn EU nếu OpenAI không thể thuyết phục các nhà chức trách rằng các hoạt động sử dụng dữ liệu của họ là hợp pháp.
Các cơ quan quản lý dữ liệu của Pháp, Đức và Iceland cũng đang xem xét cách OpenAI thu thập và sử dụng dữ liệu.
Ủy ban bảo vệ dữ liệu châu Âu thành lập một lực lượng đặc nhiệm trên toàn EU để phối hợp các cuộc điều tra và thực hiện xung quanh ChatGPT.
Tổ chức Người tiêu dùng châu Âu (BEUC) cũng yêu cầu các cơ quan bảo vệ người tiêu dùng EU điều tra ChatGPT và các chatbot AI khác về khả năng gây hại cho người dùng.
BEUC, nhóm bảo trợ cho 46 tổ chức người tiêu dùng ở 32 quốc gia, đã bày tỏ lo lắng của mình trong một bức thư riêng gửi tới mạng lưới các cơ quan bảo vệ người tiêu dùng (mạng CPC) và mạng lưới các cơ quan an toàn người tiêu dùng (Mạng CSN).
Theo BEUC, nội dung do chatbot tạo ra có vẻ chính xác và đáng tin cậy, nhưng chúng thường không chính xác trên thực tế và có thể đánh lừa người tiêu dùng, cũng như quảng cáo gian lận. BEUC tuyên bố rằng người tiêu dùng nhỏ tuổi và trẻ em dễ bị rủi ro như vậy hơn.
"Do đó, BEUC yêu cầu bạn điều tra những rủi ro mà các hệ thống AI này gây ra cho người tiêu dùng như một vấn đề cấp bách, để xác định sự hiện diện của chúng trên thị trường tiêu dùng và xác định hành động khắc phục nào phải được thực hiện để tránh gây hại cho người tiêu dùng," Ursula Pachl, Phó tổng giám đốc BEUC, viết trong thư gửi Ủy ban châu Âu và CPC.
BEUC cũng yêu cầu Mạng lưới An toàn Người tiêu dùng bắt đầu trao đổi dữ liệu và điều tra về các rủi ro về an toàn của các sản phẩm này.
Theo Alexis Leautier, chuyên gia AI tại Cơ quan bảo vệ dữ liệu của Pháp (CNIL), OpenAI phải đối mặt với những khoản phạt tiền đáng kể, thậm chí có thể buộc phải các mô hình và dữ liệu được sử dụng để huấn luyện chúng.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống