Hình ảnh trí tuệ nhân tạo (AI) có thể được sử dụng để tạo nghệ thuật, thử nghiệm quần áo trong phòng thử đồ ảo hoặc hỗ trợ thiết kế chiến dịch quảng cáo.
Tuy nhiên, các chuyên gia lo ngại mặt tối của các công cụ dễ tiếp cận này có thể làm trầm trọng thêm vấn đề chủ yếu gây hại cho phụ nữ: nội dung khiêu dâm không có sự đồng thuận.
Sự kết hợp giữa deep learning và fake đã tạo ra thuật ngữ "deepfake". Sau khi quét các video và ảnh chân dung của một người cụ thể, deepfake sẽ kết hợp hình ảnh với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật. Video giả mạo có độ chân thực cao và hoạt động chính xác hơn khi có nhiều video gốc và hình ảnh. Theo các chuyên gia, deepfake giờ đây đã đủ tiên tiến để người xem nói chung có thể phân biệt giữa nhiều video giả với thực và có thể sử dụng nó mà không cần chuyên môn.
Khi một người dùng Reddit chia sẻ các video đặt khuôn mặt các nữ minh tinh lên đầu các diễn viên khiêu dâm, những nội dung khiêu dâm được tạo ra bằng deepfake đã bắt đầu lan truyền trên Internet vài năm trước.
Kể từ đó, những người tạo deepfake đã tạo các video và hình ảnh có thể so sánh được nhắm mục tiêu đến những người có ảnh hưởng trực tuyến, nhà báo và các cá nhân khác có hồ sơ công khai. Có hàng ngàn video trên rất nhiều trang web.
Một số dịch vụ cung cấp cho người dùng cơ hội tạo ảnh hoặc video khiêu dâm giả mạo ai đó mà không cần sự đồng ý của họ. Ngay cả việc hãm hại bạn tình cũ của họ cũng được thực hiện bằng công nghệ này.
Theo các chuyên gia, khi việc tạo ra các công cụ deepfake tinh vi và hấp dẫn về mặt hình ảnh trở nên đơn giản hơn, vấn đề ngày càng trở nên tồi tệ hơn. Họ lập luận rằng với sự phát triển của các công cụ generative AI được đào tạo dựa trên hàng tỷ hình ảnh từ internet và nội dung mới được tạo ra bằng cách sử dụng dữ liệu hiện có, vấn đề có thể trở nên tồi tệ nhiều hơn.
Theo Adam Dodge, người sáng lập EndTAB, nhóm cung cấp các đào tạo về vấn đề lạm dụng công nghệ, "thực tế là công nghệ sẽ tiếp tục sinh sôi nảy nở, sẽ tiếp tục phát triển và trở nên đơn giản như việc nhấn nút. Chừng nào điều đó còn xảy ra, chắc chắn có người sẽ tiếp tục lạm dụng công nghệ đó để gây hại cho người khác, chủ yếu thông qua bạo lực tình dục trực tuyến, nội dung deepfake khiêu dâm và ảnh khỏa thân giả mạo."
Thành phố Perth của Úc Noelle Martin đã trải qua trải nghiệm thực tế đó. Người phụ nữ 28 tuổi này đã tìm thấy deepfake khiêu dâm của mình 10 năm trước khi quyết định sử dụng Google để tìm hình ảnh của mình.
Noelle Martin cho đến nay vẫn không biết ai đã tạo ra những bức ảnh hoặc video giả mạo cảnh cô quan hệ tình dục. Noelle Martin tin rằng ai đó đã lấy một bức ảnh đăng trên mạng xã hội của cô hoặc những nơi khác và biến nó thành nội dung khiêu dâm.
Noelle Martin đã liên hệ với các trang web khác nhau trong nhiều năm trong nỗ lực gỡ bỏ những hình ảnh gây sợ hãi đó. Một số trang không phản hồi. Những trang khác đã gỡ ảnh xuống, nhưng Noelle Martin sớm tìm thấy nó trở lại.
"Bạn không thể thắng. Điều này sẽ luôn luôn tồn tại, giống như nó sẽ hoại bạn vĩnh viễn, Noelle Martin nói.
Vấn đề thậm chí còn trở nên tồi tệ hơn khi Noelle Martin lên tiếng. Một số người thậm chí còn nói với Noelle Martin rằng cách cô ăn mặc và đăng ảnh lên mạng xã hội dẫn đến việc cô bị deepfake - về cơ bản là đổ lỗi cho cô về những hình ảnh đó thay vì người tạo ra chúng.
Cuối cùng, Noelle Martin chuyển sự chú ý sang pháp luật; theo luật quốc gia Úc, các công ty sẽ bị phạt 555.000 đô la Úc (370.706 đô la) nếu không tuân thủ yêu cầu nội dung như vậy từ cơ quan quản lý an toàn trực tuyến.
Tuy nhiên, khi các quốc gia có luật riêng và nội dung đôi khi được thực hiện ở nửa vòng trái đất, việc quản lý Internet gần như là không thể. Noelle Martin, hiện là nhà nghiên cứu pháp lý tại Đại học Tây Úc, nói rằng cô ấy nghĩ rằng vấn đề này cần được kiểm soát thông qua một số giải pháp toàn cầu.
Trong khi đó, một số mô hình AI đã hạn chế quyền truy cập vào các hình ảnh khiêu dâm.
Theo OpenAI, nội dung khiêu dâm đã bị khỏi dữ liệu được sử dụng để đào tạo công cụ tạo hình ảnh DALL-E. Do đó, người dùng không thể tạo các loại hình ảnh đó. Ngoài ra, công ty đã lọc các yêu cầu và ngăn người dùng tạo ảnh AI của các chính trị gia nổi bật và nổi tiếng.
Midjourney, một mô hình AI khác, khuyến khích người dùng gắn cờ các hình ảnh có vấn đề cho người kiểm duyệt và ngăn việc sử dụng một số từ cụ thể.
Công cụ Stable Diffusion của công ty khởi nghiệp Stability AI đã được cập nhật vào tháng 11.2022, loại bỏ khả năng tạo hình ảnh khiêu dâm. Những thay đổi này xảy ra sau khi có báo cáo cho biết một số người dùng đang tạo tranh khỏa thân lấy cảm hứng từ người nổi tiếng bằng Stable Diffusion.
Theo Motez Bishara, người phát ngôn của Stability AI, bộ lọc này sử dụng các từ và phương pháp khác như nhận dạng hình ảnh để nhận dạng hình ảnh và trả về hình ảnh mờ.
Tuy nhiên, vì Stability AI phát hành mã nguồn của phần mềm cho công chúng nên người dùng có thể can thiệp vào Stable Diffusion và điều chỉnh các chọn của họ. Theo Motez Bishara, giấy phép của Stability AI "bao gồm cả các ứng dụng của bên thứ ba được tạo dựa trên Stable Diffusion được sử dụng mà không bị lạm dụng cho mục đích bất hợp pháp hoặc không đạo đức."
Để bảo vệ nền tảng của họ tốt hơn trước nội dung có hại, một số công ty truyền thông xã hội cũng thắt chặt các quy định của họ.
Vào tháng trước, TikTok đã cảnh báo tất cả nội dung deepfake hoặc bị chỉnh sửa hiển thị các cảnh thực tế phải được gắn nhãn để cho biết chúng là giả mạo hoặc thay đổi theo một cách nào đó, đồng thời không cho phép deepfake về những người không nổi tiếng và trẻ em.
Trước đây, TikTok đã cấm nội dung khiêu dâm, deepfake, khiến người xem hiểu sai các sự kiện trong thế giới thực và gây hại.
Sau khi một streamer nổi tiếng mang tên Atrioc bị phát hiện mở trang web khiêu dâm trên trình duyệt trong một buổi livestream cuối tháng 1, nền tảng trò chơi Twitch gần đây đã cập nhật chính sách về các hình ảnh deepfake. Trang web này cũng hiển thị các hình ảnh giả mạo của các streamer Twitch khác.
Mặc dù Twitch đã cấm các deepfake rõ ràng từ trước, nhưng hiện nay, việc chỉ hiển thị một phần nội dung như vậy, ngay cả khi được sử dụng để bày tỏ sự phẫn nộ, sẽ bị loại bỏ và thực thi quy tắc, theo bài đăng trên blog công ty. Việc cố tình quảng bá, tạo hoặc chia sẻ nội dung như vậy là cơ sở để bị cấm ngay lập tức.
Các doanh nghiệp khác cũng đã cố gắng ngăn chặn deepfake khỏi nền tảng của họ, nhưng việc ngăn chặn chúng đòi hỏi sự cẩn trọng.
Apple và Google gần đây đã một ứng dụng khỏi App Store và Play Store vì chạy các video deepfake gợi dục của các nữ diễn viên để quảng cáo sản phẩm.
Ứng dụng bị Google và Apple cũng chạy quảng cáo trên nền tảng của Meta Platforms, bao gồm Facebook, Instagram và Messenger.
Theo Dani Lever, người phát ngôn Meta Platforms, chính sách của công ty hạn chế nội dung người lớn do AI và không phải AI tạo ra cũng như hạn chế fanpage ứng dụng này quảng cáo trên nền tảng của mình.
Công cụ trực tuyến có tên Take It Down, cho phép thanh thiếu niên báo cáo các hình ảnh và video khiêu dâm của chính họ từ internet, đã bắt đầu được sử dụng vào tháng 2 bởi Meta Platforms cùng với các trang web dành cho người lớn như OnlyFans và Pornhub.
Trang này hỗ trợ báo cáo cả hình ảnh thông thường và nội dung do AI tạo ra, điều mà các nhóm bảo vệ trẻ em ngày càng phát hiện ra là một mối quan ngại lớn.
Gavin Portnoy, phát ngôn viên của Trung tâm Quốc gia về Trẻ em mất tích và bị bóc lột, đơn vị vận hành công cụ Take It Down, cho biết: "Khi mọi người hỏi lãnh đạo cấp cao của chúng tôi những vấn đề quan trọng nhất đang lo ngại là gì? Đầu tiên là mã hóa đầu cuối và những tác động của nó đối với việc bảo vệ trẻ em. Thứ hai là AI và cụ thể là deepfake. Chúng tôi vẫn chưa thể đưa ra phản ứng trực tiếp với nó.
Mặc dù nghiên cứu về deepfake khiêu dâm không phổ biến, nhưng một báo cáo của công ty AI DeepTrace Labs công bố vào năm 2019 cho thấy nó gần như được sử dụng để chống lại phụ nữ và những cá nhân bị nhắm mục tiêu nhiều nhất là nữ diễn viên phương Tây, tiếp theo là ca sĩ K-pop (Hàn Quốc).
Theo quy tắc cập nhật của Liên minh châu Âu (EU), các công ty công nghệ như Google, Facebook và Twitter sẽ phải thực hiện các biện pháp để chống lại các hành vi lừa đảo deepfake và tài khoản giả mạo trên nền tảng của họ hoặc có nguy cơ bị phạt nặng. Theo hãng tin Reuters, Ủy ban châu Âu đã công bố quy tắc cập nhật về thông tin sai lệch vào tháng 6.2022 như một phần trong chiến dịch trấn áp tin tức giả mạo. Quy tắc tự nguyện, sẽ trở thành một chương trình đồng quy định với trách nhiệm được chia sẻ giữa các cơ quan quản lý và các bên ký kết, sẽ được cập nhật vào năm 2018. Các bên ký kết có liên quan sẽ thông qua, củng cố và thực hiện các chính sách rõ ràng liên quan đến các hành vi và thực tiễn thao túng không thể chấp nhận được trên các dịch vụ của họ, dựa trên bằng chứng mới nhất về các hành vi và chiến thuật, kỹ thuật cùng thủ tục (TTP) được sử dụng bởi những kẻ xấu, theo tài liệu EU. Quy tắc này cũng sẽ được liên kết với các quy tắc cứng rắn của EU được gọi là Đạo luật Dịch vụ Kỹ thuật số (DSA), đã được 27 quốc gia EU thông qua hồi tháng 4 năm 2022. Theo Thierry Breton, Giám đốc ngành công nghiệp.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: 1thegioi.vn
Tham gia bình luận