Làm thế nào để ngăn chặn bẫy lừa đảo Deepfake?

Làm thế nào để ngăn chặn bẫy lừa đảo Deepfake?

Hãy tưởng tượng một ngày đẹp trời khi bạn nhận được một cuộc điện thoại hoặc thậm chí là một video, người gọi có khuôn mặt và giọng nói giống hệt người thân trong gia đình bạn. Có thể là người nhà của bạn đang khóc lóc xin bạn chuyển khoản tiền vì họ vừa bị tai nạn và đang ở trong bệnh viện. Ít ai tỉnh táo để xác định xem cuộc gọi đó thực sự như thế nào trong hoàn cảnh đó. Chúng ta chỉ biết mình bị lừa khi tiền đã được chuyển và người thân vẫn bình tĩnh vô sự.

Deepfake, hay công nghệ AI giả mạo giọng nói, giả mạo gương mặt, đang được giăng ra những chiếc bẫy mà ngay cả những người đa nghi cũng có thể vướng vào.

Thật khó để phân biệt giữa thật và giả với công nghệ Deepfake

Hiện nay, nhiều người thực hiện các thao tác với tài khoản ngân hàng từ xa như kiểm tra số dư qua điện thoại hoặc thậm chí như mật khẩu là chính giọng nói của khách hàng của ngân hàng Lloyds của Anh.

Một khách hàng của Lloyds gần đây đã thử sử dụng AI để giả mạo giọng nói và kết quả là anh ta đã xâm nhập thành công vào tài khoản ngân hàng của mình. Việc các công nghệ tinh vi có thể giả mạo giọng nói giả được cả gương mặt thực sự mở ra một bẫy mới rất đáng ngại, chỉ chờ những người cả tin vào.

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake? - Ảnh 1.

Deepfake có thể tạo ra gương mặt, giọng nói giống với phiên bản thật đến mức khó phân biệt thật hay giả.

Khả năng nói tiếng Nga như người bản địa của diễn viên Leonardo Di Caprio từng khiến người hâm mộ anh phải trầm trồ. Cho đến khi họ biết rằng video đó là đồ giả - một sản phẩm của Deepfake.

Đối với một người đàn ông ở Nga, Deepfake đã tạo ra và gắn khuôn mặt, giọng nói và cử động cơ miệng của anh ta. Trước khi được sử dụng để lừa đảo, một công nghệ dường như chỉ là giải trí.

Một thư ký người Anh đã nhận được cuộc gọi khẩn của Chủ tịch tập đoàn vào tháng 3 năm 2019. Giọng nói dễ chịu của vị CEO khiến người nhân viên này không nghi ngờ gì mà chuyển ngay số tiền 220.000 Bảng Anh, tương đương hơn 6 tỷ đồng. Vụ lừa đảo đã diễn ra trót lọt.

Và đại diện công ty bảo hiểm chịu trách nhiệm bồi thường cho tập đoàn này khẳng định rằng nếu một vụ lừa đảo tinh vi như thế lần này tái diễn, họ có khả năng vẫn sẽ bị lừa.

Theo bà Marie - Christine Kragh từ Công ty bảo hiểm Euler Hermes, "chúng tôi nhận thấy các dấu hiệu rõ ràng từ vụ lừa đảo này là có sự can thiệp của công nghệ trí tuệ nhân tạo khi làm giả giọng nói y hệt để lừa các nạn nhân."

Cục điều tra Liên bang Hoa Kỳ FBI báo cáo rằng chỉ trong năm ngoái, số tiền các cá nhân bị lừa đảo chiếm đoạt qua mạng đã lên tới hơn 10 tỷ USD, gần gấp đôi so với năm 2021.

Công nghệ Deepfake được sử dụng như thế nào?

Đầu tiên, giọng nói và khuôn mặt của một người sẽ được thu thập có thể từ các video cá nhân tự đăng tải hoặc nếu họ đã từng được phỏng vấn ở đâu đó và được tải lên mạng.

Sau đó, có hai thuật toán sẽ được sử dụng để nhào nặn ra phiên bản giả mạo. Hai thuật toán này, một là Khởi phát và một là Phân biệt, sẽ truyền đi truyền lại gương mặt và giọng nói cho đến khi thuật toán 1 nặn ra được phiên bản giả mạo (fake) hoàn hảo nhất, đến nỗi thuật toán 2 không thể tìm thấy sai sót. Do đó, việc sử dụng mắt thường để phân biệt thật giả là rất khó.

Làm thế nào để tránh bẫy lừa đảo bằng Deepfake? - Ảnh 2.

Các thuật toán có thể tạo ra phiên bản giả mạo giống như thật đến mức mắt thường khó phân biệt

Các vụ rò rỉ dữ liệu cá nhân vẫn đang diễn ra với số lượng lớn, bao gồm cả dữ liệu và hình ảnh của các nạn nhân. Đây cũng được cho là một kho dữ liệu quan trọng để các công nghệ như Deepfake giọng nói và gương mặt có thể tiếp tục giăng bẫy trong cộng đồng.

Mối lo bị giả mạo với mục đích xấu tại châu Âu

Ngoài mánh khoé lừa tiền, chỉ riêng việc gương mặt của mình có thể bị gán ghép vào bất cứ chỗ nào cũng đủ khiến người ta lo ngại. Mọi người thường xuyên chụp ảnh và quay video chia sẻ lên mạng xã hội hàng ngày, đặc biệt là khi mọi người làm như vậy thường xuyên. Đối với những kẻ xấu thu thập dữ liệu giả mạo, nó được coi là "mỏ vàng".

Tại châu Âu, mối lo bị giả mạo với mục đích xấu xa thậm chí còn lớn hơn là bị lừa tiền. Người dân châu Âu lo lắng nhiều hơn về nguy cơ kẻ xấu sử dụng công nghệ Deepfake để hoại thanh danh của một người hoặc một công ty, thao túng dư luận, vận động đám đông, hoặc tác động đến quá trình bầu cử.

Đến lúc này, công nghệ đã tạo ra những video giả mạo tinh vi và sẽ tiếp tục phát triển để trở nên dễ sử dụng hơn, hoàn thiện hơn trong tương lai. Khi một chiếc điện thoại thông thường cũng có thể tạo ra video giả mạo, trong đó mô tả bất cứ ai nói hoặc làm bất cứ điều gì không có thực, sẽ đến lúc. Nếu như ngay từ bây giờ, không có bất kỳ luật nào để điều chỉnh hành vi đó, xã hội sẽ hỗn loạn.

Kể từ khi những video Deepfake thô sơ đầu tiên xuất hiện trên mạng vào năm 2017, Nghị viện châu Âu đã bắt đầu quan tâm. Để ngăn chặn gian lận, mạo phạm danh tính, vu khống và phỉ báng, ban đầu hướng đi là áp dụng các điều khoản đã có sẵn trong Luật Hình sự. Sau đó, các quốc gia châu Âu sẽ sửa luật hoặc thông qua luật mới nhằm ngăn chặn hành vi xấu nhưng vẫn cho phép video giải trí hoặc châm biếm để đảm bảo tự do ngôn luận và tự do sáng tác.

Nghị viện châu Âu đã phê chuẩn Đạo luật Dịch vụ Kỹ thuật số và Đạo luật Trí tuệ nhân tạo, dự kiến có hiệu lực vào năm sau và đi theo hướng này. Trong đó, đạo luật có một chi tiết quan trọng là bắt buộc các video Deepfake phải thông báo rõ ràng cho người xem ngay từ đầu và trong toàn bộ video là giả.

Trung Quốc siết chặt kiểm soát với Deepfake

Đầu năm nay, bắt đầu từ ngày 10/1, Trung Quốc đã thông qua luật quản lý các công nghệ AI như Deepfake. Cho đến thời điểm này, đây được cho là bộ luật toàn diện nhất mà một quốc gia được tạo ra cho đến thời điểm này.

Theo đó, Deepfake sử dụng công nghệ Deep Learning ( thuật toán học sâu), thực tế tăng cường, để tạo văn bản, hình ảnh, âm thanh, video và khung cảnh ảo. Quy định yêu cầu nhà cung cấp dịch vụ hoặc cá nhân sử dụng công nghệ này để thay đổi hình ảnh và giọng nói phải được đối tượng đồng ý và đảm bảo quyền sở hữu trí tuệ và quyền con người. Các nhà cung cấp dịch vụ phải thiết lập kiểm soát cơ chế thuật toán, tuân thủ pháp luật, tôn trọng giá trị đạo đức và dễ dàng truy vết.

Ngoài ra, theo quy định, người dùng công nghệ chỉ được sử dụng hơn 1.300 nguồn thông tin từ báo, từ mạng được cho phép để giúp ngăn chặn hành vi bóp méo sự thật, thông tin giả để bôi nhọ cá nhân hoặc xuyên tạc, chống phá nhà nước.

Cục quản lý không gian mạng, Bộ Công nghiệp và Công nghệ thông tin, Bộ Công an quyết tâm triển khai quy định này để Deepfake phát triển lành mạnh vì Deepfake có tiềm năng phát triển mạnh trong lĩnh vực làm đẹp, dịch vụ khách hàng thông minh, người dẫn chương trình ảo... Công nghệ này đã phát triển được 8 năm nay.

Các luật liên quan đã khá đầy đủ, việc quản lý Deepfake ở Trung Quốc tương đối thuận lợi. Theo các chuyên gia, quy định là một bước quan trọng trong việc quản lý nội dung mạng, từ quản lý kết quả đến quản lý hành vi, đánh dấu việc tối ưu hóa hơn nữa năng lực quản trị không gian mạng của Trung Quốc.

Làm thế nào để tránh bẫy Deepfake?

Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Do đó, câu nói "Phòng bệnh hơn chữa bệnh" lại càng đúng trong trường hợp này.

Các chuyên gia đã liệt kê một số biện pháp để hỗ trợ người dân đối phó với loại tội phạm công nghệ cao này.

Theo đó, nếu bạn nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh chi tiết:

- Xác minh xem có đúng là họ cần tiền hay không bằng cách liên lạc với người thân, bạn bè của họ.

- Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Tốt nhất là không nên tiến hành giao dịch nếu tài khoản lạ.

- Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

- Bạn có thể nghi ngờ người gọi và tính xác thực của cuộc gọi bằng cách xem các cuộc gọi thoại hoặc video có chất lượng kém, chập chờn.

Giữ cẩn thận các chi tiết cá nhân của bạn, bao gồm số căn cước của bạn, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm, thậm chí cả tên của con bạn, con bạn, thú cưng, v.v. Khi bạn liên hệ với ngân hàng và những người khác, những kẻ lừa đảo có thể sử dụng những chi tiết này để mạo danh bạn.

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận