Deepfake là gì?
Cụm từ "deepfake" chắc chắn sẽ gợi cho bạn nhớ đến một loại công nghệ cụ thể, ngay cả khi bạn không phải là một người theo dõi quá nhiều thông tin công nghệ, bởi vì khái niệm này gần đây đã được đề cập rộng rãi trên các phương tiện truyền thông.

Theo Kaspersky (Công ty bảo mật của Nga), deepfake là từ ghép lại từ hai chữ "deep" trong deep-learning (học sâu) và "fake" (lừa dối). Deepfake có thể hiểu là một kỹ thuật trí tuệ nhân tạo (A.I) tiên tiến trích xuất dần dần các tính năng cấp cao hơn từ đầu vào có lượng dữ liệu thô mà nó có thể học hỏi từ dữ liệu phi cấu trúc, như khuôn mặt người. Nó thậm chí có thể thu thập dữ liệu về chuyển động vật lý của con người.
Thông qua GAN (Mạng lưới đối thủ sáng tạo), dữ liệu hình ảnh sẽ được xử lý tiếp để tạo video deepfake. đây là một tập hợp con của các máy học chuyên dụng. Hai mạng thần kinh có thể được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin nhằm mục đích huấn luyện A.I (ví dụ: Ảnh chụp khuôn mặt) và sau đó tạo dữ liệu mới có cùng đặc điểm ('ảnh' mới).

Khả năng học hỏi của các A.I luôn được kiểm tra liên tục và so sánh với dữ liệu gốc nhằm mục đích huấn luyện, chính vì vậy hình ảnh được A.I "làm giả" ngày càng trở nên thuyết phục. Điều này khiến cho deepfake trở thành một mối đe lớn hơn bao giờ hết. A.I không chỉ có thể giả mạo hình ảnh mà còn có thể giả mạo các dữ liệu khác, bao gồm cả giọng nói.
Để tung tin giả, hãy sử dụng deepfake?
Về phương thức hoạt động của deepfake theo hướng kỹ thuật, có thể khó giải thích cụ thể. Nhưng có thể hiểu đơn giản rằng deepfake với khả năng học hỏi dữ liệu khuôn mặt, hình ảnh và giọng nói của con người, sẽ khiến khuôn mặt của một người A được gắn lên cơ thể của một người B rất giống thật, đến mức rất khó để nhận ra nếu chỉ nhìn lướt qua.
Một công ty khởi nghiệp A.I có tên Lyrebird đã phát hành bản sao giọng nói của các nhà lãnh đạo Mỹ như ông Trump, ông Obama và bà Hilary Clinton vào năm 2017. Kể từ đó, chất lượng đã được cải thiện đáng kể và thậm chí ứng dụng Lyrebird còn cho phép công chúng sử dụng công khai.
Một video do nam diễn viên Jordan Peele thực hiện, trong đó đội ngũ kỹ thuật viên đã sử dụng cảnh quay thực của ông Barack Obama kết hợp với kỹ thuật dựng video và "deepfake" tạo ra một đoạn phát ngôn giả, trong đó ông Obama sử dụng những lời lẽ không tốt đẹp để nói về ông Trump.
Ngay sau đó, nam diễn viên Jordan Peele đã đăng tải hai nửa video được hợp nhất trông như thế nào với mục đích cảnh báo mọi người về những thủ đoạn tinh vi nhằm tạo ra tin giả mà chúng ta có thể gặp phải trên môi trường internet. Được biết, đội ngũ của nam diễn viên đã mất khoảng 60 giờ đồng hồ để tạo ra video giả nhưng thực tế này.
Từ một bài phát biểu đơn thuần, deepfake đã tạo ra một video mà Mark Zuckerberg thừa nhận rằng Facebook đang đánh cắp dữ liệu người dùng và sẽ điều chỉnh tương lai. Ông Obama không phải là chính khách duy nhất bị deepfake giả mạo, đến cả người sáng lập mạng xã hội Facebook cũng "được" deepfake giả mạo. Mặc dù A.I giả giọng ông Mark Zuckerberg không quá giống trong đoạn video này, nhưng cũng rất khó để nhận ra.

Ảnh NBC News
Tất cả các ví dụ nêu trên đều là những video chỉ chu với độ phân giải cao và độ chi tiết cao, nhưng nếu bạn tin rằng hình ảnh càng sắc nét thì càng dễ lừa đảo, thì có lẽ bạn đã lầm. Bà Nancy Pelosi từng là nạn nhân của một video giả với những phát ngôn giống như một người đang say rượu. Video giả này có chất lượng rất tệ nhưng nhanh chóng thu hút hàng triệu lượt xem trên mạng xã hội, buộc bà Nancy Pelosi phải lên tiếng đính chính ngay sau đó.
Lừa đảo và tống tiền
Vẫn chưa dừng lại ở việc sử dụng deepfake để tung các loạt tin tức giả về chính trị hoặc trả thù cá nhân. Các đối tượng lừa đảo còn sử dụng công nghệ này để tống tiền, chiếm đoạt tài sản.

CEO của một công ty năng lượng bị lừa 243.000 USD chỉ bằng giọng nói của người đứng đầu công ty và yêu cầu chuyển tiền khẩn cấp. Sự giả mạo quá thuyết phục khiến CEO không kịp nghi ngờ và không nghĩ đến việc kiểm tra chéo; thay vào đó, tiền được chuyển đến một tài khoản ngân hàng bên thứ ba thay vì trụ sở chính. Khi "sếp" của anh ta yêu cầu một đợt chuyển tiền khác, CEO chỉ trở nên nghi ngờ. Kẻ giả mạo đã bị phát hiện, nhưng đã quá muộn để lấy lại số tiền 243.000 USD mà anh ta vừa chuyển trước đó.
Một người có tên là Gilbert Chikli đã thực hiện hành vi mạo danh ở Pháp, cùng với việc sao chép tỉ mỉ văn phòng của Bộ trưởng Ngoại giao Jean-Yves le Drian và các đồ đạc trong đó, để lừa đảo các giám đốc điều hành cấp cao hàng triệu EURO. Sau đó, kẻ lừa đảo Gilbert Chikli bị buộc cải trang thành bộ trưởng để yêu cầu các cá nhân giàu có và giám đốc điều hành công ty đưa tiền chuộc nhằm giải thoát các con tin người Pháp ở Syria. Sau đó, hắn ta phải hầu cho hành vi của mình.

Ngoài ra, ổng chủ Facebook đã từng "được" deepfake giả cả khuôn mặt và giọng nói.
Một viễn cảnh mà dường như ai cũng có thể nghĩ đến khi deepfake được tạo ra có tổng tiền bằng các video khiêu dâm. Công cụ cụ cụ cụ thể đã được sử dụng để tống tiền các nữ phóng viên và nhà báo; trường hợp của Rana Ayyub ở Ấn Độ, nữ phóng viên này đã bị ghép mặt vào các video khiêu dâm, sau đó kẻ gian đã sử dụng các video giả này để tống tiền cô.
Mức độ nguy hiểm tăng lên mỗi ngày khi công nghệ ngày càng phát triển và việc tiếp cận deepfake trở nên đơn giản hơn và giá cả ngày càng rẻ hơn. Rất khó để nhận ra deepfake nếu chúng ta không được trang bị đủ kiến thức và thông tin cần thiết.
Làm thế nào để tự bảo vệ trước sâu bệnh?
Không phải người dùng nào cũng có đủ kiến thức về công nghệ thông tin để có thể tự mình nhận ra những video, âm thanh giả tạo bởi A.I. Trước những chiêu trò lửa đảo ngày càng trở nên tinh vi hơn. Do đó, phần lớn các chuyên gia bảo mật cung cấp các đề xuất để phòng ngừa trước các tình huống xấu có thể xảy ra, đặc biệt là việc mở rộng bảo mật các tài khoản trực tuyến.
Tin tưởng nhưng vẫn phải xác minh: Nếu bạn nhận được một đoạn tin nhắn thoại, đặc biệt là tin nhắn liên quan đến việc vay tiền hoặc mượn tài sản cá nhân của bạn. Tốt nhất bạn nên gọi lại bằng số điện thoại mà bạn biết là chính xác để xác nhận rằng đồng nghiệp, người thân đó của bạn đã thực sự gửi yêu cầu bằng tin nhắn thoại, ngay cả khi giọng nói nghe rất quen thuộc và cực kỳ giống thật.

Đừng vội nhấp vào bất kỳ đường link nào: Khi được người thân gửi cho một đường link với những cấu trúc lạ, đừng vội vàng nhấp vào đường link/nút đó. Rất có thể đó là một cái bẫy được trình bày để kẻ lừa đảo có thể chiếm đoạt tài khoản trực tuyến của bạn. Tìm hiểu cách xác minh lại với người đã gửi tin nhắn cho bạn.
Hãy chú ý vào những điều nhỏ nhất: Bạn vẫn nên xem kỹ số điện thoại, email hoặc tài khoản có trùng hợp với người đang thực hiện yêu cầu hay không nếu bạn nhận được cuộc gọi chuyển tiền hoặc video call với nội dung chuyển tiền, dù là người thân thiết hay không. Thông thường, các đối tượng sẽ yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần giống với tài khoản mà họ đang sử dụng.
Hạn chế quyền truy cập vào giọng nói và hình ảnh của bạn: Như chúng ta đã biết, để có thể tạo ra hình ảnh và âm thanh giả, những kẻ lừa đảo sẽ cần các bản ghi âm, hình ảnh hoặc cảnh quay của bạn. Đặt tài khoản của bạn ở chế độ riêng tư hoặc hạn chế sự hiện diện của bạn trên mạng xã hội để ngăn chặn việc dữ liệu hình ảnh, âm thanh của bạn bị sao chép. Chỉ chấp nhận yêu cầu từ những người bạn tin tưởng.
Không những vậy, một số các chuyên gia bảo mật cung cấp lời khuyên để có thể phát hiện ngay cả deepfake, chẳng hạn như sau:
- Chuyển động giật cục, như một đoạn video lỗi
- Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo
- Sự thay đổi liên tục của tông màu da
- Video có những cú nhấp nháy khó hiểu
- Khẩu hình miệng không đồng bộ với lời nói
- Sự tiến triển của các đồ vật kỹ thuật số trong hình ảnh
- Âm thanh và/hoặc video chất lượng thấp
- Nhân vật nói liên tục, không chớp mắt
Deepfake - Hình thức lừa đảo nguy hiểm sẽ trở nên phổ biến hơn trong tương lai?
Chỉ có 3.000 video deepfake mà IBM phát hiện tính đến tháng 6 năm 2019. Nhưng vào tháng 1 năm 2020, con số đó đã tăng lên 100.000. Hơn một triệu video deepfake đã được lưu hành trên Internet tính đến tháng 3 năm 2020.
Theo một nghiên cứu khác từ Deeptrace, đã có 15.000 video deepfake được tạo ra vào tháng 12 năm 2018. Con số này tăng lên 558.000 vào tháng 6 năm 2019 và tăng vọt lên hơn một triệu vào tháng 2 năm 2020.

Ảnh CNBC
Theo nghiên cứu của Deeptrace, có đến 96% video deepfake được sản xuất phục vụ các mục đích không hợp pháp. Những con số không biết nói dối này đang báo động cho chúng ta về một viễn cảnh không mấy tốt đẹp. Các luồng thông tin giả, những trò lừa đảo và các ứng dụng deepfake khác rất có thể sẽ lan truyền trên môi trường internet do công nghệ ngày càng phát triển và việc tiếp cận deepfake ngày càng đơn giản và tốn ít chi phí hơn.
Do đó, hãy cực kỳ cẩn trọng khi sử dụng internet, đặc biệt là với các nền tảng mạng xã hội, nơi mà chúng ta luôn thoải mái chia sẻ rất nhiều thông tin cá nhân và các đối tượng xấu dễ dàng lợi dụng để thực hiện hành vi lừa đảo.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống