Mấy ngày nay mạng xã hội đang lan truyền thủ đoạn giả tạo video giả và giả giọng người thân để lừa đảo. Deepfake là tên của thủ đoạn này. Vậy, Deepfake là gì? Tại sao có thể giả giọng, mặt người thân để lừa đảo?
Deepfake là gì?
Sự kết hợp giữa "deep learning" và "fake" được gọi là "Deepfake." Công nghệ này được phát triển trên nền tảng mã nguồn mở của Google dành cho Machine Learning. Khi được sử dụng bởi AI, Deepfake sẽ quét video và ảnh chân dung của một người trước khi hợp nhất với video riêng biệt. Sau đó, AI sẽ thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt và giọng nói như thật. AI có thể học được nhiều dữ liệu hơn khi có nhiều hình ảnh gốc hơn. Với độ chân thực đến kinh ngạc, Deepfake có thể chuyển khuôn mặt của người này sang người khác trong video.
Là "bóng ma" trong thế giới Internet được sử dụng để lừa đảo, thao túng thị trường, Deepfake hiện đang trở thành nỗi ám ảnh.
Vì những nguy cơ tiềm tàng, Deepfake bắt đầu được cộng đồng quan tâm ở Việt Nam. Tại hội thảo Tech Talks do VnExpress Các chuyên gia công nghệ nổi tiếng, như CEO Bkav Nguyễn Tử Quảng, CEO Microsoft Phạm Thế Trường..., đã chia sẻ góc nhìn về Deepfake cũng như cảnh báo nguy cơ bảo mật và cách hạn chế rủi ro trong kỷ nguyên kết nối. tổ chức từ 13h đến 18h ngày 8/1.
Cách thức hoạt động của Deepfake
Quá trình "học" của trí tuệ nhân tạo là cách thức hoạt động của Deepfake. Từ đó, khuôn mặt của một đối tượng nhất định (tạm gọi là đối tượng A) với chất lượng cao được thay thế hoàn toàn bằng khuôn mặt của đối tượng khác (đối tượng B).
Bộ giải mã của B nhận được hình ảnh nén của A. Khuôn mặt của người B sau đó được tái tạo lại với biểu cảm và hướng khuôn mặt của người A. Quá trình này được thực hiện liên tục, chi tiết cho đến khi sản phẩm "thật" nhất được tạo ra.
Tại sao Deepfake có thể giả giọng và mặt người thân để lừa đảo?
Các đối tượng đã sử dụng chiêu lừa đảo tinh vi hơn để vay tiền thông qua hình thức giả cuộc gọi video. Nắm bắt được tâm lý người dùng mạng xã hội hiện cảnh giác với chiêu trò lừa đảo bằng tin nhắn nhờ chuyển tiền.
Thủ đoạn của các đối tượng lừa đảo là lấy những video cũ của người dùng, cắt ghép hoặc sử dụng công nghệ deepfake để khi thực hiện hành vi lừa đảo sẽ phát lại video dưới hình thức mờ ảo, chập chờn như đang ở nơi sóng yếu.
Phương thức của các đối tượng này, theo các chuyên gia về công nghệ, thường là tìm kiếm thu thập dữ liệu cá nhân được đăng tải công khai trên các tài khoản mạng xã hội để tạo ra một kịch bản lừa đảo. Khi nạn nhân cẩn thận gọi điện thoại hoặc video để kiểm tra, họ sẽ sử dụng phần mềm cắt ghép hình ảnh để đánh lừa.
Cơ quan chức năng nhiều lần cảnh báo người dân phải đặc biệt cảnh giác với thủ đoạn lừa đảo tinh vi này. Khi ai đó đề nghị mượn tiền, người dân nên thận trọng xem đó có phải là bạn bè, người thân của họ hay không.
Gần đây, các nạn nhân đã bị lừa đảo bằng các hình thức giả danh Facebook, hack Facebook Ngày càng có xu hướng gia tăng các đối tượng lừa đảo trên toàn quốc. Thủ đoạn cực kỳ tinh vi, có thể xảy ra với bất cứ ai và bất cứ thời điểm nào, các đối tượng lừa đảo sử dụng. Các đối tượng lừa đảo gọi cuộc gọi video call để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ để yêu cầu chuyển tiền đóng học phí hoặc có thể giả làm nhân vật nào đó khi kết bạn hẹn hò qua mạng để phục vụ cho các kịch bản chúng chuẩn bị sẵn.
Khi nhận bất kỳ tin nhắn vay tiền nào qua mạng xã hội, người dân phải gọi trực tiếp cho người thân để xác minh. Công an địa phương liên tục đưa ra các khuyến cáo với người dân. Nếu nghi ngờ đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ và xử lý kịp thời.
Bổ ích
Xúc động
Sáng tạo
Độc đáo
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống