Cảnh báo lừa đảo bằng giả khuôn mặt, giọng nói

Cảnh báo lừa đảo bằng giả khuôn mặt, giọng nói

Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân và bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến. Nhiều chuyên gia công nghệ thông tin đã cảnh báo về tình trạng này

Trò chuyện khá tự nhiên khi phát sóng trực tiếp, nhưng chúng chỉ là những hình ảnh hoàn toàn do AI tạo ra. Anh Quang, một người chuyên sử dụng các ứng dụng AI để phục chế video, nhận thấy rằng công nghệ này đang có sự tiến bộ vượt trội trong việc giả mạo giọng nói, gương mặt—thường được gọi là Deepfake.

"Một năm trước, tôi sử dụng một đoạn phim ngắn 2–3 phút, mất vài ba ngày. Tuy nhiên, giờ đây chỉ cần một bức ảnh hoặc một video là chúng ta có ngay một đoạn video của một nhân vật nổi tiếng. Theo anh Viên Hồng Quang, chuyên viên phục chế hình ảnh, máy sẽ tự tạo ra đoạn video đó nếu chỉ cần một bức ảnh và một video ở góc máy tương đương.

Một thư ký người Anh nhận được cuộc gọi khẩn của Chủ tịch tập đoàn vào tháng 3/2019. Giọng nói cùng phong thái quen thuộc của vị CEO khiến người nhân viên này không nghi ngờ gì mà chuyển ngay số tiền 220.000 Bảng Anh, tương đương với hơn 6 tỷ đồng.

Theo bà Marie Chistine Kragh từ Công ty Bảo hiểm Euler Hermes, "chúng tôi thấy các dấu hiệu rõ ràng từ vụ lừa đảo này là có sự can thiệp của công nghệ trí tuệ nhân tạo khi làm giả giọng nói y hệt để lừa các nạn nhân."

Một người đàn ông đã bị lừa 20 triệu đồng ở Việt Nam khi bị đối tượng lừa đảo giả dạng khuôn mặt và giọng nói của bạn mình và yêu cầu chuyển tiền.

Anh Đặng Anh Quang, sống ở quận Hai Bà Trưng, Hà Nội, cho biết: "Đối tượng cũng gọi video, đúng khuôn mặt luôn vậy, nhưng tôi nhận thấy có mỗi cái miệng đang mấp máy. Tôi cứ nghĩ rằng mạng bị lag; chỉ gọi được vài giây, vì vậy tôi cũng tin rằng nó đang quá tải. Sau đó, họ đã gửi số tài khoản của tôi và tôi đã tự động chuyển tiền.

Theo Anh Vũ Ngọc Sơn, Giám đốc kỹ thuật của Công ty Công nghệ an ninh mạng quốc gia Việt Nam, "Video clip được sản xuất từ Deepfake sẽ không có chất lượng tốt, tương đối mờ và giọng nói không rõ ràng." Nếu để ý kỹ, người sử dụng có thể phát hiện ra rằng các nhân vật trong clip thường ít quay mặt, đưa tay lên mặt hoặc chớp mắt. Đó là những hành động mà Deepfake chưa thể làm giả hoàn toàn giống như người bình thường.

Thu thập dữ liệu từ chính hình ảnh và giọng nói của người dùng là một nguyên tắc của Deepfake. Các giải pháp siết chặt Deepfake, trong đó nêu rõ các yêu cầu nghiêm ngặt về việc cung cấp dữ liệu cá nhân, hiện được Châu Âu và Trung Quốc áp dụng. Ngoài ra, người dùng cần lưu ý khi đăng tải ảnh và giọng nói của mình trên không gian mạng tại Việt Nam.

Bộ TT&TT cảnh báo dấu hiệu lừa đảo trực tuyến bằng cuộc gọi video Deepfake Bộ TT&TT cảnh báo dấu hiệu lừa đảo trực tuyến bằng cuộc gọi video Deepfake

VTV.VN - Theo Bộ Thông tin và Truyền thông, có nhiều dấu hiệu giúp nhận biết cuộc gọi lừa đảo Deepfake, bao gồm khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán...

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận