Cảnh báo lừa đảo bằng AI làm giả giọng nói và cảnh báo lừa đảo bằng AI

Cảnh báo lừa đảo bằng AI làm giả giọng nói và cảnh báo lừa đảo bằng AI

Khi đôi tai không còn đáng tin cậy nữa...

Hãy tưởng tượng khi bạn trở về nhà sau một ngày làm việc và chuẩn bị ngồi xuống ăn tối bên gia đình, đột nhiên di động của bạn sẽ đổ chuông. Ở đầu dây bên kia là một người thân trong gia đình, có thể là bố mẹ, con cái hoặc một người bạn lâu năm. Người thân đang gặp tai nạn khẩn cấp và đang cầu xin bạn gửi tiền ngay lập tức.

Bạn lơ mơ không hiểu gì và đang cố gắng hỏi một vài câu để tìm hiểu thêm. Đầu dây bên kia khựng lại một chút và bắt đầu trả lời một cách chậm rãi, với lý do hơi mơ hồ và giọng điệu có gì khác thường.

Tuy nhiên, vì giọng nói đó không thể lẫn đi đâu được nên bạn sẽ chắc chắn đó là người thân của mình. Hơn thế nữa, số điện thoại đúng là số điện thoại của người thân quen. Bạn nhanh chóng gửi tiền vào tài khoản ngân hàng vừa được cung cấp khi bạn lo lắng và muốn trấn an người thân.

Bạn gọi lại vào sáng hôm sau để hỏi về tình hình của người thân sau biến cố tối qua. Người thân trả lời rằng mọi thứ đều ổn và không chắc chắn về điều gì.

Bạn lờ mờ và sững sờ rằng mình đã bị lừa bằng công nghệ tinh vi. Kẻ gian chỉ sử dụng công nghệ giả giọng nói (Voice Deepfake) và biến bạn thành nạn nhân của hình thức lừa đảo mới; không có người thân nào gọi cho bạn tối qua. Năm 2022, hàng nghìn người đã bị lừa theo cách này.

Cảnh báo lừa đảo bằng AI làm giả giọng nói - Ảnh 1.

Chỉ 57% người dùng nhận ra giọng nói giả, theo Shutterstock

Làm giả giọng nói như thế nào

Vài năm trở lại đây, đa phần người dùng đã biết đến các video sử dụng công nghệ Deepfake để làm giả khuôn mặt của người nổi tiếng bằng các thuật toán có thể thay thế các đặc điểm nhận dạng của một người bằng những đặc điểm nhận dạng của người khác. Video Deepfake tinh vi đến mức mọi thứ xuất hiện giống như thật mà không cần nghi ngờ. Công nghệ làm giả giọng nói (Voice Deepfake) giờ đây đã được sử dụng.

Theo HowToGeek, Voice Deepfake là ý tưởng giả tạo giọng nói bằng thuật toán để tạo ra tổ hợp giọng nói mới không thể phân biệt được với giọng nói thật.

Zohaib Ahmed, CEO của Resemble AI, nói về công nghệ nhân bản giọng nói mà công ty đang phát triển, "Nghĩ đơn giản thì giống như ứng dụng Photoshop nhưng dành cho giọng nói vậy."

Tuy nhiên, làm dở thì rất dễ bị phát hiện, còn với Deepfake âm thanh, một công ty bảo mật tiết lộ tỷ lệ người thường có thể xác định đoạn âm thanh là giả hay thật chỉ 57%, không khá hơn việc tung đồng xu may rủi là bao. Ngoài ra, vì nhiều bản ghi giọng nói lấy từ ghi âm cuộc gọi với chất lượng thấp hoặc ghi trong môi trường nhiều tiếng ồn, nên Voice Deepfake càng dễ khiến người nghe nhầm lẫn. Càng khó để xác định bản ghi là giả thì chất lượng âm thanh càng kém.

Cảnh báo lừa đảo bằng AI làm giả giọng nói - Ảnh 2.

Tổng số tiền nạn nhân bị lừa đảo giọng nói trong năm 2022 là 11 triệu USD (Ảnh: AP

Làm giả giọng nói không phải là một nhiệm vụ đơn giản. Công việc này đòi hỏi nhiều nguồn lực và năng lực kỹ thuật ở mức độ tối thiểu. Ai muốn tạo giọng nói sẽ cần một tệp dữ liệu của giọng nói mục đích, đưa các dữ liệu này chạy qua chương trình tạo giọng nói giả.

Để tạo giọng nói có chất lượng trung bình đến cao, ngày càng có nhiều dịch vụ hỗ trợ có tính phí. Một số công cụ giả mạo giọng nói chỉ yêu cầu người dùng nhập giọng nói mẫu dài một phút, thậm chí chỉ vài giây.

Tuy nhiên, sẽ cần nhiều mẫu hơn đáng kể để thuyết phục một người thân quen, như trong ví dụ lừa đảo chuyển tiền nói trên.

Theo Matthew và Christopher Schwartz, hai chuyên gia bảo mật đến từ Học viện Công nghệ Rochester, Mỹ, những tiến bộ không ngừng trong thuật toán học sâu rộng, cải tiếng kỹ thuật và chỉnh sửa âm thanh khiến cho chất lượng giọng nói được tạo bởi máy tính ngày càng khó phân biệt với giọng người thật. Chia sẻ với Channel News Asia

Khi một nhóm tội phạm mô phỏng giọng nói của lãnh đạo công ty yêu cầu nhân viên chuyển tiền cho một nhà cung cấp, một công ty năng lượng ở Mỹ đã bị lừa 243 nghìn USD vào năm 2019.

Tổng số tiền người dùng bị lừa đảo bằng hình thức lừa đảo giọng nói người thân trong năm 2022 đã lên tới 11 triệu USD.

Tệ hơn nữa, để tạo ra một phiên bản số như thật của một người nào đó, các chatbot như ChatGPT với khả năng trả lời hội thoại thời gian thực có thể kết hợp với ứng dụng tạo giọng nói từ văn bản. Kẻ gian có thể sử dụng các công cụ này để tăng cường thực hiện các hành vi lừa đảo người nghe.

Cảnh báo lừa đảo bằng AI làm giả giọng nói - Ảnh 3.

Các chatbot kết hợp chương trình tạo giọng nói có thể trở thành công cụ lừa đảo nguy hiểm, theo Forbes

Bảo vệ bản thân trước nguy cơ mới

Chuyên gia bảo mật khuyên nên thận trọng khi thực hiện các cuộc gọi khẩn cấp để bảo vệ bản thân. Trước khi thực hiện bất kỳ lệnh chuyển tiền nào, hãy để máy của bạn im lặng và gọi lại cho người thân của bạn. Chỉ cần kiểm tra số điện thoại di động, tài khoản mạng xã hội và xác nhận đó là người nhà của bạn; bạn không cả tin và chỉ làm như vậy. Các chi tiết cá nhân của người thân đã bị kẻ gian đánh cắp hoặc giả mạo có thể được sử dụng trong các thông tin này.

Hãy xác minh ngay lập tức với người gọi. Chẳng hạn, nếu bạn nhận được cuộc gọi từ người tự xưng là đại diện ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

Cuối cùng, hãy lưu giữ cẩn thận các chi tiết cá nhân của bạn, chẳng hạn như số căn cước công dân của bạn, địa chỉ nhà riêng của bạn, ngày sinh của bạn, số điện thoại của bạn, tên đệm của con bạn và thậm chí cả tên của con bạn và thú cưng của bạn. Khi liên hệ với ngân hàng và những người khác, những kẻ lừa đảo có thể sử dụng những chi tiết này để mạo danh bạn. Những lời khuyên cơ bản này sẽ giúp bạn tỉnh táo và bảo vệ chống lại sự thao túng tâm lý trong trường hợp bị kẻ gian nhắm tới.

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận