AI giả giọng thành người thân, nạn nhân mất trắng 15.000 USD

 

Theo Washington Post, tội phạm công nghệ bước lên tầm cao mới nhờ những bước tiến trong công nghệ trí tuệ nhân tạo (AI). Giờ đây chúng có thể giả giọng bất cứ thành viên nào trong gia đình bạn, thực hiện cuộc gọi "kêu cứu" và lấy tiền của nạn nhân trong sự ngỡ ngàng của chính họ.

Gia đình anh Perkin, người Canada 39 tuổi, đã trải qua cơn ác mộng này. Một người tự nhận là luật sư đã gọi cho cha mẹ anh và nói rằng anh ta đã gây ra vụ tai nạn xe hơi khiến một nhà ngoại giao Mỹ tử vong. Perkin được cho là đang bị giam giữ và yêu cầu 21.000 CAD (hơn 15.000 USD) chi phí pháp lý.

AI giả giọng thành người thân, nạn nhân mất trắng 15.000 USD  - 1

Lừa đảo qua giả giọng nói bằng AI ngày càng trở nên phổ biến. (Ảnh minh: Washington Post)

Người này chuyển máy cho Perkin, thực chất là kết nối với thiết bị AI giả giọng, để tăng độ tin cậy.

Perkin giả mạo nói rằng anh ta chỉ biết gọi cho cha mẹ và cần tiền. Cha mẹ tôi nghĩ rằng đó là tôi vì giọng nói đủ gần gũi., anh Perkin nói với Washington Post.

Vài giờ sau, vị luật sư hối thúc cha mẹ Perkin chuyển tiền trước khi Perkin ra, vì vậy họ đã ra ngân hàng rút tiền và gửi 15.449 đô la cho vị luật sư giả mạo. Cha mẹ của Perkin tuyên bố rằng mặc dù họ cảm thấy cuộc gọi "có gì đó bất thường", nhưng họ vẫn làm theo vì họ tin rằng họ đang nói chuyện với con trai mình. Khi Perkin gọi điện vào tối hôm đó, mọi thứ đều không rõ ràng.

Anh Perkin nghi ngờ rằng các video mà anh ấy đăng trên YouTube là nguồn âm thanh giả tạo cho kẻ lừa đảo sử dụng AI để giả giọng.

Gia đình Perkin đã báo cảnh sát với chính quyền liên bang Canada, nhưng các hành động pháp lý này không giúp họ lấy lại tiền đã mất. "Tiền đã mất. Không có bảo hiểm, việc lấy lại là không thể., anh Perkin nói.

Tương tự, một buổi sáng, bà Ruth Card, 73 tuổi ở Regina (Canada), nhận được cuộc gọi từ một người đàn ông có giọng giống như cháu bà, anh Brandon. Kẻ lừa đảo nói rằng anh Brandon đang bị tạm giam, không có điện thoại để liên lạc và cần một số tiền để được tại ngoại.

"Trong đầu tôi lúc đó chỉ lóe lên ý tưởng rằng tôi cần giúp đứa trẻ ngay lập tức,", bà Ruth Card nói với Washington Post.

Ngay lập tức, bà cùng chồng - ông Greg Grace (75 tuổi) - vội đi đến ngân hàng và rút 3.000 CAD (2.207 USD), số tiền tối đa bà có thể rút mỗi ngày. Để lấy được số tiền tương tự, cả hai định rút qua ngân hàng thứ hai.

May mắn cho họ là vị giám đốc ngân hàng đã gọi cả hai người vào văn phòng và thông báo rằng một khách hàng khác cũng nhận được cuộc gọi giống hệt, cũng bị giả giọng người thân với mức độ "chính xác đến kỳ lạ".

Đó là khi họ phát hiện ra mình bị lừa. Cả hai sau đó đã gọi điện cho anh Brandon và được biết rằng con mình không hề bị bắt.

AI giả giọng thành người thân, nạn nhân mất trắng 15.000 USD  - 2

Khi tin rằng con trai mình đang gặp nạn, bà Ruth Card cùng chồng suýt nữa trở thành nạn nhân của những kẻ lừa đảo. (Ảnh: Washington Post)

"Không tìm hiểu thấu đáo câu chuyện, chúng tôi bị cuốn theo câu chuyện." Khi đó, tôi nghĩ rằng mình đang nói chuyện với Brandon mà không hề nghi ngờ. bà Card cho hay.

Các vụ lừa đảo công nghệ đã tăng lên theo thời gian, nhưng câu chuyện của bà Card hay Perkin cho thấy một xu hướng mới đáng lo ngại - kẻ gian đang lợi dụng AI để bắt chước giọng nói để lừa tiền. Số nạn nhân ngày càng tăng do công nghệ này ngày càng rẻ, dễ tiếp cận.

Theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), giả mạo danh tính là loại lừa đảo phổ biến thứ hai ở Hoa Kỳ trong năm 2022, với hơn 36.000 trường hợp được báo cáo. Để khiến nạn nhân mắc lừa, tội phạm thường giả mạo bạn bè hoặc gia đình của họ. Hơn 5.100 trường hợp được báo cáo là lừa đảo qua điện thoại, tiêu tốn hơn 11 triệu USD.

Sự tiến bộ của AI theo thời gian bao gồm nhiều lĩnh vực phát triển, nhưng nó cũng là công cụ để kẻ xấu khai thác. Kẻ gian có thể chuyển đổi trí tuệ nhân tạo thành bản sao giọng nói của một người chỉ bằng một mẫu âm thanh trong một vài câu nói thu thập được. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và chuyển đổi thành phương tiện lừa đảo.

Theo các chuyên gia đánh giá, công cụ AI giả giọng nói đang được sử dụng rộng rãi, nhưng các cơ quan quản lý vẫn loay hoay với việc kiểm soát chúng. Vì kẻ lừa đảo hoạt động trên toàn thế giới nên hầu hết nạn nhân đều khó xác định thủ phạm. Các công ty sản xuất AI cũng không phải chịu trách nhiệm về việc chúng bị kẻ khác lạm dụng.

"Thật đáng sợ. Mọi thứ tạo thành cơn bão, khiến nạn nhân rơi vào hỗn loạn., Giáo sư Hany Farid tại Đại học California nhận xét. "Kẻ gian sẽ buộc nạn nhân phải phản ứng nhanh chóng, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm."

Cũng theo ông, phần mềm AI hiện đại đủ thông minh để phân tích giọng nói của một người.

"Chỉ cần một bản ghi âm từ Facebook, TikTok, giọng nói của bạn sẽ được sao chép chỉ trong 30 giây", giáo sư Farid nói.

Công ty đứng sau VoiceLab, công cụ AI tái tạo giọng nói, ElevenLabs cảnh báo ngày càng nhiều phần mềm giả giọng có mặt trên thị trường, dẫn đến tình trạng lạm dụng.

Will Maxson, người hiện làm việc tại Ủy ban Thương mại liên bang FTC, cho biết việc theo dõi kẻ lừa đảo giọng nói "đặc biệt khó khăn" vì chúng có thể sử dụng điện thoại và ở bất kỳ đâu. Theo ông, người dùng phải kiểm tra bằng cách gọi lại cho chính người đang gặp sự cố, cũng như gọi cho các thành viên khác trong gia đình để xác minh thông tin, nếu nhận cuộc gọi từ người lạ hoặc từ người thân nhờ hỗ trợ.

Trà Khánh(Nguồn: The Washington Post)

Bổ ích

Xúc động

Sáng tạo

Độc đáo

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống