Sử dụng AI giả giọng người thân gặp nạn, gọi điện lừa tiền

Sử dụng AI giả giọng người thân gặp nạn, gọi điện lừa tiền

Chủ đề công nghệ được quan tâm nhất hiện nay là trí tuệ nhân tạo (AI). Sau màn ra mắt đình đám của ChatGPT, Microsoft và Google là những ông lớn công nghệ theo sau để không bỏ lỡ làn sóng AI với phiên bản Bing tích hợp AI và chatbot Bard hoàn toàn mới.

Các công cụ AI này dần bộc lộ mặt trái đáng báo động, mặc dù có tiềm năng rất lớn để trả lời mọi câu hỏi của người dùng, làm thơ, viết code hoặc tạo hình ảnh chỉ từ vài dòng mô tả. Gần đây, chúng đã bị các nhóm lừa đảo lợi dụng để lừa tiền của những người thiếu cảnh giác, ít hiểu biết về công nghệ.

Suýt bị lừa vì tưởng nhầm là cháu trai xin tiền

Cặp vợ chồng già Ruth Card (73 tuổi) và Greg Grace (75 tuổi) đã nhận được một cuộc gọi từ "cháu trai Brandon", nói rằng anh ta đang ở trong tù nhưng không có ví hoặc điện thoại. Anh ta cần tiền để giải và thả ra.

Mặc dù là số lạ, giọng nói của người ở đầu dây bên kia rất giống với giọng nói của cậu bé, khiến bà Card sốt sắng gửi tiền cho cậu bé. "Tôi rất sợ hãi nên chỉ nghĩ được rằng phải giúp cháu mình ngay lập tức.

Cặp vợ chồng già đã rút được 3.000 CAD (2.207 USD), là số tiền tối đa mà một người có thể rút tiền từ tài khoản ngân hàng của họ, sau đó họ có thể rút tiền nhiều hơn từ chi nhánh tiếp theo.

Tuy nhiên, một quản lý ngân hàng đã gọi họ vào văn phòng nơi nói rằng ngân hàng đã nhận được cuộc gọi tương tự và phát hiện ra đây chỉ là kẻ lừa đảo, giả mạo giọng nói cháu trai của họ. Lúc này, bà Card và ông Grace mới biết rằng người ở đầu dây bên kia không phải là con trai mình.

Gia giong lua tien anh 1

Mọi người cần cảnh giác với các cuộc gọi mượn tiền từ người thân hoặc bạn bè. Ảnh: Wric.

"Lúc đó, chúng tôi mới tỉnh ra. Chúng tôi đã nhầm kẻ đó là cháu trai Brandon, Brandon của mình, "bà Card nói.

Theo Washington Post, trường hợp mà bà Card gặp phải đã dấy lên một hình thức lừa tiền tinh vi hơn hẳn do số lượng các trò lừa đảo mạo danh ngày càng tăng. Với hơn 36.000 vụ việc được báo cáo vào năm 2022, đây là trò lừa đảo được sử dụng nhiều nhất ở Hoa Kỳ.

Phần lớn các nhóm lừa đảo giả làm bạn bè, gia đình của nạn nhân. Trong đó, 5.100 vụ lừa đảo được thực hiện dưới hình thức gọi điện thoại, dẫn đến thất thoát 11 triệu USD, theo thống kê của Ủy ban Thương mại Liên bang Hoa Kỳ (FTC).

Công nghệ phát triển đã giúp các nhóm người xấu dễ dàng bắt chước giọng nói, mạo danh là người thân đang gặp khó khăn mà nạn nhân thường là những người lớn tuổi. Hàng loạt công cụ trực tuyến giờ đây có thể bắt chước giọng nói của một người chỉ từ một tệp âm thanh bình thường và thậm chí có thể nói bất kỳ nội dung nào mà người dùng nhập vào với sự hỗ trợ từ AI.

Theo các chuyên gia, chính quyền và các cơ quan chức năng vẫn chưa thể cập nhật hình thức lừa đảo tinh vi này. Do đó, phần lớn nạn nhân không thể nhận ra mình đang bị lừa, trong khi các cảnh sát khó truy vết các cuộc gọi hoặc giao dịch chuyển tiền vì nhóm tội phạm này nằm rải rác khắp nơi trên thế giới.

Cách tiếp tay cho tội phạm của AI

Loại mà những kẻ xấu này thường sử dụng nhất là mạo danh người thân, thường là con cái, người yêu hoặc bạn bè của nạn nhân, đồng thời nài nỉ họ gửi tiền bằng cách nói rằng họ đang gặp cảnh túng quẫn.

Tính chuyên nghiệp và nguy hiểm của chiêu trò này được tăng lên nhờ những giọng nói được tạo lập bởi AI. Khi các AI có thể tạo văn bản, hình ảnh hoặc âm thanh dựa trên dữ liệu được cung cấp trước, đây chính là mặt tối của chúng.

Các phần mềm tạo giọng nói hoạt động bằng cách tìm kiếm trong kho dữ liệu khổng lồ một giọng nói tương tự và dự đoán các mẫu hội thoại cần tạo ra sau khi phân tích các đặc trưng giọng nói của một người, bao gồm độ tuổi, giới tính và ngữ điệu.

Do đó, chúng có thể tái tạo cao độ, âm sắc của một người và tạo ra một giọng nói hoàn chỉnh giống như bản gốc. Kho dữ liệu này thường bao gồm các đoạn âm thanh từ YouTube, TikTok, Instagram, Facebook hoặc các podcast, video quảng cáo...

"Bạn cần rất nhiều tệp âm thanh để bắt chước giọng nói của một người cách đây vài năm. Nhưng giờ đây, chỉ cần bạn từng xuất hiện trên Facebook hoặc TikTok, bất cứ ai cũng có thể giả giọng bạn bằng AI, theo Giáo sư Hany Farid tại Đại học California.

Gia giong lua tien anh 2

AI cũng có thể bắt chước giọng nói của ai đó. Ảnh: Security Intelligence.

Một trong những phần mềm giả lập giọng nói bằng AI nổi tiếng nhất là EvenLabs, cung cấp nhiều gói dịch vụ từ miễn phí đến 5 USD hay 330 USD/tháng. Phần mềm này đã nhận được nhiều lời chỉ trích vì bị lạm dụng để "nhét chữ vào miệng" người nổi tiếng, ghép vào các video khiến họ phát ngôn bậy bạ như thật.

Trong một bài đăng Twitter, EvenLabs tuyên bố rằng họ đang thực hiện các biện pháp bảo mật để giảm bớt tình trạng lạm dụng cho mục đích xấu, chẳng hạn như cấm người dùng chỉnh giọng nói miễn phí, ra mắt công cụ phát hiện giọng giả từ AI...

Mất trắng 15.000 USD vì nhẹ dạ

Tuy nhiên, những gợi ý trên vẫn chưa đủ. Khi bố mẹ của Benjamin Perkin mất hàng nghìn đô la vì lừa đảo bằng giọng nói, anh là nạn nhân của phần mềm này. Một hôm, bố mẹ Perkin nhận được một cuộc gọi từ một người tự xưng là luật sư, điều này bắt nguồn từ giấc mơ của họ.

Người này nói rằng con trai họ đã gây ra tai nạn xe và khiến một người tử vong. Anh ta cần tiền cho các thủ tục pháp lý ngay bây giờ khi đang ngồi trong tù.

Sau đó, luật sư này đã chuyển máy cho Benjamin Perkin, người nói rằng anh ta cần tiền. Vài tiếng sau, vị luật sư giả mạo lại gọi bố mẹ Perkin một lần nữa và yêu cầu 21.000 CAD (15.449 USD) trước khi lên tòa.

Mặc dù cảm thấy có điều bất thường, hai vợ chồng vẫn không khỏi lo lắng và cứ nghĩ rằng con trai mình đang gặp nguy hiểm. Perkin nói rằng lời nói đó giống như thật đến mức bố mẹ tôi nghĩ rằng họ đang thực sự nói chuyện với tôi. Để lấy tiền, bố mẹ cậu đã đến nhiều ngân hàng khác nhau. Sau đó, họ gửi cho vị luật sư này qua cổng chuyển tiền Bitcoin.

Cặp vợ chồng mới biết mình đã bị lừa khi "Perkin thật" gọi điện. Gia đình anh sau đó đã nhanh chóng báo cảnh sát nhưng vẫn không thể lấy lại số tiền. "Trên thực tế, toàn bộ số tiền đã không cánh mà bay. Không bảo hiểm. Không cách nào lấy lại. Perkin nói: "Chúng tôi đã mất trắng rồi."

Theo Will Maxson, Phó giám đốc mảng chiêu thức tiếp thị tại Ủy ban Thương mại Liên bang (FTC), việc lần theo dấu những tội phạm lừa đảo bằng giọng nói rất khó vì họ có thể làm giả định vị điện thoại ở bất cứ đâu. Do đó, ông khuyên mọi người nên cẩn thận và cảnh giác hơn.

Nếu người thân yêu cầu tiền, đừng làm theo lời họ nói ngay lập tức; thay vào đó, hãy gọi đến những thành viên khác trong gia đình để xác nhận. Đó vẫn có thể là một trò lừa đảo cho dù cuộc gọi đến từ số người thân trong nhà. Theo Maxson, mọi người không nên gửi tiền mặt hoặc các hình thức khác vì việc này rất khó và mọi người nên cảnh giác với mọi yêu cầu gửi tiền mặt.

Nhân loại sẽ đối đầu với trí tuệ nhân tạo như thế nào

Trong cuốn sách "Framers - Nhân loại đối đầu nhân tạo", các tác giả cho rằng con người vẫn có lợi thế trong thời đại công nghệ.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận