Cảnh báo lừa đảo cuộc gọi bằng AI

Cảnh báo lừa đảo cuộc gọi bằng AI

Theo báo cáo của Ủy ban Thương mại Liên bang Mỹ (FTC), các vụ lừa đảo mạo danh đã gây thiệt hại 2,6 tỷ USD vào năm 2022. Các trò lừa đảo mạo danh ngày càng tinh vi hơn do sự xuất hiện của nhiều công nghệ mới. FTC đã thông báo vào tháng 3 rằng những kẻ lừa đảo bắt đầu sử dụng AI để tạo ra các tình huống khẩn cấp nhằm thuyết phục nạn nhân tin rằng thành viên gia đình họ đang gặp nạn để lấy tiền hoặc thông tin cá nhân.

1/4 số người được hỏi cho biết họ từng gặp lừa đảo bằng giọng nói AI trong một cuộc khảo sát vào tháng 4 đối với người trưởng thành ở 7 quốc gia do công ty bảo mật McAfee thực hiện, trong khi 15% nói rằng họ từng gặp phải một vụ lừa đảo tương tự. Những kẻ xấu có thể "vũ khí hóa" AI để trục lợi cá nhân chỉ bằng vài phút kết nối internet và một khoản phí nhỏ. Theo báo cáo của McAfee, kẻ lừa đảo đôi khi chỉ cần 3 giây âm thanh của đối tượng để sao chép giọng nói.

Theo Business Insider, một cuộc gọi từ cha anh hỏi anh có bị tai nạn xe hơi ở Chicago (Mỹ) không đã đến với TikToker 19 tuổi Eddie Cumberbatch. Điều này khiến Eddie vô cùng bất ngờ vì anh ấy chưa từng lái xe trong sáu tháng qua và thậm chí không có xe ở Chicago. Sau khi được bố giải thích, Eddie biết được rằng một kẻ mạo danh đã nói với gia đình rằng anh ấy gặp tai nạn giao thông để lừa tiền. May mắn thay, bố anh đã nghi ngờ về cuộc gọi này ngay lập tức, gọi điện cho con trai để xác minh và nhận ra kẻ xấu đã sử dụng giọng nói được tạo bằng AI để đánh lừa gia đình Cumberbatch.

032121_Blog_Amazon_Digital_FBgraphic.jpg

Với sự bùng nổ của AI, tình trạng lừa đảo qua cuộc gọi đang có xu hướng tăng lên

Chụp màn hình

Eddie Cumberbatch, một người sáng tạo trực tuyến với hơn 100.000 người theo dõi trên TikTok, biết rằng các tài khoản giả mạo bắt chước anh chắc chắn sẽ xuất hiện. Một ngày trước cuộc gọi lừa đảo, một tài khoản giả mạo của Eddie đã xuất hiện trên Instagram và bắt đầu nhắn tin cho gia đình và bạn bè của anh. Eddie đã gọi điện cho những người còn lại trong gia đình để cảnh báo họ về trò lừa đảo và quay video trên TikTok về trải nghiệm của mình để nâng cao nhận thức vì anh ta lo lắng về việc kẻ lừa đảo cố gắng sao chép giọng nói của mình bằng AI.

Trong khi Eddie và gia đình của anh ấy có thể tránh được trò lừa đảo, nhiều nạn nhân của những kẻ lừa đảo được hỗ trợ bởi AI này lại không may mắn như vậy. Và khi công nghệ AI trở nên phổ biến hơn, những trò gian lận này sẽ khó bị phát hiện hơn.

Trang web FTC báo cáo rằng có trường hợp những kẻ lừa đảo giả làm người yêu, nhân viên Sở Thuế vụ Mỹ (IRS), kỹ thuật viên máy tính và thành viên gia đình. Phần lớn các vụ lừa đảo được thực hiện qua điện thoại, nhưng chúng cũng có thể được thực hiện trên mạng xã hội, qua tin nhắn hoặc email. Richard Mendelstein, một kỹ sư phần mềm tại Google, đã nhận được một cuộc gọi dường như tiếng kêu cứu của con gái mình. Mendelstein đã biết mình đã bị lừa sau khi chuyển 4.000 đô la để chuộc con gái và cô ấy vẫn an toàn ở trường trong thời gian qua.

Các vụ lừa đảo bắt cóc ảo trước đây thường sử dụng các bản ghi âm giọng nói phù hợp với độ tuổi và giới tính của con cái nạn nhân, nhắm vào các bậc cha mẹ đang hoảng sợ khi nghe thấy âm thanh của một đứa trẻ đang sợ hãi, ngay cả khi giọng nói đó không thực sự khớp với giọng nói của con họ. Tuy nhiên, AI làm cho giọng nói khó phân biệt hơn. Tờ Washington Post đưa tin vào tháng 3 rằng một cặp vợ chồng Canada đã bị lừa 21.000 đô la sau khi nghe thấy giọng nói kêu cứu do AI tạo ra giống như con trai họ. Trong một trường hợp khác vào năm nay, những kẻ lừa đảo đã sao chép giọng nói của một cô gái 15 tuổi và đóng giả những kẻ bắt cóc để yêu cầu khoản tiền chuộc 1 triệu USD.

Hầu hết chúng ta có thể nghĩ rằng chúng ta sẽ có thể nhận ra giọng nói của người nhà trong tích tắc. Tuy nhiên, theo một cuộc khảo sát của McAfee, khoảng 70% người trưởng thành không biết cách phân biệt giữa giọng nói nhân bản và giọng nói thật. Theo một nghiên cứu năm 2019, bộ não không nhận ra sự khác biệt đáng kể giữa giọng nói thực và giọng nói do máy tính tạo ra. McAfee cũng cho biết 53% người trưởng thành đã chia sẻ dữ liệu giọng nói của họ trực tuyến hàng tuần và ngày càng có nhiều người cung cấp giọng nói thật của họ cho những kẻ lừa đảo. Ngoài ra, McAfee đã phát hiện ra rằng hơn 1/3 nạn nhân trong các vụ lừa đảo bằng AI đã mất hơn 5.000 USD tiền mặt, với 7% mất hơn 5.000 USD. Theo FTC, trong quý 1/2023, nạn nhân của các vụ lừa đảo mạo danh đã mất trung bình 748 USD.

23q2_16_main.jpg

AI có thể bắt chước giọng nói của con người chỉ với một vài thao tác đơn giản.

Chụp màn hình

Theo Steve Grobman, giám đốc công nghệ của McAfee, một trong những điều quan trọng nhất cần lưu ý là những tiến bộ của AI trong năm nay đã đưa công nghệ này đến với nhiều người hơn, bao gồm cả việc thực sự cho phép mở rộng quy mô trong cộng đồng người sử dụng mạng. Để tạo giọng nói giả và deepfake dễ dàng hơn trước đây, tội phạm mạng có thể sử dụng trí tuệ nhân tạo AI. Họ có thể thực hiện một vụ lừa đảo bằng âm thanh giả thực hiện trong 10 phút và nhận được kết quả tương tự như vụ "hẹn hò" online tốn 3 tháng để chờ đợi đối tượng "sập bẫy".

Trước đây, các vụ lừa đảo giả danh cuộc gọi điện thoại dựa trên mức độ cả tin của nạn nhân hoặc khả năng diễn xuất của kẻ lừa đảo. Nhưng giờ đây, AI đã thực hiện phần lớn công việc đó. Các nền tảng âm thanh AI phổ biến như Murf, Resemble và ElevenLabs cho phép người dùng chuyển đổi văn bản thành giọng nói bằng công nghệ tạo giọng nói chân thực. Không chỉ thế, phần lớn các công cụ này đều dễ sử dụng và có bản dùng thử miễn phí. Kẻ lừa đảo chỉ cần tải tệp âm thanh của ai đó lên một trong những trang web này, sau đó sử dụng AI để mô phỏng giọng nói của nạn nhân.

Đối với những cuộc gọi lừa đảo, nạn nhân thường có rất ít thông tin để cung cấp cho cảnh sát điều tra. Ngoài ra, những kẻ xấu có thể hoạt động từ khắp nơi trên thế giới. Hầu hết các vụ việc đều chưa được giải quyết do thiếu nguồn lực cảnh sát và thông tin ít ỏi. Cứ 1.000 trường hợp lừa đảo ở Anh thì chỉ có một trường hợp bị buộc tội.

Tuy nhiên, CTO McAfee khuyên chúng ta nên bình tĩnh và hỏi một số câu mà chỉ người quen ở đầu dây bên kia mới có thể biết câu trả lời khi nhận được cuộc gọi khả nghi. FTC cũng khuyên nên tạm dừng cuộc gọi nếu một người thân nói với bạn rằng họ cần tiền và thử gọi riêng cho thành viên gia đình để xác minh rõ ràng hơn. Ngay cả khi một cuộc gọi đáng ngờ đến từ số của một thành viên trong gia đình, thì cuộc gọi đó cũng có thể bị làm giả.

Chính phủ Mỹ đang cố gắng giảm bớt các hình thức lừa đảo bằng AI. Vào tháng 2, thẩm phán án Tối cao Mỹ Neil Gorsuch nhấn mạnh vẫn còn những hạn chế trong việc ngăn chặn các vụ lừa đảo AI, cụ thể là phần lớn các trang web không phải chịu trách nhiệm pháp lý đối với nội dung do bên thứ ba đăng. Phó tổng thống Mỹ Kamala Harris đã nói với CEO của các công ty công nghệ hàng đầu vào tháng 5 vừa qua rằng họ có trách nhiệm bảo vệ xã hội khỏi những nguy cơ của AI. Tương tự, FTC nói với các doanh nghiệp rằng trước khi đưa ra thị trường, họ phải biết về những rủi ro và tác động của sản phẩm AI.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận