Cảnh báo ChatGPT trở thành vũ khí lừa đảo mới

Cảnh báo ChatGPT trở thành vũ khí lừa đảo mới

Theo một công ty an ninh mạng đang triển khai AI để chống lại mối đe này, AI tạo sinh đang tạo ra một số rủi ro an ninh mạng, đặc biệt là trong các vụ lừa đảo qua mạng thường xuyên ở Hồng Kông.

Cảnh báo ChatGPT trở thành vũ khí lừa đảo mới - 1

Các email lừa đảo và các cuộc gọi giả giọng do trí tuệ nhân tạo thực hiện đang trở nên tinh tế hơn và khó phát hiện hơn. (Ảnh: Shutterstock)

Những kẻ lừa đảo ở Hong Kong đã lừa mọi người 4,8 tỷ đô la Hồng Kông (611,5 triệu đô la Mỹ) thông qua các cuộc trò chuyện trực tuyến, cuộc gọi điện thoại và tin nhắn văn bản. Những kiểu lừa đảo này đang trở nên khó phát hiện hơn do âm thanh, video và văn bản do AI tạo ra.

Kim-Hock Leow, Giám đốc điều hành châu Á của Wizlynx Group, một công ty dịch vụ an ninh mạng có trụ sở tại Sĩ, nói rằng sự xuất hiện của các công cụ AI tạo sinh như ChatGPT sẽ cho phép một số loại lừa đảo trở nên phổ biến và hiệu quả hơn.

Ông cho biết: "Chúng ta có thể thấy rằng việc bắt chước giọng nói và video đang trở nên chân thực hơn và nó có thể được sử dụng bởi những kẻ đang tìm cách đánh cắp dữ liệu và an ninh mạng của công ty."

Trước sự gia tăng của hình thức lừa đảo qua mạng, các chính phủ đã bắt đầu hành động. Cục Công an Thành phố Bắc Kinh đã cảnh báo trong một tuyên bố trên WeChat vào tháng 2 rằng những kẻ lừa đảo có thể sử dụng AI để "phạm tội và lan truyền tin đồn". Ủy ban Thương mại Liên bang Hoa Kỳ cũng cảnh báo rằng những kẻ lừa đảo sử dụng giọng nói AI tạo sinh để mạo danh mọi người chỉ bằng một đoạn âm thanh ngắn về giọng nói của họ từ trực tuyến vào tháng 3.

Kim-Hock Leow nói thêm: "Mọi người đều có khả năng bị tấn công lừa đảo, nhưng chúng dễ dàng bị phát hiện do độ dài, lỗi chính tả hoặc do chúng thiếu bối cảnh liên quan đến bạn và công việc của bạn. Tuy nhiên, giờ đây, tội phạm mạng có thể tăng cường độ phức tạp cho các email lừa đảo của chúng bằng cách sử dụng các mô hình ngôn ngữ AI mới."

Sử dụng một công cụ như ChatGPT để truy quét và chuyên nghiệp hóa ngôn ngữ của tin nhắn là phương pháp được sử dụng để thực hiện các hành vi lừa đảo. Điều này có thể đòi hỏi phải nhanh chóng tiến hành nghiên cứu cơ bản để bổ sung thông tin nhằm cá nhân hóa email lừa đảo.

Để chống lại những hành vi lừa đảo tinh vi này, các công ty tài chính hiện nay đang tự triển khai ChatGPT. Họ sử dụng chatbot để tạo email lừa đảo cho mục đích đào tạo chống gian lận, xác định các lỗ hổng và tiến hành nghiên cứu về các hệ thống an ninh mạng.

Theo ông Leow, các chuyên gia an ninh mạng có thể sử dụng nó để nhận dạng chính xác các khu vực dễ bị tổn thương và rủi ro của hệ thống bảo mật dựa trên kiến thức và dữ liệu mà AI có thể thu thập và tạo ra theo thời gian.

Ông nói thêm: "Chúng tôi phải khuyến khích các chuyên gia an ninh mạng và các chuyên gia khác sử dụng ChatGPT để tăng cường khả năng phòng thủ. Theo một cách nào đó, nó sẽ là con dao hai lưỡi sẽ được sử dụng cho cả tội phạm mạng và an ninh mạng.

Các điều khoản dịch vụ từ OpenAI, công ty sản xuất ChatGPT, nghiêm cấm việc sử dụng công nghệ của họ cho các mục đích bất hợp pháp. Tuy nhiên, ông Leow tuyên bố rằng vẫn tồn tại nguy cơ cho những kẻ xấu có thể vượt qua bộ lọc của ChatGPT.

Theo một báo cáo từ Cybersecurity Ventures, tội phạm mạng được dự đoán sẽ gây thiệt hại 8 nghìn tỷ đô la Mỹ trên toàn cầu trong năm nay, bao gồm tiền bị đánh cắp, mất mát tài sản và giảm năng suất.

Một cuộc chạy đua vũ trang AI có thể xảy ra trong lĩnh vực an ninh mạng trước mối đe này. Theo ông David Fairman, giám đốc thông tin khu vực châu Á - Thái Bình Dương của Netskope, "Trong thời gian tới, chúng ta sẽ thấy các nhóm an ninh nắm bắt một cách hiệu quả AI để cải thiện nhận dạng mối đe và tự động hóa phần lớn quá trình phòng thủ."

Khánh Ly(Nguồn: SCMP)

Bổ ích

Xúc động

Sáng tạo

Độc đáo

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận