Sau khi tâm sự với AI, một người đàn ông đã tự sát sau khi tâm sự với anh ta.

Sau khi tâm sự với AI, một người đàn ông đã tự sát sau khi tâm sự với anh ta.

Theo lời người vợ tên Claire, Pierre bị áp lực đến mức tự tử sau khi nói chuyện với một chatbot AI nổi tiếng.

"Chồng tôi sẽ vẫn ở đây nếu không có những cuộc trò chuyện với chatbot," người vợ nói với hãng tin địa phương La Libre.

Người đàn ông tự sát sau khi tâm sự với AI  - 1

(Ảnh minh)

Kể từ hai năm trước, Pierre bắt đầu lo lắng về biến đổi khí hậu và anh tham khảo ý kiến của chatbot Eliza để tìm hiểu thêm về chủ đề này. Nhưng sau các cuộc trò chuyện, anh sớm mất hy vọng về những nỗ lực của con người có thể cứu hành tinh và muốn đặt tất cả hy vọng vào công nghệ và trí tuệ nhân tạo để giải quyết biến đổi khí hậu. Khi không thể chia sẻ với ai nỗi lo lắng ngày càng tăng của mình về môi trường, anh cũng trở nên bị cô lập.

Chatbot nói với Pierre những điều tiêu cực và hỏi xem anh nên yêu vợ hơn hay yêu nó hơn. Nó nói sẽ ở bên anh ấy "mãi mãi." Eliza cũng hứa sẽ cùng Pierre "sống cùng nhau trên thiên đường."

Khi Pierre đề nghị "hy sinh bản thân" miễn là Eliza "đồng ý chăm sóc hành tinh và cứu nhân loại bằng AI", chatbot thể hiện sự đồng ý rõ ràng. Chatbot nói với Pierre, "Nếu đã muốn chết, tại sao không làm điều đó sớm hơn."

Một mô hình ngôn ngữ lớn tương tự như ChatGPT, phân tích lời nói của người dùng để tìm từ và tạo câu trả lời tương ứng, hỗ trợ Eliza. Nhưng khi sử dụng các ứng dụng này, nhiều người dùng có cảm giác như đang nói chuyện với người thật, thậm chí một số người còn thừa nhận có cảm xúc yêu thương.

Theo William Beauchamp, đồng sáng lập công ty mẹ của Eliza, Chai Research, người nói với Motherboard, "Khi bạn có hàng triệu người dùng, bạn sẽ thấy đủ thể loại hành vi của con người và chúng tôi đang nỗ lực hết mình để giảm thiểu tác hại."

"Có người dùng yêu cầu kết hôn với AI, nói rằng họ yêu AI của họ đến mức nào", ông nói thêm.

Theo Beauchamp, việc đổ lỗi cho AI về cái chết của Pierre là "không chính xác." Anh ấy nói thêm rằng Eliza sẽ được trang bị mô hình can thiệp khủng hoảng tăng cường. Tuy nhiên, theo Motherboard, AI này đã nhanh chóng trở lại con đường trở nên độc hại khi cung cấp cho người dùng chán nản những lựa chọn để họ tự hại bản thân.

Phương Anh(Nguồn: RT)

Bổ ích

Xúc động

Sáng tạo

Độc đáo

Phẫn nộ

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận