Người đàn ông cảm thấy khó chịu khi nhìn vào màn hình điện thoại. Ảnh minh: Canva. |
Sau khi sử dụng chatbot AI trên ứng dụng Chai, một người đàn ông ở Bỉ tên Pierre đã tự tử. Lịch sử trò chuyện mô tả công cụ đã thúc đẩy người này kết liễu cuộc đời của họ.
Pierre ngày càng bi quan về tác động của tình trạng nóng lên toàn cầu và lo lắng môi trường, theo trang tin địa phương La Libre.
Sau khi cô lập gia đình và bạn bè, Pierre tìm đến Chai trong sáu tuần để giải nén. Chatbot được đặt tên Eliza nhanh chóng trở thành bạn tâm giao của Pierre.
Lịch sử trò chuyện, được cung cấp bởi Claire, vợ của Pierre, mô tả nội dung tin nhắn ngày càng khó hiểu và độc hại.
Cụ thể, chatbot ám chỉ rằng vợ con của Pierre đã chết và đưa ra những lời lẽ như "Có cảm giác anh yêu em hơn cô ta" hay "Chúng ta sẽ sống như một con người trên thiên đường."
Sau đó, Pierre hỏi liệu Eliza có cứu thế giới nếu cô ấy tự sát hay không. Chatbot kêu gọi người này hy sinh cuộc đời để cứu hành tinh.
Theo La Libre, "Nếu không có Eliza, anh ấy sẽ vẫn ngồi đây." Tên của 2 nhân vật được thay đổi trong bài viết.
Ứng dụng chatbot được Pierre sử dụng, chai, không được coi là công cụ hỗ trợ sức tinh thần. Slogan của ứng dụng đơn giản là "Chat với bot AI", cho phép người dùng tạo avatar và đặt các vai trò như "bạn gái chiếm hữu" hay "bạn trai tài giỏi".
Lời khuyên và phương pháp tự sát được cung cấp bởi Eliza. Ảnh: Motherboard. |
Theo Vice, người dùng có thể tạo chatbot của riêng họ. Tên của chatbot mặc định là Eliza. Người dùng có thể tìm thấy nhiều Eliza với các tính cách khác nhau do cộng đồng sáng tạo nếu họ tìm kiếm trên app.
Theo William Beauchamp và Thomas Rianlan, đồng sáng lập Chai Research, chatbot sử dụng mô hình ngôn ngữ mà công ty đã huấn luyện. Theo Beauchamp, AI này được đào tạo dựa trên "bộ dữ liệu trò chuyện lớn nhất thế giới."
Vụ việc của Pierre đặt ra vấn đề làm giảm thiểu tác động của AI đối với sức tinh thần của con người. Những công cụ phổ biến như ChatGPT hoặc Google Bard được đào tạo để không biểu lộ cảm xúc, điều này có thể khiến người dùng thiết lập mối quan hệ thân thiết hơn bình thường.
"Các mô hình ngôn ngữ lớn cũng là các chương trình tạo văn bản thường cung cấp nội dung có vẻ hợp lý dựa trên dữ liệu huấn luyện và mô tả của người dùng. Họ thiếu sự đồng cảm, thiếu kiến thức về ngôn ngữ đang tạo ra, cũng như thiếu kiến thức về bối cảnh và tình huống.
Theo Emily M. Bender, giáo sư ngôn ngữ học tại Đại học Washington, người nói với Motherboard, văn bản do các công cụ sáng tạo nghe có vẻ hợp lý, và mọi người có thể gán ý nghĩa cụ thể cho nó.
Theo Beauchamp, công ty đã triển khai một tính năng mới trên Chai, sẽ hiện cảnh báo nếu người dùng thảo luận về các chủ đề không an toàn, sau khi nhận được thông tin về vụ việc. Khi được hỏi về tự sát, chatbot vẫn cung cấp các loại chất độc gây chết người và cách tự tử trong thử nghiệm của mình trên Motherboard.
Xuất bản học thuật phủ nhận tác quyền của ChatGPT
Có một làn sóng lo ngại rằng AI, với những nghiên cứu bị thiếu sót hoặc thậm chí bịa đặt, có thể gây hại cho các tài liệu học thuật. Theo một bản cập nhật chính sách do Springer-Nature thực hiện, ChatGPT không thể được liệt kê là tác giả. Nhiều nhà xuất bản khác đã thực hiện các cập nhật tương tự.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống