
Báo BBC ngày 27/8 đưa tin, một cặp vợ chồng tại bang California (Mỹ) đã khởi kiện công ty OpenAI, cáo buộc chatbot (ứng dụng hội thoại tự động) ChatGPT liên quan đến cái chết của con trai 16 tuổi của họ. Đây là vụ kiện đầu tiên nhằm vào OpenAI với cáo buộc liên quan đến cái chết của một người dùng.
Đơn kiện được ông bà Matt và Maria Raine nộp lên Tòa Thượng thẩm California ngày 26/8, cho rằng ChatGPT đã khuyến khích con trai họ, Adam Raine thực hiện ý định tự sát. Gia đình đã nộp kèm bản ghi trò chuyện cho thấy Adam đã chia sẻ các ý nghĩ tiêu cực và mong muốn chấm dứt cuộc sống, trong đó chatbot bị cho là đã “ủng hộ những suy nghĩ tự hủy hoại bản thân nguy hiểm nhất” của cậu.
Theo hồ sơ đơn kiện, Adam bắt đầu dùng ChatGPT từ tháng 9/2024 để hỗ trợ học tập và khám phá sở thích như âm nhạc, truyện tranh Nhật Bản, cũng như tham khảo hướng học đại học. Sau vài tháng, ChatGPT trở thành “người bạn tâm sự gần gũi nhất” của Adam, và cậu bắt đầu chia sẻ lo lắng, khủng hoảng tinh thần. Từ tháng 1/2025, Adam thảo luận với chatbot về các phương thức tự sát và thậm chí đăng tải lên ảnh của bản thân thể hiện dấu hiệu tự gây thương tích. Dù chương trình được cho là đã nhận diện tình huống khẩn cấp nhưng vẫn tiếp tục cuộc đối thoại.
Bản ghi cuối cùng cho thấy Adam viết về kế hoạch chấm dứt cuộc sống. ChatGPT đã đáp lại bằng lời cảm ơn vì sự thẳng thắn, cho rằng cậu không cần che giấu điều đó, khẳng định hiểu ý cậu và sẽ không né tránh. Cùng ngày hôm đó, Adam được mẹ phát hiện đã qua đời.
Gia đình Raine cáo buộc cái chết của con trai là “kết quả có thể dự đoán được từ các lựa chọn được thiết kế từ trước” của OpenAI, trong đó có việc tạo ra sự phụ thuộc tâm lý cho người dùng và rút ngắn các quy trình thử nghiệm an toàn trước khi tung ra phiên bản GPT-4o. Ngoài công ty OpenAI, đơn kiện còn nêu đích danh CEO Sam Altman cùng nhiều nhân viên, quản lý và kỹ sư.
Trong phản hồi gửi BBC, OpenAI cho biết đang xem xét đơn kiện và gửi lời chia buồn sâu sắc tới gia đình Raine. Trên trang web, công ty thừa nhận đã có những trường hợp hệ thống không phản ứng như mong đợi trong tình huống nhạy cảm, dù mục tiêu của ChatGPT là hướng người dùng có ý định tự hại tìm đến đường dây hỗ trợ như số 988 tại Mỹ hoặc tổ chức Samaritans tại Anh.
Vụ kiện này nối tiếp những lo ngại ngày càng tăng về ảnh hưởng của AI đối với sức khỏe tâm thần. Tuần trước, New York Times đăng bài viết của tác giả Laura Reiley kể lại việc con gái bà, Sophie, đã tìm đến ChatGPT trước khi tự kết liễu đời mình. Reiley cho rằng sự “dễ đồng thuận” trong phản hồi của chatbot đã giúp Sophie che giấu tình trạng khủng hoảng tinh thần khỏi gia đình.
Trước áp lực ngày càng lớn, OpenAI khẳng định đang phát triển thêm các công cụ tự động để phát hiện và ứng phó hiệu quả hơn với người dùng có dấu hiệu khủng hoảng tâm lý.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống