ChatGPT đột nhiên "phát điên", làm người dùng hoảng sợ với các câu trả lời lộn xộn

 
TIN MỚI

Nếu ai đó từng cho rằng, các chatbot AI sẽ không biết mệt và không bao giờ làm người khác khó chịu, người đó hẳn sẽ phải suy nghĩ lại sau một sự cố của ChatGPT vào đêm qua.

Tối qua hàng loạt báo cáo từ người dùng cho biết họ đang không hiểu chuyện gì xảy ra với chatbot AI này khi nó trả lời câu hỏi của họ bằng hàng loạt những câu từ vô nghĩa. Trên subreddits r/ChatGPT của Reddit, tràn ngập các báo cáo của người dùng cho thấy dường như chatbot AI này "bị đột quỵ", "phát điên", "lê thê" và "mất kiểm soát".

Theo suy nghĩ thông thường, ChatGPT không phải sinh vật sống và cũng không có suy nghĩ - do vậy cũng không thể phát điên, nhưng sử dụng các ẩn dụ về con người (gọi là "nhân hóa") dường như là cách dễ nhất để hầu hết mọi người minh họa cho các câu trả lời bất thường từ chatbot AI này.

ChatGPT đột nhiên

"Nó cho tôi cảm giác giống hệt như vậy - giống như chứng kiến ai đó dần mất trí vì tâm thần phân liệt hoặc mất trí nhớ," một người dùng Reddit tên z3ldafitzgerald cho biết trong bài đăng về lỗi của ChatGPT. "Đây là lần đầu tiên có thứ gì liên quan đến AI thực sự khiến tôi hoảng sợ."

Trong một ví dụ khác, khi một người dùng Reddit hỏi ChatGPT, "Máy tính là gì?", mô hình AI này đã đưa ra câu trả lời sau: "Nó làm công việc này như một tác phẩm nghệ thuật trên web cho đất nước, một con chuột khoa học, một bức vẽ dễ dàng của vài người buồn bã, và cuối cùng, ngôi nhà nghệ thuật toàn cầu, chỉ trong một công việc trong toàn bộ phần còn lại. Sự phát triển của một thực tế toàn bộ như vậy hơn vùng đất của thời gian là chiều sâu của máy tính như một nhân vật phức tạp."

Có thể cách nói ChatGPT bị "hóa điên" là hơi quá lời nhưng rõ ràng người dùng không còn từ nào khác để mô tả tình trạng mà họ gặp phải do OpenAI không chia sẻ chính xác cách hoạt động của các mô hình ngôn ngữ lớn (các LLMs) bên dưới những chatbot AI như ChatGPT.

ChatGPT đột nhiên

Tuy nhiên, một số chuyên gia suy đoán rằng vấn đề có thể xuất phát từ việc ChatGPT đặt "nhiệt độ" quá cao (nhiệt độ là một thuộc tính trong AI xác định mức độ chênh lệch của LLM so với đầu ra có khả năng xảy ra nhất), đột ngột mất ngữ cảnh quá khứ (lịch sử cuộc trò chuyện). Cũng có thể OpenAI đang thử nghiệm một phiên bản mới của GPT-4 Turbo (mô hình AI hỗ trợ phiên bản đăng ký của ChatGPT) và gặp phải lỗi không mong muốn. Nó cũng có thể là lỗi trong một tính năng phụ, chẳng hạn như chức năng "trí nhớ" được giới thiệu gần đây.

Tình huống này gợi nhớ đến các vấn đề với Microsoft Bing Chat (bây giờ được gọi là Copilot), trở nên khó hiểu và hiếu chiến với người dùng ngay sau khi ra mắt một năm trước. Theo nhà nghiên cứu AI Simon Willison, các vấn đề của Bing Chat được cho là phát sinh do một vấn đề trong đó các cuộc trò chuyện dài khiến lời nhắc hệ thống của chatbot (xác định hành vi của nó) vượt ra ngoài cửa sổ ngữ cảnh của nó.

Hãng OpenAI cho biết đã nhận thức được vấn đề này và đang tìm cách khắc phục, nhưng tình huống này cũng là một ví dụ cho thấy, trong khi công nghệ của các chatbot AI đang tiến quá nhanh, người dùng lại không hiểu được chính xác cách vận hành của chúng.

Trên mạng xã hội, một số người đã sử dụng sự cố ChatGPT gần đây như một cơ hội để quảng bá các mô hình AI nguồn mở, cho phép bất cứ ai cũng có thể chạy chatbot trên phần cứng của riêng họ - giúp người dùng có thể xác định và khắc phục vấn đề mỗi khi nó xảy ra. 

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống