Elon Musk và hàng nghìn chuyên gia yêu cầu tạm dừng phát triển AI

Elon Musk và hàng nghìn chuyên gia yêu cầu tạm dừng phát triển AI

Bức thư ngỏ do tổ chức phi lợi nhuận Future of Life Institute phát hành có chữ ký của hơn 1.000 người, bao gồm Elon Musk, Giám đốc điều hành của Stability AI, Emad Mostaque, các nhà nghiên cứu tại DeepMind thuộc sở hữu của Alphabet, cũng như các chuyên gia có uy tín về AI như Yoshua Bengio và Stuart Russell. Nhóm này yêu cầu tạm dừng 6 tháng với hệ thống đào tạo AI mạnh hơn GPT-4 mới ra mắt của Open AI.

Elon Musk và hàng nghìn chuyên gia kêu gọi tạm dừng phát triển AI - Ảnh 1.

Bức thư nêu rõ rằng nên tạm dừng phát triển AI tiên tiến cho đến khi có một tiêu chuẩn an toàn chung cho các thiết kế như vậy (GPT-4) được tạo, triển khai và kiểm toán bởi các chuyên gia độc lập.

Bức thư nói: "Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng ta tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng là có thể kiểm soát được."

Bức thư cũng cảnh báo về những rủi ro tiềm tàng đối với xã hội và nền văn minh khi AI cạnh tranh với con người, dẫn đến những gián đoạn về kinh tế và chính trị, cho rằng các nhà phát triển cần bàn bạc với các cơ quan quản lý và giới hoạch định chính sách.

Bức thư được viết sau khi lực lượng cảnh sát chung châu Âu (Europol) bày tỏ lo ngại về đạo đức và pháp lý đối với các hệ thống AI tiên tiến như Chat GPT. Lực lượng này cảnh báo rằng những hệ thống như vậy có thể bị tội phạm lợi dụng để lừa đảo, đưa ra thông tin sai lệch và thực hiện tội phạm mạng.

Elon Musk, ông chủ của Telsa, công ty sử dụng AI cho hệ thống lái tự động, đã lên tiếng về những lo ngại của mình về trí tuệ nhân tạo.

Tại World Government Summit ở Dubai, UAE, vào tháng 2 vừa qua, Musk đã lên tiếng cảnh báo về sự phát triển của AI.

"AI, hay trí tuệ nhân tạo, là một trong những rủi ro lớn nhất đối với tương lai của nền văn minh. Mặc dù có nhiều hứa hẹn tuyệt vời, trí tuệ nhân tạo cũng có những rủi ro khá lớn. Nó có thể tích cực hoặc tiêu cực.

"AI đã phát triển theo thời gian. Ông Musk nhấn mạnh rằng mặc dù ô tô, máy bay và y học phải tuân thủ các tiêu chuẩn an toàn nghiêm ngặt theo quy định, nhưng AI vẫn chưa có bất kỳ quy định hoặc quy định nào để điều chỉnh sự phát triển của nó.

ChatGPT của OpenAI, được phát hành vào năm ngoái, đã thúc đẩy các đối thủ tăng tốc phát triển các mô hình tương tự. Bằng công cụ của riêng mình được gọi là Bard, Google đã đáp trả sự ra mắt của ChatGPT.

Theo Reuters, ông Sam Altman, giám đốc điều hành của OpenAI, đã không ký vào bức thư này và Chat GPT từ chối yêu cầu bình luận về sự việc này.

Theo Gary Marcus, giáo sư danh dự tại Đại học New York, người đã ký bức thư, "Bức thư không hoàn hảo, nhưng tinh thần là đúng: chúng ta cần chậm lại cho đến khi hiểu rõ hơn về các tác động. Chúng có thể có tác động nghiêm trọng. Những người chơi lớn ngày càng trở nên bí mật về điều họ đang làm, khiến xã hội khó phòng thủ trước những nguy cơ tiềm ẩn.

Elon Musk từng cảnh báo: Trí tuệ nhân tạo 'nguy hiểm hơn nhiều' so với đầu đạn hạt nhân Elon Musk từng cảnh báo: Trí tuệ nhân tạo "nguy hiểm hơn nhiều" so với đầu đạn hạt nhân

VTV.vn - Theo tỷ phú công nghệ Elon Musk, ChatGPT cho thấy trí tuệ nhân tạo đang trở nên vô cùng thông minh và đó là điều tất cả chúng ta nên lo lắng.

* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận