4 chuyên gia phản đối chiến dịch do Elon Musk hậu thuẫn, yêu cầu tạm dừng đào tạo AI hiệu quả hơn GPT-4

4 chuyên gia phản đối chiến dịch do Elon Musk hậu thuẫn, yêu cầu tạm dừng đào tạo AI hiệu quả hơn GPT-4

Bức thư được công bố vào ngày 22.3 bởi tổ chức phi lợi nhuận Future of Life Institute đã yêu cầu tạm dừng 6 tháng đào tạo và phát triển các hệ thống AI mạnh hơn so với GPT-4 của OpenAI, do Microsoft hậu thuẫn, có hơn 1.800 chữ ký tính đến hôm 31.3 (gồm cả Elon Musk).

GPT (Generative Pre-training Transformer) là một mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT hoạt động được nhiều người sử dụng khen ngợi, nhưng nó cũng gây lo ngại vì phản hồi các truy vấn nhanh chóng và giống con người.

Kể từ khi ChatGPT (ban đầu hoạt động dựa trên mô hình ngôn ngữ lớn GPT-3.5 và hiện là GPT-4) được phát hành vào tháng 11.2022, các công ty đối thủ đã gấp rút tung ra các sản phẩm tương tự.

Bức thư ngỏ trích dẫn 12 nghiên cứu từ các chuyên gia, bao gồm cả các học giả đại học, nhân viên hiện tại và trước đây của OpenAI, Google và đơn vị DeepMind của Alphabet (chủ sở hữu Google), cho biết các hệ thống AI có "trí thông minh cạnh tranh với con người" dẫn đến những rủi ro sâu sắc cho nhân loại.

Kể từ đó, các nhóm xã hội dân sự ở Mỹ và Liên minh châu Âu (EU) đã thúc ép các nhà làm luật kiềm chế nghiên cứu của OpenAI. Khi được đề nghị bình luận, OpenAI đã không phản ứng ngay lập tức.

Các nhà phê bình đã yêu cầu Future of Life Institute, tổ chức đứng sau bức thư và được tài trợ chủ yếu bởi Musk Foundation, đưa ra các kịch bản thảm mang tính tưởng tượng hơn là những lo ngại tức thời hơn về AI, chẳng hạn như thành kiến phân biệt chủng tộc hoặc phân biệt giới tính được lập trình trong máy móc.

Elon Musk và cô vợ đầu tiên của ông, Justine Musk, đã thành lập tổ chức phi lợi nhuận được gọi là Musk Foundation. Trong lĩnh vực năng lượng sạch, giáo dục và nghiên cứu khoa học, Musk Foundation hỗ trợ các sáng kiến đột phá. Nhiều dự án đã được tài trợ bởi Musk Foundation, bao gồm cung cấp tài chính và thiết bị cho các tổ chức giáo dục và trường học, hỗ trợ nghiên cứu về tế bào gốc, và tài trợ cho các sáng kiến giúp đỡ trẻ em có hoàn cảnh khó khăn.

Bài viết nổi tiếng On the Dangers of Stochastic Parrots, được đồng tác giả bởi bà Margaret Mitchell, người trước đây đã giám sát nghiên cứu AI có đạo đức tại Google, là một trong những nghiên cứu được trích dẫn. Margaret Mitchell, hiện là nhà khoa học đạo đức tại công ty trí tuệ AI Hugging Face, đã trích thư này, nói với Reuters rằng không rõ điều gì được xem là "mạnh hơn GPT-4".

Thư khẳng định một tập hợp các ưu tiên và câu chuyện về AI có lợi cho những người ủng hộ Future of Life Institute, "Bằng cách xem hàng loạt ý tưởng đáng ngờ như là điều hiển nhiên."

Các đồng tác giả của Margaret Mitchell là Timnit Gebru và Emily M. Bender cũng chỉ trích bức thư, với Emily M. Bender gọi một số tuyên bố trong thư là "phi lý".

Theo Max Tegmark, Chủ tịch Future of Life Institute, chiến dịch này không nhằm mục đích cản trở lợi thế kinh doanh của OpenAI.

"Thật buồn cười. Tôi đã nghe mọi người nói rằng Elon Musk đang cố chậm lại đối thủ. Elon Musk không đóng vai trò nào trong việc soạn thảo thư. Điều này không liên quan đến một công ty. Max Tegmark tuyên bố rằng chiến dịch này không nhằm mục đích gây hại cho một công ty.

4-chuyen-gia-phan-doi-chien-dich-doi-tam-ngung-dao-dao-ai-manh-hon-gpt-4.jpg
Elon Musk hậu thuẫn chiến dịch kêu gọi tạm ngừng đào tạo hệ thống AI mạnh hơn GPT-4 - Ảnh: Internet

Rủi ro bây giờ

Shiri Dori-Hacohen, giáo sư tại Đại học Connecticut (Mỹ), cũng không hài lòng khi công trình của mình được đề cập trong thư. Trong một nghiên cứu năm ngoái, bà đã lập luận rằng việc sử dụng rộng rãi AI gây ra những rủi ro nghiêm trọng.

Theo nghiên cứu của Shiri Dori-Hacohen, việc sử dụng các hệ thống AI ngày nay có thể ảnh hưởng đến việc ra quyết định liên quan đến biến đổi khí hậu, chiến tranh hạt nhân và các mối đe hiện hữu khác.

Cô tuyên bố với Reuters rằng "AI không cần đạt được trình độ thông minh tương đương với con người để làm tăng những nguy cơ đó." Có những rủi ro không liên quan đến sự tồn tại của loài người, nhưng chúng rất quan trọng và không nhận được sự chú ý tương đương như với Hollywood.

Max Tegmark đã đề nghị bình luận về những lời chỉ trích khi được hỏi về chúng, nói rằng các rủi ro ngắn hạn và dài hạn của AI cần được xem xét cẩn thận.

"Nếu chúng tôi trích dẫn một ai đó, điều này chỉ đơn giản là chúng tôi tin rằng họ đang ủng hộ câu đó. Max Tegmark nói với Reuters rằng điều này không có nghĩa là họ đang ủng hộ bức thư hoặc chúng tôi ủng hộ tất cả những gì họ nghĩ.

Dan Hendrycks, Giám đốc Trung tâm An toàn AI có trụ sở tại bang California (Mỹ), người cũng được trích dẫn trong bức thư, đồng ý với những gì được nêu trong thư. Ông nói với Reuters rằng thật hợp lý khi xem xét các sự kiện thiên nga đen (những sự kiện có vẻ khó xảy ra, khó dự đoán trước nhưng sẽ gây ra hậu quả tàn khốc cho toàn cầu).

Bức thư ngỏ này cũng cảnh báo rằng các công cụ generative AI có thể được sử dụng để "tuyên truyền và phát tán thông tin sai lệch" trên internet.

Theo Shiri Dori-Hacohen, Elon Musk "khá hài hước" khi ký vào thư, trích dẫn báo cáo về sự gia tăng thông tin sai lệch trên Twitter sau khi ông mua lại nền tảng này, mà nhóm xã hội dân sự Common Cause và những người khác đã ghi lại.

Có khả năng cản trở nghiên cứu về chủ đề này, Twitter sẽ sớm đưa ra một cấu trúc phí mới để truy cập dữ liệu nghiên cứu của mình.

Theo Shiri Dori-Hacohen, "Điều đó đã trực tiếp ảnh hưởng đến công việc trong phòng thí nghiệm của tôi và những người khác nghiên cứu thông tin sai lệch. Chúng tôi đang hành động với một tay bị trói sau lưng.

Elon Musk và Twitter đã không đưa ra câu trả lời ngay lập tức cho truy vấn tìm kiếm bình luận về chủ đề trên.

Nhóm đạo đức công nghệ yêu cầu FTC điều tra OpenAI, ngăn phát hành phiên bản GPT-4 mớiNhóm đạo đức công nghệ Center for Artificial Intelligence and Digital Policy đang yêu cầu Ủy ban Thương mại Liên bang Mỹ (FTC) ngăn OpenAI phát hành các bản thương mại mới của GPT-4. Theo một bản tóm tắt trên trang web của nhóm này, trong đơn khiếu nại gửi tới FTC hôm 30.3, Center for Artificial Intelligence và Digital Policy đã gọi GPT-4 là "thiên vị, lừa dối, có nguy cơ với quyền riêng tư và an toàn công cộng". Phiên bản thứ tư của GPT đã được OpenAI công bố hôm 14.3, thúc đẩy người dùng bằng cách thu hút họ vào các hoạt động giống như con người, trò chuyện, sáng tác bài hát và tóm tắt các tài liệu dài. Theo khiếu nại, Center for Artificial Intelligence and Defense Policy, ChatGPT-4 của OpenAI không tuân thủ các tiêu chuẩn của FTC và được giải thích rõ ràng, dễ hiểu, không thiên vị, có cơ sở kinh nghiệm (được chứng minh bằng các thực nghiệm và chứng cứ khác), đảm bảo sự chịu trách nhiệm trong quá trình thực hiện. Theo Marc Rotenberg, chủ tịch của Center for Artificial Intelligence And Digital Policy và là người ủng hộ quyền riêng tư lão làng, FTC nên xem xét kỹ OpenAI và GPT-4.

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận