Theo VOC OpenAI, Trung Quốc đang giúp định hình các nguyên tắc an toàn cho AI.

Theo VOC OpenAI, Trung Quốc đang giúp định hình các nguyên tắc an toàn cho AI.

Sam Altman đã nói tại một hội nghị ở Bắc Kinh hôm 11.6 qua liên kết video, "Tầm quan trọng của sự hợp tác toàn cầu chưa bao giờ cần thiết hơn thế với sự xuất hiện của các hệ thống AI ngày càng mạnh mẽ."

Nhân tài và các khoản đầu tư đang dồn vào AI, một lĩnh vực chiến lược sẽ giúp định hình sự cạnh tranh công nghệ ngày càng tăng giữa hai nền kinh tế lớn nhất thế giới, ở cả Trung Quốc và Thung lũng Silicon (Mỹ).

Những tiến bộ công nghệ mới cũng gây ra sự căng thẳng trong cách các chính phủ đang cố gắng điều chỉnh lĩnh vực AI. Đây là điều mà Chủ tịch Trung Quốc Tập Cận Bình nói rằng cần có sự giám sát chặt chẽ hơn của chính quyền để giảm thiểu rủi ro an ninh quốc gia.

"Trung Quốc có một số tài năng AI hàng đầu trên thế giới. Sam Altman nói với những người tham gia sự kiện do Học viện Trí tuệ Nhân tạo Bắc Kinh tổ chức rằng về cơ bản, để giải quyết các vấn đề liên quan đến việc căn chỉnh các hệ thống AI tiên tiến, cần có sự tham gia của những người thông minh, tài năng hàng đầu từ khắp nơi trên thế giới.

Bởi vì Học viện Trí tuệ Nhân tạo Bắc Kinh giữ vị trí hàng đầu trong lĩnh vực AI ở Trung Quốc, bài phát biểu của Sam Altman tại hội nghị này rất đáng chú ý. Tổ chức phi lợi nhuận này được Brad Smith (Chủ tịch Microsoft) chọn là một trong cái tên hàng đầu trong đổi mới AI với sự hỗ trợ của Bộ Khoa học và Công nghệ Trung Quốc và chính quyền địa phương ở Bắc Kinh.

Tại Trung Quốc, nơi các quy định về kiểm duyệt và dữ liệu từ lâu đã chặn các dịch vụ từ những gã khổng lồ công nghệ phương Tây như Google của Alphabet và Facebook của Meta Platforms, ChatGPT của OpenAI hiện không khả dụng.

Theo các chuyên gia, các quy định phức tạp về dữ liệu và thuật toán sẽ gây khó khăn cho các doanh nghiệp phương Tây muốn xâm nhập thị trường AI Trung Quốc.

Cơ quan quản lý công nghệ Trung Quốc báo hiệu trong các hướng dẫn dự thảo rằng, trách nhiệm về thuật toán và nội dung ở nước này có thể phần lớn thuộc về các nhà khai thác nền tảng. Cuối năm nay, Quốc vụ viện Trung Quốc sẽ lên kế hoạch thảo luận về luật liên quan đến AI.

Sam Altman đã nói vào ngày 10.6 rằng OpenAI dự định mở mã nguồn nhiều hơn cho các mô hình của mình trong tương lai, như một phần trong nỗ lực thúc đẩy sự an toàn của AI, mà không nêu khung thời gian hoặc mô hình cụ thể.

Bài phát biểu tại Bắc Kinh của doanh nhân công nghệ 38 tuổi người Mỹ là một phần trong chuyến đi vòng quanh thế giới của ông nhằm khuyến khích quản lý AI.

ceo-open-ai-keu-goi-trung-quoc-dinh-hinh-cac-nguyen-tac-an-toan-cho-ai.jpg
Sam Altman cho biết Trung Quốc nên đóng vai trò quan trọng trong việc xác định các nguyên tắc đảm bảo an toàn cho hệ thống AI - Ảnh: Bloomberg

Sam Altman đã mâu thuẫn với các nhà quản lý Liên minh châu Âu (EU) vào cuối tháng 5 khi ông tuyên bố rằng OpenAI có thể rút khỏi khu vực này nếu luật AI sắp được ban hành sẽ yêu cầu các doanh nghiệp phải chịu trách nhiệm về cách sử dụng hệ thống của họ.

Bộ quy tắc quản lý AI đầu tiên trên toàn cầu đang được tạo ra bởi EU. Theo dự thảo, các công ty triển khai công cụ hỗ trợ AI, chẳng hạn như ChatGPT của OpenAI, sẽ được yêu cầu tiết lộ bất kỳ tài liệu có bản quyền nào được sử dụng để phát triển hệ thống của họ.

Máy tính được lập trình để tự động tạo ra nội dung mới, chẳng hạn như văn bản, hình ảnh, âm thanh và video, bằng cách sử dụng trí tuệ nhân tạo được gọi là rô-bốt. Nó khác với các hệ thống AI khác, chẳng hạn như máy học sâu hoặc học máy, trong việc dự đoán kết quả từ dữ liệu có sẵn. Hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn thay vì dựa trên dữ liệu được huấn luyện.

Sam Altman tuyên bố trước khi xem xét rút lui khỏi EU, OpenAI sẽ cố gắng tuân thủ quy định ở châu Âu khi nó được ban hành.

"Dự thảo Đạo luật AI của EU hiện tại đề xuất quy định quá khắt khe, nhưng chúng tôi nghe nói rằng nó sẽ bị rút lại. Họ vẫn đang thảo luận về vấn đề này, ông nói với Reuters.

Tuy nhiên, các nhà làm luật EU đã tạo ra Đạo luật bác bỏ tuyên bố của Sam Altman.

"Tôi không nhận thấy bất kỳ điều chỉnh nhỏ nào trong thời gian sắp tới. Chúng tôi rất vui được mời Altman đến Nghị viện Châu Âu để ông có thể bày tỏ mối quan tâm của mình và lắng nghe suy nghĩ từ các nhà làm luật châu Âu về những vấn đề này," Dragos Tudorache, thành viên người Romania của Nghị viện Châu Âu và là người đứng đầu việc soạn thảo các đề xuất của EU, nói với Reuters.

Người đứng đầu ngành công nghiệp EU Thierry Breton cũng chỉ trích lời đe rút OpenAI khỏi EU của Sam Altman, tuyên bố các quy tắc dự thảo không thể thương lượng.

Kim van Sparrentak (Hà Lan), người cũng đóng góp vào dự thảo luật của EU, nói rằng bà và các đồng nghiệp của mình "không nên để bị các công ty Mỹ đe."

Theo bà, hệ thống của OpenAI không phù hợp với thị trường châu Âu nếu nó không thể tuân thủ các yêu cầu cơ bản về quản trị dữ liệu, minh bạch, an toàn và bảo mật.

Đầu tháng 5, các nghị sĩ EU đã đạt được ý tưởng chung về dự thảo đạo luật AI. Các chi tiết cuối cùng của dự luật giờ đây sẽ được thống nhất bởi các đại diện từ Nghị viện, Hội đồng và Ủy ban châu Âu.

"Rất nhiều điều họ có thể làm, chẳng hạn như thay đổi định nghĩa của hệ thống AI để phù hợp với các quy định mới. Sam Altman nói rằng có rất nhiều việc phải làm.

Các nhà làm luật đề xuất một danh mục được gọi là Hệ thống AI có mục đích chung để giải thích cho các công cụ AI có nhiều ứng dụng, chẳng hạn như các mô hình dựa trên AI như ChatGPT.

Sam Altman đã bày tỏ lo ngại về ý tưởng rằng ông có thể làm "điều gì đó thực sự tồi tệ" khi tạo ChatGPT (trình làng vào tháng 11.2022) tại cuộc trò chuyện trong chuyến đi gần đây ở Ấn Độ, điều này đã làm tăng sự quan tâm của mọi người về AI.

ChatGPT đã lập kỷ lục về cơ sở người dùng tăng trưởng nhanh nhất vào tháng 2 so với bất kỳ ứng dụng dành cho người tiêu dùng nào trong lịch sử. Cụ thể là ChatGPT đã đạt mốc 100 triệu người dùng chỉ sau 2 tháng trình làng.

Sam Altman nói với Satyan Gajwani, Phó chủ tịch hãng công nghệ Times Internet, tại một sự kiện do tờ báo Economic Times tổ chức hôm 7.6: "Điều khiến tôi mất ngủ nhiều nhất là ý tưởng giả định rằng chúng tôi làm điều gì đó thực sự tồi tệ khi tung ra ChatGPT. Chẳng hạn, có thể có điều gì đó khó khăn và phức tạp trong ChatGPT mà chúng tôi không hiểu.

Sam Altman cho biết phải có một hệ thống tốt hơn để kiểm tra quá trình này khi được hỏi liệu AI có nên được điều chỉnh giống như năng lượng nguyên tử hay không. Ông nói: "Cần có một hệ thống để chúng ta có thể kiểm tra những người đang thực hiện nó, cấp phép cho nó, kiểm tra độ an toàn trước khi triển khai."

Một số nhà lãnh đạo công nghệ và quan chức chính phủ bày tỏ lo ngại về tốc độ phát triển của các nền tảng AI.

Elon Musk, Steve Wozniak (đồng sáng lập Apple) và hơn 1.800 chuyên gia công nghệ đã cảnh báo trong một bức thư ngỏ vào tháng 3 từ Future of Life Institute rằng các hệ thống AI mạnh mẽ chỉ nên được tạo ra với ý tưởng rằng tác động tích cực và rủi ro có thể kiểm soát được. Bức thư ngỏ kêu gọi tạm dừng việc đào tạo các hệ thống AI mạnh hơn GPT-4 của OpenAI trong sáu tháng.

Sam Altman trả lời bức thư bằng cách nói rằng nó "thiếu sắc thái kỹ thuật về nơi chúng tôi cần tạm dừng."

Sam Altman là một trong số hơn 350 nhà khoa học và lãnh đạo công nghệ đầu tháng 6 bày tỏ mối quan ngại nghiêm trọng về rủi ro AI.

Tuyên bố chung có đoạn: "Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân."

Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống

Nguồn tin:

 

Tham gia bình luận