Là ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử với hơn 100 triệu người dùng hoạt động hàng tháng, ChatGPT đặc biệt thu hút sự chú ý của các nhà làm luật Mỹ. Nó gây bão Internet nhờ khả năng viết câu trả lời nhanh chóng cho nhiều loại truy vấn khác nhau.
Cục Quản lý Thông tin và Viễn thông Quốc gia (NTIA), cơ quan của Bộ Thương mại tư vấn cho Nhà Trắng về chính sách viễn thông và thông tin, muốn có ý kiến đóng góp vì "sự quan tâm pháp lý ngày càng tăng với cơ chế trách nhiệm về AI."
NTIA muốn biết liệu có biện pháp nào có thể được đưa ra để đảm bảo rằng "rằng các hệ thống AI là hợp pháp, hiệu quả, có đạo đức, an toàn và đáng tin cậy hay không."
"Các hệ thống AI có trách nhiệm có thể mang lại những lợi ích rất lớn, nhưng chỉ khi chúng ta giải quyết được những hậu quả và tác hại tiềm ẩn của chúng. Các công ty và người tiêu dùng phải có thể tin tưởng các hệ thống này để chúng phát huy hết tiềm năng, theo Alan Davidson, Quản trị viên NTIA.
Tuần trước, Tổng thống Joe Biden tuyên bố rằng vẫn còn phải xem liệu AI có nguy hiểm hay không. Ông nói: "Từ góc độ của tôi, các hãng công nghệ phải đảm bảo sản phẩm của họ an toàn trước khi đưa ra thị trường.
ChatGPT, được tạo bởi OpenAI và Microsoft hỗ trợ, khiến nhiều người dùng kinh ngạc với khả năng trả lời nhanh các câu hỏi nhưng đôi khi gây khó chịu cho những người khác vì đôi khi đưa ra thông tin không chính xác.
Khi nghiên cứu "những nỗ lực để đảm bảo các hệ thống AI hoạt động như được quảng cáo mà không gây hại", NTIA dự định sẽ viết một báo cáo. Theo NTIA, những nỗ lực này sẽ hỗ trợ cho công việc đang diễn ra của chính quyền Biden trong việc "đảm bảo cách tiếp cận toàn diện và gắn kết của chính phủ liên bang đối với những rủi ro và cơ hội liên quan đến AI."
Ủy ban Thương mại Liên bang Mỹ (FTC) đã yêu cầu Nhóm đạo đức công nghệ Center for Artificial Intelligence and Digital Policy ngừng OpenAI phát hành các bản phát hành thương mại mới của GPT-4 vào cuối tháng 3.
Mô hình ngôn ngữ lớn được gọi là GPT (Generative Pre-training Transformer) đóng vai trò là nền tảng cho ChatGPT hoạt động.
Theo bản tóm tắt trên trang web của nhóm này, Center for Artificial Intelligence and Digital Policy đã gọi GPT-4 là "thiên vị, lừa dối, có nguy cơ với quyền riêng tư và an toàn công cộng" trong đơn khiếu nại gửi tới FTC.
Với nhiều cải tiến, OpenAI đã công bố phiên bản thứ tư của GPT hôm 14.3 bằng cách thu hút người dùng đến các hoạt động giống như con người, trò chuyện, sáng tác bài hát và tóm tắt các tài liệu dài.
Trong đơn khiếu nại, Center for Artificial Intelligence and Digital Policy cho rằng ChatGPT-4 của OpenAI không tuân theo tiêu chuẩn FTC và thiếu "minh bạch, có thể giải thích rõ ràng và dễ hiểu, không thiên vị, có cơ sở kinh nghiệm (được chứng minh bằng các thực nghiệm và chứng cứ khác), đảm bảo sự chịu trách nhiệm trong quá trình thực hiện".
"FTC có trách nhiệm rõ ràng trong việc điều tra và nghiêm cấm các hành vi thương mại không công bằng và lừa dối. Theo Marc Rotenberg, Chủ tịch Center for Artificial Intelligence and Digital Policy và là người ủng hộ quyền riêng tư lão làng, chúng tôi nghĩ rằng FTC nên xem xét kỹ OpenAI và GPT-4.
Theo Center for Artificial Intelligence Intelligence and Digital Policy, FTC "mở cuộc điều tra về OpenAI, ngăn chặn việc tiếp tục phát hành phiên bản GPT-4 thương mại mới và đảm bảo thiết lập các biện pháp bảo vệ cần thiết để bảo vệ người tiêu dùng, doanh nghiệp và thị trường."
Động thái trên xuất hiện sau khi Elon Musk, nhiều chuyên gia AI và các nhà quản lý ngành công nghiệp đang kêu gọi tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng sáu tháng do nguy cơ tiềm tàng với xã hội và nhân loại. Trong một bức thư ngỏ, họ đã viết điều này.
Bức thư do tổ chức phi lợi nhuận Future of Life Institute công bố, có chữ ký của hơn 1.800 người, bao gồm cả Marc Rotenberg, Elon Musk, Steve Wozniak (đồng sáng lập Apple) và Emad Mostaque (Giám đốc điều hành Stability AI), kêu gọi tạm dừng phát triển AI tiên tiến cho đến khi các giao thức an toàn chung cho các thiết kế như vậy được tạo, triển khai và được kiểm tra bởi các chuyên gia độc lập.
Bức thư nói: "Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được."
Bức thư cũng giải thích chi tiết những rủi ro tiềm ẩn với xã hội và nền văn minh do các hệ thống AI cạnh tranh với con người, dưới hình thức dẫn đến gián đoạn kinh tế và chính trị, đồng thời kêu gọi các nhà phát triển hợp tác với các nhà hoạch định chính sách và cơ quan quản lý.
Bức thư được viết khi lực lượng cảnh sát EU Europol hôm 27.3 bày tỏ mối lo ngại về đạo đức và pháp lý đối với AI tiên tiến như ChatGPT, cảnh báo về khả năng lạm dụng hệ thống trong các nỗ lực lừa đảo, phát tán thông tin sai lệch và tội phạm mạng.
Kể từ khi được OpenAI phát hành vào tháng 11.2022, ChatGPT đã gây ra một cơn sốt công nghệ, buộc các đối thủ tung ra các sản phẩm tương tự và các doanh nghiệp tích hợp nó hoặc các công nghệ tương tự vào các ứng dụng và sản phẩm của họ.
Europol đã nói khi trình bày báo cáo công nghệ đầu tiên của mình bắt đầu với chatbot, "Do các mô hình ngôn ngữ lớn như GPT đang tích cực được cải tiến, khả năng khai thác tiềm năng của các loại hệ thống AI này bởi các tội phạm dẫn đến tầm nhìn u ám."
Theo Europol, việc sử dụng ChatGPT có hại trong ba lĩnh vực tội phạm.
Theo Europol, "Khả năng của ChatGPT trong việc soạn thảo văn bản vô cùng thực tế khiến nó trở thành công cụ hữu ích cho mục đích lừa đảo cá nhân."
ChatGPT có thể được sử dụng bởi tội phạm để nhắm mục tiêu vào các nạn nhân, cơ quan thực thi pháp luật của EU nói. ChatGPT có khả năng tái tạo các mẫu ngôn ngữ để bắt chước phong cách nói chuyện của các cá nhân hoặc nhóm cụ thể.
Theo Europol, khả năng sản xuất văn bản chân thực với tốc độ và quy mô lớn của ChatGPT cũng khiến nó trở thành một công cụ hiệu quả cho việc tuyên truyền và phát tán thông tin sai lệch.
Theo Europol, "ChatGPT cho phép người dùng tạo và phổ biến những thông điệp phản ánh một câu chuyện cụ thể với tương đối ít nỗ lực."
Theo Europol, không có nhiều chuyên gia kỹ thuật có thể sử dụng ChatGPT để tạo ra mã độc.
Cơ quan giám sát Internet Trung Quốc đề xuất quy tắc, đánh giá bảo mật với chabot AI tương tự ChatGPT
Một bộ quy định dự thảo mới nhắm mục tiêu vào các dịch vụ tương tự ChatGPT đã được Cơ quan giám sát Internet của Trung Quốc tiết lộ.
Theo quy định được Cục Quản lý Không gian mạng Trung Quốc (CAC) đề xuất hôm 11 tháng 4, các công ty cung cấp dịch vụ generative AI ở Trung Quốc phải thực hiện các biện pháp ngăn chặn nội dung phân biệt đối xử, thông tin sai lệch và nội dung gây tổn hại cho quyền riêng tư cá nhân hoặc sở hữu trí tuệ.
Theo CAC, các doanh nghiệp cũng nên đảm bảo rằng các sản phẩm của họ duy trì giá trị xã hội chủ nghĩa của Trung Quốc và không chứa nội dung gợi ý lật đổ chế độ, bạo lực, nội dung khiêu dâm hoặc phá vỡ trật tự kinh tế và xã hội.
Theo yêu cầu từ quy định năm 2018 về các dịch vụ thông tin trực tuyến có khả năng gây ảnh hưởng đến dư luận, tất cả các sản phẩm generative AI phải vượt qua đánh giá bảo mật của CAC trước khi phục vụ công chúng.
Sau khi OpenAI ra mắt ChatGPT vào tháng 11.2022, việc tạo ra nội dung gốc dựa trên lời nhắc bằng văn bản, hình ảnh hoặc âm thanh, được gọi là generative AI, đã thu hút được sự quan tâm ngày càng tăng ở Trung Quốc.
Các công ty Trung Quốc đã chạy đua để tung ra các công nghệ tương tự như chatbot OpenAI ở Trung Quốc, nơi ChatGPT vẫn chưa được chính thức sử dụng. Trong đó, nhà điều hành tìm kiếm web Baidu tiết lộ Ernie Bot vào tháng trước và gã khổng lồ thương mại điện tử Alibaba đang lên kế hoạch tích hợp Tongyi Qianwen vào tất cả các sản phẩm của mình. Vào ngày 10.4, SenseTime đã công bố một loạt các sản phẩm hoàn toàn tương thích với AI, bao gồm chatbot và trình tạo hình ảnh từ văn bản. Theo SenseTime, các sản phẩm này được mô phỏng theo mô hình ngôn ngữ lớn SenseNova mà công ty đã tạo ra trong 5 năm qua.
Tuy nhiên, chính quyền Trung Quốc đã cảnh giác với những rủi ro do lĩnh vực đang phát triển nhanh chóng gây ra khi mối quan tâm đến AI tăng lên.
Các phương tiện truyền thông nhà nước đã nhiều lần cảnh báo về "bong bóng thị trường" và "thổi phồng quá mức" xung quanh các công cụ generative AI, và một tờ báo gần đây cảnh báo rằng ChatGPT có thể làm suy đồi thay vì cải thiện đạo đức của người dùng.
Hiệp hội Thanh toán và Thanh lý của Trung Quốc, do ngân hàng trung ương quốc gia này điều hành, hôm 10.2 đã kêu gọi các chuyên gia trong ngành lưu ý đến những rủi ro liên quan đến việc sử dụng các công cụ giống ChatGPT cho công việc và tránh tải dữ liệu nhạy cảm và bí mật lên các dịch vụ đó.
Các quy định vềtive AI cũng đang được xem xét ở các quốc gia khác.
Bộ Thương mại Hoa Kỳ hôm 11.4 đã bắt đầu yêu cầu các nhà hoạch định chính sách đưa ra các đề xuất về cách tiếp cận các công cụ AI ngày càng tinh vi. Ý đã trở thành quốc gia phương Tây đầu tiên tạm thời cấm ChatGPT vào cuối tháng trước do lo ngại về quyền riêng tư.
Liên minh châu Âu (EU) đang xem xét Đạo luật AI, lần đầu tiên được đề xuất vào năm 2021 để điều chỉnh việc sử dụng các sản phẩm AI dựa trên mức độ rủi ro của chúng.
Theo bà Angela Zhang, phó giáo sư luật tại Đại học Hồng Kông, Khung pháp lý của EU, tuân theo một cách tiếp cận khác với các quy tắc dự thảo của CAC, có khả năng áp đặt "gánh nặng tuân thủ cực kỳ nặng nề với các công ty." Thay vào đó, Angela Zhang nói rằng dự thảo quy định của Trung Quốc chủ yếu tập trung vào kiểm duyệt nội dung.
Theo Angela Zhang, "Những yêu cầu về nội dung này không phải là mới với các công ty internet Trung Quốc, vì vậy tôi không nghĩ rằng việc công bố các quy định mới này sẽ tạo thêm gánh nặng cho các công ty Trung Quốc."
Tuy nhiên, một số chuyên gia đã chỉ ra rằng kiểm duyệt là rào cản với các doanh nghiệp Trung Quốc đang hy vọng tạo ra một đối thủ thực sự của ChatGPT.
Theo nhà phân tích nghiên cứu tại Trung tâm Công nghệ An ninh và Mới nổi của Đại học Georgetown Hanna Dohmen, "Những hạn chế, quy định nội dung và kiểm duyệt quá mức có thể cản trở quá trình thương mại hóa và đổi mới hơn nữa những công nghệ như vậy."
Cho đến ngày 10 tháng 5, CAC sẽ thu thập phản hồi về các quy tắc được đề xuất.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: 1thegioi.vn
Tham gia bình luận