Thông tin được hai cha đẻ AI đưa ra sau khi chứng kiến sự phát triển nhanh chóng của AI (trí tuệ nhân tạo) và cuộc đua hướng tới AGI (trí tuệ nhân tạo tổng quát) đặt ra nhiều lo ngại về khả năng công nghệ này có thể ảnh hưởng tiêu cực đến con người, thậm chí tiềm ẩn nguy cơ xóa sổ nhân loại.

Trong một phát biểu tại hội nghị Ai4 ở Las Vegas (Mỹ) mới đây, Hinton bày tỏ sự nghi ngờ về hiệu quả của các biện pháp bảo vệ mà các công ty AI đang triển khai để đảm bảo con người vẫn “thống trị” các hệ thống AI. Ông cho rằng: “Điều đó sẽ không hiệu quả. Chúng sẽ thông minh hơn chúng ta rất nhiều và có đủ cách để vượt qua những rào cản đó”.
Giải pháp mà Hinton đề xuất là tích hợp “bản năng làm mẹ” vào các mô hình AI nhằm đảm bảo rằng chúng “thực sự quan tâm đến con người”. Ông nhấn mạnh tầm quan trọng của việc này khi công nghệ đạt đến trình độ AGI, vốn thông minh hơn con người. Hinton cho biết, trong lịch sử, rất ít trường hợp những thực thể thông minh lại bị điều khiển bởi những sinh vật kém thông minh hơn, ngoại trừ mối quan hệ giữa mẹ và con cái, nơi bản năng làm mẹ được hình thành qua quá trình tiến hóa. Ông cảnh báo rằng nếu không áp dụng những bản năng tương tự vào AI, chúng ta sẽ trở thành lịch sử.
Hãy để AI tuân theo các quy tắc nhất định
Yann LeCun, nhà khoa học AI trưởng của Meta, đồng tình với quan điểm của Hinton. Trong một bài đăng trên LinkedIn, ông cho biết: “Geoff đang đề xuất một phiên bản đơn giản hóa những gì tôi đã nói trong nhiều năm: thiết lập cấu trúc cứng cho các hệ thống AI, sao cho những hành động duy nhất chúng có thể thực hiện là hướng tới việc hoàn thành các mục tiêu mà chúng ta giao cho để tuân theo các quy tắc nhất định”. Ông gọi đây là “AI hướng đến mục tiêu”.

LeCun cũng nhấn mạnh hai rào chắn cần thiết là sự phục tùng con người và sự đồng cảm. Ông cho rằng, bên cạnh những mục tiêu cao cấp, cần có những rào cản đơn giản để đảm bảo an toàn, chẳng hạn như không gây hại cho con người. “Những mục tiêu và rào cản bảo vệ được lập trình sẵn sẽ tương đương với bản năng hoặc động lực của AI ở động vật và con người”, LeCun nói.
Thực tế đã ghi nhận một số trường hợp AI gây hại cho con người, mặc dù thường là gián tiếp. Ví dụ, một người đàn ông mắc chứng rối loạn tâm thần hiếm gặp sau khi làm theo lời khuyên về chế độ ăn uống của ChatGPT, hay như một thiếu niên tự tử sau khi bị ám ảnh bởi chatbot Character.ai, và một người đàn ông khác bị ảo tưởng rằng mình đã khám phá ra một bước đột phá về toán học sau hàng trăm giờ trò chuyện với ChatGPT.
Những cảnh báo này từ các chuyên gia hàng đầu trong lĩnh vực AI nhấn mạnh sự cần thiết phải có những biện pháp bảo vệ hiệu quả để đảm bảo rằng công nghệ này phục vụ cho lợi ích của con người, thay vì trở thành mối đe dọa.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: vov.vn
Tham gia bình luận