So với các dạng điện toán khác, AI sử dụng nhiều năng lượng hơn. Việc phát triển một mô hình AI cũng đủ để sử dụng nhiều điện hơn mức sử dụng hàng năm của 100 hộ gia đình Mỹ.
Bloomberg nhận định rằng lĩnh vực này đang phát triển quá nhanh và có tính minh bạch hạn chế đến mức không ai biết chính xác tổng lượng điện năng sử dụng và lượng khí carbon dioxide thải ra là bao nhiêu.
Tiêu thụ năng lượng điện của cả một thành phố
Theo các nhà nghiên cứu, cần phải minh bạch trong việc sử dụng năng lượng và lượng khí thải do các mô hình AI thải ra. Từ đó, các doanh nghiệp và chính phủ có thể quyết định chấp nhận bỏ ra lượng điện và khí thải để ứng dụng AI chỉ trong các lĩnh vực cần thiết, như nghiên cứu phương pháp chữa ung thư hoặc bảo tồn ngôn ngữ bản địa.
Với câu chuyện nhãn tiền là của ngành công nghiệp tiền điện tử, minh bạch cũng sẽ mang lại tính giám sát. Theo Chỉ số tiêu thụ điện tử của CambridgeDo tiêu thụ năng lượng quá mức và sử dụng năng lượng hàng năm tương đương với Argentina, Bitcoin đã nhận được nhiều lời chỉ trích. Sau đó, Trung Quốc đã cấm hoạt động Bitcoin, trong khi New York (Mỹ) đã thông qua lệnh cấm hai năm với các giấy phép mới khai thác tiền điện tử chạy bằng nhiên liệu hóa thạch.
Ngoài ra, các mô hình ngày càng lớn hơn. Mô hình tiền nhiệm chỉ có 1,5 tỷ tham số, trong khi GPT-3 của OpenAI chỉ có 175 tỷ tham số. Ngoài ra, để luôn nhận thức được các sự kiện đang diễn ra, các mô hình phải được huấn luyện liên tục.
Một phép đo tương đối khác đến từ Google. Trong năm 2021, các nhà nghiên cứu đã phát hiện ra rằng AI tiêu thụ từ 10–15% tổng số điện được tiêu thụ. Điều này cho thấy rằng AI của Google tiêu thụ khoảng 2,3 TWh điện hàng năm, tương đương với lượng điện tiêu thụ hàng năm của một thành phố có kích thước bằng Atlanta (Mỹ).
Tính trách nhiệm
Tuy nhiên, các doanh nghiệp không ngừng cố gắng cải thiện hiệu quả của AI. Các công ty điện toán đám mây lớn nhất ở Mỹ, Microsoft, Google và Amazon, đều cam kết phát thải carbon âm hoặc trung tính carbon.
CNBC đưa tin Google tuyên bố đang theo đuổi mục tiêu không phát thải ròng vào năm 2030, với mục tiêu vận hành văn phòng và trung tâm dữ liệu hoàn toàn bằng năng lượng không carbon. Công ty sử dụng AI để tăng cường hiệu quả năng lượng trong các trung tâm dữ liệu. công nghệ trực tiếp điều chỉnh việc làm mát.
OpenAI tuyên bố rằng anh ấy đang cố gắng làm cho giao diện lập trình ứng dụng ChatGPT hiệu quả hơn, giảm mức sử dụng điện và chi phí cho khách hàng.
"Chúng tôi rất coi trọng trách nhiệm ngăn chặn và đảo ngược biến đổi khí hậu. Chúng tôi rất quan tâm đến cách tận dụng tối đa tiềm năng tính toán của mình. người phát ngôn của OpenAI cho biết. "OpenAI chạy trên Azure và chúng tôi hợp tác chặt chẽ với nhóm Microsoft để cải thiện hiệu quả và dấu chân carbon của chúng tôi khi chạy các mô hình ngôn ngữ lớn."
Microsoft lưu ý rằng họ đang tìm kiếm các thuận năng lượng tái tạo và thực hiện nhiều bước để đạt được mục tiêu giảm lượng khí thải carbon vào năm 2030.
" Microsoft đang đầu tư nghiên cứu đo lường mức sử dụng năng lượng và tác động từ carbon của AI, đồng thời tìm cách làm cho các hệ thống lớn hoạt động hiệu quả hơn, trong cả huấn luyện và ứng dụng," như một phần trong cam kết tạo ra tương lai bền vững. " Microsoft đang đầu tư vào việc đo lường mức tiêu thụ năng lượng và tác động của carbon của AI như một phần trong nỗ lực hướng tới tương lai bền vững. ”, tuyên bố nêu.
"Rõ ràng là các doanh nghiệp này không muốn tiết lộ mô hình họ đang sử dụng và lượng carbon họ thải ra," Để đo lượng khí thải carbon của một mô hình AI khá lớn, giáo sư Đại học Do Thái (Jerusalem) Roy Schwartz đã hợp tác với nhóm Microsoft.
Có rất nhiều cách để làm cho AI hoạt động hiệu quả hơn. Ben Hertz-Shargel, nhà tư vấn năng lượng Wood Mackenzie, lưu ý rằng các nhà phát triển hoặc trung tâm dữ liệu có thể lên lịch lên lịch vào những thời điểm điện rẻ hoặc dư thừa, điều này làm tăng mức độ hoạt động thân thiện với môi trường hơn vì có thể huấn luyện AI bất cứ lúc nào.
Khi năng lượng dư thừa, các công ty AI có thể quảng bá điều này sau khi đào tạo mô hình. "Đây có thể là "củ cà rốt", chỉ ra rằng họ đang hành động có trách nhiệm. ông nói.
Phần lớn các trung tâm dữ liệu sử dụng bộ xử lý đồ (GPU) để đào tạo các mô hình AI. Phần này có mức năng lượng cao nhất trong ngành công nghiệp chip. Theo một báo cáo được Morgan Stanley công bố đầu tháng này, các mô hình lớn cần hàng chục nghìn GPU và quá trình đào tạo kéo dài từ vài tuần đến vài tháng.
Sasha Luccioni, nhà nghiên cứu tại công ty AI Hugging Face, cho biết tổng lượng khí thải carbon liên quan đến GPU là một trong những bí ẩn lớn hơn về AI. Khi nói đến AI, Nvidia, nhà sản xuất GPU lớn nhất, giải thích rằng họ có thể hoàn thành tác vụ nhanh hơn và điều này làm tăng hiệu quả tổng thể của tác vụ.
"Việc sử dụng GPU để tăng tốc AI nhanh và hiệu quả hơn đáng kể so với CPU—thường tiết kiệm năng lượng hơn gấp 20 lần với một số khối lượng công việc AI cụ thể và hiệu quả hơn tới 300 lần với các mô hình ngôn ngữ lớn cần thiết cho AI tạo sinh. tuyên bố cho hay.
Đối với nghiên cứu của mình, bà Luccioni đã yêu cầu dữ liệu cụ thể. Mặc dù Nvidia tiết lộ lượng khí thải trực tiếp và dữ liệu gián tiếp liên quan đến năng lượng, nhưng công ty chưa công bố tất cả lượng khí thải gián tiếp.
Theo bà Luccioni, khi Nvidia chia sẻ thông tin đó, tổng lượng khí thải từ GPU sẽ ngang bằng lượng khí thải của một quốc gia nhỏ.
Bổ ích
Xúc động
Sáng tạo
Độc đáo
Phẫn nộ
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: vtc.vn
Tham gia bình luận