Gã khổng lồ internet cho biết đã tiêu thụ 5,6 tỉ gallon nước (1 gallon = 3,785 lít) vào năm 2022, tương đương 37 sân golf. Hầu hết trong số đó, 5,2 tỉ gallon nước, được sử dụng cho các trung tâm dữ liệu của Google, tăng 20% so với số lượng mà công ty báo cáo vào năm trước.
Những con số này cho thấy rõ chi phí môi trường khi vận hành các trung tâm dữ liệu khổng lồ, thường đòi hỏi lượng nước lớn để giữ cho hệ thống mát mẻ. Khi Google và các hãng công nghệ khác tham gia cuộc đua trí tuệ nhân tạo (AI) đang tăng tốc xây dựng các trung tâm dữ liệu mới, lượng nước tiêu thụ sẽ tiếp tục tăng lên.
Shaolei Ren, phó giáo sư kỹ thuật điện và máy tính tại Đại học California (Mỹ), cho biết mức tiêu thụ nước tăng 20% gần như phù hợp với sự gia tăng năng lực tính toán của Google, phần lớn được thúc đẩy bởi AI.
Tuy nhiên, Shaolei Ren e ngại rằng việc sử dụng nước của Google tăng lên trong dài hạn có thể tác động tiêu cực đến môi trường, ngay cả khi công ty cam kết bổ sung nước để bù đắp cho việc tiêu thụ. "Việc này chỉ làm cho việc quản lý nước của họ sẽ tốt hơn, nhưng nước vẫn bị tiêu thụ", ông nói với Insider.
Google thông báo đặt mục tiêu đến năm 2030 là hạn chót để bổ sung 120% lượng nước ngọt mà họ tiêu thụ tại các văn phòng và trung tâm dữ liệu của mình. Ngay bây giờ, Google chỉ mới bổ sung 6%, theo báo cáo của công ty.
Theo trang Insider, phần lớn nước mà Google đang tiêu thụ hiện nay "có thể uống được", đủ sạch để dùng làm nước uống.
Trong báo cáo mới nhất của mình, Google cho biết đã tính đến "tình trạng căng thẳng về nước tại địa phương" (hay khan hiếm nước) và tiết lộ 82% lượng nước ngọt mà họ lấy vào năm 2022 đến từ các khu vực có nhiều nước.
Với 18% còn lại, Google cho biết đang "tìm kiếm các đối tác và cơ hội mới", nhưng có thể phải đối mặt với sự phản đối tăng cao khi nhiều nơi đối diện tình trạng thiếu nước.
Vào năm 2019, Google đã lên kế hoạch cho một trung tâm dữ liệu ở thành phố Mesa (bang Arizona, Mỹ), được đảm bảo cung cấp 4 triệu gallon nước mỗi ngày. Thế nhưng, trang Insider gần đây chỉ ra Arizona phải đối mặt với tình trạng thiếu nước nên có thể cản trở một số loại giao dịch này.
Thật vậy, một phát ngôn viên Google nói với Insider rằng trung tâm dữ liệu Mesa sau khi được hoàn thành sẽ sử dụng "công nghệ làm mát bằng không khí" để thay thế.
Cũng đang xây dựng một trung tâm dữ liệu ở Arizona, Meta Platforms đã sử dụng hơn 697 triệu gallon nước (2,6 triệu mét khối nước) vào năm 2022, chủ yếu dành cho các trung tâm dữ liệu. Quá trình đào tạo Llama 2, mô hình ngôn ngữ lớn mới nhất của Meta Platforms, tiêu tốn rất nhiều nước.
Llama 2 được đào tạo trên dữ liệu lớn hơn 40% so với LlaMA
Mark Zuckerberg, Giám đốc điều hành Meta Platforms, cho biết công ty đang hợp tác với Microsoft để giới thiệu phiên bản tiếp theo của mô hình ngôn ngữ lớn nguồn mở (Llama 2), đồng thời đưa công nghệ này sử dụng miễn phí cho mục đích nghiên cứu và thương mại.
Giống Google và Microsoft, Meta Platforms từ lâu đã có một nhóm nghiên cứu lớn gồm các nhà khoa học máy tính chuyên phát triển AI. Thế nhưng, Meta Platforms bị lu mờ khi OpenAI phát hành chatbot ChatGPT và gây ra cơn sốt tìm kiếm lợi nhuận từ các công cụ generative AI.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video.
Meta Platforms cũng cố gắng tạo sự khác biệt khi cởi mở hơn một số đối thủ bằng việc cung cấp dữ liệu và mã nguồn mà công ty sử dụng để xây dựng hệ thống AI. Nhiều người lập luận rằng sự cởi mở như vậy giúp các nhà nghiên cứu bên ngoài dễ dàng xác định và giảm thiểu sự thiên vị, độc hại mà các hệ thống AI thấp thụ thông qua cách viết và giao tiếp của con người.
“Nguồn mở thúc đẩy sự đổi mới vì cho phép nhiều nhà phát triển hơn xây dựng mô hình AI bằng công nghệ mới. Nó cũng cải thiện tính an toàn và bảo mật vì khi phần mềm được mở, nhiều người hơn có thể xem xét kỹ lưỡng nó để xác định và khắc phục các sự cố tiềm ẩn. Tôi tin rằng điều này sẽ mở ra nhiều tiến bộ hơn nếu hệ sinh thái cởi mở hơn. Đó là lý do tại sao chúng tôi đang mở mã nguồn Llama 2”, Mark Zuckerberg cho biết.
Tỷ phú 39 tuổi người Mỹ chỉ ra lịch sử mã nguồn mở trong công việc AI của Meta Platforms, chẳng hạn việc phát triển khung máy học PyTorch rất phổ biến.
Tuy nhiên, bài viết giới thiệu Llama 2 phản ánh ít tính minh bạch hơn so với những gì Meta Platforms thể hiện trước đây trong công việc xây dựng các mô hình AI yêu cầu hấp thụ lượng lớn văn bản số hóa như sách, bài báo tin tức và dữ liệu truyền thông xã hội.
Bài viết nêu rõ rằng Llama 2 được đào tạo trên "tập dữ liệu từ các nguồn có sẵn công khai, không bao gồm dữ liệu từ các sản phẩm hoặc dịch vụ của Meta Platforms", nhưng không xác định rõ dữ liệu nào được sử dụng.
Ngoài ra, bài viết cũng cho biết Meta Platforms đã loại bỏ dữ liệu từ các trang web được biết đến chứa "một lượng lớn thông tin cá nhân riêng tư".
Meta Platforms từng sử dụng LlaMA (từ viết tắt của Large Language Model Meta AI) để miêu tả phiên bản đầu tiên mô hình ngôn ngữ lớn này, được công bố hồi tháng 2. Hiện tại, công ty mẹ Facebook đã đổi chữ cái M viết hoa thành viết thường trong phiên bản thứ hai và gọi là Llama 2.
LlaMA cạnh tranh với các mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT và Google Bard. Trong khi Llama 2 được đào tạo trên dữ liệu lớn hơn 40% so với LlaMA, với hơn 1 triệu chú thích do con người thực hiện để điều chỉnh chất lượng đầu ra, Mark Zuckerberg nói.
Ông cho biết mọi người có thể tải xuống trực tiếp Llama 2. Ngoài ra, Llama 2 sẽ được phân phối bởi Microsoft thông qua dịch vụ đám mây Azure và sẽ chạy trên hệ điều hành Windows. Khách hàng có thể tinh chỉnh và triển khai Llama 2 với 7 tỉ, 13 tỉ và 70 tỉ tham số một cách dễ dàng và an toàn hơn trên Azure.
Microsoft được Meta Platforms mô tả là đối tác “ưu tiên”. Thế nhưng, Meta Platforms cho biết các mô hình AI này cũng có sẵn thông qua Amazon Web Services, đối thủ chính của Microsoft trong lĩnh vực đám mây, cũng như Hugging Face (công ty khởi nghiệp AI) và các đối tác khác.
Microsoft cũng là nhà tài trợ chính và là đối tác của OpenAI, nhà sản xuất ChatGPT. ChatGPT cũng như các dịch vụ tương tự từ Microsoft hoặc Google đều không phải là mã nguồn mở.
Hôm 18.7, Microsoft cũng tiết lộ quan hệ đối tác AI mới với Meta Platforms tại sự kiện thường niên của công ty dành cho khách hàng doanh nghiệp. Microsoft thông báo: “Hai công ty chia sẻ cam kết phổ cập AI cùng các lợi ích của nó và chúng tôi rất vui khi Meta đang thực hiện một cách tiếp cận cởi mở”. Meta Platforms đang là khách hàng của nền tảng điện toán đám mây Microsoft Azure.
Đến nay, Microsoft đã tập trung vào việc đưa công nghệ từ OpenAI vào Azure.
Khi được hỏi tại sao Microsoft lại hỗ trợ một sản phẩm có thể làm giảm giá trị của OpenAI, người phát ngôn gã khổng lồ phần mềm nói rằng việc cung cấp sự lựa chọn cho các nhà phát triển trong việc sử dụng các mô hình khác nhau sẽ giúp mở rộng vị thế của họ như nền tảng đám mây hàng đầu cho công việc AI.
Qualcomm (nhà thiết kế chip hàng đầu Mỹ) cũng thông báo đang hợp tác với Meta Platforms để đưa Llama 2 lên máy tính xách tay, smartphone và headset bắt đầu từ năm 2024 trở đi, để phát triển các ứng dụng AI hoạt động mà không cần dựa vào các dịch vụ đám mây.
Cập nhật tin tức công nghệ mới nhất tại fanpage Công nghệ & Cuộc sống
Nguồn tin: 1thegioi.vn
Tham gia bình luận