Vì sao các mô hình AI tiêu tốn lượng năng lượng khác nhau?

16:25, 22/05/2025

Ngành công nghệ đang đối mặt với nguy cơ không đạt được các mục tiêu về khí hậu do lượng khí thải từ AI…

Mỗi khi người dùng thực hiện một truy vấn, tạo hình ảnh hoặc trò chuyện với chatbot, lượng năng lượng tiêu thụ bởi các mô hình trí tuệ nhân tạo (AI) ngày càng tăng.

Theo ước tính, lượng khí thải từ các trung tâm dữ liệu cần thiết để huấn luyện và vận hành các dịch vụ AI hiện chiếm khoảng 3% tổng lượng khí thải toàn cầu, gần tương đương với ngành hàng không. Tuy nhiên, không phải tất cả các mô hình AI đều tiêu thụ năng lượng như nhau.

Thách thức trong việc đo lường năng lượng tiêu thụ 

Theo  Financial Times, các mô hình AI chuyên biệt, như TinyBERT của Intel hay DistilBERT của Hugging Face, được thiết kế để tìm kiếm và trích xuất câu trả lời từ văn bản, tiêu thụ rất ít năng lượng – chỉ khoảng 0,06 watt-giờ cho mỗi 1.000 truy vấn, tương đương với việc thắp sáng một bóng đèn LED trong 20 giây.

Ngược lại, các mô hình ngôn ngữ lớn (LLM) như GPT-4 của OpenAI, Claude của Anthropic, Llama của Meta, DeepSeek hay Qwen của Alibaba lại tiêu tốn năng lượng gấp hàng nghìn lần cho cùng một truy vấn. Sự khác biệt này giống như việc bật đèn sân vận động chỉ để tìm chìa khóa.

Lý do cho sự chênh lệch này nằm ở cách hoạt động của các mô hình. Trong khi các mô hình chuyên biệt chỉ tìm kiếm câu trả lời từ dữ liệu có sẵn, các LLM tạo ra câu trả lời từ đầu bằng cách tái tổ hợp các mẫu từ những bộ dữ liệu khổng lồ. Quá trình này đòi hỏi nhiều thời gian, tài nguyên tính toán và năng lượng hơn so với một tìm kiếm trên internet thông thường.

Tuy vậy, việc đo lường chính xác quy mô và lượng năng lượng tiêu thụ của từng mô hình AI không hề đơn giản. Các công ty sở hữu hệ thống mã nguồn đóng, như Google với Gemini hay Anthropic với Claude, không công khai mã nguồn và thường bảo vệ kín thông tin liên quan.

Điều này dẫn đến nhiều thông tin chưa được xác minh lan truyền trên internet về lượng năng lượng và nước cần thiết để xử lý các truy vấn của chatbot, cũng như so sánh chúng với các tìm kiếm internet thông thường.

Để giải quyết vấn đề này, dự án AI Energy Score, một sáng kiến hợp tác giữa Salesforce, Hugging Face, nhà phát triển AI Cohere và Đại học Carnegie Mellon, ra đời nhằm mang lại sự minh bạch. Dự án này phát triển một phương pháp chuẩn hóa để đánh giá mức độ tiêu thụ năng lượng của các mô hình AI. Mã nguồn của dự án được công khai để bất kỳ ai cũng có thể truy cập và đóng góp. Mục tiêu là khuyến khích cộng đồng AI thử nghiệm càng nhiều mô hình càng tốt.

Bằng cách phân tích 10 nhiệm vụ phổ biến (như tạo văn bản hoặc chuyển đổi âm thanh thành văn bản) trên các mô hình AI mã nguồn mở, dự án có thể xác định lượng năng lượng tiêu thụ bởi phần cứng chạy các mô hình này. Các mô hình được xếp hạng từ một đến năm sao dựa trên hiệu suất năng lượng tương đối. Kết quả cho thấy sự chênh lệch đáng kinh ngạc: mô hình tiêu tốn năng lượng nhiều nhất sử dụng năng lượng gấp 62.000 lần so với mô hình tiết kiệm nhất.

Một khu phức hợp trung tâm dữ liệu đang được phát triển tại Fayetteville, Georgia. Ảnh: Bloomberg

Công cụ mới và nhận thức của người dùng 

Kể từ khi ra mắt vào tháng 2/2025, dự án AI Energy Score đã giới thiệu một công cụ mới giúp so sánh mức tiêu thụ năng lượng của các truy vấn chatbot với các hoạt động hàng ngày như sạc điện thoại hay lái xe. Công cụ này giúp người dùng hiểu rõ hơn về tác động môi trường của các công nghệ AI mà họ sử dụng, từ đó nâng cao nhận thức về tính bền vững.

Ngành công nghệ đang đối mặt với nguy cơ không đạt được các mục tiêu về khí hậu do lượng khí thải từ AI. Cả Microsoft và Google đều dường như không còn đáp ứng được cam kết đạt mức phát thải ròng bằng 0. Tuy nhiên, cho đến nay, chưa có công ty công nghệ lớn nào đồng ý sử dụng phương pháp của AI Energy Score để kiểm tra mô hình AI của mình.

AI không chỉ đặt ra thách thức mà còn mang lại cơ hội trong cuộc chiến chống biến đổi khí hậu. Các hệ thống AI, như những hệ thống do DeepMind phát triển, đang được sử dụng để thiết kế các tấm pin mặt trời thế hệ mới, tối ưu hóa phân phối lưới điện và giảm cường độ carbon trong sản xuất xi măng.

Các công ty công nghệ cũng đang chuyển hướng sang các nguồn năng lượng sạch hơn. Microsoft đầu tư vào nhà máy điện hạt nhân Three Mile Island, trong khi Alphabet thử nghiệm các lò phản ứng hạt nhân mô-đun nhỏ. Năm 2024, ngành công nghệ đóng góp 92% vào lượng mua năng lượng sạch mới tại Mỹ.

Để giải quyết vấn đề tiêu thụ năng lượng, các công ty như OpenAI, Anthropic và những công ty khác cần công khai mức tiêu thụ năng lượng của mô hình AI của họ. Nếu họ từ chối, cần có luật định bắt buộc công khai thông tin này.

Người dùng cũng nên được cung cấp công cụ để hiểu rõ lượng năng lượng tiêu thụ cho mỗi yêu cầu AI. Điều này có thể khuyến khích họ hạn chế sử dụng AI cho các tác vụ không cần thiết, như tra cứu thủ đô của một quốc gia. Tăng cường minh bạch cũng sẽ thúc đẩy các công ty phát triển dịch vụ AI lựa chọn các mô hình nhỏ hơn, bền vững hơn thay vì phụ thuộc vào các mô hình lớn, tiêu tốn nhiều năng lượng.