Tiết kiệm Năng lượng Lớn từ Thay Đổi Nhỏ trong Mô hình AI: Báo cáo UNESCO Giúp Giảm 90% Tiêu thụ Điện
TechNewsWorld – 16 Tháng 7, 2025 – Một báo cáo mới được công bố bởi Tổ chức Khoa học và Văn hóa của Liên Hợp Quốc (UNESCO) và Đại học UCL (Anh) đã đưa ra kết luận quan trọng: Những thay đổi nhỏ trong cách xây dựng và sử dụng các Mô hình Ngôn ngữ Lớn (LLMs) có thể giảm đáng kể mức tiêu thụ năng lượng mà không làm giảm hiệu suất hoạt động.
Báo cáo cho biết, nếu áp dụng đồng thời các biện pháp này, tổng mức tiêu thụ năng lượng có thể giảm tới 90%. Sự cần thiết của việc tối ưu hóa năng lượng là rất lớn, khi các công cụ AI tạo sinh (GenAI) hiện đang được hơn 1 tỷ người sử dụng hàng ngày, với tổng mức tiêu thụ năng lượng hàng năm tương đương với mức sử dụng điện của một quốc gia thu nhập thấp.

Ba Chiến lược Chính để Tối Ưu Hóa Năng lượng AI
Nghiên cứu của UNESCO và UCL đã xác định ba chiến lược chính mà cả ngành công nghiệp và người dùng có thể áp dụng để chuyển đổi từ các mô hình AI tiêu tốn nhiều tài nguyên sang các mô hình bền vững hơn:
Sử dụng Mô hình Nhỏ Chuyên biệt (Smaller, Task-Specific Models):
Mức Tiết kiệm: Cắt giảm năng lượng sử dụng tới 90%.
Nguyên tắc: Hiện tại, người dùng thường dựa vào các mô hình lớn, đa năng cho mọi nhu cầu. Nghiên cứu chỉ ra rằng việc sử dụng các mô hình nhỏ hơn, được tinh chỉnh cho các tác vụ cụ thể (như tóm tắt hoặc dịch thuật), có thể đạt được hiệu suất tương đương nhưng tiêu thụ năng lượng ít hơn đáng kể.
Sử dụng Lời nhắc và Phản hồi Ngắn gọn (Shorter Prompts and Responses):
Mức Tiết kiệm: Giảm mức sử dụng năng lượng hơn 50%.
Nguyên tắc: Việc rút ngắn cả đầu vào (lời nhắc của người dùng) và đầu ra (phản hồi của AI) làm giảm khối lượng tính toán mà LLM phải xử lý, từ đó giảm chi phí vận hành.
Nén Mô hình (Model Compression):
Mức Tiết kiệm: Tiết kiệm năng lượng lên đến 44%.
Nguyên tắc: Các kỹ thuật nén mô hình như quantization (lượng tử hóa), giúp thu nhỏ kích thước của mô hình mà vẫn duy trì độ chính xác. Việc này giúp giảm độ phức tạp tính toán và làm mô hình chạy nhanh hơn.
Tầm quan trọng của Chuyển đổi Mô hình
Báo cáo kêu gọi các chính phủ và ngành công nghiệp đầu tư vào nghiên cứu và phát triển AI bền vững. Việc chuyển đổi sang các mô hình nhỏ hơn không chỉ giúp giảm lượng khí thải carbon mà còn làm cho AI dễ tiếp cận hơn ở những khu vực có nguồn tài nguyên thấp, nơi năng lượng và nước khan hiếm.
Tuy nhiên, các chuyên gia cũng cảnh báo rằng việc nén hoặc tinh chỉnh quá mức có thể dẫn đến giảm độ chính xác hoặc khả năng lý luận logic của mô hình. Điều quan trọng là kết hợp nhiều tối ưu hóa – mô hình nhỏ hơn, nén, nhắc lệnh hiệu quả và sử dụng phần cứng tốt hơn – để nhân lên mức tiết kiệm.