Các công cụ trí tuệ nhân tạo (AI) như ChatGPT đang rất phổ biến trên toàn thế giới. Hằng ngày, mọi người sử dụng chúng để viết, dịch, trả lời câu hỏi,… Nhưng việc vận hành các hệ thống AI mạnh mẽ này đòi hỏi rất nhiều năng lượng, đặc biệt là các mô hình ngôn ngữ lớn (LLM).
Một nghiên cứu mới của các nhà nghiên cứu tại Đại học College London cho thấy, chúng ta có thể làm giảm đáng kể mức sử dụng năng lượng của AI, bằng cách thực hiện một số thay đổi đơn giản đến bất ngờ. Nghiên cứu được công bố trong báo cáo mới của UNESCO và trình bày tại Hội nghị toàn cầu AI vì mục đích tốt đẹp, ở Geneva.
Nhóm nghiên cứu thử nghiệm với một mô hình AI nguồn mở có tên là LLaMA 3.1 8B từ Meta. Vì nó có thể được sửa đổi hoàn toàn, nên các nhà nghiên cứu có thể thử nghiệm các kỹ thuật tiết kiệm năng lượng khác nhau, điều mà các mô hình đóng như GPT-4 không thể thực hiện được.
Họ phát hiện rằng, việc giảm chữ số thập phân dùng trong các phép tính AI - phương pháp được gọi là lượng tử hóa - có thể giảm mức tiêu thụ năng lượng tới 44% mà vẫn giữ độ chính xác gần như nhau. Cách này hiệu quả, vì làm tròn số giúp phép tính đơn giản hơn, giống như cách giải 2 + 2 dễ hơn so với giải 2,34 + 2,17.
Nhóm nghiên cứu cũng phát hiện rằng, việc sử dụng các gợi ý ngắn hơn (hướng dẫn người dùng) và các phản hồi AI ngắn gọn hơn, giúp giảm mức sử dụng năng lượng nhiều hơn nữa. Ví dụ, việc giảm một nửa độ dài phản hồi, dẫn đến mức tiêu thụ năng lượng giảm 54%.
Trong một phần khác của nghiên cứu, các nhà nghiên cứu so sánh mô hình LLaMA lớn với các mô hình AI nhỏ hơn nhiều, mỗi mô hình được đào tạo để chuyên về một nhiệm vụ, chẳng hạn như tóm tắt văn bản, dịch thuật hoặc trả lời câu hỏi.
Những mô hình nhỏ hơn sử dụng năng lượng ít hơn đáng kể: ít hơn 15 lần cho việc tóm tắt, ít hơn 35 lần cho việc dịch thuật và ít hơn 50 lần cho việc trả lời các câu hỏi chung. Đáng ngạc nhiên là chúng cũng chính xác hơn một chút so với mô hình lớn hơn.
Khi các nhà nghiên cứu tính toán lượng năng lượng có thể tiết kiệm, nếu các chiến lược này sử dụng cho các truy vấn chỉ trong một ngày trên ChatGPT, kết quả thật ấn tượng. Việc kết hợp lượng tử hóa với các lời nhắc và phản hồi ngắn hơn có thể giảm 75% mức tiêu thụ năng lượng, đủ để cung cấp điện cho 30.000 hộ gia đình ở Anh trong một ngày.
Đối với các nhiệm vụ lặp đi, lặp lại, như tóm tắt và dịch thuật, việc sử dụng các mô hình nhỏ hơn và tin nhắn ngắn hơn có thể cắt giảm hơn 90% mức tiêu thụ năng lượng, tương đương với việc cung cấp điện cho 34.000 hộ gia đình.
Theo các tác giả của báo cáo, việc sử dụng mô hình AI có kích thước phù hợp cho công việc là chìa khóa để xây dựng một tương lai bền vững. Đối với các tác vụ phức tạp hoặc sáng tạo, mô hình lớn vẫn có thể hữu ích. Nhưng với các công việc đơn giản hơn như dịch thuật, thu thập dữ liệu cơ bản, mô hình nhỏ hơn vẫn thực hiện tốt công việc và sử dụng năng lượng ít hơn nhiều.
Các nhà nghiên cứu hy vọng, khi sự cạnh tranh giữa các công ty AI ngày càng gia tăng, hiệu quả sẽ trở thành ưu tiên hàng đầu. Họ cho rằng, tương lai của AI không nên là những mô hình lớn hơn và mạnh hơn, mà nên là việc chúng ta thiết kế và sử dụng chúng thông minh hơn.