Ai cũng biết rằng máy học (machine learning), một nhánh của trí tuệ nhân tạo (AI), tiêu thụ rất nhiều năng lượng. Các mô hình AI cung cấp chatbot hay xây dựng video,... đều tiêu thụ lượng điện rất lớn trong máy chủ, được đo bằng megawatt mỗi giờ. Nhưng có vẻ như không ai, ngay cả các công ty đứng sau công nghệ này, có thể nói chính xác chi phí là bao nhiêu.
Theo các chuyên gia, có những ước tính việc tiêu thụ này nhưng các con số đó chỉ là một phần và chỉ cung cấp cái nhìn thoáng qua về tổng mức sử dụng năng lượng của AI. Điều này do các mô hình máy học có thể thay đổi, được định cấu hình theo những cách, làm thay đổi đáng kể mức tiêu thụ điện năng của chúng. Hơn nữa, các công ty đưa ra các mô hình AI, như Meta, Microsoft, OpenAI,... đơn giản là không chia sẻ thông tin có liên quan.
Một yếu tố quan trọng mà chúng ta có thể xác định, đó là sự khác biệt giữa việc đào tạo một mô hình lần đầu tiên và triển khai mô hình đó cho người dùng. Đào tạo một mô hình chỉ là một phần của bức tranh. Sau khi một hệ thống được tạo ra, nó được triển khai cho người dùng sử dụng để tạo đầu ra. Việc đào tạo cực kỳ tốn năng lượng, tiêu thụ nhiều điện hơn nhiều so với các hoạt động của trung tâm dữ liệu truyền thống.
Ví dụ, đào tạo một mô hình ngôn ngữ lớn như GPT-3, ước tính sử dụng gần 1.300 megawatt giờ (MWh) điện; tương đương lượng điện tiêu thụ hằng năm của 130 hộ gia đình ở Hoa Kỳ. Để hình dung rõ hơn, việc phát trực tuyến một giờ Netflix cần khoảng 0,8 kWh (0,0008 MWh) điện. Điều đó có nghĩa, bạn sẽ phải xem 1.625.000 giờ để tiêu thụ cùng lượng điện cần thiết để đào tạo GPT-3.
Nhưng thật khó để suy ra từ một con số như thế này áp dụng như thế nào đối với các hệ thống quy mô hơn. Mức tiêu thụ năng lượng có thể lớn hơn, vì các mô hình AI có xu hướng tăng dần quy mô trong những năm qua và các mô hình lớn hơn đòi hỏi nhiều năng lượng hơn. Mặt khác, các công ty có thể đang sử dụng một số phương pháp đã được chứng minh, làm cho các hệ thống này tiết kiệm năng lượng hơn, làm giảm xu hướng tăng chi phí năng lượng.
Thách thức trong việc đưa ra các ước tính tiêu thụ năng lượng là các công ty trở nên bí mật hơn khi đầu tư vào AI. Bí mật này, có thể một phần là do sự cạnh tranh giữa các công ty nhưng một phần cũng là cách để chuyển hướng sự chỉ trích của công luận về việc AI tiêu thụ quá nhiều điện.
Nếu như chỉ vài năm trước, các công ty như OpenAI sẽ công bố thông tin chi tiết về chế độ đào tạo của họ, phần cứng nào và trong bao lâu. Giờ đây, các thông tin tương tự như thế này không tồn tại đối với các mô hình mới nhất, như ChatGPT, GPT-4. Với ChatGPT, chúng ta không biết nó lớn đến mức nào, mô hình cơ bản có bao nhiêu tham số, nó đang chạy ở đâu…
Dù khó nói con số chính xác nhưng rõ ràng các mô hình AI cần rất nhiều năng lượng để hoạt động. Cuộc cách mạng AI tạo ra, đi kèm với một chi phí năng lượng toàn cầu mà chúng ta hoàn toàn không biết được. Một phân tích của chuyên gia tính toán rằng, đến năm 2027, ngành AI có thể tiêu thụ từ 85 đến 134 terawatt giờ (TWh) mỗi năm. Con số này tương đương với nhu cầu năng lượng hằng năm của Hà Lan.
Một báo cáo gần đây của Cơ quan Năng lượng quốc tế đưa ra ước tính tương tự, cho thấy mức sử dụng điện của các trung tâm dữ liệu sẽ tăng đáng kể trong tương lai gần do nhu cầu của AI và tiền điện tử. Cơ quan này cho biết, mức sử dụng năng lượng hiện tại của các trung tâm dữ liệu là khoảng 460 TWh năm 2022, có thể tăng lên từ 620 đến 1.050 TWh vào năm 2026, tương đương nhu cầu năng lượng của Thụy Điển hoặc Đức.
Nhiều người lo ngại rằng, các mô hình AI do các công ty xây dựng có xu hướng ngày càng lớn hơn và đưa nhiều dữ liệu hơn vào bất kỳ tác vụ nào. Điều đó tất nhiên sẽ kéo theo việc tiêu thụ năng lượng ngày càng nhiều hơn.
Câu hỏi đặt ra hiện nay, liệu nguồn cung năng lượng có gia tăng kịp thời để bù đắp nhu cầu và mức sử dụng công nghệ đang tăng lên hay không. Một số công ty tham gia vào AI tuyên bố rằng, bản thân công nghệ này cũng có thể giúp giải quyết vấn đề cân đối năng lượng và nhấn mạnh công ty của họ đang nỗ lực đạt mục tiêu bền vững là sử dụng năng lượng sạch, không phát thải carbon vào năm 2030.