Trí tuệ nhân tạo (AI) hiện có vai trò quan trọng trong cuộc sống hiện đại, hỗ trợ cho nhiều ứng dụng, từ chatbot đến nhận dạng hình ảnh. Tuy nhiên, mức tiêu thụ năng lượng của các hệ thống AI, đặc biệt là các mô hình ngôn ngữ lớn, là vấn đề đáng quan tâm.
Điều gì thúc đẩy mức tiêu thụ năng lượng của AI?
Các hệ thống này dựa vào các trung tâm dữ liệu, đòi hỏi lượng điện lớn để tính toán, lưu trữ và truyền dữ liệu. Chỉ riêng tại Đức, các trung tâm dữ liệu tiêu thụ khoảng 16 tỉ kWh vào năm 2020, chiếm khoảng 1% tổng mức sử dụng năng lượng của quốc gia này.
Đến năm 2025, con số này dự kiến tăng lên 22 tỉ kWh, phản ánh nhu cầu ngày càng tăng đối với các dịch vụ hỗ trợ AI. Mức tiêu thụ năng lượng của AI rõ ràng ngày càng đặt ra thách thức đáng kể đối với môi trường.
Theo nghiên cứu từ các nguồn như Built In, năng lượng dùng để tạo ra một hình ảnh duy nhất từ trình tạo hình ảnh AI có thể bằng năng lượng dùng để sạc đầy một chiếc điện thoại thông minh. Đây là một ví dụ thực tế về mức tiêu thụ điện năng của AI.
Ngoài ra, Cơ quan năng lượng quốc tế (IEA) nhấn mạnh rằng, các tương tác với các hệ thống AI như ChatGPT có thể tiêu thụ điện năng nhiều hơn đáng kể so với các truy vấn công cụ tìm kiếm thông thường.
IEA cũng cho hay, mức tiêu thụ điện gia tăng của các trung tâm dữ liệu, tiền điện tử và AI trong giai đoạn 2022 - 2026 có thể tương đương mức tiêu thụ điện của Thụy Điển hoặc Đức. Điều này cho thấy quy mô tiêu thụ năng lượng của AI.
Cốt lõi của vấn đề này nằm ở sức mạnh tính toán cần thiết để đào tạo và vận hành các mô hình AI tiên tiến. Các mô hình này đòi hỏi phải xử lý các tập dữ liệu lớn, dẫn đến việc sử dụng phần cứng mạnh mẽ như GPU, TPU trong thời gian dài và chuyên sâu, tiêu thụ một lượng lớn điện năng.
Bên cạnh đó, nhu cầu năng lượng này càng tăng cao ở các trung tâm dữ liệu, vốn đòi hỏi nguồn điện rất lớn cho cả việc tính toán dữ liệu và làm mát máy chủ.
Hiểu về mạng nơ-ron
Để giải quyết thách thức tiêu thụ điện năng của AI, các nhà nghiên cứu của TUM phát triển một phương pháp đào tạo mang tính đột phá, nhanh hơn 100 lần nhưng vẫn đảm bảo độ chính xác tương đương các kỹ thuật hiện có.
Các hệ thống AI dựa vào mạng nơ-ron nhân tạo, lấy cảm hứng từ bộ não con người. Các mạng này bao gồm các nút (nơ-ron nhân tạo) được kết nối với nhau, xử lý tín hiệu đầu vào.
Mỗi kết nối được gắn trọng số với các tham số cụ thể và khi đầu vào vượt quá ngưỡng, tín hiệu sẽ được truyền tiếp.
Việc đào tạo mạng nơ-ron liên quan đến việc điều chỉnh các tham số này, thông qua các lần lặp lại để cải thiện dự đoán. Tuy nhiên, quá trình này tốn kém về mặt tính toán, góp phần làm tăng mức sử dụng điện.
Phương pháp đào tạo hiệu quả hơn
Nhóm nghiên cứu đã giới thiệu một phương pháp tiếp cận sáng tạo đối với đào tạo mạng nơ-ron. Thay vì dựa vào các phương pháp lặp truyền thống, kỹ thuật của họ sử dụng phương pháp lựa chọn tham số xác suất.
Phương pháp này tập trung vào việc xác định các điểm quan trọng trong dữ liệu đào tạo - nơi xảy ra những thay đổi nhanh chóng và đáng kể - và chỉ định các giá trị một cách chiến lược, dựa trên phân phối xác suất.
Bằng cách nhắm mục tiêu vào các vị trí quan trọng trong tập dữ liệu, phương pháp này làm giảm đáng kể số lần lặp cần thiết, dẫn đến tiết kiệm điện năng đáng kể.
Với việc giảm lượng điện năng tiêu thụ trong quá trình đào tạo AI, phương pháp này không chỉ giúp giảm chi phí vận hành mà còn điều chỉnh sự phát triển AI phù hợp với các mục tiêu phát triển bền vững toàn cầu.
Bước đột phá của nhóm TUM có khả năng giảm đáng kể mức tiêu thụ năng lượng của AI, đánh dấu một bước tiến quan trọng hướng tới việc làm cho AI thân thiện hơn với môi trường mà không ảnh hưởng đến hiệu suất, giúp việc áp dụng AI trở nên bền vững hơn.