Cuộc Đua Tiêu Thụ Năng Lượng Của AI

Cuộc Đua Tiêu Thụ Năng Lượng Của AI

Mô hình ngôn ngữ lớn (LLM) như GPT-5 của OpenAI đang dẫn đầu cuộc cách mạng AI, nhưng AI tiêu thụ điện năng ở mức khổng lồ, gây ra lo ngại về tác động môi trường. Dựa trên nghiên cứu từ Phòng thí nghiệm AI tại Đại học Rhode Island (The Guardian), bài viết này phân tích mức tiêu thụ năng lượng của AI, so sánh với các mô hình AI phổ biến khác, và các giải pháp để giảm thiểu tác động của AI đến môi trường và năng lượng.

I. GPT-5: Nhu Cầu Năng Lượng Khổng Lồ

Mô hình GPT-5 của OpenAI tiêu thụ năng lượng đáng kinh ngạc, phản ánh sự đánh đổi giữa hiệu suất AI và AI tiêu thụ điện năng. Theo nghiên cứu từ Phòng thí nghiệm AI tại Đại học Rhode Island, được The Guardian công bố ngày 9/8/2025 cho thấy:

  • GPT-5 tiêu thụ trung bình 18,35 Wh cho mỗi 1.000 token truy vấn thông thường, và lên đến 40 Wh cho các truy vấn dài hoặc chế độ suy luận đặc biệt.
  • So với GPT-4 (2,12 Wh/1.000 token), GPT-5 tiêu tốn năng lượng gấp 8,6 lần, làm nổi bật thách thức về năng lượng trong lĩnh vực AI (The Guardian, windowscentral.com).

Theo The Verge (21/7/2025), ChatGPT xử lý khoảng 2,5 tỷ truy vấn mỗi ngày. Nếu tất cả sử dụng GPT-5, tổng mức AI tiêu thụ điện năng ước tính:

18,35 Wh × 2,5 tỷ truy vấn/ngày ≈ 45,875 GWh/ngày, tương đương với:

  • Nhu cầu điện của 1,5 triệu hộ gia đình Mỹ trong một ngày. 
  • Sản lượng của 2–3 lò phản ứng hạt nhân hoạt động liên tục.

Cuộc Đua Tiêu Thụ Năng Lượng Của AI

Con số này cho thấy GPT-5 không chỉ là một bước nhảy vọt về hiệu suất AI mà còn là một thách thức lớn về năng lượng, đặc biệt khi các trung tâm dữ liệu AI dự kiến chiếm 8–10% tổng điện năng toàn cầu vào năm 2030 (webpronews.com).

 

II. Tổng Quan Bức Tranh Tiêu Thụ Điện Năng Của Các Mô Hình AI

Để minh họa mức độ tiêu thụ năng lượng của AI, bảng dưới đây so sánh GPT-5 với các mô hình LLM phổ biến khác, dựa trên dữ liệu từ các nguồn đáng tin cậy:

Mô hình

Năng lượng mỗi truy vấn (Wh)

Tỷ lệ so với GPT-4

Nguồn

GPT-5 (OpenAI)

18,35 (1.000 token)

8,6x

The Guardian (08/2025)

GPT-4 (OpenAI)

2,12 (1.000 token)

1x

The Guardian (08/2025)

GPT-3 (OpenAI)

3,0

1,42x

Marmelab (Zaninotto, 03/2025)

Llama-3-70B (Meta)

1,7

0,8x

Marmelab (Zaninotto, 03/2025)

BERT (Google)

0,65

0,31x

Đại học Rhode Island (The Guardian)

Ghi chú:

  • Số liệu GPT-5 và GPT-4 dựa trên giả định sử dụng phần cứng Nvidia DGX H100/H200 (The Guardian).
  • Llama-3-70B (70 tỷ tham số) tiêu thụ 1,7 Wh/truy vấn, thấp hơn GPT-3 nhưng cao hơn GPT-4 do kích thước mô hình nhỏ hơn và tối ưu hóa (AI Energy Score Benchmark).

Ngoài ra việc đào tạo các mô hình AI cũng tiêu tốn năng lượng khổng lồ—không chỉ là câu chuyện kỹ thuật, mà còn là vấn đề môi trường nghiêm trọng. Ví dụ: Theo giáo sư Mosharaf Chowdhury (University of Michigan): đào tạo GPT‑3 tiêu tốn ~1.287 MWh (megawatt-giờ), tương đương năng lượng để một hộ gia đình Mỹ dùng… 120 năm. Đồng thời thải hơn 550 tấn COe, và cần hơn 700.000 lít nước để làm mát – gần bằng thể tích 2/3 hồ bơi Olympic! ) – Nguồn: Marmelab (Zaninotto, 03/2025).

Đồng thời, Google cũng ước tính 40% năng lượng AI tiêu thụ là dùng cho đào tạo, 60% cho suy luận (inference) – Nguồn: Marmelab (Zaninotto, 03/2025).

Theo nghiên cứu của tổ chức phi lợi nhuận có trụ sở tại Lausanne, Thụy Sĩ, Foundations & Frontiers (11/7/2024), nhu cầu điện của các trung tâm dữ liệu toàn cầu dành cho AI sẽ gấp đôi vào năm 2026, tương đương lượng điện tiêu thụ của Nhật Bản, và dự kiến tăng 160% vào năm 2030. (Goldman Sachs). Và theo ước tính của Reuters công bố thì nếu xu hướng tiếp tục, năng lượng dùng cho các trung tâm AI có thể tăng thêm 370 TWh toàn cầu vào năm 2033.

 

III. Tiến Bộ Về Hiệu Quả Năng Lượng: Giảm Tác Động Của AI Tiêu Thụ Điện Năng

Các tiến bộ trong phần mềm và phần cứng đang giúp giảm đáng kể AI tiêu thụ điện năng, đồng thời giảm lượng khí thải CO2 và chi phí vận hành:

1. Phần Mềm: Tối Ưu Hóa Mô Hình AI

Các kỹ thuật phần mềm tiên tiến cho phép tạo ra các mô hình AI nhỏ hơn, hiệu quả hơn, nhưng vẫn đạt hiệu suất tương đương hoặc vượt trội so với các mô hình lớn hơn, tiêu tốn ít năng lượng hơn. Các phương pháp chính bao gồm:

  • Chưng cất kiến thức: Chuyển kiến thức từ mô hình lớn sang mô hình nhỏ hơn, giảm số lượng tham số mà vẫn giữ hiệu suất cao. Ví dụ, Llama-3-70B (70 tỷ tham số) của Meta vượt trội GPT-4-Turbo (ước tính 1,8 nghìn tỷ tham số) trong các bài kiểm tra hiệu suất như LLMArena, nhưng tiêu thụ chỉ 1,7 Wh/truy vấn so với 2,12 Wh/truy vấn của GPT-4 theo Marmelab (Zaninotto, 03/2025)
  • Cắt tỉa mô hình: Loại bỏ các phần không cần thiết của mô hình, giảm số lượng phép tính. Theo Nature (2024), cắt tỉa có thể giảm 30–50% năng lượng tiêu thụ trong giai đoạn suy luận mà không làm giảm đáng kể chất lượng đầu ra.
  • Lượng tử hóa: Giảm độ chính xác của các tham số (ví dụ, từ 32-bit xuống 8-bit), giúp giảm 20–40% năng lượng cần thiết cho suy luận (McKinsey, 2024).
  • Kết hợp chuyên gia (MoE): Chỉ kích hoạt một phần mô hình cho mỗi truy vấn, giảm năng lượng tiêu thụ. Ví dụ, mô hình Mixtral-8x7B sử dụng MoE đạt hiệu suất tương đương GPT-3 nhưng tiêu thụ năng lượng thấp hơn 25% Theo Marmelab (Zaninotto, 03/2025)

Ví dụ: DeepSeek v3 (671 tỷ tham số) của Reka AI được đào tạo với chi phí 5,5 triệu USD, thấp hơn nhiều so với 100 triệu USD của GPT-4 (ước tính 1,8 nghìn tỷ tham số), nhờ sử dụng các kỹ thuật tối ưu hóa như chưng cất và MoE – Marmelab (Zaninotto, 03/2025). Điều này cho thấy các mô hình nhỏ hơn có thể đạt hiệu quả năng lượng cao hơn đáng kể.

2. Phần Cứng: GPU Hiệu Suất Cao

Cải tiến phần cứng, đặc biệt là GPU, tăng hiệu suất trên mỗi watt, giảm AI tiêu thụ điện năng cho cả đào tạo và suy luận:

  • Tiết kiệm năng lượng hàng năm: GPU mới, như dòng Nvidia Blackwell, tiết kiệm 40% năng lượng mỗi năm so với thế hệ trước. Theo IEA (2024), hiệu suất GPU đã cải thiện 20 lần từ năm 2010 đến 2024, giảm năng lượng cần thiết cho mỗi phép tính AI.
  • Hiệu quả đào tạo: Đào tạo GPT-3 cần 1.287 GWh, nhưng với phần cứng hiện đại như Nvidia H200, chi phí năng lượng có thể giảm 30–50% cho các mô hình tương tự (McKinsey, 2024).
  • Hiệu quả suy luận: Các chip như Nvidia Blackwell cung cấp hiệu suất suy luận cao hơn 2,5 lần so với H100, giảm năng lượng tiêu thụ trên mỗi truy vấn xuống 0,5–1 Wh cho các mô hình tối ưu (Nvidia, 2025).

IV. Lợi Ích Môi Trường Tiềm Năng Của AI

AI không chỉ tiêu thụ năng lượng mà còn có tiềm năng giảm khí thải CO2 khi được áp dụng đúng cách, thay thế các quy trình tốn năng lượng hơn hoặc tối ưu hóa các hệ thống hiện có.

1. Tối ưu hóa năng lượng trong trung tâm dữ liệu:

  • Google sử dụng mạng nơ-ron của DeepMind để tối ưu hóa hệ thống làm mát, giảm 40% năng lượng làm mát15% tổng hiệu quả sử dụng điện năng (PUE) của trung tâm dữ liệu (Zaninotto, 2025).
  • Theo IEA (2024), việc áp dụng AI để quản lý năng lượng trong trung tâm dữ liệu có thể tiết kiệm 10–20% tổng tiêu thụ điện toàn cầu của các trung tâm này vào năm 2030.

2. Thay thế công việc con người:

  • AI soạn thảo hợp đồng pháp lý trong 15 phút, tiêu thụ năng lượng tương đương một bóng đèn 10W trong 1,8 phút (Zaninotto, 2025), so với 4 ngày làm việc của luật sư, tiết kiệm 90–95% năng lượng liên quan đến không gian làm việc, thiết bị và đi lại (Nature, 2024).
  • Một nghiên cứu của Nature (2024) cho thấy AI giảm 50–70% lượng khí thải CO2 khi thực hiện các tác vụ văn bản và minh họa so với con người.

3. Ứng dụng tiết kiệm năng lượng khác:

  • Dự báo năng lượng tái tạo: AI giúp dự báo sản lượng năng lượng mặt trời ở California, giảm 18% lượng năng lượng mặt trời bị lãng phí nhờ tối ưu hóa lưu trữ pin (Zaninotto, 2025).
  • Bảo trì dự đoán: AI trong công nghiệp giảm 8–12% chi phí bảo trì bằng cách dự đoán hỏng hóc, tiết kiệm năng lượng liên quan đến sửa chữa khẩn cấp (Zaninotto, 2025).
  • Tối ưu hóa băng thông: Netflix sử dụng AI để mã hóa video, tiết kiệm 20% băng thông mà không làm giảm chất lượng, giảm năng lượng tiêu thụ cho truyền tải dữ liệu (Zaninotto, 2025).
  • Tác động dài hạn: Theo McKinsey (2024), việc áp dụng AI trong các ngành như năng lượng, giao thông và sản xuất có thể giảm 10–15% khí thải CO2 toàn cầu vào năm 2030 nếu được triển khai rộng rãi, vượt xa lượng khí thải từ chính AI (ước tính 4–5% tổng khí thải từ CNTT, Zaninotto, 2025).
 

V. kết luận

Việc AI tiêu thụ điện năng và phát thải CO2 đang đặt ra thách thức lớn về năng lượng và môi trường. Nhưng những tiến bộ về phần mềm và phần cứng đang giảm chi phí môi trường. AI có thể mang lại lợi ích ròng nếu thay thế các quy trình tốn năng lượng hơn (như tìm kiếm Google hoặc công việc con người).

Tuy nhiên,  để giải quyết thách thức AI tiêu thụ điện năng, cần:

  • Đẩy mạnh Sử dụng năng lượng tái tạo và đầu tư chi phí vào việc phát triển hệ thống cung cấp và truyền tải điện năng
  • Ưu tiên phát triển và khuyến khích sử dụng các mô hình AI nhỏ, hiệu quả (Ví dụ như Llama-3-70B) cho các tác vụ đơn giản, phù hợp.
  • Thực hiện đánh giá vòng đời để đảm bảo AI mang lại lợi ích ròng về môi trường.

Quan trọng nhất chính Người dùng nên sử dụng AI có trách nhiệm, ưu tiên ứng dụng AI vào các tác vụ mang lại hiệu quả cao, đồng thời giảm tác động môi trường từ các lĩnh vực khác như ăn uống và đi lại.

 

VI. Nguồn: