Tuyên bố giảm 33 lần năng lượng AI của Google gây tranh cãi về thống kê gây hiểu lầm

Nhóm Cộng đồng BigGo
Tuyên bố giảm 33 lần năng lượng AI của Google gây tranh cãi về thống kê gây hiểu lầm

Google gần đây đã công bố mức giảm đáng kể 33 lần tiêu thụ năng lượng cho các truy vấn AI chỉ trong một năm, nhưng cộng đồng công nghệ đang đặt câu hỏi liệu những con số ấn tượng này có kể hết câu chuyện hay không. Tuyên bố này đã châm ngòi cho một cuộc tranh luận sôi nổi về cách các công ty trình bày dữ liệu tác động môi trường và liệu phương pháp của Google có tạo ra một bức tranh gây hiểu lầm về chi phí năng lượng thực sự của AI hay không.

Các chỉ số năng lượng AI được Google báo cáo:

  • Prompt văn bản trung vị của Gemini Apps : 0.24 watt-giờ năng lượng
  • Phát thải carbon: 0.03 gram CO2 tương đương mỗi prompt
  • Tiêu thụ nước: 0.26 mililit mỗi prompt
  • Tương đương với ~9 giây xem TV mỗi truy vấn

Tranh cãi về Trung vị và Trung bình

Trọng tâm của tranh cãi nằm ở việc Google chọn báo cáo mức tiêu thụ năng lượng trung vị thay vì tiêu thụ trung bình. Các nhà phê bình cho rằng cách tiếp cận thống kê này cho phép Google trình bày những con số thấp hơn đáng kể bằng cách bao gồm vô số hoạt động AI nhỏ từ tóm tắt tìm kiếm cùng với các tác vụ tốn nhiều năng lượng hơn. Khi Google chạy các mô hình AI nhỏ cho mọi truy vấn tìm kiếm để tạo ra những tổng quan AI xuất hiện ở đầu kết quả tìm kiếm, những hoạt động nhẹ này có thể kéo giảm đáng kể giá trị trung vị.

Điều này giống như thêm 8 bữa ăn phụ chỉ với một lá rau diếp và sau đó tuyên bố rằng bạn đã giảm lượng calo trung vị trong các bữa ăn của mình.

Thủ thuật thống kê này có nghĩa là trong khi các mô hình mạnh nhất của Google như Gemini 2.5 Pro có thể vẫn tiêu thụ năng lượng đáng kể, việc tính toán trung vị tập trung vào các mô hình nhỏ hơn nhiều xử lý các tác vụ tìm kiếm thường xuyên. Cộng đồng chỉ ra rằng khi các công ty thường báo cáo về mức tăng hiệu quả, họ sử dụng trung bình vì chúng thể hiện tốt hơn tác động tổng thể trên tất cả các hoạt động.

Thiếu thông số cụ thể về mô hình làm dấy lên lo ngại

Một mối quan tâm lớn khác là sự miễn cưỡng của Google trong việc cung cấp dữ liệu tiêu thụ năng lượng cụ thể cho từng mô hình. Báo cáo thảo luận về Gemini Apps và sử dụng các thuật ngữ rộng như Gemini trung vị mà không xác định rõ ràng các mô hình AI cụ thể nào được bao gồm trong các tính toán. Sự mơ hồ này khiến các nhà nghiên cứu và đối thủ cạnh tranh không thể xác minh các tuyên bố hoặc hiểu được những cải tiến thực sự đã xảy ra.

Cộng đồng kỹ thuật lưu ý rằng báo cáo của Google cẩn thận tránh nêu tên các phiên bản mô hình cụ thể khi thảo luận về việc giảm năng lượng, không giống như các tài liệu tiếp thị thông thường sẽ làm nổi bật những cải tiến cho các sản phẩm hàng đầu. Sự thiếu sót này cho thấy những mức tăng hiệu quả ấn tượng có thể không áp dụng cho các mô hình lớn, có khả năng mà hầu hết người dùng nghĩ đến khi thảo luận về hiệu suất AI.

Những gì bị loại trừ khỏi phân tích của Google:

  • Chi phí năng lượng huấn luyện mô hình AI
  • Mức tiêu thụ năng lượng của cơ sở hạ tầng mạng
  • Tải tính toán của thiết bị người dùng cuối
  • Năng lượng từ các lần huấn luyện thất bại/không sử dụng

Những cải tiến thực sự bị chôn vùi trong tiếp thị

Bất chấp những lo ngại về thống kê, Google đã có những tiến bộ kỹ thuật thực sự góp phần vào hiệu quả năng lượng. Công ty đã triển khai một số kỹ thuật tối ưu hóa bao gồm kiến trúc Mixture-of-Experts, chỉ kích hoạt những phần của mô hình AI cần thiết cho các yêu cầu cụ thể. Họ cũng phát triển các phiên bản mô hình nhỏ gọn hơn và cải thiện quản lý trung tâm dữ liệu để đảm bảo phần cứng hoạt động với hiệu quả tối đa.

Các bộ gia tốc AI tùy chỉnh của Google và ngăn xếp phần mềm được tối ưu hóa cung cấp những lợi thế bổ sung, cho phép công ty tinh chỉnh cả phần cứng và phần mềm để đạt hiệu quả tối đa. Những cải tiến kỹ thuật này đại diện cho tiến bộ thực sự trong việc làm cho các hoạt động AI bền vững hơn, ngay cả khi những con số tiêu đề có thể gây hiểu lầm.

Các Tối Ưu Hóa Kỹ Thuật Đã Triển Khai:

  • Mixture-of-Experts (MoE): Giảm nhu cầu tính toán từ 10-100 lần bằng cách chỉ kích hoạt các phần mô hình có liên quan
  • Model Quantization: Nén các mô hình trong khi vẫn duy trì hiệu suất
  • Tối Ưu Hóa Phần Cứng: Các bộ gia tốc AI tùy chỉnh được thiết kế đặc biệt cho phần mềm của Google
  • Hiệu Quả Trung Tâm Dữ Liệu: Cải thiện tỷ lệ sử dụng và trạng thái nghỉ tiêu thụ điện năng thấp
Cơ sở hiện đại này làm nổi bật những tiến bộ trong hiệu quả năng lượng và tính bền vững trong công nghệ, phản ánh những nỗ lực của Google trong việc tối ưu hóa việc sử dụng năng lượng AI
Cơ sở hiện đại này làm nổi bật những tiến bộ trong hiệu quả năng lượng và tính bền vững trong công nghệ, phản ánh những nỗ lực của Google trong việc tối ưu hóa việc sử dụng năng lượng AI

Bức tranh lớn hơn về việc sử dụng năng lượng AI

Cuộc tranh luận làm nổi bật một thách thức rộng lớn hơn trong việc đo lường tác động môi trường của AI. Trong khi hiệu quả truy vấn cá nhân đã được cải thiện, tổng khối lượng các hoạt động AI đã bùng nổ khi các công ty tích hợp các tính năng AI vào mọi sản phẩm và dịch vụ. Google hiện chạy các hoạt động AI cho mọi truy vấn tìm kiếm, tạo ra nhu cầu tính toán khổng lồ mà không tồn tại chỉ vài năm trước.

Cuộc thảo luận cũng tiết lộ sự phức tạp trong việc đo lường tiêu thụ năng lượng AI. Phân tích của Google bao gồm việc sử dụng bộ xử lý, bộ nhớ, làm mát và phát thải sản xuất phần cứng, nhưng loại trừ chi phí đào tạo và cơ sở hạ tầng mạng. Những thiếu sót này có nghĩa là chi phí môi trường thực sự của AI vẫn khó định lượng, giúp các công ty dễ dàng trình bày thống kê thuận lợi trong khi tránh bức tranh toàn cảnh.

Tranh cãi nhấn mạnh nhu cầu về các phương pháp báo cáo được tiêu chuẩn hóa và minh bạch cho việc tiêu thụ năng lượng AI. Khi AI trở nên phổ biến hơn trên tất cả các dịch vụ số, việc đo lường chính xác và báo cáo trung thực sẽ rất quan trọng để đưa ra quyết định sáng suốt về sự đánh đổi môi trường của công nghệ.

Tham khảo: Google says it dropped the energy cost of AI queries by 33x in one year