최근 AI 시대가 본격화되면서 대형 AI 모델, 특히 OpenAI의 ChatGPT 시리즈, 마이크로소프트의 Bing, 그리고 딥시크 등은 수천억 개의 파라미터를 학습하고, 이를 실시간으로 운영하기 위해서는 엄청난 전력이 필요하다. AI의 전력 소모는 크게 학습 단계와 추론 단계에서 소모되는데 전자의 경우, 고성능 CPU나 NPU 등을 수천 대 병렬로 운용하면서 대부분의 에너지가 소비된다.후자의 추론 단계에서는 사용자 요청에 따라 실시간으로 AI가 답변하거나 분석을 수행하는데, 이 또한 클라우드 서버와 데이터센터의 지속적인 작동을 요