WSJ, AI의 실질적 에너지 소비 추적 보도... 기업엔 '정보 공개' 촉구
"AI에게 이메일을 쓰라거나 고양이 영상을 만들라고 입력할 때, 우리는 스테이크 한 점을 굽는 데 맞먹는 전기를 소비하고 있다."고 월스트리트저널(WSJ)이 26일 보도했다.
미국 *월스트리트저널(WSJ)*은 26일, 자사 테크 칼럼니스트 조애나 스턴(Joanna Stern)이 버지니아주 애시번(Ashburn)에 위치한 데이터센터를 직접 찾아가 AI 프롬프트 사용이 실제로 얼마나 많은 에너지를 소모하는지를 탐사한 기획 기사를 보도했다.
Hugging Face의 AI·기후 리더 사샤 루시오니 박사는 자체 테스트와 오픈소스 모델을 활용해 아래와 같은 에너지 추정치를 내놨다:
-
텍스트 생성: 경량형 Llama 모델 - 0.17Wh, 대형 모델 - 1.7Wh
-
이미지 생성 (1024x1024 한 장): 1.7Wh
-
영상 생성 (6초, 480p 기준): 20~110Wh
스턴 기자는 직접 전기 그릴과 전력계량기를 이용해 실험도 진행했다. 스테이크 한 점을 중간 정도로 익히는 데 사용된 전기는 220Wh. 이는 AI 영상 2개를 생성하는 데 소요되는 에너지와 맞먹는 수치다.

그녀는 "우리는 AI에게 무언가를 요청할 때마다 거대한 데이터센터 내 GPU 클러스터에서 새로운 전기 소비가 시작된다"고 경고하면서도, "정작 주요 AI 기업들은 개별 프롬프트별 전력 소비량에 대한 정보를 제대로 공개하고 있지 않다"고 지적했다.
현재까지 OpenAI만이 ChatGPT 질의 1건당 평균 0.34Wh의 에너지를 사용한다고 밝혔을 뿐이며, Google과 Meta는 자사 지속가능성 보고서를 언급하며 구체적인 수치는 공개하지 않았다.
에너지 소비량을 자체 추산해온 오픈소스 AI 플랫폼 허깅페이스(Hugging Face)의 사샤 루시오니 연구원은 "상업용 AI 모델은 대부분 비공개이며, 지금으로선 오픈모델에 기반한 추정치밖에 낼 수 없다"고 설명했다.
하지만 전력 소비 문제는 점점 더 심각해지고 있다. 미 에너지부와 로렌스 버클리 연구소에 따르면, 2028년까지 데이터센터가 미국 전체 전력의 12%를 소비할 수 있다고 경고했다.
스턴 기자는 기사 말미에서 "모든 AI 사용이 낭비는 아니다"라며 "실제로 내가 본 GPU 슈퍼팟은 신약 개발을 위해 사용되고 있었다"고 전했다. 다만 그녀는 "우리가 어떤 목적으로, 얼마나 자주 AI를 사용하는지에 대해 생각해봐야 할 시점"이라고 강조했다.







