IEA "세계 전력 소비에서 데이터센터 비중, 많게는 1.5%"

최근 챗GPT를 비롯한 생성형 인공지능(AI) 발전에 대한 기대가 높아지는 가운데, AI 관련 데이터센터 가동에 따른 전기와 물 사용량이 급증하고 있다는 우려가 나오고 있다.

블룸버그통신은 25일(일) 국제에너지기구(IEA) 자료를 인용해 데이터센터와 전송망이 세계 전력 소비에서 차지하는 비중이 각각 많게는 1.5%에 이르며, 이들을 합하면 이미 브라질의 연간 이산화탄소 배출량과 맞먹는다고 보도했다.

아마존웹서비스(AWS)의 데이터센터

(아마존웹서비스(AWS)의 데이터센터. 연합뉴스)

IEA는 AI 모델 하나를 훈련하려면 가정 100곳의 연간 사용량보다 많은 전기를 써야 하는 것으로 추산한다. 거대언어모델(LLM)의 핵심인 그래픽처리장치(GPU)는 중앙처리장치(CPU)보다 전력 사용량이 많기 때문이다.

'AI 대장주' 엔비디아의 젠슨 황 최고경영자(CEO)도 최근 "가속 컴퓨팅과 생성형 AI가 임계점에 도달했다"면서 "세계적으로 기업, 산업, 국가 전반에 걸쳐 AI 칩 수요가 급증하고 있다"고 말한 바 있다.

그런 만큼 AI 컴퓨팅에 의해 촉발되는 기후 위험이 광범위하며 화석연료에서 청정에너지 기반 전력으로 크게 변하지 않는 한 상황은 악화할 것이라는 게 블룸버그의 전망이다.

구글·마이크로소프트(MS)·아마존 등 대형 데이터센터 소유 업체들은 탄소 저감 등 기후 대응 목표를 갖고 있지만 AI 붐으로 이러한 목표 달성이 어려워지는 상황이다.

이들 업체는 이산화탄소 배출량을 줄이기 위해 친환경 에너지 사용을 늘리는 등 대책을 강구하고 있지만, AI 사용이 늘어나는 상황에서는 충분한 대응책이 되지 못하고 있다.

구글 등은 소프트웨어를 이용해 세계에서 태양광·풍력 등 남아도는 청정 전기가 있는 곳을 찾아내고 해당 지역에서 데이터센터 가동을 늘리는 방식으로 탄소 배출과 비용을 줄이려 하고 있다.

6월 태양광 발전이 저렴한 네덜란드에서 낮 동안 데이터센터를 가동하고 해가 진 뒤에는 다시 미국 캘리포니아에서 가동하는 식이다.

다만 완전한 청정에너지 사용을 실현한 사례는 아직 없으며, 각국의 데이터 주권 정책 등을 감안할 때 각지에서 데이터센터를 가동하는 것은 복잡한 문제라는 지적도 나온다.

아울러 파이낸셜타임스(FT)는 데이터센터 가동에 따른 냉각수 사용 증가도 환경 우려를 키우고 있다고 전했다.

캘리포니아주립대 리버사이드캠퍼스 연구진은 최근 네이처지에 발표한 논문을 통해 "점점 심해지는 담수 부족 위기, 길어지는 가뭄, 빠르게 노후화되는 수자원 인프라 등과 관련해 AI 모델의 비밀스러운 '물 발자국'을 알아내고 대응할 중요한 시기"라고 강조했다.

챗GPT-3가 10∼50개 질문에 답하려면 500㎖가량의 물이 필요하고, 성능이 향상된 GPT-4에는 물도 더 많이 들어간다는 것이다.

데이터센터의 열을 식히는 등 AI 관련 수요로 인해 지표나 지하에서 사라지는 물의 양이 2027년까지 42억∼66억㎥를 기록, 영국 연간 물 소비량의 절반에 달할 수 있다는 추정도 있다.

또 현지 주민들이 제기한 소송에서는 오픈AI가 챗GPT-4 모델 훈련을 끝내기 한 달 전 미국 아이오와주 웨스트디모인 지역 전체 물 사용량의 6%를 썼다는 주장도 나왔다.

데이터센터 가동 증가 속에 2022년 기준 MS(+34%)를 비롯해 구글(+22%)과 메타(+3%) 등 빅테크(거대 기술기업)의 물 소비가 늘었다.

이와 관련, 오픈AI 측은 "대형 모델을 훈련하는 데 물이 많이 드는 것을 인정한다. 우리가 효율성을 개선하려 계속 노력하는 이유 중 하나"라면서도 "LLM이 기후 대응 해법을 찾는 데 도움을 줄 수 있다고 믿는다"고 말했다.

MS 측은 "전체 데이터센터 사용 전력 가운데 일부만 AI 컴퓨팅용"이라면서 "전력 사용이 얼마나 증가하는지, AI 성장세가 탄소 중립에 어떻게 영향을 끼칠지 등은 많은 요인에 달려 있다"고 밝혔다.

<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>