구글 검색보다 10배 전기 쓰는 챗GPT…데이터센터 전력 용량 화두로
by김현아 기자
2024.06.11 05:53:09
미국 전력연구원(EPRI) 지난주 발표
"챗GPT 시간당 4와트, 구글 검색 0.3와트 소모"
태양광 패널 쓰고, MS·카카오·SKB는 비수도권으로
[이데일리 김현아 IT전문 기자] 생성형 인공지능(AI) 서비스의 전력 소비가 중요한 위협 요인으로 떠오르면서 기업들이 데이터센터 운영시 그래픽처리장치(GPU) 확보뿐 아니라, 전력 용량을 확보하는게 화두가 되고 있다.
10일 미국 전력연구원(EPRI)이 최근 발표한 ‘파워링 인텔리전스: 인공지능과 데이터 센터 에너지 소비 분석’ 보고서에 따르면, 생성형 AI로 인해 미국 데이터 센터의 총 전력 소비가 2030년까지 166% 증가할 수 있을 것으로 전망된다.
EPRI는 생성형 AI가 전력 수요 증가를 이끌 것이라고 했다. 챗GPT 같은 서비스가 기존 검색보다 훨씬 더 많은 전력을 요구해서다. 보고서에 따르면 챗GPT 질의 요청 당 전력 소모는 2.9와트시(Wh·시간당 소비 전력)로, 구글 검색의 0.3와트시에 비해 10배에 달하는 전력을 사용한다. 오픈소스 멀티모달 AI인 ‘블룸(BLOOM)’은 4와트시(Wh)를 소모해 이미지, 오디오, 비디오 생성 같은 멀티모달 AI가 더 많은 전력을 쓰는 것이 확인됐다. EPRI는 “구글이 검색에 이와 유사한 AI를 통합한다면, 검색 당 전력 소비는 6.9~8.9와트시(Wh)로 증가할 수 있다”고 예측했다.
이에 따라 EPRI는 2030년 미국 데이터센터의 전력 사용량이 2023년 수준보다 166% 증가한 403.9테라와트시(TWh)/년에 이를 것으로 전망했다. 낮은 데이터센터 성장 시나리오에서도 전력 소비는 29% 증가해 196.3 테라와트시(TWh)/년에 이를 것으로 봤다.
데이터센터를 구축할 때 최신 엔비디아 GPU를 확보하는 것뿐만 아니라, 에너지 소모가 큰 시스템의 전력 요구 사항을 맞추는 것이 중요한 과제로 떠오르고 있다. AI 도입 경쟁이 단순히 적절한 하드웨어, 데이터, 모델을 확보하는 것을 넘어, 데이터센터 전력 문제를 해결하는 것으로 확대되고 있는 것이다.
네이버는 지난해 11월 가동을 시작한 ‘각(閣) 세종’ 데이터센터에 태양광 발전시설과 지열 에너지 등을 사용하며, 카카오도 앞으로 신규 임차 데이터센터에는 태양광 패널을 설치해 전기 사용량을 줄이기로 했지만, 이것만으로 막대한 전력 소모 문제를 해결하기는 어렵다.
IT 업계 관계자는 “거대 언어 모델(LLM)의 크기가 너무 커져 전력을 많이 소모하는 문제가 있다”며 “데이터센터를 지을 때 몇몇 임원들은 부동산 전문가가 될 정도로 전력 공급 문제가 심각해지고 있다”고 언급했다.
산업통상자원부에 따르면 2029년까지 732개의 신규 데이터센터 중 82.1%가 수도권에 집중될 것으로 예상되면서 전력 대란 우려가 커지고 있다. 데이터센터의 수도권 집중은 송·배전망 등 전력 인프라 추가 건설 부담과 함께 전력계통 혼잡을 유발할 수 있기 때문이다.
이에 따라 MS(부산), 카카오엔터프라이즈(전남), SK브로드밴드(강원) 등은 산업부의 ‘데이터센터 수도권 집중 완화 방안’에 따라 비수도권에서 데이터센터를 건설 중이다. 미국 데이터센터 개발업체 얼라인드(Aligned)는 소형 모듈 원전(SMR) 등 자체 전력 발전 시스템을 구축해 전력 문제를 직접 해결하는 걸 검토중이다.