본문 바로가기
  • '전기먹는 하마'···일반 검색 보다 전력 소모 10배하는 생성형AI

    생성형 AI발 전력부족, 에너지 위기가 현실로 다가오고 있다. 생성형 AI 구동을 위해서는 컴퓨터가 복잡한 연산을 처리해야 하는데 그 과정에서 엄청난 전력을 소비하기 때문이다. 우리가 챗GPT에 질문 한 번 할 때 소모하는 전력량은 기존 인터넷 서비스의 10배 이상이다. 예를 들어 구글 검색엔 평균 0.3Wh의 전력이 쓰이는 반면 챗GPT는 한 번에 2.9Wh를 소모한다. 이미지 생성 AI가 이미지 하나를 만들 때는 스마트폰 한 대를 충전할 수 있는 양의 에너지가 필요하다. 실제로 국제에너지기구(IEA)에 따르면 생성형 AI가 본격적으로 개발되고 상용화된 2022년에 세계의 데이터 센터가 썼던 연간 전력량은 460테라와트시(TWh)에 달했다. 2015년(200TWh)의 두 배 이상으로 늘어난 용량이다. 파이낸셜 리뷰는 IEA가 2026년 데이터 센터들이 전 세계적으로 1000TWh 이상 전력을 소비할 것으로 추정했다고 지난 18일 보도했다. 빅테크들은 앞으로 다가올지도 모를 전력 부족 대비에 나서며 데이터 센터 구축에 힘을 쏟고 있다. 아마존은 지난달 초 인근 원자력발전소에서 전력을 공급받는 데이터 센터를 6억5000만달러에 인수했고, 엔비디아 젠슨 황 CEO는 지난달 19일 데이터 센터 인프라 구축에 1조달러(약 1339조원)를 투입하겠다 밝혔다. 이에 IEA는 미국 데이터센터의 전력 소비가 2026년까지 총 수요의 4%에서 6%로 증가할 것으로 예상하며 “데이터센터의 에너지 소비 급증을 완화하려면 최신 규정과 기술 개선이 중요할 것”이라 덧붙였다. 임나영 인턴기자 ny924@hankyung.com 

    2024.04.24 14:14:57

    '전기먹는 하마'···일반 검색 보다 전력 소모 10배하는 생성형AI