GPT-6 트레이닝 클러스터 프로젝트의 한 Microsoft 엔지니어는 한 주에 10만 개 이상의 H100 GPU가 배치되면 전력망이 붕괴될 것이라고 말했습니다. 빌 게이츠는 전력이 데이터센터의 수익성을 결정하는 핵심 요소라고 말했습니다. 향후 몇 년 동안 AI 개발은 칩 설계와 전력 공급에 의해 제한될 수 있습니다. 전력 공급 지연으로 인해 미국의 일부 데이터센터 건설이 2년에서 6년 정도 연장되었습니다.
GPT-5는 아직 사용할 수 없으며, OpenAI는 GPT-6 훈련을 시작한 것으로 보이지만 전력이 "목" 문제가 될 수 있습니다.
AI 스타트업 OpenPipe의 공동 창립자이자 CEO인 카일 코빗은 최근 GPT-6 훈련 클러스터 프로젝트를 담당하는 마이크로소프트 엔지니어와 이야기를 나눴는데, 그는 지역 간 GPU 간에 인피니밴드 수준의 링크를 배포하는 것이 정말 고통스럽다고 불평했다고 밝혔습니다.
코빗은 트레이닝 클러스터를 같은 지역에 중앙 집중화하지 않은 이유를 물었고, 마이크로소프트 엔지니어는 "그렇게 하려고 시도해 보았지만 10만 개 이상의 H100 GPU를 한 주에 배치하면 그리드가 무너집니다."라고 대답했습니다.
H100 100,000개의 개념은 무엇인가요? 참고로 시장 조사 기관인 팩토리얼 펀드(Factorial Funds)의 보고서에 따르면, 앞서 언급한 엔지니어에 따르면 OpenAI의 빈센 비디오 모델인 Sora는 피크 기간 동안 7개 주의 전력망을 붕괴시킬 수 있는 72만 개의 H100을 필요로 한다고 합니다.
데이터 센터는 수익성이 있으며 구축에 얼마나 걸릴까요? "보는 사람의 눈"에 달려 있습니다.
S&P Global의 케임브리지 에너지 위크 2024(CERAWEEK)의 막이 내리기 직전, 전 세계 에너지 업계 임원들은 업계에서 AI 기술의 발전과 에너지에 대한 AI의 엄청난 필요성에 대해 이야기했습니다.
"2030년에는 AI가 가정에서 사용하는 전력보다 더 많은 전력을 소비할 것입니다." 미국 최대 천연가스 생산업체인 EQT의 CEO인 토비 라이스는 연설에서 이러한 예측을 인용했습니다.
아마존 웹 서비스의 엔지니어링 담당 부사장인 빌 바스는 전 세계가 3일마다 새로운 데이터 센터를 추가하고 있다고 언급했습니다.
반면 빌 게이츠는 데이터 센터의 수익성을 결정하는 데 있어 전력은 핵심이며, AI가 소비하는 전력의 양은 엄청나다고 말했습니다. AI의 사용은 에너지 수요를 증가시킬 것이며 향후 몇 년 동안 칩 설계와 전력 공급에 의해 AI의 발전이 제한될 수 있다고 말했습니다.
이는 근거 없는 우려가 아닙니다. 이미 새로운 데이터 센터가 발전소보다 빠르게 건설되면서 수요와 공급 간의 격차가 나타나기 시작하고 있습니다. 미국의 상업용 부동산 서비스 회사인 CBRE 그룹은 전력 공급 지연으로 인해 데이터센터 건설 기간이 2년에서 6년까지 연장되었다고 밝혔습니다.
"에너지 거인"
AI의 '에너지 거인'이라는 타이틀은 괜한 것이 아닙니다.
OpenAI의 샘 알트먼은 AI의 에너지, 특히 전력 수요에 대해 "불평"했습니다. 연초에 그는 다보스 포럼에서 AI의 발전을 위해서는 에너지 혁신이 필요하며, AI는 예상보다 훨씬 더 많은 전력 수요를 가져올 것이라고 말했습니다.
데이터에 따르면 ChatGPT는 매일 약 2 억 건의 사용자 요청을 처리하는 데 사용되는 50 만 킬로와트시 이상의 전력을 소비해야하며 이는 미국 가정의 일일 전력 소비량의 17,000 배 이상에 해당하며 검색 대기업 인 Google의 경우 모든 사용자 검색 호출 AIGC에 포함되면 연간 전력 소비량은 29 억 킬로와트시로 증가하여 케냐, 과테말라 등과 같은 국가의 연간 전력 소비량보다 훨씬 높을 것입니다. .
AI가 아직 대규모로 발전하지 않았던 2022년을 돌아보면, 중국과 미국의 데이터 센터는 각 사회 전체 전력 소비량의 3%와 4%를 차지했습니다.
전 세계적으로 산술적 규모가 점차 커지면서 화타이 증권의 3월 24일 연구 보고서에 따르면 2030년까지 중국과 미국 데이터센터의 총 전력 소비량은 낙관적 시나리오에 따르면 2022년의 3.5배, 6배 이상인 각각 0.95조/0.65조 kWh와 1.7조/1.2조 kWh에 달할 것으로 예측했습니다. 낙관적인 시나리오에 따르면 2030년 중국과 미국의 AI 전력 소비량은 2022년 전체 사회 전력 소비량의 20%/31%에 달할 것으로 예상됩니다.
분석가들은 데이터센터가 고르게 분포되어 있지 않기 때문에 지역적 전력 부족 위험이 가장 먼저 나타날 것이라고 지적합니다(예 : 미국 버지니아 ). 역사적으로 미국의 전력 성장이 거의 없었다는 점을 고려할 때, AI는 해외 선진 지역의 전력을 다시 플러스 성장으로 되돌리기 위한 핵심 동력이 될 것입니다.
증가된 전력은 어디에서 공급될까요?
전기가 부족하면 당연히 '새로운 전기'가 필요하지만, 그 전기는 어디에서 나올까요? 전 세계적인 탄소 중립의 물결 속에서 청정에너지의 대표주자인 태양광, 풍력이 가장 먼저 떠오르지만 이는 '이상적인 선택지'일 뿐입니다.
"우리는 몇 년 안에 100기가와트의 신재생에너지(발전소)를 건설할 수 없습니다. 정말 어려운 일입니다." 어니스트 모니즈 전 미국 에너지부 장관도 인정합니다.
EQT의 CEO인 토비 라이스는 기술 기업들은 풍력이나 태양광과 같은 재생에너지가 제공하지 못하는 안정적인 전력을 충분히 필요로 하며, 대형 원자력 시설(현재 미국에는 단 한 곳만 건설 중)은 역사적으로 건설에 많은 비용과 시간이 소요된다고 덧붙였습니다. "기술 기업들은 이러한 인프라를 구축하기 위해 7~10년을 기다리지 않을 것이며, 이는 천연가스를 남길 것입니다."
이 미국 천연가스 대기업의 임원은 데이터 센터를 건설하는 기술 기업들이 이미 EQT로부터 가스 구매를 문의했으며, 라이스에게 "얼마나 빨리 공급할 수 있느냐"는 질문을 받았다고 말했습니다. "얼마나 많은 가스를 공급받을 수 있나요?"
미국 주식의 "더 이상 비밀 코너"는 없습니다.
먼저 "GPU 부족"에 이어 "전기 부족"까지, AI 개발의 길은 결코 순탄하지 않습니다.
AI의 물결을 잡으려는 미국 주식 투자자들이이 코너에 눈을 돌렸다는 점은 주목할 가치가 있습니다.
미국 최대 전력 생산업체이자 소매 에너지 공급업체인 비스트라 에너지, 미국 최대 에너지 기업 콘스텔레이션 에너지, 미국 최대 친환경 전력 기업 NRG 에너지 등이 최근 몇 년 사이 주가가 두 배 이상 뛰었고, 이번 주에는 모두 사상 최고가를 경신했다.
최근 1 년과 올해의 연간 기복을 보면이 세 회사의 실적은 "표면적으로 가장 강한 주식"인 엔비디아만큼 강하지는 않지만 "회사 뒤의"OpenAI Microsoft도 어깨를 으쓱했습니다.
이 기사는 WeChat 공개 번호 "과학 및 혁신 보드 데일리"(ID: chinastarmarket), 작성자: Zheng Yuanfang, 36 Krypton이 허가를 받아 공개했습니다.


