1MW 랙 시대의 도래: 데이터센터가 AC를 버리고 800V DC로 향하는 진짜 이유
최근 Nvidia GTC 발표들을 보면서 칩 아키텍처보다 제 눈길을 끈 건 인프라, 특히 ‘전력’이었습니다. 과거 랙당 10kW 수준이던 전력 밀도가 이제 AI 팩토리라는 이름 아래 1MW를 향해 가고 있습니다. 물리 법칙의 한계에 부딪힌 거죠. IEEE Spectrum에 올라온 기사를 보니 드디어 올 것이 왔다는 생각이 듭니다. 하이퍼스케일 데이터센터들이 AC(교류)를 버리고 800V DC(직류) 아키텍처로 전환하고 있습니다.
AC 전력망의 붕괴: Double Conversion의 저주
전통적인 데이터센터 전력망은 비효율의 극치입니다. Medium-voltage AC(1kV~35kV)로 들어와서 변압기를 거쳐 480V AC로 낮추고, UPS 배터리를 위해 DC로 변환했다가, 다시 AC로 인버팅해서 서버로 보냅니다. 서버 PSU는 이걸 또 54V DC나 12V DC로 변환해 칩에 공급하죠.
이 미친 Double Conversion 과정마다 전력 손실이 발생합니다. 10kW 랙 시절엔 감수할 만했지만, 1MW 랙에서는 이 변환 손실만으로도 엄청난 발열과 비용 낭비가 생깁니다. 기사에 따르면 1MW 랙 하나에 구리 버스바(busbar)만 200kg이 필요합니다. 1GW 데이터센터라면 구리만 20만 kg입니다. 아키텍처 자체가 지속 불가능한 상태에 도달한 겁니다.
800V DC 아키텍처: 단순함이 주는 압도적 효율
해법은 심플합니다. 13.8kV AC 그리드 전력을 데이터센터 외곽에서 곧바로 800V DC로 변환해 시설 전체에 DC 버스로 뿌리는 겁니다. 랙에서는 소형 DC-DC 컨버터가 GPU와 CPU가 요구하는 전압으로 바로 낮춰줍니다.
전압을 415V에서 800V로 높이면 동일한 도체 크기로 85% 더 많은 전력을 보낼 수 있습니다. P = VI 공식에 따라 전압이 높아지면 전류량이 절반으로 줄어들고, 결과적으로 저항 손실이 급감합니다. 구리 사용량은 45%나 줄어들고, 전체 시설의 TCO를 30% 가까이 낮출 수 있습니다.
에디슨의 복수? 아니, 전력 반도체의 승리
기사 제목이 ‘에디슨의 복수(Edison’s Revenge)‘인데, 솔직히 엔지니어로서 헛웃음이 나오는 네이밍입니다. Hacker News 댓글란에서도 이 부분을 정확히 지적하고 있죠.
테슬라가 과거에 AC를 고집했던 건 당시 고전압 DC를 제어하고 변환할 ‘고전력 트랜지스터’가 없었기 때문입니다. 변압기를 쓸 수 있는 AC가 장거리 송전에 유리한 유일한 답이었죠. 만약 테슬라 시대에 지금 같은 전력 반도체가 있었다면, 그 역시 주저 없이 고전압 DC를 선택했을 겁니다.
지금 우리가 800V DC 아키텍처를 논할 수 있는 건 에디슨이 옳아서가 아니라, GaN (갈륨나이트라이드)과 SiC (실리콘카바이드) 같은 Wide-bandgap 반도체 기술이 성숙했기 때문입니다. 전기차(EV) 고속 충전과 군사 레이더 기술이 발전하면서 이 전력 반도체들의 단가가 내려가고 효율이 극대화되었습니다. Eaton이나 Delta, SolarEdge 같은 벤더들이 99% 효율의 Solid-State Transformer(SST)를 상용화할 수 있게 된 근본적인 배경입니다.
-48V Telco의 추억, 그리고 고전압 DC의 공포
사실 DC 전원 공급 자체가 완전히 새로운 개념은 아닙니다. 제가 주니어 시절 통신사(Telco) 장비들을 다룰 때 시설 지하실을 꽉 채운 납축전지와 -48V DC 시스템을 본 기억이 납니다. 엄청난 신뢰성을 자랑했지만, 전압이 낮아 전력을 높이려면 팔뚝만한 구리 케이블이 필요했죠.
이제는 800V라는 고전압을 다룹니다. 효율은 끝내주겠지만, 현장 엔지니어 입장에서 고전압 DC는 정말 무섭습니다. AC처럼 전류가 0을 지나는 Zero-crossing 포인트가 없기 때문에, 케이블을 뽑거나 단락이 발생했을 때 아크(Arc)가 발생하면 스스로 꺼지지 않고 장비를 다 태워먹을 수 있습니다. 말 그대로 용접기나 다름없죠. 차단기(Breaker)와 커넥터 설계에 엄청난 기술적 난제가 숨어있다는 뜻입니다.
최종 판정 (Verdict)
이 기술은 단순한 유행이 아닙니다. Meta, Microsoft 등 하이퍼스케일러들에게 800V DC 전환은 1MW AI 랙을 돌리기 위한 물리적 필수 요건이 되었습니다.
하지만 일반적인 엔터프라이즈 온프레미스 환경에 당장 도입할 수 있을까요? 제 대답은 ‘아니오’입니다. 전력 전자, 보호 회로, 커넥터 등에 대한 범용적인 안전 표준(Safety Framework)과 서플라이 체인이 안정화되려면 최소 5년은 더 걸릴 겁니다. 지금 섣불리 자체 데이터센터에 도입하려다가는 벤더 종속성(Lock-in)과 안전 문제라는 폭탄을 떠안게 될 것입니다.
결국 AI 혁명은 화려한 LLM 소프트웨어만으로 이루어지지 않습니다. 가장 밑바닥의 전력 인프라부터 반도체 소재까지, 풀스택 하드웨어 엔지니어링의 극한을 쥐어짜내는 자만이 살아남을 것입니다.
- 원본 기사: https://spectrum.ieee.org/data-center-dc
- Hacker News 토론: https://news.ycombinator.com/item?id=47511703