오리지널

DePIN 2.0: 과장된 홍보를 넘어, 실제로 AWS를 대체하는 분산 컴퓨팅 네트워크

이 기사는 기계로 번역되었습니다
원문 표시

수년간 분산형 인프라의 가능성은 지평선 너머로 아른거렸지만, 오아시스라기보다는 신기루에 가까웠습니다. 분산형 물리적 인프라 네트워크(DePIN 1.0)의 첫 번째 물결은 주로 스토리지와 대역폭에 초점을 맞춰 용감하게 출발했습니다. 여러 프로젝트들이 파일을 공동으로 호스팅하거나 사용되지 않는 인터넷 공간을 공유할 수 있음을 입증하며 AWS S3나 Cloudflare 같은 거대 기업들에 맞서 틈새시장을 개척했습니다. 하지만 클라우드의 핵심인 확장 가능하고 프로그래밍 가능한 컴퓨팅 파워에 있어서는 AWS, Google Cloud, Microsoft Azure를 대체할 만한 실질적인 대안은 요원해 보였습니다. 전 세계의 익명 하드웨어를 조정하여 일반적인 연산 작업을 안정적으로 실행하는 복잡성은 엄청났습니다. 그러나 이제 새로운 장이 열리고 있습니다. DePIN 2.0이 등장한 것입니다. 이는 수동적인 리소스 제공에서 벗어나 능동적이고 지능적이며 경제적으로 효율적인 분산 컴퓨팅 네트워크로의 패러다임 전환을 의미합니다. 이제 DePIN 2.0은 단순한 실험을 넘어 특정 고부가가치 워크로드에서 AWS를 적극적으로 대체하고 있습니다.

이러한 변화를 이해하려면 먼저 기존 클라우드의 한계를 진단해야 합니다. AWS는 중앙 집중식 효율성의 놀라운 사례이지만, 벤더 종속성, 불투명한 가격 책정으로 인한 가격 급등, 지정학적 데이터 집중, 단일 장애 지점(기술적 및 규제적 측면 모두)과 같은 본질적인 단점을 안고 있습니다. AI 학습 및 추론, 비디오 렌더링, 과학 시뮬레이션, 개인정보 보호 데이터 처리와 같은 새로운 유형의 애플리케이션에서는 이러한 단점들이 더 이상 문제가 되지 않습니다. DePIN 2.0 네트워크는 AWS의 단일 복제본을 구축하는 것이 아니라, 이러한 새로운 패러다임에 최적화된 전 세계적으로 분산된 토큰 기반 인센티브 슈퍼컴퓨터를 구축함으로써 이러한 격차를 해소하고자 등장했습니다.

진화 과정: DePIN 1.0에서 컴퓨팅 중심 2.0으로

DePIN 1.0은 유휴 자원을 모으는 것에 관한 것이었습니다. 저장 공간을 위한 파일코인(Filecoin) 이나 무선 네트워크를 위한 Helium을 떠올려 보세요. 모델은 간단했습니다. 토큰을 통해 사람들이 하드웨어를 연결하도록 유도하고, 이러한 자원에 대한 시장을 만드는 것이었습니다. 하지만 컴퓨팅 자원은 하드 드라이브 공간처럼 상품화할 수 있는 것이 아닙니다. 컴퓨팅 자원은 이기종(CPU, GPU, 특수 ASIC)이며, 성능에 민감하고, 낮은 지연 시간의 조정이 필요합니다. 잘못된 연산은 파일 손실보다 더 큰 피해를 초래할 수 있습니다.

DePIN 2.0 네트워크는 이러한 어려움으로부터 교훈을 얻었으며, 다음과 같은 몇 가지 주요한 발전 사항을 특징으로 합니다.

• 수직적 특화: 주요 네트워크들은 "범용"에서 벗어나 킬러 애플리케이션에 특화되고 있습니다. 가장 대표적인 분야는 AI와 GPU 컴퓨팅입니다. 전 세계적인 GPU 부족 현상과 AI 스타트업들의 끊임없는 수요가 맞물려 최적의 환경이 조성되었습니다. 이제 네트워크들은 머신러닝 워크로드에 특화되어 있습니다.

• 정교한 조정 및 검증: 더 이상 단순히 저장 공간을 증명하는 것만으로는 충분하지 않습니다. 새로운 합의 메커니즘과 암호화 증명(예: 영지식 증명)을 사용하여 계산이 정확하고 충실하게 실행되었는지 검증하는데, 이를 "검증 가능한 컴퓨팅"이라고 합니다. 이는 신뢰할 수 없는 네트워크에 대한 신뢰를 구축합니다.

• 경제적 깊이와 선순환 구조: 토큰 경제는 단순한 "공유를 통한 수익 창출"을 넘어 성숙해졌습니다. 이제 토큰은 복잡한 자원 시장을 조율하고, 스테이킹은 악의적인 제공자(슬래싱)로부터 네트워크를 보호하며, 확보된 가치는 자원 공급자(제공자)와 소비자(개발자, 기업) 간에 더욱 직접적으로 흐릅니다.

• 원활한 개발자 경험: 도입의 가장 큰 걸림돌은 복잡성이었습니다. DePIN 2.0 프로젝트는 개발자가 컨테이너, 가상 머신 또는 익숙한 API를 사용하여 AWS와 거의 동일한 방식으로 워크로드를 배포할 수 있도록 추상화 계층을 구축하고 있으며, 네트워크는 그 아래에서 분산 오케스트레이션을 처리합니다.

건축가: 분산형 AWS를 구축하는 네트워크

이제 이론에서 실습으로 넘어가 보겠습니다. DePIN 2.0 컴퓨팅 혁명의 최전선에 있는 네트워크들을 소개합니다.

1. Render Network: 렌더링 및 AI를 위한 GPU 파워하우스 아마도 이 목록에서 가장 성숙하고 운영이 활발한 네트워크일 Render는 분산형 그래픽 렌더링(AWS의 EC2 G4 그래픽 인스턴스에 대한 직접적인 경쟁)에 핵심 역량을 집중한 후 AI 컴퓨팅 분야의 선두 주자로 성공적으로 전환했습니다. Render의 노드 운영자 네트워크(대부분 유휴 GPU를 보유한 스튜디오)는 아티스트와 AI 연구원에게 GPU 성능을 임대합니다. Render의 성공 비결은 강력한 생태계에 있습니다. Octane, Blender와 같은 인기 도구는 물론 이제는 AI 프레임워크와도 원활하게 통합됩니다. 모델을 미세 조정해야 하는 AI 스타트업에게 Render는 고성능 GPU(RTX 4090 또는 A100 등)의 분산 풀을 제공하며, AWS 스팟 마켓보다 훨씬 저렴하고 예측 가능한 비용으로 이용할 수 있고, 특정 벤더에 종속되지 않습니다. Render는 특화된 고처리량 컴퓨팅 네트워크가 진정한 확장성과 유용성을 달성할 수 있음을 보여줍니다.

2. 아카시 네트워크(Akash Network): 범용 워크로드를 위한 슈퍼클라우드 Render가 GPU 전문 기업이라면, 아카시는 모든 클라우드 워크로드를 위한 분산형 마켓플레이스인 '슈퍼클라우드'를 구축하고 있습니다. 역경매 모델을 사용하여 사용자는 요구 사항(CPU, GPU, 메모리)을 제시하고, 공급자는 컨테이너화된 배포를 호스팅하기 위해 입찰합니다. 가장 낮은 입찰가가 낙찰됩니다. 이는 치열한 경쟁이 펼쳐지는 개방형 컴퓨팅 시장을 만들어냅니다. 아카시의 가장 큰 장점은 특정 워크로드에 국한되지 않는다는 점입니다. AI 워크로드, 웹 서버, 데이터베이스, 게임 서버 등 어떤 워크로드든 실행할 수 있습니다. 최근 GPU 통합은 혁신적인 변화를 가져왔고, 수많은 새로운 공급자와 사용자를 끌어들였습니다. 개발자는 AWS Elastic Kubernetes Service(EKS)에서와 거의 동일한 방식으로 아카시에 TensorFlow 또는 PyTorch 컨테이너를 배포할 수 있으며, 비용은 70~80% 더 저렴한 경우가 많습니다. 아카시는 분산형 환경에서 AWS EC2와 가장 유사한 서비스로, 이 모델이 광범위한 애플리케이션에 적용 가능하다는 것을 입증합니다.

3. io.net : 머신러닝을 위한 분산형 GPU 클라우드 io.net은 AI 학습 및 추론을 위한 클러스터형 GPU 컴퓨팅이라는 가장 시급한 문제점에 집중하여 업계에 돌풍을 일으켰습니다. 다른 네트워크들도 GPU 접근을 제공하지만, io.net은 독립 데이터 센터, 암호화폐 채굴자 (재활용된 채굴 장비 사용), 그리고 일반 소비자들이 보유한 활용도가 낮은 GPU들을 하나의 대규모 GPU처럼 작동하는 분산형 클러스터 네트워크로 통합하는 데 특화되어 있습니다. 이것이 바로 io.net의 핵심 혁신입니다. AI 기업은 io.net 플랫폼을 통해 수백 또는 수천 개의 GPU 클러스터를 임대하여 대규모 언어 모델을 학습시킬 수 있으며, 개별적으로 GPU를 조달하는 복잡한 과정을 거칠 필요가 없습니다. 지리적으로 분산된 글로벌 하드웨어 공급망을 활용하여 비교할 수 없는 확장성과 복원력을 제공함으로써 AWS의 SageMaker 및 EC2 UltraClusters와 직접적인 경쟁 구도를 형성하고 있습니다.

4. Together AI: 분산형 AI 연구 스택 Together AI는 약간 다르지만 마찬가지로 중요한 접근 방식을 취합니다. 단순히 하드웨어를 통합하는 것보다는 AI 연구 및 배포를 위한 완전한 스택의 분산형 플랫폼 구축에 중점을 둡니다. 오픈 소스 AI 모델, 추론 API, 그리고 무엇보다 중요한 것은 이러한 모델을 학습하고 실행하기 위한 분산 클라우드 플랫폼을 제공합니다. 연구, 소프트웨어, 분산형 인프라를 결합함으로써 OpenAI(Azure에서 실행)나 Google의 Vertex AI와 같은 폐쇄적인 생태계에 대한 통합적인 대안을 제시합니다. Together AI의 "Together 분산형 클라우드"는 파트너와 개인의 GPU를 모아 개발자가 분산 컴퓨팅을 활용하여 오픈 모델을 기반으로 개발할 수 있는 통합 인터페이스를 제공합니다. 이는 기업의 통제를 경계하는 오픈 소스 AI 커뮤니티에 강력한 정신적, 기술적 제안이 될 것입니다.

앞으로 닥쳐올 과제들

잠재력은 엄청나지만, DePIN 2.0은 만만치 않은 과제들을 안고 있습니다.

일관성 vs. 스팟 시장: AWS는 SLA 기반의 안정적인 서비스를 제공합니다. 현재 대부분의 DePIN 네트워크는 "스팟 시장" 방식으로 운영되어 배치 작업, 렌더링 또는 교육에는 적합하지만, 미션 크리티컬하고 지연 시간이 짧은 프로덕션 애플리케이션에는 적합하지 않습니다. 이러한 격차를 해소하는 것이 필수적입니다.

네트워크 효과 및 유동성: 양면 시장은 공급자(공급자)와 수요자(사용자) 모두가 필요합니다. 초기 네트워크는 토큰을 통해 이러한 선순환 구조를 만들어냅니다. 이제 다음 과제는 수수료 기반의 자연스러운 수요를 통해 이를 유지하는 것입니다.

규제 불확실성: 익명 또는 익명성 노드를 운영하는 글로벌 환경에서는 특히 데이터에 민감한 워크로드의 경우 법적으로 모호한 부분이 존재합니다. 기밀 컴퓨팅 및 동형 암호화와 같은 개인정보 보호 컴퓨팅 기술이 매우 중요해질 것입니다.

탈중앙화 내의 중앙집중화 위험: 자원 제공이 진정한 "사람들의 네트워크"보다는 전문 운영자들에게 집중되는 경향이 있습니다. 이는 신뢰성 측면에서 반드시 나쁜 것은 아니지만, 탈중앙화의 본래 정신에 어긋납니다.

결론: 미래는 하이브리드이며, 그 미래는 지금 만들어지고 있다.

DePIN 2.0은 AWS가 하룻밤 사이에 무너지는 것을 의미하는 것이 아닙니다. 그것은 허황된 이야기입니다. DePIN 2.0은 클라우드의 분리를 의미합니다. AWS가 물리적 데이터 센터를 분리했던 것처럼, DePIN 2.0은 특정 고효율 워크로드에 맞춰 AWS 자체를 분리하기 시작했습니다.

미래에는 하이브리드 방식이 대세가 될 가능성이 높습니다. 기업은 안정성을 위해 프런트엔드를 AWS에서 운영하고, 비용 효율성을 위해 배치 AI 학습은 io.net 이나 Render에서 수행하며, 개인정보 보호에 민감한 데이터 처리는 기밀 컴퓨팅을 사용하는 네트워크에서 진행할 수 있습니다. 이러한 멀티 클라우드 기반의 분산 전략은 복원력을 극대화하고 비용과 벤더 종속성을 최소화합니다.

여기서 살펴본 Render, Akash, io.net , Together AI를 비롯한 여러 신흥 네트워크들은 개념 증명 단계를 넘어섰습니다. 이들은 실제 기업들을 위해 할리우드 스튜디오부터 AI 유니콘 기업에 이르기까지 실제 작업을 처리하는 라이브 네트워크를 구축하고 있습니다. 이들은 분산 컴퓨팅을 단순히 실현 가능한 것을 넘어 차세대 인터넷, 즉 사용자가 소유하고 참여자가 운영하며 설계 자체가 탄력적인 인터넷에 최적화된 방식으로 만드는 경제적, 기술적 프레임워크를 구축하고 있습니다. 분산 컴퓨팅 시대는 더 이상 시작되는 것이 아니라 이미 도래했으며, 클라우드의 규칙을 적극적으로 재정립하고 있습니다.

면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
10
즐겨찾기에 추가
코멘트