AI의 이름으로 클라우드 해시레이트 의 부활
패션은 순환이며, 웹 3도 마찬가지입니다.
Near는 AI 퍼블릭 체인으로 "다시" 거듭났습니다. 창립자는 Transformer의 저자 중 한 명이라는 정체성 덕분에 NVIDIA의 GTC 컨퍼런스에 참석하고 가죽 재킷을 입은 Huang과 생성 AI의 미래에 대해 이야기할 수 있었습니다. io.net, Bittensor, Render Network가 모이는 장소인 Solana는 성공적으로 AI 컨셉 체인으로 전환되었습니다. 또한 GPU 컴퓨팅과 관련된 Akash, GAIMIN, Gensyn과 같은 신흥 플레이어도 있습니다.
우리가 시선을 높이면, 화폐 가격이 상승하는 동안 몇 가지 흥미로운 사실을 발견할 수 있습니다.
GPU 해시레이트 경쟁이 탈중앙화 확대되었습니다. 해시레이트 클수록 컴퓨팅 효과가 더 강해집니다. CPU, 스토리지, GPU가 함께 판매됩니다.
컴퓨팅 패러다임은 클라우드 컴퓨팅에서 탈중앙화 로 전환되고 있습니다. 그 뒤에는 AI 훈련에서 추론으로의 수요가 전환되고 있습니다. 온체인 모델은 더 이상 공허한 말이 아닙니다.
인터넷 아키텍처의 기본 소프트웨어와 하드웨어 구성 및 운영 논리는 근본적으로 변하지 않았으며, 탈중앙화 해시레이트 계층은 네트워킹에 대한 인센티브를 제공하는 데 더 중요한 역할을 합니다.
먼저 개념적 구분을 해보겠습니다. Web3 세계의 클라우드 해시레이트 클라우드 채굴 시대에 탄생했습니다. 이는 사용자가 마이닝 머신을 구매하는 데 드는 막대한 비용을 절감하기 위해 마이닝 머신의 해시레이트 패키지로 판매하는 것을 말합니다. 그러나 해시레이트 제조업체는 종종 "과도하게 판매"합니다. 예를 들어 100대의 마이닝 머신의 해시레이트 105명에게 혼합하여 판매하여 초과 이익을 얻으므로 궁극적으로 이 용어는 사기와 동일합니다.
이 글에서 클라우드 해시레이트 구체적으로 GPU 기반 클라우드 벤더의 해시레이트 리소스를 말합니다. 여기서 문제는 탈중앙화 해시레이트 플랫폼이 클라우드 벤더의 프런트엔드 퍼펫인지 아니면 다음 버전 업데이트인지입니다.
기존 클라우드 공급업체와 블록체인의 통합은 우리가 상상했던 것보다 더 깊습니다. 예를 들어, 퍼블릭 체인 노드, 개발 및 일일 저장은 기본적으로 AWS, Alibaba Cloud 및 Huawei Cloud를 중심으로 수행되어 물리적 하드웨어 구매에 대한 값비싼 투자를 제거합니다. 그러나 이로 인해 발생하는 문제는 무시할 수 없습니다. 극단적인 경우 네트워크 케이블을 뽑으면 퍼블릭 체인이 충돌하여 탈중앙화 의 정신을 심각하게 위반합니다.
반면, 탈중앙화 해시레이트 플랫폼은 네트워크 견고성을 유지하기 위해 "컴퓨터 룸"을 직접 구축하거나 Filecoin의 스토리지 및 FIL 토큰과 마찬가지로 GPU 수량을 홍보하기 위한 IO.NET의 에어드랍 전략과 같은 인센티브 네트워크를 직접 구축합니다. 시작점은 사용 요구를 충족하는 것이 아니라 토큰을 강화하는 것입니다. 한 가지 증거는 대기업, 개인 또는 학술 기관이 실제로 ML 훈련, 추론 또는 그래픽 렌더링에 거의 사용하지 않아 심각한 자원 낭비가 발생한다는 것입니다.
하지만 코인 가격이 상승하고 FOMO( 정서 퍼지면서 탈중앙화 해시레이트 클라우드 해시레이트 사기라는 모든 비난은 사라졌습니다.

추론 및 FLOPS, GPU 컴퓨팅 성능 정량화
AI 모델의 해시레이트 요구 사항은 훈련에서 추론으로 진화하고 있습니다.
OpenAI의 Sora를 예로 들어보겠습니다. 이 역시 Transformer 기술을 기반으로 하지만, 매개변수 볼륨은 1조 단위의 GPT-4에 비해 1,000억 미만입니다. 학계에서는 30억 미만일 것이라고 추측합니다. 양러쿤은 30억에 불과하다고 말했는데, 이는 학습 비용이 낮다는 것을 의미합니다. 이 역시 이해하기 매우 쉽습니다. 소수의 매개변수에 필요한 컴퓨팅 리소스도 비례적으로 감소합니다.
하지만 반면에 소라는 더 강력한 "추론" 능력이 필요할 수 있습니다. 추론은 지시에 따라 특정 비디오를 생성하는 능력으로 이해할 수 있습니다. 비디오는 오랫동안 창의적인 콘텐츠로 여겨져 왔기 때문에 AI는 더 강력한 이해 능력이 필요합니다. 훈련은 비교적 간단하며 기존 콘텐츠를 기반으로 규칙을 요약하고, 무심코 해시레이트 쌓고, 기적을 만들기 위해 열심히 일하는 것으로 이해할 수 있습니다.
과거에는 AI 해시레이트 주로 훈련에 사용되었고, 일부는 추론에 사용되었으며, 기본적으로 다양한 NVIDIA 제품이 독점했습니다. 그러나 Groq LPU(Language Processing Unit)가 출시된 후 상황이 바뀌기 시작했습니다. 더 나은 추론 능력과 대형 모델의 슬림화 및 정확도 향상, 그리고 논리를 말하는 두뇌가 천천히 주류가 되고 있습니다.
또한 GPU의 분류를 추가해야 합니다. 우리는 종종 게임이 AI를 구했다는 것을 봅니다. 이는 게임 시장의 고성능 GPU에 대한 강력한 수요가 R&D 비용을 충당한다는 점에서 의미가 있습니다. 예를 들어, 4090 그래픽 카드는 게임과 AI 연금술 모두에서 사용할 수 있습니다. 그러나 게임 카드와 해시레이트 카드는 점차 분리될 것이라는 점에 유의해야 합니다. 이 프로세스는 개인용 컴퓨터에서 전용 채굴 기계로 비트코인 채굴 기계가 개발되는 것과 유사합니다. 사용되는 칩도 CPU, GPU, FPGA 및 ASIC의 순서를 따릅니다.

AI 기술, 특히 LLM 경로의 성숙과 진보에 따라 TPU, DPU, LPU에 대한 유사한 시도가 점점 더 많아질 것입니다. 물론 현재 주요 제품은 여전히 NVIDIA의 GPU입니다. 아래의 모든 논의도 GPU를 기반으로 합니다. LPU 등은 GPU를 보완하는 것에 가깝고, 완전히 대체하려면 시간이 걸릴 것입니다.
탈중앙화 해시레이트 경쟁은 GPU 공급 채널을 놓고 경쟁하는 것이 아니라 새로운 수익 모델을 확립하려는 것입니다.
이 시점에서 NVIDIA는 거의 주인공이 되고 있습니다. 근본적으로 NVIDIA는 그래픽 카드 시장의 80 %점유율 차지합니다. N 카드와 A 카드 간의 전투는 이론상으로만 존재합니다. 실제로는 모든 사람이 한 가지를 말하고 다른 것을 하고 있습니다.
절대적인 독점적 위치로 인해 소비자용 RTX 4090부터 기업용 A100/H100까지 GPU를 놓고 회사 간에 엄청난 경쟁이 벌어지고 있으며, 클라우드 공급업체가 재고를 쌓는 주요 업체입니다. 하지만 구글, 메타, 테슬라, 오픈AI 등 AI 기업들은 자체 칩을 만들 계획이나 실행 계획을 가지고 있고, 국내 기업들은 화웨이 등 국내 제조사에 눈을 돌리고 있어 GPU 트랙은 여전히 극도로 붐빈다.
기존 클라우드 공급업체의 경우 실제로 판매하는 것은 해시레이트 와 저장 공간이므로 자체 칩을 사용할지 여부는 AI 회사만큼 시급하지 않습니다. 그러나 탈중앙화 해시레이트 프로젝트의 경우 현재 상반기에 있으며, 즉 저렴함과 쉬운 가용성에 중점을 두고 해시레이트 사업을 위해 기존 클라우드 공급업체와 경쟁하고 있습니다. 그러나 비트코인 채굴 과 마찬가지로 앞으로 Web3 AI 칩이 등장할 가능성은 높지 않습니다.
불평할 점이 하나 더 있는데, 이더 PoS로 전환한 이후로 코인업계 에서 전용 하드웨어가 점점 줄어들고 있다는 것입니다. Saga 모바일 폰, ZK 하드웨어 가속, DePIN의 시장 규모가 너무 작습니다. 탈중앙화 해시레이트 파워가 전용 AI 해시레이트 카드에 대한 Web3 전용 경로를 탐색할 수 있기를 바랍니다.
탈중앙화 해시레이트 클라우드의 다음 단계인가, 아니면 보완적인 것인가?
GPU의 컴퓨팅 파워는 일반적으로 업계에서 FLOPS(Floating Point Operations Per Second)로 비교됩니다. 이는 컴퓨팅 속도의 가장 일반적으로 사용되는 지표입니다. GPU 사양이나 애플리케이션 병렬성과 같은 최적화 측정에 관계없이 FLOPS는 궁극적으로 성능을 측정하는 데 사용됩니다.
로컬 컴퓨팅에서 클라우드 컴퓨팅까지 약 반세기가 걸렸고, 분산이라는 개념은 컴퓨터가 탄생한 이래로 존재해 왔습니다. LLM에 의해 주도되는 탈중앙화 와 해시레이트 의 조합은 더 이상 예전처럼 환상적이지 않습니다. 가능한 한 많은 기존 탈중앙화 해시레이트 프로젝트를 요약하고, 검사 차원은 두 가지 요점에 불과합니다.
GPU와 같은 하드웨어의 수, 즉 컴퓨팅 속도입니다. 무어의 법칙에 따르면 GPU가 최신일수록 컴퓨팅 파워가 더 강합니다. 동일한 사양의 GPU가 많을수록 컴퓨팅 파워가 더 강합니다.
인센티브 계층 구성 방법은 Web3의 산업적 특징으로, 이중 토큰, 추가 거버넌스 기능, 에어드랍 인센티브 등이 있습니다. 단기적인 화폐 가격에 너무 집중하고 장기적으로 얼마나 많은 GPU를 소유하거나 배포할 수 있는지에만 집중하는 것보다, 각 프로젝트의 장기적 가치를 이해하는 것이 더 쉽습니다.
이러한 관점에서, 탈중앙화 해시레이트 여전히 "기존 하드웨어 + 인센티브 네트워크"의 DePIN 경로에 기반을 두고 있거나 인터넷 아키텍처는 여전히 최하위 계층입니다. 탈중앙화 해시레이트 계층은 "하드웨어 가상화" 이후의 수익화이며, 무단 액세스에 초점을 맞춥니다. 실제 네트워킹은 여전히 하드웨어의 협력이 필요합니다.
해시레이트 탈중앙화 GPU는 중앙화되어야 합니다.
블록체인 트릴레마 프레임 의 도움으로 탈중앙화 해시레이트 의 보안은 특별히 고려할 필요가 없습니다. 주요 관심사는 탈중앙화 와 확장성입니다. 후자는 GPU 네트워킹의 목적이며 AI는 현재 훨씬 앞서 있습니다.
역설에서 출발하여, 탈중앙화 해시레이트 프로젝트가 성공하려면 네트워크의 GPU 수가 가능한 한 많아야 합니다. 그 이유는 GPT와 같은 대형 모델의 매개변수 수가 폭발적으로 증가했고, 일정 규모의 GPU가 없으면 훈련이나 추론 효과를 얻을 수 없기 때문입니다.
물론 클라우드 벤더의 절대적 통제에 비하면, 현재 단계에서 탈중앙화 해시레이트 프로젝트는 적어도 GPU 리소스에 대한 접근 금지 및 무료 마이그레이션과 같은 메커니즘을 설정할 수 있습니다. 그러나 자본 효율성이 향상되어 앞으로 채굴 풀과 유사한 제품이 형성될지 여부는 불분명합니다.
확장성 측면에서 GPU는 AI뿐만 아니라 클라우드 컴퓨팅과 렌더링도 실행 가능한 경로입니다. 예를 들어 Render Network는 렌더링 작업에 집중하는 반면 Bittensor 등은 모델 학습 제공에 집중합니다. 더 간단한 관점에서 확장성은 사용 시나리오 및 목적과 동일합니다.
따라서 GPU와 인센티브 네트워크 외에도 탈중앙화 와 확장성이라는 두 가지 추가 매개변수를 추가하여 네 가지 각도에서 비교 지표를 형성할 수 있습니다. 이 방법은 기술적 비교와 다르며 순전히 재미를 위한 것이라는 점에 유의하세요.

위의 프로젝트에서 Render Network는 실제로 매우 특별합니다. 본질적으로 분산 렌더링 네트워크이며 AI와 직접적인 관계가 없습니다. AI 학습 및 추론에서 각 링크는 긴밀하게 연결됩니다. SGD(Stochastic Gradient Descent)이든 역전파 알고리즘이든 모두 일관성이 필요합니다. 그러나 렌더링 및 기타 작업은 반드시 이와 같을 필요는 없습니다. 비디오와 사진은 종종 작업 분배를 용이하게 하기 위해 세분화됩니다.
AI 훈련 기능은 주로 io.net에 연결되어 있으며 io.net의 플러그인으로 존재합니다. 어쨌든 GPU가 작동하므로 어떻게 하든 상관없습니다. 더 미래지향적인 것은 과소평가되었을 때 Solana로 이탈한 것입니다. 나중에 Solana가 렌더링 및 기타 네트워크의 고성능 요구 사항에 더 적합하다는 것이 증명되었습니다.
둘째, io.net의 GPU를 폭력적으로 대체하는 규모 개발 경로가 채택되었습니다. 현재 공식 웹사이트에는 180,000개의 GPU가 나열되어 있어 탈중앙화 해시레이트 프로젝트의 첫 번째 계층에 속합니다. 다른 경쟁사와는 10배 차이가 있습니다. 확장성 측면에서 io.net은 AI 추론에 집중하고 AI 훈련은 부업입니다.
엄밀히 말해서, AI 훈련은 분산 배포에 적합하지 않습니다. 가벼운 LLM의 경우에도 매개변수의 절대 개수가 적지 않습니다. 중앙 집중형 컴퓨팅은 비용 효율적입니다. 훈련에서 Web 3와 AI를 결합하는 것은 ZK 및 FHE 기술과 같은 데이터 프라이버시 및 암호화 작업에 관한 것입니다. Web 3은 AI 추론에 큰 잠재력이 있습니다. 한편으로는 GPU 컴퓨팅 성능에 대한 요구 사항이 비교적 낮고 어느 정도의 손실을 허용할 수 있습니다. 반면에 AI 추론은 애플리케이션 측면에 더 가깝고 사용자 관점에서의 인센티브가 더 실질적입니다.
토큰을 채굴 또 다른 회사인 Filecoin도 io.net과 GPU 활용 계약을 맺었습니다. Filecoin은 자체 1,000개의 GPU를 io.net에 연결하여 사용합니다. 이는 선배와 후배의 협업으로 볼 수 있습니다. 두 분 모두 행운을 빕니다.
다음은 아직 출시되지 않은 Gensyn입니다. 클라우드 평가도 해 보겠습니다. 아직 네트워크 구축 초기 단계이기 때문에 GPU 수는 발표되지 않았습니다. 그러나 주요 사용 시나리오는 AI 학습입니다. 개인적으로 필요한 고성능 GPU 수가 적지 않을 것이라고 생각합니다. 최소한 Render Network 수준을 넘어야 합니다. AI 추론과 비교할 때 AI 학습과 클라우드 공급업체는 직접 경쟁하고 있으며 구체적인 메커니즘 설계는 더 복잡할 것입니다.
구체적으로 Gensyn은 모델 학습의 효과를 보장해야 합니다. 동시에 학습 효율성을 개선하기 위해 대규모로 오프체인 컴퓨팅 패러다임을 사용합니다. 따라서 모델 검증 및 부정 행위 방지 시스템에는 다자간 역할 게임이 필요합니다.
제출자: 궁극적으로 교육 비용을 지불하는 작업 개시자입니다.
해결자: 모델을 훈련하고 효과를 증명합니다.
검증자: 모델의 유효성을 검증합니다.
고발자: 검증 작업을 확인합니다.
일반적으로 운영 모드는 PoW 채굴+ 낙관적 증명 메커니즘과 유사하며 아키텍처는 매우 복잡합니다. 아마도 계산을 오프체인으로 이전하면 비용을 절감할 수 있지만 아키텍처의 복잡성으로 인해 추가 운영 비용이 발생합니다. 주요 탈중앙화 해시레이트 AI 추론에 집중된 현재 시점에서 Gensyn에게도 행운을 빕니다.
마지막으로, 여전히 베테랑인 아카쉬가 있습니다. 기본적으로 렌더 네트워크와 동시에 시작되었습니다. 아카쉬는 CPU의 탈중앙화 에 집중하는 반면, 렌더 네트워크는 처음에 GPU의 탈중앙화 에 집중했습니다. 예상치 못하게 AI가 폭발한 후, 두 당사자 모두 GPU + AI 컴퓨팅 분야에 들어갔습니다. 차이점은 아카쉬가 추론에 더 많은 관심을 기울인다는 것입니다.
아카쉬의 새해의 핵심은 이더 업그레이드 이후 채굴 농장 문제에 관심을 갖게 되었다는 것입니다. 유휴 GPU는 여대생의 2차 자가 사용이라는 명목으로 Xianyu에 놓일 수 있을 뿐만 아니라 이제는 AI를 개발하는 데에도 사용할 수 있습니다. 어쨌든 모두 인간 문명에 기여한 것입니다.
하지만 아카쉬의 한 가지 장점은 토큰이 기본적으로 완전히 유통된다는 것입니다. 결국, 그것은 매우 오래된 프로젝트이며, PoS에서 일반적으로 사용되는 스테이킹 시스템도 적극적으로 채택합니다. 하지만 팀은 더 불교적인 듯하며, io.net의 젊은 느낌이 없습니다.
또한 엣지 클라우드 컴퓨팅을 위한 THETA, AI 해시레이트 위한 세분화된 솔루션을 제공하는 Phoenix, Bittensor와 Ritual, 그리고 오래되고 새로운 컴퓨팅 신생 기업이 있습니다. 공간 제한으로 인해 모두 나열할 수 없습니다. 그 이유는 주로 GPU 수와 같은 매개변수를 찾을 수 없기 때문입니다.
결론
컴퓨터 개발의 역사를 통틀어 다양한 컴퓨팅 패러다임의 탈중앙화 버전을 구축할 수 있었습니다. 유일한 유감은 주류 애플리케이션에 영향을 미치지 않는다는 것입니다. 현재 Web3 컴퓨팅 프로젝트는 주로 업계에서 셀프 엔터테인먼트를 위한 것입니다. Near의 창립자는 Near의 창립자가 아니라 Transformer의 저자라는 정체성 때문에 GTC 컨퍼런스에 갔습니다.
더욱 비관적인 것은 클라우드 컴퓨팅 시장의 현재 규모와 플레이어가 너무 강력하다는 것입니다. io.net이 AWS를 대체할 수 있을까요? GPU가 충분하다면 정말 가능합니다. 결국 AWS는 오랫동안 오픈소스 Redis를 기본 구성 요소로 사용해 왔습니다.
어떤 의미에서 오픈소스와 탈중앙화 의 힘은 같지 않습니다. 탈중앙화 프로젝트는 DeFi와 같은 금융 분야에 지나치게 집중되어 있으며, AI는 주류 시장에 진입하는 주요 경로가 될 수 있습니다.



