작성자: Zuo
유행은 주기적이며, 웹 3.0도 마찬가지입니다.
창립자 트랜스포머가 엔비디아의 GTC 컨퍼런스에 참석해 가죽 옷을 입은 라오 황과 제너레이티브 AI의 미래에 대해 이야기하고, io.net, 비텐서, 렌더 네트워크의 고향인 솔라나가 AI 컨셉 체인으로 성공적으로 변신하면서 Near는 AI 퍼블릭 체인으로 '재등장'했습니다. io.net, 비텐서, 렌더 네트워크의 본거지인 솔라나는 AI 컨셉 체인으로 성공적으로 변신했으며, 아카시, 가이민, 젠신 등 GPU 컴퓨팅과 관련된 다른 혁신적 플레이어들도 있습니다.
조금 더 시야를 넓히면 코인 가격의 상승과 함께 몇 가지 흥미로운 사실을 발견할 수 있습니다:
더 많은 컴퓨팅 파워가 더 효과적인 컴퓨팅을 의미하며, CPU, 스토리지, GPU가 서로를 얹어주는 탈중앙화 플랫폼에서 GPU 컴퓨팅 파워를 차지하기 위한 경쟁이 벌어지고 있다는 점입니다;
컴퓨팅 패러다임이 클라우드에서 탈중앙화로 전환되면서 AI 트레이닝에서 추론으로 수요가 이동하고 있으며, 온체인 모델링은 더 이상 공허한 말이 아닙니다;
인터넷 아키텍처의 기본 하드웨어 및 소프트웨어 구성과 운영 로직은 근본적으로 변하지 않았으며 탈중앙화 산술 계층은 인센티브 네트워킹 역할을 더 많이 맡습니다.
우선, 구별의 개념, 클라우드 컴퓨팅 파워의 Web3 세계는 클라우드 마이닝 시대에 탄생했으며, 판매용으로 패키지화 된 마이닝 머신 컴퓨팅 파워를 말하며, 사용자가 마이닝 머신에 막대한 비용을 구매할 필요가 없지만 컴퓨팅 파워 제조업체는 종종 초과 수익을 얻기 위해 105 명에게 100 개의 마이닝 머신 컴퓨팅 파워 혼합 판매와 같은 "과다 판매"를하고 궁극적으로 다음과 같은 단어가되도록합니다. 사기.
이 백서에서 클라우드 컴퓨팅 파워는 특히 GPU 기반 클라우드 공급 업체의 컴퓨팅 파워 리소스를 의미하며, 여기서 문제는 분산 컴퓨팅 파워 플랫폼이 클라우드 공급 업체의 앞 꼭두각시인지 또는 다음 버전의 업데이트인지 여부입니다.
기존 클라우드 벤더와 블록체인의 결합은 기본적으로 AWS, 알리 클라우드, 화웨이 클라우드를 중심으로 퍼블릭 체인 노드, 개발 및 일일 스토리지와 같이 우리가 상상했던 것보다 더 깊어 물리적 하드웨어에 대한 값 비싼 투자를 구매할 필요가 없지만 그로 인한 문제는 무시할 수 없으며, 네트워크 케이블을 뽑는 극단적인 경우 퍼블릭 체인이 다운되어 탈중앙화 정신에 심각한 위반이 될 수 있습니다.
반면 탈중앙화 연산 플랫폼은 네트워크의 견고성을 유지하기 위해 '서버룸'을 직접 구축하거나, GPU 수를 늘리기 위한 IO.NET의 에어드랍 전략이나 파일코인의 스토리지가 FIL 토큰을 전송하는 것과 같은 인센티브 네트워크를 직접 구축하여 사용 수요를 충족시키는 것이 아니라 토큰 권한 부여의 출발점으로 삼고 있습니다. 대기업, 개인 또는 학술 기관에서 머신러닝 훈련, 추론 또는 그래픽 렌더링과 같은 용도로 실제로 사용하는 경우가 거의 없어 리소스 낭비가 심각하다는 사실이 이를 증명합니다.
다만 탈중앙화 산술이 클라우드 산술 사기라는 비난은 높은 코인 가격과 FOMO 정서에 직면하면서 사라진 것뿐입니다.

두 ☁️ 산술은 같은 이름, 같은 연산인가요?
추론과 플롭스, GPU 컴퓨팅 성능의 정량화
AI 모델의 산술적 요구는 학습에서 추론으로 진화하고 있습니다.
OpenAI의 Sora를 예로 들어 보면, 역시 Transformer 기술을 기반으로하지만 GPT-4의 수조 개에 비해 매개 변수의 수는 학계에서는 수천억 수준 이하라고 추측하고 있으며 양 리쿤은 30 억에 불과하다고 말하기도했습니다. 즉, 훈련 비용이 낮고 매개 변수 수가 적고 그에 비례하여 감쇠에 필요한 계산 리소스가 매우 이해할 수 있다고 말했습니다.
그러나 반면에 소라는 더 강력한 "추론"능력이 필요할 수 있으며, 추론은 지침에 따라 특정 비디오를 생성하는 능력으로 이해할 수 있으며, 비디오는 오랫동안 창의적인 콘텐츠로 간주되어 왔으므로 AI에 대한 더 강력한 이해가 필요하며, 훈련은 비교적 간단하며 기존 콘텐츠에 따른 법칙의 요약, 두뇌없는 컴퓨팅 파워 더미로 이해할 수 있습니다. 기적은 엄청난 노력에서 나옵니다.
과거에는 AI 컴퓨팅 파워는 주로 훈련 수준, 추론 능력의 작은 부분, 기본적으로 NVIDIA 모든 종류의 제품 라운드에 의해 추론 능력에 사용되지만 Groq LPU (언어 처리 장치)가 나오면서 상황이 바뀌기 시작했고, 큰 모델의 얇아지고 논리를 말하는 뇌의 정확성을 향상시키는 더 나은 추론 능력이 천천히 주류가되고 있습니다.
GPU의 분류에 추가해야 할 또 다른 사항은 게임 시장에서 고성능 GPU에 대한 강력한 수요가 게임 플레이와 AI 연금술에 모두 사용할 수있는 4090 그래픽 카드와 같은 R&D 비용을 충당하기 때문에 게임 플레이에 악취가 나는 것이 AI를 구하는 것임을 종종 볼 수 있지만 천천히 게임 카드와 연산 카드가 단계적으로 분리 될 것이며, 이는 비트 코인 채굴자가 PC에서 전문 채굴자로 개발되는 것과 유사한 프로세스라는 점에 유의하는 것이 중요합니다. 이 과정은 비트코인 채굴기가 개인용 컴퓨터에서 전용 채굴기로 발전하는 과정과 유사하며, 사용되는 칩은 CPU, GPU, FPGA, ASIC의 순서를 따릅니다.

특수 LLM 카드 개발 중
AI 기술, 특히 LLM 경로의 성숙과 발전에 따라 TPU, DPU 및 LPU의 유사한 시도가 점점 더 많이있을 것입니다. 물론 주요 제품은 여전히 NVIDIA의 GPU이며 아래의 모든 논의는 GPU를 기반으로하는 반면 LPU 등은 GPU를 보완하는 일종의 것이며 완전히 대체하려면 시간이 걸릴 것입니다.
탈중앙화 산술 경쟁은 GPU 확보 채널을 놓고 경쟁하는 것이 아니라 새로운 수익 모델을 구축하려는 것입니다.
지금까지의 라인업은 NVIDIA가 빠르게 주인공이되고 있으며, 근본적으로 NVIDIA는 그래픽 카드 시장 점유율의 80 %를 차지하고 있으며, 분쟁의 N 카드와 A 카드는 이론적으로 만 존재하며 현실은 모두가 입에 너무 많은 것이 똑바로되어 있다는 것입니다.
절대적인 독점으로 인해 소비자용 RTX 4090부터 기업용 A100/H100에 이르기까지 모든 기업이 GPU를 확보하기 위해 경쟁하고 있으며 모든 클라우드 공급 업체는 GPU의 주요 재고를 비축하고있는 상황까지 만들어졌습니다. 하지만 구글, 메타, 테슬라, OpenAI 등 AI 관련 기업들이 모두 자체 칩을 만들거나 만들 계획을 세우고 있고, 국내 기업들도 이미 화웨이와 같은 자체 개발 공급업체로 눈을 돌리고 있기 때문에 GPU 트랙은 여전히 엄청나게 혼잡합니다.
전통적인 클라우드 공급 업체의 경우 실제로 판매하는 것은 산술 및 저장 공간이므로 자체 칩의 사용은 AI 회사만큼 시급하지 않지만 현재 컷의 전반부에있는 분산 형 산술 프로젝트, 즉 산술 사업을 잡기 위해 전통적인 클라우드 공급 업체와 함께 저렴하고 쉽게 얻을 수있는 것에 중점을두고 있지만 미래는 비트 코인 채굴처럼 웹 3 AI 칩의 출현은 없을 것입니다.
한 가지 추가 참고 사항, 이더 리움에서 PoS, 암호 화폐 전용 하드웨어가 점점 줄어들고 사가 휴대 전화, ZK 하드웨어 가속 및 DePIN 및 기타 시장 규모가 너무 작기 때문에 분산 형 산술이 AI 산술 카드에 전용되어 Web3 특성의 길을 모색 할 수 있기를 바랍니다.
탈중앙화 산술은 클라우드의 다음 단계인가 아니면 보완인가?
업계에서는 일반적으로 GPU 사양이나 병렬 처리 및 기타 최적화 조치의 적용 여부와 관계없이 가장 일반적으로 사용되는 컴퓨팅 속도 지표인 FLOPS(초당 부동 소수점 연산)를 기준으로 GPU의 연산 능력을 비교합니다.
로컬 컴퓨팅에서 클라우드에 이르기까지 약 반세기, 탈중앙화와 산술의 결합인 LLM에 의해 주도된 컴퓨터의 탄생 이후 분산이라는 개념이 더 이상 과거처럼 모호하지 않은 지금, 저는 기존의 분산 산술 프로젝트인 단 두 점의 차원에 대한 검토를 최대한 요약해 보려고 노력할 것입니다:
가능한 한 많은 기존 분산 컴퓨팅 파워 프로젝트를 요약하고 살펴볼 두 가지 차원 만 있습니다 : 무어의 법칙에 따라 GPU 및 기타 하드웨어의 수, 즉 계산 속도, 새로운 GPU 일수록 계산 능력이 더 강하고 동일한 사양의 GPU 수가 많을수록 계산 능력이 더 강하다는 두 가지 차원 만 살펴 보겠습니다;
웹3.0 산업의 특징인 듀얼 토큰, 거버넌스 기능, 에어드랍 인센티브 등 인센티브 계층이 구성되는 방식은 코인의 단기적인 가격에 너무 집중하기보다 장기적으로 소유하거나 파견할 수 있는 GPU의 수만 보고 각 프로젝트의 장기적인 가치를 이해하기 쉽게 해줍니다.
이러한 관점에서 탈중앙화 산술은 여전히 "기존 하드웨어 + 인센티브 네트워크" 디핀 경로를 기반으로 하거나 인터넷 아키텍처가 여전히 최하위 계층이고 탈중앙화 산술 계층은 "하드웨어 가상화"의 수익화이며 액세스 없는 액세스에 초점을 맞추고 있습니다. 실제 네트워크는 여전히 하드웨어의 협력이 필요합니다.
산술은 탈중앙화되어야 하고, GPU는 중앙화되어야 합니다.
블록체인 트릴레마 프레임워크에서 탈중앙화 산술의 보안은 특별한 고려가 필요하지 않지만, 주로 탈중앙화와 확장성이며, 후자는 현재 AI가 우세한 상태인 네트워킹 후 GPU를 사용하는 것입니다.
역설에서 시작하여 탈중앙화 산술 프로젝트를 만들려면 네트워크의 GPU 수가 가능한 한 많아야 하는데, 이는 GPT와 같은 대규모 모델의 참여자 수가 폭발적으로 증가하고 일정 규모의 GPU가 없으면 훈련이나 추론 효과를 얻을 수 없다는 것 외에는 다른 이유가 없기 때문입니다.
물론 클라우드 공급 업체의 절대적인 통제에 비해 현재 단계에서 탈 중앙화 산술 프로젝트는 최소한 GPU 리소스 및 기타 메커니즘의 액세스 및 무료 마이그레이션을 설정할 수 있지만 자본 효율성 향상에서 미래는 채굴 풀의 제품과 유사하게 형성 될 수 있습니다.
확장성 측면에서 GPU는 AI뿐만 아니라 클라우드 컴퓨팅 및 렌더링에도 사용할 수 있습니다. 예를 들어 렌더 네트워크는 렌더링에 초점을 맞추고 비트 센서는 모델 교육을 제공하는 데 중점을두고 있으며보다 간단한 방법으로 확장 성은 시나리오 및 목적의 사용과 동일합니다.
따라서 GPU와 인센티브 네트워크에 탈중앙화와 확장성이라는 두 가지 매개 변수를 추가하여 4점 비교 지수를 만들 수 있습니다. 이 접근 방식은 기술적인 비교와는 다르며 순전히 재미를 위한 것임을 유의하시기 바랍니다.

위의 프로젝트에서 렌더링 네트워크는 실제로 매우 특별하며 본질적으로 분산 렌더링 네트워크이며 AI 간의 관계는 직접적이지 않으며 AI 학습 및 추론에서 링크가 연동되어 SGD (Stochastic Gradient Descent, 확률 적 경사 하강) 또는 역 전파 알고리즘이 일관성이 필요하지만 렌더링이 필요합니다. 그러나 렌더링 및 기타 작업은 실제로 그렇게 할 필요가 없으며, 작업 분배를 용이하게 하기 위해 비디오와 이미지를 잘게 쪼개는 경우가 많습니다.
AI 트레이닝 기능은 주로 io.net과 병렬로 제공되며, io.net의 일종의 플러그인으로서 어쨌든 GPU에 관한 것이므로 원하는 작업을 수행하기 만하면되며, 더 미래 지향적 인 것은 렌더링과 같은 네트워크의 고성능 요구 사항에 더 적합한 것으로 입증 된 Solana의 과소 평가에서 탈북 한 것입니다.
둘째, GPU를 격렬하게 교환하는 io.net의 규모 개발 경로, 현재 공식 웹 사이트에는 전체 180,000 개의 GPU가 나열되어 있으며 분산 산술 프로젝트에서 첫 번째 클래스의 존재와 다른 라이벌은 규모면에서 차이가 있으며 확장 성 측면에서 io.net은 AI 추론에 중점을두고 AI 교육은 부수적 인 손의 작업에 속합니다.
엄밀히 말하면 AI 교육은 분산 배포에 적합하지 않으며 경량 LLM의 경우에도 절대 매개 변수 수가 적지 않으며 중앙 집중식 컴퓨팅이 더 비용 효율적이며 웹 3과 AI 교육의 조합은 데이터 개인 정보 보호 및 암호화 된 컴퓨팅 (예 : ZK 및 FHE와 같은 기술)에 관한 것이며 AI 추론 웹 3은 한편으로는 상대적으로 낮은 GPU 성능 요구 사항에 대한 큰 잠재력을 가지고 있습니다. 한편으로는 GPU 성능에 대한 요구 사항이 상대적으로 낮고 어느 정도의 손실을 견딜 수 있으며, 다른 한편으로는 AI 추론이 애플리케이션 측면에 더 가깝기 때문에 사용자 관점에서의 인센티브가 더 상당합니다.
또 다른 코인 채굴 업체인 Filecoin과 io.net이 GPU 활용에 대한 합의에 도달했는데, Filecoin은 자체 GPU 1000개를 io.net과 병렬로 사용할 예정이며, 이는 전자와 후자 간의 일종의 협력 방식이므로 여러분 모두 행운을 기원합니다.
다시 한 번, 젠슨은 아직 네트워크 구축 초기 단계에 있기 때문에 아직 GPU 수를 발표하지 않았지만 주요 사용 시나리오는 AI 교육이며, AI 추론, AI 교육 및 클라우드 공급 업체에 비해 고성능 GPU의 수가 적어도 렌더 네트워크 수준 이상보다 적지 않을 것이라고 생각하며 바닥을 향한 직접적인 경쟁입니다! 또한 특정 메커니즘의 설계가 더 복잡해질 것입니다.
특히 젠슨은 모델 훈련의 효과를 보장해야 하며, 훈련 효율성을 높이기 위해 오프체인 컴퓨팅 패러다임을 대규모로 사용해야 하므로 모델 검증 및 부정행위 방지 시스템은 멀티 롤 게임이어야 합니다:
제출자: 궁극적으로 훈련 비용을 지불하는 작업 개시자.
해결자: 모델을 훈련하고 유효성 증명을 제공합니다.
검증자: 모델의 유효성을 검증합니다.
내부 고발자: 검증자의 작업을 확인합니다.
전반적으로 작업 증명 채굴 + 낙관주의 증명 메커니즘과 유사하며, 아키텍처는 매우 복잡하며, 아마도 체인으로 계산을 전송하면 비용을 절약 할 수 있지만 아키텍처의 복잡성은 현재 주로 분산 된 산술에 초점을 맞춘 AI 추론에서 추가 운영 비용을 가져올 것이며, 여기에서도 Gensyn의 행운을 기원합니다.
마지막으로 아카시는 기본적으로 렌더 네트워크와 함께 시작된 아카시입니다. 아카시는 CPU 탈중앙화에 초점을 맞춘 반면 렌더 네트워크는 초기 단계에서 GPU 탈중앙화에 초점을 맞췄으며, AI 발생 이후 양측 모두 GPU + AI 컴퓨팅으로 전환했지만 아카시는 추론에 더 집중한다는 차이점이 있습니다.
아카시의 부활의 핵심은 업그레이드된 이더리움의 채굴 문제를 활용했다는 점입니다. 유휴 GPU는 여대생들이 중고 개인용이라는 명목으로 유휴 피쉬에 등록할 수 있을 뿐만 아니라, 어쨌든 인류 문명에 기여하고 있는 AI에 사용될 수 있습니다.
다만 아카시는 기본적으로 토큰이 완전히 유통되고 있다는 장점이 있고, 어쨌든 아주 오래된 프로젝트이고, 지분증명에서 흔히 사용되는 서약 시스템을 적극적으로 채택하고 있다는 장점도 있지만, 팀을 어떻게 보면 io.net의 젊음과 치열함이 없이 다소 불교적이라고 볼 수 있습니다.
이 외에도 엣지 클라우드 컴퓨팅 회사인 THETA, 틈새 분야에서 AI 컴퓨팅 파워 솔루션을 제공하는 Phoenix, 신구 컴퓨팅 회사인 Bittensor와 Ritual 등이 있는데 지면의 한계로 모두 나열할 수 없어 아쉽지만 일부의 GPU 수와 기타 파라미터를 찾을 수 없어 아쉬움이 남습니다.
결론
컴퓨터 개발의 역사를 통틀어 모든 종류의 컴퓨팅 패러다임은 분산 버전을 구축 할 수 있으며, 유일한 아쉬운 점은 주류 애플리케이션에 영향을 미치지 않으며, 현재 Web3 컴퓨팅 프로젝트는 여전히 주로 업계 자체 축하에 있으며, Near의 창립자는 창립자로서의 Near의 정체성이 아닌 Transformer의 저자이기 때문에 GTC 컨퍼런스에 참석했습니다.
더 비관적으로, 현재 클라우드 컴퓨팅 시장의 규모와 플레이어가 너무 강력하기 때문에 io.net이 AWS를 대체 할 수 있으며, GPU 수가 충분히 많으면 실제로 가능하며, 결국 AWS는 오랫동안 오픈 소스 Redis를 기본 구성 요소로 사용해 왔기 때문입니다.
어떤 의미에서 오픈 소스와 탈중앙화의 힘은 동등하지 않으며, 탈중앙화 프로젝트는 DeFi와 같은 금융 분야에 지나치게 집중되어 있는 반면, AI는 주류 시장으로 진입하는 핵심 경로가 될 수 있습니다.




