AI와 암호화 결합의 잠재적이고 실질적인 과제 분석

이 기사는 기계로 번역되었습니다
원문 표시

작성자: @ed_roman 컴파일러: Vernacular 블록체인

최근 인공지능(AI)은 암호화폐 시장에서 가장 이슈 유망한 분야 중 하나가 되었습니다. 포함하다:

  • 탈중앙화 AI 훈련

  • GPU 탈중앙화 물리적 인프라 네트워크

  • 무수정 AI 모델 이러한 획기적인 발전은 단지 과대광고에 불과합니까?

@hack_vc에서 우리는 안개를 뚫고 현실과 약속을 분리하려고 노력하고 있습니다. 이 기사에서는 암호화 및 AI 분야의 주요 아이디어에 대한 심층 분석을 제공합니다. 실제 과제와 기회를 함께 살펴보겠습니다.

1. Web3와 AI 결합의 과제

1. 탈중앙화 AI 훈련

온체인 에서의 AI 훈련의 문제점은 훈련 시 신경망이 역전파를 수행해야 하기 때문에 훈련을 위해서는 GPU 간의 고속 통신과 조정이 필요하다는 것입니다. Nvidia는 이를 위해 두 가지 혁신적인 기술(NVLink 및 InfiniBand)을 제공합니다. 이러한 기술은 GPU 통신 속도를 크게 높일 수 있지만 단일 데이터 센터 내의 GPU 클러스터(50Gbps 초과 속도)에서만 사용할 수 있습니다.

탈중앙화 네트워크가 도입되면 네트워크 대기 시간 및 대역폭 증가로 인해 속도가 크게 느려집니다. 이는 Nvidia가 데이터 센터 내에서 제공하는 고속 상호 연결과 비교할 때 AI 훈련 사용 사례에서는 실현 가능하지 않습니다. 또한 네트워크 대역폭과 스토리지 비용은 로컬 클러스터의 SSD에 비해 탈중앙화 환경에서 훨씬 더 높습니다.

온체인 AI 모델 훈련의 또 다른 문제는 이 시장이 추론보다 덜 매력적이라는 것입니다. 현재 AI LLM(대형 언어 모델) 학습에는 대량 GPU 컴퓨팅 리소스가 사용됩니다. 그러나 장기적으로 추론은 GPU의 주요 응용 시나리오가 될 것입니다. 생각해 보십시오. 수요를 충족하려면 얼마나 많은 대형 AI 언어 모델을 훈련해야 합니까? 이에 비해 얼마나 많은 고객이 이 모델을 사용할 것인가?

이 분야에는 이미 온체인 AI 교육의 미래에 대한 희망을 제공할 수 있는 몇 가지 혁신이 있습니다.

1) InfiniBand 기반의 분산훈련이 대규모로 진행되고 있으며, NVIDIA 자체적으로도 집단통신 라이브러리를 통해 비로컬 분산훈련을 지원하고 있습니다. 그러나 이는 아직 초기 단계이며 채택 여부는 아직 지켜봐야 할 문제입니다. 물리적 거리로 인한 병목 현상이 여전히 존재하므로 로컬 InfiniBand 교육이 훨씬 더 빠릅니다.

2) 통신 동기화 횟수를 줄여 향후 탈중앙화 교육을 더욱 실용적으로 만들 수 있는 탈중앙화 교육을 탐구하는 일부 새로운 연구가 발표되었습니다.

3) 지능형 샤딩 및 교육 일정 관리는 성능 향상에 도움이 될 수 있습니다. 마찬가지로, 미래에는 분산 인프라를 위해 특별히 설계된 새로운 모델 아키텍처가 있을 수 있습니다(Gensyn은 이 분야에 대한 연구를 수행하고 있습니다).

4) Neuromesh와 같은 혁신은 예측 코딩 네트워크(Predictive Coding Network, PCN)라는 새로운 방법을 통해 더 저렴한 비용으로 분산 학습을 달성하려고 시도합니다.

2. 탈중앙화 AI 데이터 반복

훈련의 데이터 정보 부분도 문제다. 모든 AI 훈련 프로세스에는 대량 의 데이터 처리가 포함됩니다. 일반적으로 모델은 확장성과 성능이 뛰어난 중앙 집중식 보안 데이터 스토리지 시스템에서 교육됩니다. 이를 위해서는 테라바이트 규모의 데이터를 전송하고 처리해야 하며 이는 일회성 주기가 아닙니다. 데이터에는 잡음이 많고 오류가 포함되어 있는 경우가 많으므로 모델을 교육하기 전에 데이터를 정리하고 사용 가능한 형식으로 변환해야 합니다. 이 단계에는 누락된 값을 표준화하고 필터링하고 처리하는 반복적인 작업이 포함됩니다. 탈중앙화 환경에서 이는 심각한 문제를 야기합니다.

훈련의 데이터 정보 부분도 반복적이므로 Web3와 호환되지 않습니다. 결과를 얻으려면 OpenAI 수천 번의 반복이 필요했습니다. 훈련 프로세스는 반복적입니다. 현재 모델이 예상대로 작동하지 않으면 전문가는 결과를 개선하기 위해 데이터 수집 또는 모델 훈련 단계로 돌아갑니다. 이제 Web3에서 최고의 기존 프레임 와 도구를 쉽게 사용할 수 없는 탈중앙화 환경에서 이 프로세스를 수행한다고 상상해 보세요.

유망한 기술 중 하나는 0g.ai(Hack VC 지원)로, 온체인 데이터 스토리지 및 데이터 가용성 인프라를 제공합니다. 그들은 더 빠른 아키텍처와 대량 의 데이터를 온체인 에 저장할 수 있는 능력을 가지고 있습니다.

3. 합의에 도달하기 위해 지나치게 중복된 AI 추론 계산을 사용합니다.

암호화와 AI를 결합하는 데 따른 한 가지 과제는 AI 추론의 정확성을 검증하는 것입니다. 추론 작업을 수행하는 단일 중앙화된 당사자를 완전히 신뢰할 수 없고 노드가 오작동할 가능성이 있기 때문입니다. Web2의 AI에서는 탈중앙화 합의 시스템이 없기 때문에 이러한 문제가 존재하지 않습니다.

한 가지 솔루션은 중복 컴퓨팅으로, 여러 노드가 동일한 AI 추론 작업을 반복하여 무신뢰 환경에서 작동하고 단일 실패 지점을 방지합니다.

이 접근 방식의 문제점은 우리가 고급 AI 칩이 심각한 부족을 겪고 있는 세상에 살고 있다는 것입니다. 고급 NVIDIA 칩의 대기 기간은 수년이므로 가격이 상승합니다. 또한 여러 노드에서 AI 추론을 여러 번, 반복적으로 실행해야 하는 경우 이러한 고가의 비용이 크게 증가합니다. 많은 프로젝트에서는 이것이 작동하지 않습니다.

4. Web3 관련 AI 사용 사례(단기적으로)

Web3에는 특히 Web3 고객을 대상으로 하는 고유한 AI 사용 사례가 있어야 한다는 제안이 있었습니다.

현재 이는 여전히 신흥 시장이며 사용 사례가 계속해서 발견되고 있습니다. 몇 가지 과제는 다음과 같습니다.

  • 시장 수요가 아직 초기 단계이기 때문에 Web3 기본 사용 사례에는 AI 트랜잭션이 덜 필요합니다.

  • Web3 고객은 Web2 고객보다 규모가 훨씬 작기 때문에 고객 수가 적고 시장이 덜 단편화되어 있습니다.

  • 자본금이 적은 스타트업이기 때문에 고객 자체가 충분히 안정적이지 않기 때문에 이러한 스타트업은 시간이 지나면서 실패할 수도 있습니다. Web3 고객을 대상으로 하는 AI 서비스 제공업체는 폐업한 고객을 대체하기 위해 시간이 지남에 따라 일부 고객을 다시 확보해야 하므로 업무 확장이 더 어려워질 수 있습니다.

장기적으로 우리는 특히 AI 에이전트가 대중화됨에 따라 Web3 기반 AI 사용 사례에 대해 매우 낙관적입니다. 우리는 모든 Web3 사용자가 이를 지원하는 여러 AI 에이전트를 갖게 되는 미래를 상상합니다. 이 분야의 초기 리더는 Web2 및 Web3 클라이언트에 서비스를 제공할 수 있는 구성 가능한 AI 에이전트 플랫폼을 구축하고 있는 Theoriq.ai입니다(Hack VC 지원).

5. 소비자급 GPU 탈중앙화 물리적 인프라 네트워크(DePIN)

데이터센터 GPU가 아닌 소비자급 GPU를 사용하는 탈중앙화 AI 컴퓨팅 네트워크가 많이 있습니다. 소비자급 GPU는 보다 유연한 대기 시간, 처리량 및 안정성 요구 사항을 갖춘 저가형 AI 추론 작업 또는 소비자 사용 사례에 적합합니다. 그러나 심각한 기업 사용 사례(예: 주요 시장 점유율 차지하는 사례)의 경우 고객은 네트워크가 가정용 컴퓨터보다 더 안정적일 것으로 기대하고 복잡한 추론 작업에는 고급 GPU가 필요한 경우가 많습니다. 이러한 보다 가치 있는 고객 사용 사례에는 데이터 센터가 더 적합합니다.

데모 목적이나 낮은 신뢰성을 견딜 수 있는 개인 및 스타트업에 적합한 소비자급 GPU를 고려한다는 점에 유의하는 것이 중요합니다. 그러나 이러한 고객의 가치는 기본적으로 낮기 때문에 Web2 기업을 위한 DePIN(탈중앙화 Physical Infrastructure Network)이 장기적으로 더 가치가 있을 것이라고 믿습니다. 결과적으로 잘 알려진 GPU DePIN 프로젝트는 일반적으로 초기에 주로 소비자급 하드웨어를 사용하는 것에서 현재 A100/H100 및 클러스터 수준의 가용성을 갖춘 것으로 발전했습니다.

2. 암호화 x AI의 실용적이고 실현 가능한 사용 사례

이제 Cryptox AI가 가치를 크게 높일 수 있는 사용 사례에 대해 논의해 보겠습니다.

실제 이점 1: Web2 고객에게 서비스 제공

McKinsey는 생성 AI가 분석한 63개 사용 사례에 걸쳐 연간 2조 6천억~4조 4천억 달러의 부가가치를 제공할 수 있을 것으로 추정합니다. 이는 2021년 영국의 총 GDP 3조 1천억 달러와 비교됩니다. 이는 모든 AI의 영향을 15%에서 40%까지 증가시킵니다. 현재 다른 작업에 사용되는 소프트웨어에 생성 AI를 내장한다면 이 추정 값은 대략 두 배가 될 것입니다.

재미있게:

  • 위의 추정에 따르면 이는 (생성 AI뿐만 아니라) 글로벌 AI의 총 시장 가치가 수십조 달러에 달할 수 있음을 의미합니다.

  • 이에 비해 오늘날 모든 암호화폐(비트코인 및 모든 알트코인 포함)의 총 가치는 약 2조 7천억 달러에 불과합니다.

따라서 현실적으로 생각해 보겠습니다. 단기적으로 AI가 필요한 고객의 대다수는 Web2 고객이 될 것입니다. 왜냐하면 실제로 AI가 필요한 Web3 고객은 이 2조 7천억 시장 중 극히 일부에 불과하기 때문입니다(BTC가 시장의 절반을 차지한다는 점을 고려하면). 점유율, 그리고 BTC 자체는 AI를 요구/사용하지 않습니다.

Web3의 AI 사용 사례는 이제 막 시작되었으며 시장이 얼마나 커질지는 불분명합니다. 그러나 직관적으로 확실한 한 가지는 가까운 미래에 Web2 시장의 일부일 뿐이라는 것입니다. 우리는 Web3 AI의 미래가 여전히 밝다고 믿지만 이는 현재 Web3 AI의 가장 일반적인 응용 프로그램이 Web2 고객에게 서비스를 제공하는 것임을 의미합니다.

Web3 AI의 혜택을 누릴 수 있는 Web2 고객의 예는 다음과 같습니다.

  • 처음부터 AI를 핵심으로 구축된 수직 산업 소프트웨어 회사(예: Cedar.ai 또는 Observe.ai)

  • 자체 목적에 맞게 모델을 미세 조정하는 대기업(예: Netflix)

  • 빠르게 성장하는 AI 제공업체(예: Anthropic)

  • 기존 제품에 AI 기능을 추가하는 소프트웨어 회사(예: Canva)

이러한 고객은 일반적으로 규모가 크고 가치가 높기 때문에 상대적으로 안정적인 고객 기반입니다. 그들은 조만간 사업을 중단할 가능성이 낮으며 AI 서비스에 대한 매우 큰 잠재 고객 기반을 나타냅니다. Web2 고객에게 서비스를 제공하는 Web3 AI 서비스는 이러한 안정적인 고객 기반의 혜택을 누릴 것입니다.

그런데 Web2 고객이 Web3 기술 스택을 사용하려는 이유는 무엇일까요? 이 기사의 나머지 부분에서는 이러한 근거를 설명합니다.

실질적인 이점 2: GPU DePIN(GPU 탈중앙화 Physical Infrastructure Network)을 통한 GPU 사용 비용 절감

GPU DePIN은 활용도가 낮은 GPU 컴퓨팅 성능(가장 안정적인 데이터 센터에서 제공)을 풀링하고 이러한 리소스를 AI 추론에 사용할 수 있도록 합니다. 단순히 "GPU의 에어비앤비"(즉, 활용도가 낮은 자산의 공동 소비)라고 생각하세요.

GPU DePIN에 대해 우리가 기대하는 이유는 위에서 언급한 바와 같이 주로 NVIDIA 칩 부족으로 인해 현재 많은 GPU 사이클이 낭비되고 있으며 이러한 리소스를 AI 추론에 사용할 수 있기 때문입니다. 이러한 하드웨어 소유자는 비용을 매몰했고 현재 장비를 제대로 활용하지 못하고 있습니다. 따라서 이러한 부분적인 GPU 주기는 하드웨어 소유자에게 사실상 "횡재"이기 때문에 현 상태보다 낮은 비용으로 제공될 수 있습니다.

구체적인 예는 다음과 같습니다.

1) AWS 머신: 지금 AWS에서 H100을 임대한다면 시장이 부족하기 때문에 최소 1년 동안 임대해야 합니다. 이는 일주일에 7일, 1년 365일 GPU를 사용할 가능성이 없기 때문에 낭비로 이어집니다.

2) Filecoin 채굴 하드웨어: Filecoin 네트워크는 보조금을 받는 공급량이 대량 실제 수요는 크지 않습니다. 불행하게도 Filecoin은 진정한 제품 시장 적합성을 찾지 못했기 때문에 Filecoin 채굴자들은 파산할 위험에 처해 있었습니다. 이러한 머신에는 저사양 AI 추론 작업에 맞게 용도를 변경할 수 있는 GPU가 장착되어 있습니다.

3) ETH 채굴 하드웨어: ETH가 작업 증명(PoW)에서 지분 증명(PoS)으로 전환되면 대량 하드웨어를 즉시 사용할 수 있게 되며 이를 AI 추론에 재사용할 수 있습니다.

GPU DePIN 시장은 경쟁이 치열하며 여러 플레이어가 제품을 제공합니다. 예를 들어 Aethir, Exabits 및 Akash가 있습니다. Hack VC는 다른 GPU DePIN과의 파트너십을 통해 공급량을 집계하는 io.net을 지원하기로 결정했으며 현재 시장에서 가장 큰 GPU 공급량을 지원하고 있습니다.

모든 GPU 하드웨어가 AI 추론에 적합한 것은 아니라는 점에 유의하는 것이 중요합니다. 한 가지 분명한 이유는 이 분야에 몇 가지 흥미로운 혁신이 있었지만 구형 GPU에는 LLM(대형 언어 모델)을 처리할 만큼 GPU 메모리가 충분하지 않기 때문입니다. 예를 들어 Exabits는 활성 뉴런을 GPU 메모리에 로드하고 비활성 뉴런을 CPU 메모리에 로드하는 기술을 개발했습니다. 그들은 어떤 뉴런이 활성화/비활성화되어야 하는지 예측합니다. 이를 통해 GPU 메모리가 제한되어 있는 경우에도 AI 워크로드에 저가형 GPU를 사용할 수 있습니다. 이는 실제로 AI 추론을 위한 저가형 GPU의 유용성을 증가시킵니다.

또한 Web3 AI DePIN은 SSO(Single Sign-On), SOC 2 규정 준수, SLA(서비스 수준 계약) 등과 같은 엔터프라이즈급 서비스를 제공하기 위해 시간이 지남에 따라 제품을 향상해야 합니다. 이는 현재 Web2 고객이 누리고 있는 클라우드 서비스와 비슷할 것입니다.

실제 장점 #3: OpenAI 자체 검열을 피하는 비검열 모델

AI 검열 문제를 두고 많은 논의가 있어왔다. 예를 들어, 터키는 한때 OpenAI를 일시적으로 금지했습니다(나중에 OpenAI가 규정 준수를 개선한 후 금지를 해제했습니다). 국가가 경쟁력을 유지하려면 AI를 수용해야 하기 때문에 이러한 국가 수준의 조사는 근본적으로 타당하지 않다고 생각합니다.

더욱 흥미로운 점은 OpenAI가 자체적으로 검열을 한다는 점입니다. 예를 들어 OpenAI는 NSFW(직장에서 보기에 적합하지 않음) 콘텐츠를 처리하지 않으며 다음 대통령 선거 결과를 예측하지도 않습니다. 우리는 OpenAI가 정치적 이유로 참여를 꺼리는 AI 응용 분야에 흥미롭고 거대한 시장이 있다고 믿습니다.

오픈 소스는 Github 저장소가 주주나 이사회에 종속되지 않기 때문에 이 문제를 해결하는 좋은 방법입니다. 한 가지 예는 사용자 개인 정보를 보호하고 검열되지 않는 방식으로 운영할 것을 약속하는 Venice.ai입니다. 물론 핵심은 이를 가능하게 하는 오픈 소스 특성입니다. Web3 AI는 추론을 위해 저렴한 GPU 클러스터에서 이러한 오픈 소스 소프트웨어(OSS) 모델을 실행하여 이를 효과적으로 개선할 수 있습니다. 이 때문에 우리는 OSS + Web3가 검열 없는 AI를 향한 길을 닦는 이상적인 조합이라고 믿습니다.

실질적인 이점 #4: 개인 식별 정보를 OpenAI로 보내지 마세요.

많은 대기업은 내부 회사 데이터에 대한 개인 정보 보호 문제를 가지고 있습니다. 이러한 고객의 경우 OpenAI와 같은 중앙 집중식 제3자가 이 데이터를 처리한다고 신뢰하기 어렵습니다.

이러한 기업의 경우 내부 데이터가 갑자기 탈중앙화 네트워크에 나타나기 때문에 web3를 사용하는 것이 더욱 두려울 수 있습니다. 그러나 AI의 경우 이미 개인 정보 보호 강화 기술에 몇 가지 혁신이 있습니다.

슈퍼 프로토콜과 같은 TEE(신뢰할 수 있는 실행 환경)

Fhenix.io(Hack VC가 관리하는 포트폴리오 회사) 또는 Inco Network(둘 다 Zama.ai에서 제공) 및 Bagel의 PPML과 같은 완전 동형 암호화(FHE)

이러한 기술은 계속 발전하고 있으며 곧 출시될 ZK(영지식) 및 FHE ASIC을 통해 성능이 계속 향상되고 있습니다. 그러나 장기적인 목표는 모델을 미세 조정하면서 기업 데이터를 보호하는 것입니다. 이러한 프로토콜이 등장함에 따라 web3는 개인정보를 보호하는 AI 컴퓨팅을 위한 더욱 매력적인 장소가 될 수 있습니다.

실질적인 이점 #5: 오픈 소스 모델의 최신 혁신 기술 활용

지난 수십 년 동안 오픈 소스 소프트웨어(OSS)는 독점 소프트웨어의 시장 점유율 잠식해 왔습니다. 우리는 LLM을 오픈 소스 소프트웨어의 파괴적인 목표가 되고 있는 고급 독점 소프트웨어로 봅니다. 주목할만한 도전자로는 Llama, RWKV 및 Mistral.ai가 있습니다. 이 목록은 시간이 지남에 따라 의심할 여지 없이 늘어날 것입니다(더 포괄적인 목록은 Openrouter.ai에서 확인할 수 있습니다). 오픈 소스 모델로 구동되는 web3 AI를 활용함으로써 사람들은 이러한 새로운 혁신을 최대한 활용할 수 있습니다.

우리는 시간이 지남에 따라 암호화 인센티브와 결합된 오픈 소스 개발 노력의 세계적인 힘이 오픈 소스 모델과 그 위에 구축된 에이전트 및 프레임 의 급속한 혁신을 주도할 수 있다고 믿습니다. AI 에이전트 프로토콜의 예는 Theoriq입니다. Theoriq은 오픈 소스 모델을 활용하여 더욱 발전된 AI 솔루션을 만들기 위해 함께 조립할 수 있는 구성 가능하게 상호 연결된 AI 에이전트의 네트워크를 만듭니다.

우리가 이것을 그렇게 강력하게 믿는 이유는 과거 경험에 근거합니다. 대부분의 "개발자 소프트웨어"는 시간이 지남에 따라 오픈 소스 소프트웨어에 의해 추월되었습니다. Microsoft가 독점 소프트웨어 회사였으며 현재 Github의 최대 기여자가 된 데에는 이유가 있습니다. Databricks, PostGresSQL, MongoDB 등이 독점 데이터베이스를 어떻게 혼란에 빠뜨리고 있는지 살펴보면 업계 전체가 오픈 소스 소프트웨어로 인해 혼란을 겪는 예이므로 여기서는 선례가 매우 강력합니다.

그러나 작은 문제가 있습니다. OSS LLM의 까다로운 문제 중 하나는 OpenAI가 Reddit 및 New York Times와 같은 조직과 유료 데이터 라이센스 계약을 체결하기 시작했다는 것입니다. 이러한 추세가 계속되면 데이터 액세스에 대한 경제적 장벽으로 인해 OSS LLM이 경쟁하기가 점점 더 어려워질 수 있습니다. NVIDIA는 안전한 데이터 공유를 위한 향상된 도구로 기밀 컴퓨팅을 사용할 수 있습니다. 이것이 어떻게 발전하는지 시간이 말해 줄 것입니다.

실질적인 이점 #6: 비용이 많이 드는 무작위 샘플링 또는 영지식 증명을 통한 합의

web3 AI 추론에서는 검증이 과제입니다. 검증자는 결과를 속여 수수료를 받을 수 있으므로 추론을 검증하는 것이 중요한 수단이다. AI 추론은 아직 초기 단계이지만, 그러한 행동에 대한 인센티브를 약화시키는 조치를 취하지 않는 한 그러한 속임수는 불가피하다는 점에 유의하는 것이 중요합니다.

표준 web3 접근 방식은 여러 유효성 검사기가 동일한 작업을 반복하고 결과를 비교하도록 하는 것입니다. 그러나 앞서 언급했듯이 현재 고급 Nvidia 칩이 부족하기 때문에 AI 추론은 매우 비쌉니다. web3가 활용도가 낮은 GPU DePIN을 통해 저렴한 추론을 제공할 수 있다는 점을 고려하면 중복 계산은 web3의 가치 제안을 심각하게 약화시킬 것입니다.

더 유망한 솔루션은 오프체인 AI 추론 계산을 위한 영지식 증명을 구현하는 것입니다. 이 경우 모델이 올바르게 훈련되었는지 또는 추론이 올바르게 실행되었는지(zkML이라고 함) 확인하기 위해 간결한 영지식 증명을 검증할 수 있습니다. 예로는 Modulus Labs 및 ZKonduit가 있습니다. 영지식 작업에는 상당한 계산 리소스가 필요하므로 이러한 솔루션의 성능은 아직 초기 단계입니다. 그러나 가까운 미래에 영지식 하드웨어 ASIC이 도입되면 이러한 상황이 개선될 수 있습니다.

더 유망한 아이디어는 AI 추론에 대한 "낙관적" 샘플링 기반 접근 방식입니다. 이 모델에서는 검증인이 생성한 결과 중 극히 일부만 검증하면 되지만, 부정행위를 한 검증인을 처벌할 수 있을 만큼 경제적 비용을 높게 설정하여 강력한 경제적 금지 효과를 만들어냅니다. 이렇게 하면 중복 계산을 절약할 수 있습니다(예를 들어 Hyperbolic의 "Proof of Sampling" 논문 참조).

또 다른 유망한 아이디어는 Bagel Network가 제안한 것과 같은 워터마킹 및 핑거프린팅 기술을 사용하는 솔루션입니다. 이는 Amazon Alexa가 수백만 대의 장치에서 AI 모델의 품질 보증을 제공하는 메커니즘과 유사합니다.

실제 이점 #7: 컴포저블 오픈 소스 소프트웨어 스택을 통한 비용 절감(OpenAI의 이익)

web3가 AI에 가져오는 다음 기회는 비용 절감의 민주화입니다. 지금까지 io.net과 같은 DePIN을 통해 GPU 비용을 절약하는 방법에 대해 논의했습니다. 그러나 web3는 중앙 집중식 web2 AI 서비스(예: 이 글을 쓰는 시점의 정보를 기반으로 연간 수익이 10억 달러가 넘는 OpenAI)에서 이익율 절약할 수 있는 기회도 제공합니다. 이러한 비용 절감은 독점 모델 대신 오픈 소스 소프트웨어(OSS) 모델을 사용함으로써 발생하며, 모델 작성자가 수익을 창출하려고 하지 않기 때문에 추가 비용 절감 효과가 있습니다.

많은 오픈 소스 소프트웨어 모델은 항상 완전 무료이므로 고객에게 최고의 경제성을 제공합니다. 그러나 이러한 수익 창출 방법을 시도하는 일부 오픈 소스 소프트웨어 모델도 있을 수 있습니다. Hugging Face의 모델 중 단 4%만이 이러한 모델에 보조금을 지원하는 데 도움이 되는 예산을 갖춘 회사에서 교육을 받았다는 점을 고려하세요(여기 참조). 나머지 96%의 모델은 커뮤니티에서 훈련됩니다. 이 96% Hugging Face 모델 그룹은 실제 비용(계산 비용 및 데이터 비용 포함)에 직면해 있습니다. 따라서 이러한 모델은 어떤 방식으로든 수익을 창출해야 합니다.

이 오픈 소스 소프트웨어 모델을 수익화하기 위한 많은 제안이 있습니다. 이 중 가장 흥미로운 것 중 하나는 "초기 모델 제공"(IMO) 개념으로, 모델 자체를 토큰화하고 토큰의 일부를 팀에 남겨두고 모델의 미래 수익 중 일부를 토큰에 전달하는 것입니다. 물론 일부 법적 및 규제적 장애물이 있지만 보유자에게는 적합하지 않습니다.

다른 오픈 소스 소프트웨어 모델은 사용량에 따라 수익을 창출하려고 시도합니다. 주의할 점은 이 시나리오가 실현되면 오픈 소스 소프트웨어 모델이 web2 수익 창출 모델과 점점 더 유사해 보일 수 있다는 것입니다. 그러나 현실적인 관점에서 볼 때 시장은 둘로 나누어질 것이며, 이들 모델 중 일부는 완전히 무료가 될 것입니다.

오픈 소스 소프트웨어 모델을 선택하면 그 위에 구성 가능한 계층 구조를 구축할 수 있습니다. 예를 들어, AI 추론을 위해 Ritual.net을 사용하고, 구성 가능하고 자율적인 온체인 AI 에이전트의 초기 리더로 Theoriq.ai를 사용할 수 있습니다(둘 다 Hack VC의 지원을 받습니다).

실질적인 이점 #8: 탈중앙화 데이터 수집

AI가 직면한 가장 큰 과제 중 하나는 모델 교육에 적합한 데이터를 얻는 것입니다. 앞서 탈중앙화 몇 가지 문제가 있다고 언급했습니다. 하지만 데이터를 얻기 위해 탈중앙화 웹을 활용하는 것은 어떻습니까(기존 web2 플랫폼에서도 다른 곳에서 훈련에 사용할 수 있음)?

이것이 바로 Grass(Hack VC의 지원을 받음)와 같은 스타트업이 하고 있는 일입니다. Grass는 개인이 AI 모델 훈련을 위한 데이터를 얻기 위해 기계의 유휴 처리 능력을 기여하는 탈중앙화"데이터 크롤링" 네트워크입니다. 이론적으로, 이러한 종류의 데이터 수집은 인센티브 노드로 구성된 광대한 네트워크의 엄청난 컴퓨팅 성능으로 인해 어느 한 회사의 내부 노력보다 규모가 더 우수할 수 있습니다. 여기에는 더 많은 데이터를 얻는 것뿐만 아니라 더 관련성 있고 최신 상태로 만들기 위해 더 자주 가져오는 것도 포함됩니다. 이러한 데이터 크롤링 노드는 본질적으로 분산되어 있고 단일 IP 주소에 속하지 않기 때문에 이 탈중앙화 데이터 크롤링 군대를 막는 것은 거의 불가능합니다. 또한 크롤링 후 데이터를 유용하게 만들기 위해 데이터를 정리하고 정규화하는 인간 네트워크를 보유하고 있습니다.

데이터가 확보되면 온체인 저장 위치와 해당 데이터를 사용하여 생성된 LLM(Large Language Model)도 필요합니다. 이런 점에서는 0g.AI가 선두주자입니다. 이는 AWS보다 훨씬 저렴하고(Web3 AI의 또 다른 재정적 성공) 레이어 2, AI 등 시설을 위한 데이터 가용성 기반 역할을 하는 AI에 최적화된 고성능 web3 스토리지 솔루션입니다.

Web3 AI에서 데이터의 역할은 앞으로 바뀔 수 있다는 점에 유의하는 것이 중요합니다. 현재 LLM의 현 상태는 데이터를 사용하여 모델을 사전 학습하고 시간이 지남에 따라 더 많은 데이터로 모델을 개선하는 것입니다. 그러나 인터넷상의 데이터는 실시간으로 변경되기 때문에 이러한 모델은 항상 약간씩 최신 상태가 아니므로 LLM 추론의 응답이 약간 부정확합니다.

앞으로 발전할 새로운 패러다임은 '실시간' 데이터이다. LLM에 추론을 요청하면 LLM이 인터넷에서 수집한 데이터를 실시간으로 주입해 데이터를 활용할 수 있다는 개념이다. 이런 식으로 LLM은 최신 데이터를 사용합니다. Grass도 이에 대해 노력하고 있습니다.

3. 결론

web3 AI의 전망과 현실을 생각하는 데 이 분석이 도움이 되기를 바랍니다. 이는 토론의 시작점일 뿐이며 분야는 빠르게 변화하고 있으므로 계속해서 함께 학습하고 구축해 나가고자 하오니 자유롭게 참여하여 관점 표현해 주시기 바랍니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트