AI+Crypto의 8대 진정한 장점

이 기사는 기계로 번역되었습니다
원문 표시

작성자: Ed Roman, Hack VC의 관리 파트너

편집: 1912212.eth , Foresight News

AI + Crypto는 탈중앙화 AI 트레이닝, GPU DePIN, 검열에 강한 AI 모델 등 최근 암호화폐 시장에서 많은 관심을 받고 있는 프런티어 영역 중 하나입니다.

이러한 눈부신 발전 뒤에 우리는 묻지 않을 수 없습니다. 이것이 진정한 기술 혁신인가, 아니면 그저 뜨거운 이슈 인가? 이 기사에서는 안개를 걷어내고, 암호화 x AI 비전을 분석하고, 실제 과제와 기회에 대해 논의하고, 어떤 것이 공허한 약속이고 어떤 것이 실제로 실현 가능한지 밝힐 것입니다.

비전 #1: 탈중앙화 AI 교육

온체인 AI 훈련의 문제점은 훈련 중 신경망이 역전파를 필요로 하기 때문에 GPU 간 고속 통신과 조정이 필요하다는 점이다. Nvidia에는 ​​이를 위한 두 가지 혁신(NVLink 및 InfiniBand)이 있습니다. 이러한 기술은 GPU 통신을 매우 빠르게 만들어 주지만 단일 데이터 센터 내에 위치한 GPU 클러스터(50기가비트 속도 이상)에서만 작동하는 로컬 전용 기술입니다.

탈중앙화 네트워크가 도입되면 네트워크 대기 시간 및 대역폭 증가로 인해 속도가 갑자기 몇 배나 느려집니다. 데이터 센터 내 Nvidia의 고속 상호 연결에서 얻은 처리량과 비교할 때 이 속도는 AI 교육 사용 사례에서는 불가능합니다.

아래에는 미래에 대한 희망을 제공할 수 있는 혁신도 있습니다.

  • NVIDIA 자체가 NVIDIA Collective Communications Library를 통해 InfiniBand에 대한 분산 비기본 교육을 지원하기 때문에 InfiniBand에 대한 분산 교육이 대규모로 이루어지고 있습니다. 그러나 아직 초기 단계이므로 채택 지표는 아직 결정되지 않았습니다. 거리에 따른 물리적 법칙의 병목 현상이 여전히 존재하므로 InfiniBand에 대한 로컬 교육은 여전히 ​​훨씬 빠릅니다.
  • 더 적은 통신 동기화 시간을 필요로 하는 탈중앙화 교육에 대한 일부 새로운 연구가 발표되었으며, 이는 향후 탈중앙화 교육을 더욱 실용적으로 만들 수 있습니다.
  • 모델 훈련의 지능형 샤딩 및 예약은 성능 향상에 도움이 됩니다. 마찬가지로, 새로운 모델 아키텍처는 미래의 분산 인프라를 위해 특별히 설계될 수 있습니다(Gensyn은 이 분야에 대한 연구를 수행하고 있습니다).

훈련의 데이터 부분도 어렵습니다. 모든 AI 훈련 프로세스에는 대량 의 데이터 처리가 포함됩니다. 일반적으로 모델은 높은 확장성과 성능을 갖춘 중앙 집중식 보안 데이터 스토리지 시스템에서 교육됩니다. 이를 위해서는 테라바이트 규모의 데이터를 전송하고 처리해야 하며 이는 일회성 주기가 아닙니다. 데이터에는 노이즈가 많고 오류가 포함되어 있는 경우가 많으므로 모델을 교육하기 전에 데이터를 정리하고 사용 가능한 형식으로 변환해야 합니다. 이 단계에는 누락된 값을 표준화하고 필터링하고 처리하는 반복적인 작업이 포함됩니다. 이들은 모두 탈중앙화 환경에서 심각한 문제에 직면해 있습니다.

훈련 데이터 부분도 반복적이므로 Web3와 호환되지 않습니다. Open AI는 결과를 얻기 위해 수천 번의 반복을 거쳤습니다. AI 팀에서 데이터 과학자의 가장 기본적인 작업 시나리오에는 목표 정의, 데이터 준비, 데이터를 분석 및 구성하여 중요한 통찰력을 클레임 하고 모델링에 적합하게 만드는 작업이 포함됩니다. 그런 다음, 정의된 문제를 해결하기 위한 머신러닝(ML) 모델을 개발하고 테스트 데이터 세트를 사용하여 성능을 검증합니다. 프로세스는 반복적입니다. 현재 모델이 예상대로 작동하지 않으면 전문가는 결과를 개선하기 위해 데이터 수집 또는 모델 교육 단계로 돌아갑니다. 이 프로세스가 탈중앙화 환경에서 수행된다면 기존의 가장 발전된 프레임 와 도구를 Web3에 적용하는 것이 쉽지 않을 것이라고 상상해 보십시오.

온체인 AI 모델을 훈련할 때의 또 다른 문제는 이 시장이 추론보다 훨씬 덜 흥미롭다는 것입니다. 현재 대규모 AI 언어 모델을 훈련하려면 대량 의 GPU 컴퓨팅 리소스가 필요합니다. 장기적으로 추론은 GPU의 주요 응용 시나리오가 될 것입니다. 글로벌 수요를 충족하려면 얼마나 많은 AI 대규모 언어 모델을 훈련해야 하는지 상상해 보세요. 이러한 모델을 사용하는 고객 수와 비교하면 어느 것이 더 많습니까?

가정 #2: 합의에 도달하기 위해 지나치게 중복된 AI 추론 계산을 사용합니다.

암호화 및 AI와 관련된 또 다른 과제는 AI 추론의 정확성을 검증하는 것입니다. 추론 작업을 수행하는 단일 중앙화된 당사자를 완전히 신뢰할 수 없고 노드가 부적절하게 행동할 수 있는 리스크 때문입니다. 탈중앙화 합의 시스템이 없기 때문에 Web2 AI에는 이 문제가 존재하지 않습니다.

솔루션은 중복 컴퓨팅으로, 여러 노드가 동일한 AI 추론 작업을 반복할 수 있도록 하여 신뢰할 수 없는 환경에서 실행되고 단일 실패 지점을 방지할 수 있습니다.

그러나 이 접근 방식의 문제는 고급 AI 칩이 극도로 부족하다는 것입니다. 고급 NVIDIA 칩에 대한 1년 간의 대기 시간으로 인해 가격이 상승했습니다. 여러 노드에서 AI 추론을 여러 번 다시 실행해야 하는 경우 비용이 기하급수적으로 증가하여 많은 프로젝트에서 실행 불가능해집니다.

가정 #3: 단기 Web3 관련 AI 사용 사례

Web3에는 특히 Web3 고객을 대상으로 하는 고유한 AI 사용 사례가 있어야 한다는 제안이 있었습니다. 예를 들어 AI를 사용하여 DeFi 풀 점수를 리스크 만드는 Web3 프로토콜, 지갑 기록을 기반으로 사용자에게 새로운 프로토콜을 제안하는 Web3 지갑 또는 AI를 사용하여 NPC(비플레이어 캐릭터)를 제어하는 ​​Web3 게임이 될 수 있습니다.

현재로서는 사용 사례가 아직 탐색되고 있는 초기 시장(단기적으로)입니다. 몇 가지 과제는 다음과 같습니다.

  • 시장 수요는 아직 초기 단계이므로 Web3 기본 사용 사례에 필요한 잠재적인 AI 거래는 더 적습니다.
  • Web2 고객에 비해 고객 수가 적고 Web3 고객이 훨씬 적기 때문에 시장은 덜 탈중앙화 되어 있습니다.
  • 클라이언트 자체도 자금이 부족한 스타트업이기 때문에 안정성이 낮고, 일부 스타트업은 시간이 지나면서 사라질 수도 있습니다. Web3 고객을 대상으로 하는 Web3 AI 서비스 제공업체는 사라진 고객 기반을 대체하기 위해 일부 고객 기반을 다시 확보해야 하므로 업무 확장이 매우 어려워질 수 있습니다.

장기적으로 우리는 Web3 기반 AI 사용 사례에 대해 매우 낙관적입니다. 특히 AI 에이전트가 더욱 보편화됨에 따라 더욱 그렇습니다. 우리는 미래에는 특정 Web3 사용자가 자신의 작업을 완료하는 데 도움이 되는 대량 AI 에이전트를 갖게 될 것이라고 상상합니다.

비전 #4: 소비자 GPU DePIN

데이터 센터가 아닌 소비자급 GPU에 의존하는 탈중앙화 AI 컴퓨팅 네트워크가 많이 있습니다. 소비자 GPU는 대기 시간, 처리량, 안정성이 유연한 소비자 사용 사례나 저사양 AI 추론 작업에 이상적입니다. 그러나 심각한 기업 사용 사례(중요한 시장의 대부분)의 경우 고객은 가정용 컴퓨터에 비해 더 높은 신뢰성의 네트워크가 필요하고 더 복잡한 추론 작업이 있는 경우에는 고급 GPU가 필요한 경우가 많습니다. 데이터 센터는 이러한 보다 가치 있는 고객 사용 사례에 더 적합합니다.

데모에 적합한 소비자급 GPU는 물론 낮은 신뢰성을 견딜 수 있는 개인 및 스타트업도 고려합니다. 그러나 이러한 고객은 가치가 낮으므로 Web2 기업에 맞게 맞춤화된 DePIN이 ​​장기적으로 더 가치가 있을 것이라고 믿습니다. 결과적으로 GPU DePIN 프로젝트는 초기에는 주로 소비자급 하드웨어를 사용하는 것에서 A100/H100 및 클러스터 수준의 가용성을 갖추는 것으로 발전했습니다.

현실 – 암호화폐 x AI의 실제 사용 사례

이제 실제 이점을 제공하는 사용 사례에 대해 논의합니다. 이것이 진정한 승리이며, Crypto x AI는 명확한 가치를 더할 수 있습니다.

실질적인 이점 #1: Web2 고객에게 서비스 제공

McKinsey는 분석된 63개 사용 사례에서 생성적 AI가 영국의 2021년 총 GDP 3조 1천억 달러에 비해 연간 2조 6천억~4조 4천억 달러에 해당하는 수익을 추가할 수 있을 것으로 추정합니다. 이를 통해 AI의 영향력이 15~40% 증가합니다. 현재 사용 사례 이외의 작업에 사용되는 소프트웨어에 내장된 생성 AI의 영향을 고려하면 그 영향은 대략 두 배로 추정됩니다.

위의 추정치를 바탕으로 계산하면 AI(생성 AI를 넘어)의 전체 글로벌 시장 가치가 수십조 달러에 이를 수 있음을 의미합니다. 이에 비해 오늘날 모든 암호화폐(비트코인 및 모든 알트코인 포함)의 총 가치는 약 2조 7천억 달러에 불과합니다. 그러니 현실을 대면. 단기적으로 AI가 필요한 고객의 대다수는 Web2 고객이 될 것입니다. 실제로 AI가 필요한 Web3 고객은 이 2조 7천억 달러 중 극히 일부에 불과하기 때문입니다(BTC가 시장이고 비트코인 ​​자체라는 점을 고려하면). AI가 필요/사용되지 않음).

Web3 AI 사용 사례는 이제 막 시작되었으며 시장이 얼마나 커질지는 불분명합니다. 그러나 한 가지 확실한 점은 가까운 미래에 Web2 시장의 작은 부분만을 차지할 것이라는 점입니다. 우리는 Web3 AI의 미래가 여전히 밝다고 믿지만 이는 현재 Web3 AI의 가장 강력한 애플리케이션이 Web2 고객에게 서비스를 제공하고 있음을 의미합니다.

Web3 AI의 이점을 누릴 수 있는 Web2 고객의 가상 사례는 다음과 같습니다.

  • 처음부터 AI 중심의 수직 특정 소프트웨어 회사 구축(예: Cedar.ai 또는 Observe.ai)
  • 자체 목적에 맞게 모델을 미세 조정하는 대기업(예: Netflix)
  • 빠르게 성장하는 AI 제공업체(예: Anthropic)
  • AI를 기존 제품(예: Canva)에 통합하는 소프트웨어 회사

고객은 일반적으로 규모가 크고 가치가 높기 때문에 비교적 안정적인 고객 역할입니다. 그들은 조만간 폐업할 가능성이 낮으며 AI 서비스에 대한 거대한 잠재 고객을 대표합니다. Web2 고객에게 서비스를 제공하는 Web3 AI 서비스는 이러한 안정적인 고객 기반의 혜택을 누릴 것입니다.

그런데 Web2 고객이 Web3 스택을 사용하려는 이유는 무엇일까요? 이 문서의 나머지 부분에서는 이러한 상황을 설명합니다.

실질적인 이점 #2: GPU DePIN으로 GPU 사용 비용 절감

GPU DePIN은 활용도가 가장 낮은 GPU 컴퓨팅 성능(가장 안정적인 데이터 센터에서 제공)을 집계하여 AI 추론에 사용할 수 있도록 합니다. 이 문제에 대한 간단한 비유는 "GPU의 Airbnb"입니다.

GPU DePIN에 대해 우리가 기대하는 이유는 위에서 언급했듯이 NVIDIA 칩이 부족하고 현재 AI 추론에 사용할 수 있는 GPU 사이클이 낭비되고 있기 때문입니다. 이러한 하드웨어 소유자는 비용이 매몰되고 현재 장비 활용도가 낮기 때문에 이러한 부분 GPU는 실제로 하드웨어 소유자에게 "돈을 찾기" 때문에 현 상태보다 훨씬 저렴한 비용으로 제공될 수 있습니다.

예는 다음과 같습니다:

  • AWS 머신. 지금 AWS에서 H100을 임대하려면 시장 공급이 제한되어 있으므로 1년 임대 계약을 맺어야 합니다. 이는 일주일에 7일, 1년 365일 GPU를 사용하지 않을 것이기 때문에 낭비가 됩니다.
  • 파일코인 채굴 하드웨어. Filecoin은 보조금을 받는 공급량이 대량 실제 수요는 대량 않습니다. Filecoin은 진정한 제품 시장 적합성을 찾지 못했기 때문에 Filecoin 채굴자들은 사업을 중단할 리스크 에 처해 있었습니다. 이러한 머신에는 저사양 AI 추론 작업에 맞게 용도를 변경할 수 있는 GPU가 장착되어 있습니다.
  • ETH 채굴 하드웨어. 이더 PoW에서 PoS로 전환되면 AI 추론에 재사용할 수 있는 대량 하드웨어가 빠르게 확보됩니다.

모든 GPU 하드웨어가 AI 추론에 적합한 것은 아닙니다. 이에 대한 한 가지 분명한 이유는 이와 관련하여 도움이 될 수 있는 몇 가지 흥미로운 혁신이 이미 있지만 구형 GPU에는 LLM에 필요한 GPU 메모리 양이 없기 때문입니다. 예를 들어 Exabits의 기술은 활성 뉴런을 GPU 메모리에 로드하고 비활성 뉴런을 CPU 메모리에 로드할 수 있습니다. 그들은 어떤 뉴런이 활성화/비활성화되어야 하는지 예측합니다. 이를 통해 저사양 GPU가 제한된 GPU 메모리로도 AI 워크로드를 처리할 수 있습니다. 이는 AI 추론에 저사양 GPU를 효과적으로 더 유용하게 만듭니다.

Web3 AI DePIN은 시간이 지남에 따라 제품을 발전시키고 Single Sign-On, SOC 2 규정 준수, 서비스 수준 계약(SLA) 등과 같은 엔터프라이즈급 서비스를 제공해야 합니다. 이는 현재 클라우드 서비스 제공업체가 Web2 고객에게 제공하는 것과 유사합니다.

실질적인 이점 #3: OpenAI 자체 검열을 방지하기 위한 검열 저항 모델

AI 검열에 관해 많은 논의가 있습니다. 예를 들어 터키에서는 일시적으로 Open AI를 금지했습니다(나중에 Open AI가 규정 준수를 개선하고 접근 방식을 변경했습니다). 국가가 경쟁력을 유지하려면 AI를 채택해야 하기 때문에 국가 수준의 검열은 흥미롭지 않다고 생각합니다.

Open AI는 자체 검열도 수행합니다. 예를 들어 Open AI는 NSFW 콘텐츠를 처리하지 않습니다. 오픈AI는 차기 대선도 예측하지 않는다. 우리는 AI 활용 사례가 흥미로울 뿐만 아니라 거대한 시장이지만 정치적인 이유로 Open AI가 건드릴 수 없는 시장이라고 생각합니다.

Github 리포지토리는 주주나 이사회의 영향을 받지 않기 때문에 오픈 소스는 훌륭한 솔루션입니다. 한 가지 예는 개인 정보 보호를 약속하고 검열에 저항하는 방식으로 운영되는 Venice.ai입니다. Web3 AI는 추론을 수행하기 위해 저렴한 GPU 클러스터에서 이러한 오픈 소스 소프트웨어(OSS) 모델을 지원함으로써 이를 효과적으로 다음 단계로 끌어올릴 수 있습니다. 이러한 이유로 우리는 OSS + Web3가 검열 저항성 AI의 길을 닦는 이상적인 조합이라고 믿습니다.

실질적인 이점 #4: 개인 식별 정보를 OpenAI로 보내지 마세요.

대기업은 내부 데이터에 대한 개인정보 보호에 대한 우려를 갖고 있습니다. 이러한 고객의 경우 OpenAI 제3자가 이 데이터를 소유하도록 신뢰하는 것이 어려울 수 있습니다.

Web3에서는 내부 데이터가 갑자기 탈중앙화 웹에 나타나는 것이 이들 회사에게 (표면적으로) 훨씬 더 걱정스러워 보일 수 있습니다. 그러나 AI를 위한 개인 정보 보호 강화 기술에는 혁신이 있습니다.

슈퍼 프로토콜과 같은 TEE(신뢰할 수 있는 실행 환경)

Fhenix.io(Hack VC가 관리하는 펀드의 포트폴리오 회사) 또는 Inco Network(둘 다 Zama.ai에서 제공) 및 Bagel의 PPML과 같은 완전 동형 암호화(FHE)

이러한 기술은 계속 발전하고 있으며 곧 출시될 ZK(Zero Knowledge) 및 FHE ASIC을 통해 성능이 계속 향상되고 있습니다. 그러나 장기적인 목표는 모델을 미세 조정하면서 기업 데이터를 보호하는 것입니다. 이러한 프로토콜이 등장함에 따라 Web3는 개인 정보 보호 AI 컴퓨팅을 위한 더욱 매력적인 장소가 될 수 있습니다.

실질적인 이점 #5: 오픈 소스 모델의 최신 혁신 기술 활용

오픈 소스 소프트웨어는 지난 수십 년 동안 독점 소프트웨어의 시장 점유율 잠식해 왔습니다. 우리는 LLM을 OSS를 깨뜨릴 수 있는 일종의 독점 소프트웨어로 봅니다. 주목할만한 도전자의 예로는 Llama, RWKV 및 Mistral.ai가 있습니다. 이 목록은 시간이 지남에 따라 의심할 여지 없이 증가할 것입니다(더 포괄적인 목록은 Openrouter.ai에서 찾을 수 있습니다). Web3 AI(OSS 모델 기반)를 활용하면 사람들은 이러한 새로운 혁신을 통해 혁신을 이룰 수 있습니다.

우리는 시간이 지남에 따라 암호화폐 인센티브와 결합된 오픈 소스의 글로벌 개발 인력이 오픈 소스 모델과 그 위에 구축된 에이전트 및 프레임 의 급속한 혁신을 주도할 수 있다고 믿습니다. AI 에이전트 프로토콜의 예는 Theoriq입니다. Theoriq은 OSS 모델을 활용하여 더 높은 수준의 AI 솔루션을 만들기 위해 조립할 수 있는 구성 가능한 AI 에이전트의 상호 연결된 네트워크를 만듭니다.

우리가 이것을 확신하는 이유는 과거 대부분의 "개발자 소프트웨어" 혁신이 시간이 지남에 따라 서서히 OSS를 앞지르기 때문입니다. Microsoft는 한때 독점 소프트웨어 회사였지만 이제는 Github에 기여하는 최고의 회사입니다. 그 이유가 있습니다. Databricks, PostGresSQL, MongoDB 등이 독점 데이터베이스를 어떻게 파괴하는지 살펴보면 이는 OSS가 전체 산업을 혼란에 빠뜨리는 예이므로 여기의 선례는 매우 설득력이 있습니다.

그러나 문제가 있습니다. 오픈 소스 대규모 언어 모델(OSS LLM)에 대한 한 가지 까다로운 점은 OpenAI가 Reddit 및 New York Times와 같은 일부 조직과 유료 데이터 라이선스 계약을 체결하기 시작했다는 것입니다. 이러한 추세가 계속되면 데이터 획득에 대한 재정적 장벽으로 인해 오픈 소스 대규모 언어 모델의 경쟁이 더욱 어려워질 수 있습니다. 엔비디아는 안전한 데이터 공유를 지원하기 위해 기밀 컴퓨팅에 대한 투자를 더욱 늘릴 수도 있습니다. 시간이 지나면 이것이 어떻게 전개되는지 밝혀질 것입니다.

실질적인 이점 #6: 비용 절감 무작위 샘플링 또는 ZK 증명을 통한 합의

Web3 AI 추론의 과제 중 하나는 검증입니다. 검증인은 수수료를 얻기 위해 결과를 속일 수 있는 기회가 있다고 가정하므로 추론을 검증하는 것이 중요한 척도입니다. AI 추론이 초기 단계이기 때문에 이러한 종류의 부정 행위는 아직 실제로 발생하지 않았지만 이러한 행위를 억제하기 위한 조치를 취하지 않는 한 불가피합니다.

표준 Web3 접근 방식은 여러 유효성 검사기가 동일한 작업을 반복하고 결과를 비교하도록 하는 것입니다. 앞서 언급했듯이 이 문제가 직면한 가장 큰 과제는 현재 고급 Nvidia 칩 부족으로 인해 AI 추론 비용이 매우 비싸다는 것입니다. Web3가 충분히 활용되지 않은 GPU DePIN을 통해 저렴한 추론을 제공할 수 있다는 점을 고려하면 중복 계산은 Web3의 가치 제안을 심각하게 약화시킬 것입니다.

더 유망한 솔루션은 오프체인 AI 추론 계산을 위해 ZK 증명을 수행하는 것입니다. 이 경우 간결한 ZK 증명을 검증하여 모델이 올바르게 훈련되었는지 또는 추론이 올바르게 실행되었는지(zkML이라고 함) 확인할 수 있습니다. 예로는 Modulus Labs 및 ZK onduit가 있습니다. ZK 작업은 계산 집약적이므로 이러한 솔루션의 성능은 아직 초기 단계입니다. 그러나 가까운 시일 내에 ZK 하드웨어 ASIC이 출시되면 상황이 개선될 것으로 예상됩니다.

더 유망한 것은 다소 "낙관적인" 샘플링 기반 AI 추론 방법의 아이디어입니다. 이 모델에서는 검증인이 생성한 결과 중 일부만 검증되지만, 슬래시로 인한 경제적 비용은 충분히 높게 설정되어 있어 적발될 경우 검증인이 부정 행위를 저지르는 강력한 경제적 인센티브가 있습니다. 이렇게 하면 중복 계산을 절약할 수 있습니다.

또 다른 유망한 아이디어는 Bagel Network가 제안한 것과 같은 워터마킹 및 핑거프린팅 솔루션입니다. 이는 Amazon Alexa가 수백만 대의 장치에 대해 장치 내 AI 모델 품질 보증을 제공하기 위해 사용하는 메커니즘과 유사합니다.

실질적인 이점 #7: OSS를 통한 비용 절감(OpenAI의 이익)

Web3가 AI에 가져오는 다음 기회는 비용 민주화입니다. 지금까지 DePIN을 통한 GPU 비용 절감에 대해 살펴보았습니다. 그러나 Web3는 중앙 집중식 Web2 AI 서비스(예: 이 글을 쓰는 시점에서 연간 수익이 10억 달러가 넘는 Open AI)에서 이익율 절약할 수 있는 기회도 제공합니다. 이러한 비용 절감은 독점 모델이 아닌 OSS 모델을 사용하면 모델 작성자가 수익을 창출하려고 하지 않기 때문에 추가 비용 절감이 가능하다는 사실에서 비롯됩니다.

많은 OSS 모델은 완전히 무료로 유지되어 고객에게 최고의 경제성을 제공합니다. 그러나 이러한 수익 창출 방법을 시도하는 일부 OSS 모델도 있을 수 있습니다. Hugging Face의 모든 모델 중 단 4%만이 해당 모델에 보조금을 지급할 수 있는 예산을 갖춘 회사에서 교육을 받았다는 점을 생각해 보세요. 나머지 96%의 모델은 커뮤니티에서 훈련됩니다. 이 그룹(Hugging Face의 96%)은 기본 실질 비용(컴퓨팅 비용 및 데이터 비용 포함)을 갖습니다. 따라서 이러한 모델은 어떤 방식으로든 수익을 창출해야 합니다.

오픈 소스 소프트웨어 모델로 수익을 창출하기 위한 몇 가지 제안이 있습니다. 가장 흥미로운 것 중 하나는 모델 자체를 토큰화하고, 팀을 위해 토큰의 일부를 보유하고, 모델의 미래 수익 일부를 토큰 보유자에게 전달하는 "초기 모델 발행" 개념입니다. 법적 및 규제 장벽.

다른 OSS 모델은 사용으로 수익을 창출하려고 시도합니다. 이것이 현실화되면 OSS 모델은 Web2 수익 창출 모델과 점점 더 비슷해 보일 수 있습니다. 그러나 실제로 시장은 두 부분으로 나뉘며 일부 모델은 완전히 무료로 유지됩니다.

실질적인 이점 #8: 탈중앙화 데이터 소스

AI의 가장 큰 과제 중 하나는 모델 교육에 적합한 데이터를 찾는 것입니다. 우리는 이전에 탈중앙화 AI 교육에 어려움이 있다고 언급했습니다. 하지만 데이터를 얻기 위해 탈중앙화 웹을 사용하는 것은 어떻습니까(그런 다음 전통적인 Web2 장소에서도 다른 곳에서 교육에 사용할 수 있음)?

이것이 바로 Grass와 같은 스타트업이 하고 있는 일입니다. Grass는 AI 모델 훈련을 위한 정보를 제공하기 위해 기계의 유휴 처리 능력을 데이터 소스에 기여하는 "데이터 그래버"로 구성된 탈중앙화 네트워크입니다. 가정적으로 규모에 따라 이 데이터 소스는 인센티브 노드로 구성된 대규모 네트워크의 힘으로 인해 한 회사의 내부 데이터 소스 노력보다 더 나은 성능을 발휘할 수 있습니다. 여기에는 더 많은 데이터를 얻는 것뿐만 아니라 데이터의 관련성과 최신성을 높이기 위해 더 자주 가져오는 것도 포함됩니다. 실제로 탈중앙화 데이터 수집 무리는 본질적으로 탈중앙화 되어 있고 단일 IP 주소 내에 상주하지 않기 때문에 이를 막는 것은 불가능합니다. 또한 데이터를 정리하고 정규화하는 네트워크를 갖추고 있어 일단 스크랩하면 유용합니다.

데이터가 있으면 이를 온체인 에 저장할 위치와 해당 데이터를 사용하여 생성된 LLM도 필요합니다.

Web3 AI에서 데이터의 역할은 향후 변경될 수 있습니다. 오늘날 LLM의 현 상태는 데이터를 사용하여 모델을 사전 훈련하고 시간이 지남에 따라 더 많은 데이터를 사용하여 모델을 개선하는 것입니다. 그러나 인터넷상의 데이터는 실시간으로 변경되기 때문에 이러한 모델은 항상 약간 오래된 것입니다. 따라서 LLM에서 추론한 응답은 약간 부정확합니다.

미래의 방향은 '실시간' 데이터라는 새로운 패러다임이 될 수 있습니다. LLM(대형 언어 모델)에 추론 질문을 하면 LLM이 힌트를 통과하고 인터넷에서 다시 수집된 데이터를 실시간으로 주입할 수 있다는 개념입니다. 이런 식으로 LLM은 최신 데이터를 사용할 수 있습니다. Grass가 이 부분을 작업하고 있습니다.

이 기사에 대한 피드백과 도움을 주신 다음 분들께 특별히 감사드립니다. Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트