작성자: Haotian
친구들이 말하길, #ai16z, $arc 등 web3 AI 에이전트 표적의 지속적인 하락은 최근 폭발적으로 성장한 MCP 프로토콜 때문이라고 합니다. 처음에는 이해가 가지 않았지만, 곰곰이 생각해보니 어느 정도 논리가 있습니다: 기존 web3 AI 에이전트의 가치 평가 논리가 바뀌었고, 서술 방향과 제품 구현 경로를 조정해야 할 시점입니다. 개인적인 견해를 말씀드리면 다음과 같습니다:
1) MCP(Model Context Protocol)는 다양한 AI LLM/에이전트가 데이터 소스와 도구에 seamless하게 연결될 수 있도록 하는 오픈소스 표준화 프로토콜입니다. 마치 USB 'universal' 인터페이스와 같아서, 과거 특정 방식으로 포장해야 했던 것을 대체합니다.
즉, 기존 AI 애플리케이션 간에는 명확한 데이터 고립이 있었고, 에이전트/LLM 간 상호운용성을 구현하려면 각자 API 인터페이스를 개발해야 했습니다. 복잡한 운영 프로세스에 더해 양방향 상호작용 기능도 부족했고, 모델 접근 및 권한 제한도 상대적으로 제한적이었습니다.
MCP는 이러한 문제를 해결하는 통합 프레임워크를 제공하여, AI 애플리케이션이 과거의 데이터 고립 상태에서 벗어나 외부 데이터와 도구에 '동적'으로 접근할 수 있게 합니다. 이를 통해 개발 복잡성과 통합 효율성을 크게 낮출 수 있으며, 특히 자동화 작업 실행, 실시간 데이터 쿼리, 크로스 플랫폼 협업 등에서 두드러진 효과를 발휘합니다.
이렇게 보면, 다중 에이전트 협업 혁신인 Manus가 MCP 오픈소스 프레임워크를 활용한다면 무적이 될 것 같습니다.
맞습니다. Manus + MCP가 web3 AI 에이전트에 타격을 주는 핵심 요인입니다.
2) 그러나 놀랍게도 Manus나 MCP 모두 web2 LLM/에이전트 대상의 프레임워크와 프로토콜 표준입니다. 중앙화된 서버 간 데이터 교환과 협업 문제를 해결하고 있지만, 권한과 접근 제어는 각 서버 노드의 '능동적' 개방에 의존합니다. 즉, 오픈소스 도구 속성에 불과합니다.
이는 web3 AI 에이전트가 추구하는 '분산 서버, 분산 협업, 분산 인센티브' 등의 핵심 사상과 완전히 배치됩니다. 중앙화된 대포가 어떻게 탈중앙화된 요새를 무너뜨릴 수 있겠습니까?
그 이유는 첫 단계 web3 AI 에이전트가 너무 'web2화' 되었기 때문입니다. 많은 팀이 web2 배경에서 왔고, web3 네이티브의 본질적 요구사항을 충분히 이해하지 못했습니다. 예를 들어 ElizaOS 프레임워크는 초기에 Twitter, Discord 등 플랫폼과 OpenAI, Claude, DeepSeek 등의 API 인터페이스를 통합한 개발자 친화적 AI 에이전트 애플리케이션 배포 프레임워크였습니다. 하지만 엄밀히 말하면 이 서비스 프레임워크와 web2 오픈소스 도구 간 어떤 차이가 있겠습니까? 어떤 차별화 우위가 있겠습니까?
아, 혹시 장점은 Tokenomics 인센티브 방식일까요? 그리고 web2에서 완전히 대체 가능한 프레임워크로 새 코인을 발행하는 AI 에이전트를 육성하는 것일까요? 무서운 일이네요. 이런 논리를 따라가다 보면 Manus+MCP가 web3 AI 에이전트에 타격을 줄 수 있는 이유를 이해할 수 있습니다.
대부분의 web3 AI 에이전트 프레임워크와 서비스는 web2 AI 에이전트의 신속한 개발과 애플리케이션 요구사항만 해결했을 뿐, 기술 서비스, 표준, 차별화 우위 면에서 web2의 혁신 속도를 따라가지 못했습니다. 따라서 시장/자본이 이전 세대 web3 AI 에이전트에 대한 재평가와 재가격 책정을 단행한 것입니다.
3) 여기까지 문제의 핵심을 찾았다고 생각합니다. 그렇다면 어떻게 돌파구를 찾을 수 있을까요? 오직 한 길뿐입니다: web3 네이티브 솔루션에 집중하는 것입니다. 분산 시스템의 운영과 인센티브 구조가 web3의 절대적인 차별화 우위이기 때문입니다.
분산 클라우드 컴퓨팅, 데이터, 알고리즘 등 서비스 플랫폼을 예로 들면, 겉보기에는 유휴 자원을 활용한다는 점에서 단기적으로 혁신적인 엔지니어링 구현을 충족시키기 어려워 보입니다. 그러나 많은 AI LLM이 중앙화된 컴퓨팅 성능 향상 군비 경쟁을 벌이고 있는 지금, '유휴 자원, 저비용'을 내세우는 서비스 모델은 web2 개발자와 VC들의 관심을 끌지 못할 것입니다.
하지만 web2 AI 에이전트가 성능 혁신 단계를 지나면, 수직 애플리케이션 시나리오 확장과 세분화된 모델 최적화 등을 추구하게 될 것입니다. 그때 web3 AI 리소스 서비스의 장점이 드러날 것입니다.
사실 자원 독점으로 거대 기업 지위에 오른 web2 AI가 일정 단계에 이르면, 농촌 포위 도시 전략으로 세분화된 시나리오를 공략하기는 어려워질 것입니다. 그때가 바로 과잉 web2 AI 개발자와 web3 AI 리소스가 힘을 합칠 때입니다.
web3 AI 에이전트는 web2의 신속한 배포 + 다중 에이전트 협업 통신 프레임워크와 Tokenomic 발행 서사 외에도 탐구할 만한 web3 네이티브 혁신 방향이 많습니다:
예를 들어 분산 합의 협업 프레임워크를 갖추는 것입니다. LLM 대규모 모델의 체인 외 계산 + 체인 내 상태 저장 특성을 고려하면 다양한 적응형 구성 요소가 필요합니다.
1) 탈중앙화 DID 인증 시스템: 에이전트가 검증 가능한 체인 상 ID를 가질 수 있게 하여, 이후 상태 추적과 기록을 위한 것입니다. 이는 스마트 계약에 대한 가상 머신 주소 생성과 유사합니다.
2) 탈중앙화 오라클 예언기 시스템: AI 에이전트에 맞춘 예언기로, 체인 외 데이터의 신뢰할 수 있는 수집과 검증을 담당합니다. 기존 예언기와 다른 점은 데이터 수집 계층, 의사결정 합의 계층, 실행 피드백 계층 등 다중 에이전트 구조로 구성된다는 것입니다.
3) 탈중앙화 저장 DA 시스템: AI 에이전트 실행 시 지식베이스 상태의 불확실성과 추론 과정의 임시성을 고려하여, LLM 핵심 상태 저장소와 추론 경로를 분산 저장 시스템에 기록하고 비용 효율적인 데이터 증명 메커니즘을 제공합니다.
4) 영지식 증명 ZKP 프라이버시 계산 계층: TEE, FHE 등 프라이버시 계산 솔루션과 연계하여 실시간 프라이버시 계산과 데이터 증명 검증을 실현합니다. 이를 통해 에이전트가 의료, 금융 등 다양한 수직 데이터 소스에 접근할 수 있고, 그 위에 전문화된 맞춤형 서비스 에이전트가 등장할 수 있습니다.
5) 크로스체인 상호운용성 프로토콜: MCP 오픈소스 프로토콜과 유사하지만, 에이전트 실행, 전달, 검증을 위한 릴레이와 통신 조정 메커니즘이 포함되어 에이전트의 자산 이전과 상태 동기화 문제를 해결합니다. 특히 에이전트 컨텍스트, 프롬프트, 지식베이스, 메모리 등 복잡한 상태를 포함합니다.
요약하면, 진정한 web3 AI 에이전트의 핵심은 AI 에이전트의 '복잡한 워크플로'와 블록체인의 '신뢰 검증 프로세스'를 최대한 부합시키는 것입니다. 이러한 증분 솔루션은 기존 프로젝트의 업그레이드와 진화로 나올 수도 있고, 새로운 AI 에이전트 분야의 프로젝트에서 처음부터 구축될 수도 있습니다.
이것이 web3 AI 에이전트가 노력해야 할 방향이며, AI+Crypto의 거시적 서사 아래 혁신 생태계의 기본 토대입니다. 관련 혁신과 차별화 경쟁력 구축에 실패한다면, web2 AI 분야의 모든 변화가 web3 AI를 뒤흔들 수 있습니다.



