
월요일 아침, 월가는 늘 그렇듯 먼저 팔고 나중에 생각하는 행보를 보였다.
나스닥 지수는 1.4%, S&P 500 지수는 1.2% 하락했습니다. IBM은 13% 폭락했고, 마스터카드와 아메리칸 익스프레스도 상당한 하락세를 보였습니다. 시장을 이러한 공황 상태로 몰아넣은 것은 연준이나 고용 보고서, 혹은 어떤 거대 기술 기업의 실적 발표도 아닌, 바로 한 기사였습니다. 제목은 마치 거래자 위해 의도적으로 쓰인 악몽 같았습니다. 바로 "2028년 글로벌 인텔리전스 위기"였습니다. 이 기사에 따르면, 이는 일반적인 연구 보고서가 아니라 "2028년 6월 30일자" 가상의 거시경제 보고서로, 인공지능이 어떻게 효율성 도구에서 시스템적인 금융 위기로 진화할 수 있는지를 묘사하고 있었습니다. 시뮬레이션된 최종 시나리오에서는 실업률이 10.2%까지 치솟고 S&P 500 지수는 2026년 고점 대비 38% 하락하는 것으로 나타났습니다. 이 기사는 발표 직후 빠르게 확산되었고, 2월 23일 미국 증시에 상당한 변동성을 불러일으켰습니다.
시장은 기사에 나오는 모든 수치를 실제로 믿어서가 아니라, 기사 자체에 의해 흔들릴 수 있습니다. 시장은 어떤 이야기에 완전히 동의할 필요가 없습니다. 단지 이전에는 드러나지 않았던 두려움이 이제 거래 가능한 언어로 표현되었다는 사실을 상기시켜주기만 하면 됩니다.
시트리니의 논문이 효과적인 이유는 예측한 내용이 아니라 명명한 내용에 있다. 그는 새롭게 떠오르는 현상을 가리키는 용어로 " 유령 GDP (Ghost GDP)"를 만들었다. 핵심 전제는 AI 에이전트가 기업에 침투함에 따라 노동 생산성이 급증하고 명목 GDP는 견조한 수준을 유지하지만, 부는 해시레이트 와 자본 보유자의 손에 점점 더 집중되어 실질적인 소비 순환에 참여하지 않게 된다는 것이다. 이는 소비 위축, 채무 불이행, 주택 및 소비자 신용 압박으로 이어지며, 소프트웨어 및 컨설팅 산업에서 시작하여 private equity 대출 및 전통적인 은행 시스템으로 확산될 것이라는 점이다.
유령 GDP라는 용어는 새로운 시대의 가장 위험한 역설 중 하나를 잘 포착하고 있습니다. 즉, 성장은 여전히 진행되고 있지만 소비자를 잃어가고 있다는 것입니다.
지난 2세기 동안 사람들은 기술 혁명을 공급 측면의 이야기로 이해하는 데 익숙해져 있었습니다. 증기 기관, 전기, 조립 라인, 인터넷 등은 주로 효율성 향상, 비용 절감, 생산량 증대라는 승리로 묘사되었습니다. 이러한 혁명이 실업, 불안, 부의 재분배를 초래했음에도 불구하고, 주류 담론은 기술이 궁극적으로 더 큰 규모로 사회를 재고용하고 재분배하며 재편할 것이라는 확신을 유지했습니다. 기술이 가져올 단기적인 가혹함은 장기적인 번영이라는 약속에 가려져 있었습니다.
인공지능 덕분에 이 오래된 이야기는 처음으로 그다지 확실해 보이지 않게 되었습니다.
인공지능(AI)은 단순히 '도구 예산'뿐만 아니라 '인건비 예산'까지 직접적으로 위협하고 있기 때문입니다. 세쿼이아 2025 AI 어센트 보고서는 이를 매우 직설적으로 표현합니다. AI의 기회는 소프트웨어 시장을 재정의하는 데 그치지 않고, 전 세계 인력 서비스 시장을 재편하여 '도구 판매'에서 '결과 판매'로 전환하는 데 있다는 것입니다. 이 말의 이면은 다소 불안감을 자아냅니다. 기업들이 더 이상 직원들의 업무 효율을 높이는 소프트웨어를 구매하는 것이 아니라, 인력의 일부를 직접적으로 대체하는 결과를 구매한다면, AI의 주요 결과는 단순히 '효율성 향상'이 아니라 '임금 분배 방식, 소비 유지 방식, 그리고 이 경제 시스템에서 누가 구매력을 갖는가'에 대한 근본적인 변화를 가져올 것입니다.
다시 말해, 월스트리트가 진정으로 두려워하는 것은 AI가 실수를 저지르는 것이 아니라, AI가 너무 성공하는 것입니다. 바로 이 점이 "2028년 세계 지능 위기"를 그토록 흥미롭게 만드는 이유입니다. 이 위기는 기계가 자아를 인식하게 되는 것도 아니고, 인류의 멸종이나 심지어 실업에 관한 것도 아닙니다. 오히려 자본주의적이고 현대적인 문제, 즉 기업의 효율성은 높아지지만 가계 부문은 약화된다면 어떤 일이 벌어질지에 대한 것입니다.
답은 사회가 통계적으로는 성장할 수 있지만 실제로는 피폐해질 수 있다는 것입니다.
한 국가가 생산성은 높을 수 있지만 소비자 기반은 더 취약할 수 있습니다.
시장은 이익율 개선에 고무될 수 있고, 그 수익을 뒷받침하는 수요 감소에 공황 상태에 빠질 수 있다.
이건 공상 과학이 아니라 거시 경제학입니다.
하지만 거기서 멈추는 것은 결국 질 높은 불안감만 야기할 뿐입니다. 지금 진정으로 중요한 질문은 "AI가 너무 강력해질 것인가?"가 아니라, "AI가 진정으로 강력해졌을 때 사회는 어떻게 대처할 것인가? "입니다. 가장 흔하고도 안일한 대답은 "속도를 늦추자"입니다. 인공지능이 기업에 너무 빨리 도입되도록 내버려 두지 말고, 자동화가 조직을 너무 빨리 재편하도록 방치하지 말고, 시스템이 준비되기 전에 기술이 너무 빠르게 발전하도록 방치하지 말라는 것입니다. 이러한 충동은 이해할 만하지만, AI를 속도를 늦추면 해결될 수 있는 도구의 문제로 잘못 인식하고 있습니다. 현실에서 AI는 점점 도구의 문제가 아니라 질서의 문제에 더 가깝습니다.
에이전트가 결제, 협업, 실행, 메모리 및 의사 결정 계층에 진입하면 진정한 과제는 특정 모델이 엉터리 소리를 하는지 여부가 아니라, 네트워크에 수억 또는 수십억 개의 에이전트가 있을 때 누가 그들을 위한 규칙을 작성할 것인가 하는 문제입니다.
현대 인터넷은 이미 이 질문에 대한 두 가지 기본 답변을 제공하고 있습니다.
첫 번째 해답은 플랫폼 방식입니다. 플랫폼은 신원, 권한, 결제 인터페이스, 평판 시스템, 검열 경계 등을 제공합니다. 플랫폼은 모든 것을 호스팅하고 모든 것을 정의합니다. 플랫폼의 가장 큰 장점은 원활함, 효율성, 관리 용이성입니다. 하지만 가장 큰 위험 또한 바로 여기에 있습니다. 만약 미래의 에이전트 기반 문명이 이러한 방향으로 건설된다면, 인류는 개방 사회를 이룩하는 것이 아니라, 단지 플랫폼 제국의 업그레이드된 버전만을 얻게 될 것입니다. 규칙은 헌법이 아닌 서비스 약관에만 명시될 것입니다.
두 번째 해답은 훨씬 더 해방감을 주는 것처럼 들립니다. 모든 것을 개인 단말기로 되돌리는 것입니다. 각 개인이 자신의 에이전트를 관리하며 권한, 메모리, 결제, 보안 및 협업을 처리합니다. 이러한 비전은 실리콘 밸리의 자유주의적 미학과 잘 부합하지만, 문제는 간단합니다. 대부분의 사람들은 고성능 에이전트를 장기적으로 관리할 능력이 부족하며, 더 나아가 서로의 상태를 호출하고, 비용을 지불하고, 상속받는 에이전트 네트워크를 관리할 능력은 더욱 부족하다는 것입니다. 여기서 단말기 주권은 단말기가 완전히 노출되는 상황으로 쉽게 변질될 수 있습니다.
플랫폼의 해답이 제국주의를 너무 닮아 있고, 단말기의 해답이 무정부 상태를 너무 닮아 있다면, 세 번째 길은 더 이상 선택지가 아니라 문명 자체의 문제가 된다.
바로 이 점에서 LazAI는 진지하게 주목할 만한 가치가 있습니다. 단순히 기술 모듈 의 수가 많아서가 아니라, 웹3 기반의 사회적 실험인 신원, 자산, 결제, 합의, 증명, 거버넌스를 AI 시대에 맞는 제도적 시스템으로 발전시키겠다는, 잘 알려지지 않았지만 미래지향적인 제안을 내놓기 때문입니다. LazAI는 이 목표를 명확하게 제시합니다. 단순히 "더 똑똑한 노예를 만드는 것"이 아니라 "평등한 디지털 시민"을 육성하는 것입니다. 이러한 디지털 에이전트는 신원(EIP-8004)을 갖고, 자산(DAT)을 소유하며, 프로토콜(x402)을 통해 거래하고, 행동은 수학적으로 제약되며(검증 컴퓨팅), 궁극적으로 iDAO를 통해 인간의 이익에 부합합니다. 일부에서는 이러한 방향을 미래 디지털 사회를 위한 헌법과 통화 정책을 수립하는 것으로까지 요약하기도 합니다.
이는 매우 포괄적인 진술입니다. 하지만 포괄적이라고 해서 내용이 없는 것은 아닙니다.
이 개념을 분석해 보면, 문명이 반드시 답해야 할 다섯 가지 근본적인 질문에 정확히 답이 되기 때문입니다.
첫 번째 질문은: 누가 누구인가 ?
EIP-8004는 서버 상의 익명 프로세스인 에이전트를 신원, 평판 및 검증 기록을 갖춘 개체로 변환하는 것을 목표로 합니다. 이러한 계층이 없다면 미래의 네트워크는 불투명한 자동화 개체로 넘쳐나게 되어 누가 행동하는지, 누가 책임이 있는지 아무도 알 수 없게 될 것입니다. LazAI의 지식 기반에서는 이 계층을 에이전트의 신원 및 신용 시스템으로 요약합니다.
두 번째 질문은 누가 무엇을 소유하고 있느냐는 것입니다.
DAT는 데이터, 모델, 계산 결과물을 "자원"에서 "자산"으로 변환하여 이러한 자산을 프로그래밍 가능하고 추적 가능하며 수익성 있는 자산으로 만듭니다. 문서에는 DAT의 핵심 혁신이 데이터 세트와 AI 모델을 검증 가능하고 추적 가능하며 수익성 있는 온체인 자산으로 변환하는 것이라고 명시되어 있습니다. 이는 단순한 수정이 아닙니다. 즉, AI 경제의 가치가 플랫폼의 백엔드에만 머물러 있거나 모델 제공자 및 해시레이트 보유자에게만 국한되지 않는다는 것을 의미합니다.
세 번째 질문은 그들이 어떻게 거래하는가 입니다.
x402와 GMPayer의 중요성은 단순히 "결제 기능"을 넘어섭니다. 이는 기계가 가격 책정 및 정산을 위한 고유 언어를 갖도록 해줍니다. LazAI의 자료에서는 이를 에이전트 리소스 교환 및 결제의 문제점을 해결하는 핵심 인프라로 명시적으로 설명하고 있습니다. 기계는 정보뿐만 아니라 예산, 책임, 가치까지 교환합니다. 이것이 바로 "채팅 가능한 소프트웨어"가 아닌 에이전트 경제입니다.
네 번째 질문은 " 시스템이 규칙에 따라 제대로 작동하고 있다는 것을 어떻게 알 수 있습니까 ? "입니다. LazAI는 이 질문에 대해 "증명은 AI의 해자"라고 명확하게 답했습니다. TEE와 ZKP를 결합한 LazAI의 검증 컴퓨팅 프레임 기존 AI의 "브랜드 신뢰"를 "증명 신뢰"로 전환합니다. 기존 AI는 "날 믿어"라고 하지만, LazAI는 "믿지 말고 검증하라"라고 합니다. 이는 단순한 기술적 업그레이드가 아니라, 기업의 평판에 대한 신뢰에서 검증 가능한 실행에 대한 신뢰로의 전환을 의미합니다.
다섯 번째 질문은 다음과 같습니다. 규칙들 사이에 충돌이 발생하면 어떻게 될까요 ?
이것이 바로 iDAO의 핵심입니다. iDAO는 단순한 투표 셸이 아니라, 에이전트의 가치관, 승인 기준, 수익 분배, 권한 취소 및 처벌 메커니즘을 모두 아우릅니다. LazAI는 iDAO를 검증 연산과 함께 신뢰 메커니즘의 핵심 요소로 간주합니다. 이는 미래의 에이전트들이 단순히 "운영이 허용되는" 것이 아니라, 게임 이론에 기반한 책임 있고 취소 가능한 제도적 공간 안에서 존재하게 될 것임을 의미합니다. 이러한 요소들을 종합해 보면, "알고리즘적 헌법"은 단순한 비유가 아니라, 단일한 지배자 없이도 질서를 유지하겠다는 매우 구체적인 제도적 목표를 나타냅니다.
물론, 진정한 어려움은 이러한 제도적 요소들이 곧 사회적 해답으로 이어지지 않는다는 사실에 있습니다.
재산권 확인이 구매력 회복을 의미하는 것은 아닙니다.
이익 분배가 거시경제적 안정과 직결되는 것은 아닙니다.
온체인 거버넌스는 현실 세계의 사회 계약과 동일하지 않습니다.
인공지능의 영향을 가장 많이 받는 사람들이 새로운 시스템 하에서 자연스럽게 유리한 위치에 놓이는 것은 아닙니다.
이것이 바로 시트리니와 라자이가 서로 모순되는 주장을 하는 것이 아니라, 같은 시대의 이슈를 논의하는 이유입니다.
서로 다른 수준입니다. 전자는 증상을 지적합니다. 인공지능의 혜택이 주로 자본과 해시레이트 로 흘러가고, 다른 사람들에게는 그렇지 않다면…
이것이 사회 소득 구조 전반에 영향을 미친다면, 소비, 신용, 그리고 중산층의 안정감이 가장 먼저 영향을 받을 것입니다.
제안된 메커니즘은 다음과 같습니다. 사회가 에이전트 세계를 플랫폼에 완전히 넘겨주고 싶지도 않고, 그렇다고 해서 플랫폼이 제멋대로 날뛰도록 내버려두고 싶지도 않다면...
심각한 사회 혼란을 해결하기 위해서는 신원, 자산, 지불, 검증 및 거버넌스에 대한 새로운 구조를 만들어야 합니다.
그중 한 명이 질병에 대해 이야기하고 있어요.
하나는 장기에 관한 이야기입니다. 둘 다 필요하지만, 어느 쪽도 전부는 아닙니다.
바로 이러한 이유로 비탈릭 부테린의 널리 인용되는 명언 , "AI는 엔진이고 인간은 핸들이다"가 그토록 중요하면서도 동시에 그토록 불충분한 것입니다. 이 명언이 중요한 이유는 강력한 시스템이 자동으로 정당성을 갖는 것은 아니라는 점을 상기시켜 주기 때문입니다. 목표 함수, 가치 판단, 그리고 궁극적인 제약 조건은 단 하나의 AI나 단일 기관에 맡겨질 수 없습니다. 하지만 이 명언이 불충분한 이유는 인류에게 더욱 어려운 질문, 즉 시스템이 너무 복잡해져서 한 인간이 더 이상 핸들을 잡을 수 없게 될 때, 핸들은 어떻게 되는가라는 질문에 대한 답을 제시하지 못하기 때문입니다.
모든 것을 세세하게 관리하는 것이 해결책이 될 수는 없습니다.
더 똑똑하고 친절한 센터에 희망을 거는 것이 해답은 아닙니다.
유일하게 제대로 된 해결책은 "제어 장치"를 제도화하는 것입니다. 즉, 제약 조건 중 일부를 신원 등록, 평판 축적, 자산 확인, 예산 제약, 수학적 근거, 검증 메커니즘, 권한 취소 및 처벌 논리로 전환하는 것입니다.
바로 이러한 이유로 AI 시대에 웹3의 사회적 실험들이 다시금 중요한 의미를 갖게 되었습니다. 과거에는 많은 사람들이 이를 공상적인 기술적 파편으로 여겼지만, 시스템의 복잡성이 인간의 직접적인 관리 능력을 넘어서는 상황에서 "중앙 집중식 신뢰자 없이도 질서를 확립할 수 있을까?"라는 질문을 던지는 이러한 실험들은 더 이상 파편이 아닌, 중요한 예행연습이 되었습니다.
이로써 기사의 진정한 날카로움이 마침내 드러났다.
월가가 인공지능 관련 기사에 경악한 것은 인공지능이 일자리를 대체할 것이라는 사실을 처음으로 깨달았기 때문이 아니었다.
월가가 경악한 이유는 인공지능의 가장 위험한 측면이 기계를 인간처럼 만드는 것이 아니라, 오히려 낡은 세계의 소득 순환, 소비 논리, 그리고 제도적 상상력을 갑자기 시대에 뒤떨어진 것처럼 보이게 만드는 데 있다는 사실을 그토록 노골적으로 처음 깨달았기 때문이다.
시트리니의 말이 맞다면, AI는 생산성 혁명일 뿐만 아니라 유통 혁명이기도 하다.
비탈릭 부테린의 말이 맞다면, AI는 단순히 공학적인 문제가 아니라 주권의 문제이기도 하다. 라자이(LazAI)의 방향이 적어도 부분적으로라도 옳다면, 차세대 AI 경쟁은 단순히 모델 성능 경쟁이 아니라 제도적 설계 경쟁이 될 것이다.
진짜 큰 문제는 더 이상 다음과 같지 않습니다.
이 모델은 더욱 강력해질까요?
에이전트들이 더욱 자율적으로 변할까요?
그 회사는 추가로 직원을 해고할까요?
진짜 큰 문제는 다음과 같습니다.
인터넷에 수십억 명의 사용자가 있다면, 누가 그들의 헌법을 만들 것인가?
만약 해답이 플랫폼이라면, 우리가 얻는 것은 디지털 제국일 뿐입니다.
만약 해답이 터미널이라면, 우리가 얻는 것은 막대한 비용이 드는 혼란일 뿐입니다.
만약 그 해답이 검증 가능하고, 조합 가능하며, 게임과 유사하고, 처벌 가능한 규칙들의 집합이라면, 우리는 적어도 또 다른 가능성에 한 걸음 더 다가서게 되는 것입니다. 즉, 더 똑똑한 지배자에게 지배받는 사회가 아니라, 더 나은 제도에 의해 제약받는 지능적인 사회 말입니다.
인공지능 시대의 가장 어려운 문제는 결코 모델 자체가 아니었다.
그것은 질서입니다.
그날 월스트리트에서 실제로 거래된 것은 주식만이 아니었을 수도 있습니다.
그것이 팔았던 것은 오래되고 자명한 가정이었다. 즉, 기술이 성공적일수록 사회는 더욱 자연스럽게 그것을 받아들인다는 것이다.
