지난 몇 년 동안 많은 분들이 "암호화폐와 AI의 가장 생산적인 접점은 어디일까요?"라는 질문을 해왔습니다. 이는 공정한 질문입니다. 암호화폐와 AI는 지난 10년간의 주요 딥(소프트웨어) 기술 트렌드 중 두 가지이며, 둘 사이에는 어떤 식으로든 연관성이 있을 것입니다.
암호화폐의 탈중앙화는 AI의 중앙화와 균형을 이루고, AI는 불투명하지만 암호화폐는 투명성을 제공하며, AI는 데이터를 필요로 하고 블록체인은 데이터를 저장하고 추적하는 데 능숙합니다.
하지만 지난 몇 년 동안 사람들이 저에게 특정 애플리케이션을 자세히 살펴봐 달라고 요청했을 때, 저는 "네, 살펴볼 만한 애플리케이션이 몇 가지 있지만 많지는 않습니다"라는 다소 실망스러운 대답을 해왔습니다.
지난 3년 동안 저는 블록체인 확장 솔루션뿐만 아니라 영지식 증명, 완전 동형 암호화, 안전한 다자간 연산(양당제 및 다당제) 등 최신 LLM(대규모 언어 모델)과 같은 더 강력한 AI 기술과 더 강력한 암호화폐 기술의 등장으로 이러한 변화를 목격하기 시작했습니다.
블록체인 생태계 내에서, 또는 AI와 암호학을 결합하여 AI를 적용할 때 주의를 기울여야 하지만, 실제로 유망한 AI 응용 분야가 몇 가지 있습니다.
한 가지 특별한 과제는 암호화에서는 오픈소스가 진정으로 안전한 무언가를 만들 수 있는 유일한 방법이지만, AI에서는 오픈 모델(심지어 그 훈련 데이터까지)이 성적인 머신러닝 공격에 대한 취약성을 크게 증가시킨다는 것입니다. 이 글에서는 암호화와 AI가 교차할 수 있는 다양한 방식을 분류하고 각각의 장점과 과제를 살펴봅니다.
더 읽어볼 만한 글: '일등 시민'이 된 암호화 AI, 암호화 로봇 에이전트 및 프런트엔드 애플리케이션의 이점

암호화폐+AI의 네 가지 교차점
인공지능은 매우 광범위한 개념입니다. 인공지능을 명시적으로 지정하는 것이 아니라, 큰 연산 수프를 만들고 일종의 최적화 압력을 가해 수프가 원하는 속성을 가진 알고리즘을 생성하도록 하는 일련의 알고리즘으로 생각할 수 있습니다.
이 설명은 우리를 인간으로 만든 과정을 포함하고 있기 때문에 결코 가볍게 여겨서는 안 됩니다! 그러나 이는 또한 AI 알고리즘이 매우 강력하지만 동시에 그 내부 작동을 이해하거나 평가하는 데 한계가 있다는 몇 가지 공통된 특성을 공유한다는 것을 의미합니다.
AI를 분류하는 방법은 여러 가지가 있지만, 이 글(버질 그리피스의 "말 그대로 이더는 판도를 바꾸는 기술" 글 )에서 논의한 AI와 블록체인의 상호작용을 위해 다음과 같은 방식으로 분류해 보겠습니다:
- 게임의 참여자로서의 AI(실현 가능성이 가장 높음): AI가 참여하는 메커니즘에서 궁극적인 동기 부여의 원천은 인간의 입력 프로토콜에서 비롯됩니다.
- 게임의 인터페이스로서의 AI (잠재력은 크지만 위험 ): AI는 사용자가 주변의 암호화폐 세계를 이해하도록 돕고, 사용자의 행동(예: 서명된 메시지 및 거래)이 의도와 일치하는지 확인하여 속거나 속임수를 쓰지 않도록 합니다.
- 게임의 규칙으로서의 AI(세심한 주의를 기울임): 블록체인, DAO 및 이와 유사한 메커니즘은 AI를 직접 호출합니다(예: "AI 심판").
- 게임 목표로서의 AI(길고 흥미로운 ): 블록체인, DAO 및 이와 유사한 메커니즘은 다른 목적으로 사용할 수 있는 AI를 구축하고 유지하는 것을 목표로 설계되었으며, 부분적으로 암호화를 사용하여 훈련에 더 나은 동기를 부여하거나 AI가 개인 정보를 유출하거나 남용되는 것을 방지하기 위해 사용됩니다.
각각에 대해 살펴보겠습니다.
게임 플레이어로서의 AI
사실 이 카테고리는 적어도 체인화된 탈중앙화 거래소(DEX)가 널리 사용되기 시작한 이래로 거의 10년 동안 존재해 왔습니다. 거래소가 존재할 때마다 차익거래를 통해 돈을 벌 수 있는 기회가 존재하는데, 로봇은 인간보다 더 잘할 수 있습니다.
이러한 사용 사례는 오래전부터 존재해 왔으며, 오늘날보다 훨씬 간단한 AI를 사용하지만 궁극적으로 AI와 암호화폐의 진정한 교차점이라고 할 수 있습니다. 최근에는 차익거래 로봇이 서로를 활용하는 MEV(최대 추출 가치) 사례를 자주 볼 수 있습니다. 경매나 거래와 관련된 블록체인 애플리케이션이 있는 곳에는 언제나 차익거래 로봇이 존재합니다.
그러나 AI 차익거래 로봇은 곧 다른 많은 애플리케이션을 포괄할 것으로 예상되는 더 큰 범주의 첫 번째 예시일 뿐입니다. AI가 참여하는 예측 시장 데모인 AIOmen을 살펴보겠습니다:
예측 시장은 오랫동안 코그너티브 기술의 성배로 여겨져 왔습니다. 2014년에 저는 예측 시장을 거버넌스(미래 거버넌스)의 입력으로 사용하는 것에 흥미를 느꼈고, 최근 선거에서 이를 광범위하게 시도했습니다.
하지만 지금까지 예측 시장은 큰손들이 비합리적인 경향이 있고, 올바른 지식을 가진 사람들도 큰돈이 걸려 있지 않으면 시간을 들여 베팅하는 것을 꺼리고, 시장이 일반적으로 충분히 활성화되지 않는 등 여러 가지 이유로 실제로 큰 진전을 이루지 못했습니다. 이에 대한 한 가지 반응은 예측 시장이 세계에서 가장 인기 있는 거버넌스 형태는 아니지만, 가장 인기 있는 거버넌스 형태라는 점을 지적하는 것입니다.
이에 대한 한 가지 대응은 폴리마켓이나 다른 새로운 예측 시장이 개선하고 있는 사용자 경험을 지적하고, 이전의 반복이 실패한 부분을 계속 개선하여 성공하기를 바라는 것입니다.
사람들은 스포츠에 수백억 원을 기꺼이 베팅하는데, 왜 미국 대선이나 LK99에 진지한 플레이어들이 참여하기 시작할 만큼 충분한 돈을 걸지 않을까요? 그러나 이 주장은 이전 버전이 (적어도 후원자들의 꿈에 비해) 이 정도 규모에 도달하지 못했다는 사실을 직시해야 하며, 따라서 예측 시장이 성공하기 위해서는 몇 가지 새로운 요소가 필요한 것으로 보입니다.
따라서 2010년대에는 볼 수 없었던 예측 시장 생태계의 한 가지 특징, 즉 광범위한 AI 참여의 가능성을 2020년대에는 볼 수 있을 것으로 예상하는 것이 또 다른 대응책이 될 수 있습니다.
AI는 시간당 1달러 미만으로 일할 의향이 있거나 일할 수 있으며, 백과사전과 같은 지식을 보유하고 있습니다. 그것으로 충분하지 않다면 실시간 웹 검색 기능과 통합할 수도 있습니다. 마켓플레이스를 만들어 50달러의 이동성 보조금을 제공한다면, 인간은 입찰에 참여하지 않겠지만 수천 명의 AI가 몰려들어 최선의 추측을 할 것입니다.
주어진 문제에서 좋은 성과를 내는 데 대한 인센티브는 적을 수 있지만, 좋은 예측을 하는 AI를 만드는 데 대한 인센티브는 수백만 달러에 달할 수 있습니다. 대부분의 문제를 판정하는 데 사람이 필요하지 않다는 점에 유의하세요. Augur나 Kleros와 같은 다라운드 분쟁 시스템을 사용하면 AI가 초기 라운드에도 참여할 수 있습니다. 인간은 일련의 에스컬레이션이 발생하고 양측에 많은 자금이 투자된 드문 경우에만 대응하면 됩니다.
예측 시장이 이렇게 미시적인 규모로 작동하도록 만들 수 있다면, 예측 시장이라는 용어를 다른 많은 유형의 문제에 재사용할 수 있기 때문에 이것은 매우 강력한 용어입니다:
- 이 소셜 미디어 게시물이 이용약관에 따라 허용되는가?
- 주식 X의 가격은 어떻게 될까(예: Numerai 참조)?
- 현재 내가 메시지를 보내고 있는 계정이 정말 엘론 머스크인가요?
- 이 구인 정보를 온라인 구직 시장에 제출해도 되나요?
- https://examplefinance.network 에 있는 디앱은 사기인가요?
- 0x1b54....98c3은 "Casinu In" ERC20 토큰 주소인가요?
이러한 아이디어 중 상당수가 앞서 언급한 "정보 방어"의 방향으로 나아가고 있음을 알 수 있습니다. 넓게 보면, 중앙화된 기관에 옳고 그름을 결정할 수 있는 권한을 부여하지 않고 어떻게 하면 사용자가 진실과 거짓 정보를 구별하고 사기를 식별할 수 있도록 도와 그 권한을 남용하지 않도록 할 수 있을까요? 미시적 수준에서는 "AI"가 답일 수 있습니다.
하지만 거시적 차원에서 보면, AI를 누가 만들었느냐가 문제인데, 이는 AI가 만들어지는 과정에 대한 반응이기 때문에 편향적일 수밖에 없습니다. AI가 플레이어로서 게임에 참여할 수 있도록 다양한 AI의 성능을 판단하려면 더 높은 수준의 게임플레이가 필요합니다.
AI가 일련의 메커니즘을 통해 궁극적으로 인간으로부터 (확률적인 방식으로) 보상이나 불이익을 받는 메커니즘에 관여하는 이러한 종류의 AI 사용은 충분히 연구할 가치가 있다고 생각합니다. 블록체인의 확장성이 마침내 성공을 거두면서 이전에는 불가능했던 '마이크로' 작업이 가능해졌기 때문에 지금이 바로 이러한 사용 사례에 대해 더 깊이 파고들어야 할 때입니다.
관련 애플리케이션은 블록체인을 사용하여 결제나 스마트 컨트랙트를 통한 신뢰할 수 있는 약속을 통해 협업을 개선하는 고도로 자율적인 에이전트로 나아가고 있습니다.
게임 인터페이스로서의 AI
제가 테크노 낙관론에서 제시한 아이디어 중 하나는 사용자가 탐색하는 온라인 세계의 위험을 해석하고 인식하여 사용자를 보호하는 사용자 대면 소프트웨어를 개발할 수 있는 시장 기회가 있다는 것입니다. 메타마스크의 사기 탐지는 이미 존재하는 이러한 사례입니다.
또 다른 예로는 사용자가 서명하려는 거래의 예상 결과를 보여주는 Rabby Wallet의 시뮬레이션 기능을 들 수 있습니다.
이러한 도구는 잠재적으로 AI로 보강될 수 있으며, 이를 통해 사용자가 어떤 종류의 디앱에 참여하고 있는지, 서명하는 복잡한 작업의 결과는 무엇인지, 특정 토큰이 진짜인지(예: 비트코인은 단순한 문자열이 아니라 실제 암호화폐의 이름이고, ERC20 토큰이 아니며, 가격이 0.045달러를 훨씬 상회합니다) 등에 대해 더 풍부하고 사람이 이해하기 쉬운 설명을 제공할 수 있습니다. ($0.045) 등입니다.
이러한 방향으로 나아가기 시작한 몇 가지 프로젝트가 있습니다(예: AI를 메인 인터페이스로 사용하는 LangChain 지갑). 제 개인적인 견해는 순수한 AI 인터페이스는 다른 유형의 오류의 위험을 증가시키기 때문에 현재로서는 너무 위험할 수 있지만, 보다 전통적인 인터페이스와 결합된 AI는 매우 실용화되고 있다는 것입니다.
언급할 가치가 있는 한 가지 구체적인 위험이 있습니다. 아래 게임 규칙으로서의 AI 섹션에서 더 자세히 다루겠지만, 일반적인 문제는 적대적 머신러닝입니다. 사용자가 오픈 소스 지갑에 AI 비서를 사용하는 경우, 악의적인 사용자가 해당 AI 비서에 액세스할 수 있으므로 지갑의 방어를 피하기 위해 사기 행위를 최적화할 기회가 무한히 늘어납니다.
모든 최신 AI는 몇 가지 취약점을 가지고 있으며, 모델에 대한 접근 권한만 제한적으로 부여하는 학습 과정에서도 취약점을 쉽게 찾을 수 있습니다.
바로 이 점에서 '체인화된 마이크로 마켓에 AI가 참여하는 방식'이 더 효과적입니다. 각 개별 AI는 동일한 위험에 직면하지만, 의도적으로 수십 명의 사람들이 반복하고 개선하는 개방형 생태계를 구축하는 것입니다.
또한 각 개별 AI는 폐쇄적이기 때문에 시스템의 보안은 각 참가자의 내부 작동이 아닌 게임 규칙의 개방성에서 비롯됩니다.
결론적으로, AI는 사용자가 간단한 언어로 무슨 일이 일어나고 있는지 이해할 수 있도록 도와주고, 실수를 방지하는 실시간 튜터 역할을 할 수 있지만, 악의적인 오도자나 사기꾼을 만날 때는 주의해야 합니다.
게임의 규칙으로서의 AI
이제 많은 사람들이 기대하는 애플리케이션에 대해 이야기하고 있지만, 가장 위험하고 매우 주의해야 할 애플리케이션은 바로 제가 게임 규칙의 일부라고 부르는 AI입니다. 이는 주류 정치 엘리트들이 '인공지능 판사'에 대해 열광하는 것과 관련이 있으며(예를 들어, 세계 정부 정상회의 웹사이트의 기사 참조), 블록체인 애플리케이션에서도 이러한 열망과 유사점이 있습니다.
지능형 블록체인 기반 콘트랙트나 DAO가 주관적인 결정을 내려야 하는 경우, AI가 콘트랙트나 DAO의 일부가 되어 이러한 규칙을 집행하는 데 도움을 줄 수 있을까요?
바로 이 부분에서 저항성 머신러닝은 매우 어려운 도전이 될 것입니다. 간단한 예시를 들어보겠습니다:
메커니즘에서 핵심적인 역할을 하는 AI 모델이 폐쇄적이라면 내부 작동을 확인할 수 없으므로 중앙 집중식 애플리케이션보다 나을 것이 없습니다.
AI 모델이 개방형인 경우 공격자는 로컬에서 다운로드하여 시뮬레이션하고 모델을 스푸핑하기 위해 고도로 최적화된 공격을 설계한 다음 웹에서 실시간으로 재생할 수 있습니다.

지금쯤이면 이 블로그의 단골 독자(또는 암호화폐에 관심이 있는 분)라면 제가 하는 말을 알아차리고 이에 대해 생각해 보기 시작했을 것입니다. 하지만 잠시만 기다려주세요.
우리는 영지식 증명과 기타 매우 멋진 형태의 암호화를 발전시켜왔습니다. 공격자가 공격을 최적화할 수 없도록 모델의 내부 작동을 숨기는 동시에 모델이 올바르게 실행되고 있고 합리적인 훈련 과정을 통해 합리적인 기본 데이터 세트를 기반으로 구축되었음을 증명하는 암호학적 마법을 부릴 수 있습니다.
일반적으로 이것이 바로 제가 이 블로그와 다른 게시물에서 주장하는 사고방식입니다. 하지만 AI 계산의 경우 두 가지 주요 반대가 있습니다:
- 암호화 오버헤드: SNARK(또는 MPC 등)에서 작업을 실행하는 것은 명시적으로 수행하는 것보다 훨씬 덜 효율적입니다. AI는 이미 본질적으로 계산이 까다롭다는 점을 고려할 때 암호화 블랙박스에서 AI 연산을 수행하는 것이 계산적으로 가능한가요?
- 블랙박스는 머신 러닝 공격에 강합니다. 모델의 내부 작동을 몰라도 공격에 맞게 AI 모델을 최적화할 수 있는 방법이 있습니다. 블랙박스를 너무 철저하게 숨기면 학습 데이터를 선택한 사람이 포이즈닝 공격을 통해 모델의 무결성을 훼손하기 쉬워질 수 있습니다.
이 두 가지 모두 사례별로 심도 있게 살펴봐야 하는 복잡한 토끼굴입니다.
암호화 오버헤드
암호화 도구, 특히 ZK-SNARK 및 MPC와 같은 범용 도구는 비용이 많이 듭니다. 클라이언트 측에서 이더넷 블록을 직접 검증하는 데는 수백 밀리초가 걸리지만, 이러한 블록의 정확성을 증명하기 위해 ZK-SNARK를 생성하는 데는 몇 시간이 걸릴 수 있습니다. 다른 암호화 도구(예: MPC)는 훨씬 더 비쌀 수 있습니다.
가장 강력한 언어 모델은 인간이 읽을 수 있는 속도보다 약간 더 빠르게 단어를 출력할 뿐이며, 이러한 모델을 훈련하는 데 필요한 수백만 달러의 컴퓨팅 비용은 말할 것도 없습니다. 최고의 모델과 훈련 비용이나 인용 횟수 면에서 좀 더 절약하려는 모델 간의 품질 차이는 엄청납니다. 언뜻 보기에, 이는 보안을 강화하기 위해 AI를 암호화로 감싸는 전체 프로젝트에 의구심을 품게 하는 좋은 이유입니다.
그러나 다행히도 AI는 매우 특정한 유형의 계산으로, ZK-EVM과 같은 '비정형' 유형의 계산이 활용할 수 없는 다양한 최적화를 가능하게 합니다. AI 모델의 기본 구조를 살펴보겠습니다:
일반적으로 AI 모델은 주로 일련의 행렬 곱셈으로 구성되며, 각 요소에 비선형 연산이 흩어져 있습니다(예: ReLU 함수(y = max (x, 0) )). 점근적으로 행렬 곱셈이 대부분의 작업을 차지합니다. 이는 많은 형태의 암호화를 거의 '무료로' 선형적으로 수행할 수 있기 때문에 암호화에 매우 편리합니다(적어도 입력이 아닌 암호화 모델에서 행렬 곱셈을 수행하는 경우).
암호화 전문가라면 동형 암호화에서도 비슷한 현상이 발생한다는 사실을 들어보셨을 것입니다. 암호화된 암호문에 덧셈을 수행하는 것은 매우 쉽지만 곱셈은 매우 어렵기 때문에 2009년이 되어서야 곱셈 연산을 무한히 깊이 수행할 수 있는 방법을 찾아냈습니다.
ZK-SNARK의 경우 행렬 곱셈을 증명하는 오버헤드가 4배 미만인 2013 프로토콜과 유사합니다. 안타깝게도 비선형 계층의 오버헤드는 여전히 상당하며, 실제로 가장 좋은 구현은 약 200배의 오버헤드를 보여줍니다.
하지만 추가 연구를 통해 이러한 오버헤드를 크게 줄일 수 있을 것으로 기대됩니다. 라이언 카오의 프레젠테이션에서 GKR에 기반한 최신 접근 방식과 GKR의 주요 구성 요소에 대한 간단한 설명을 확인하세요.
그러나 많은 애플리케이션의 경우 AI 결과가 올바르게 계산되었다는 것을 증명하고 싶을 뿐만 아니라 모델을 숨기고 싶어합니다. 이를 위한 몇 가지 간단한 방법이 있습니다. 모델을 분할하여 여러 서버가 각 레이어를 중복 저장하고 일부 레이어를 유출하는 서버가 너무 많은 데이터를 유출하지 않기를 바랄 수 있습니다. 하지만 놀랍도록 전문적인 다자간 계산도 있습니다.
두 경우 모두 AI 계산의 주요 부분은 행렬 곱셈이며, 매우 효율적인 ZK-SNARK, MPC(심지어 FHE)는 행렬 곱셈을 위해 설계될 수 있으므로 AI를 암호화 프레임워크에 넣는 총 오버헤드가 놀라울 정도로 낮다는 교훈은 동일합니다. 일반적으로 비선형 계층은 작은 크기에도 불구하고 가장 큰 병목 현상을 일으킵니다. 룩업과 같은 최신 기술이 도움이 될 수 있습니다.
블랙박스 적대적 머신 러닝
이제 또 다른 중요한 문제, 즉 모델의 콘텐츠가 비공개로 유지되고 'API'를 통해서만 모델에 액세스할 수 있는 경우에도 수행할 수 있는 공격 유형에 대해 논의해 보겠습니다. 2016년에 발표된 논문을 인용해 보겠습니다:
많은 머신 러닝 모델들은 적대적 예제에 취약합니다. 특수하게 설계된 입력으로 인해 머신 러닝 모델이 잘못된 출력을 생성할 수 있습니다. 한 모델에 영향을 미치는 적대적 예시는 두 모델이 동일한 작업을 수행하도록 학습되는 한, 두 모델의 아키텍처가 다르거나 서로 다른 학습 세트에 대해 학습된 경우에도 일반적으로 다른 모델에 영향을 미칩니다.
결과적으로 공격자는 자신만의 대체 모델을 학습시키고, 대체 모델에 대한 적대적인 예시를 만든 다음, 피해자에 대한 정보가 거의 없는 상태에서 이를 피해자 모델에 전송할 수 있습니다.
공격하려는 모델에 대한 액세스 권한이 매우 제한적이거나 전혀 없는 경우에도 데이터 학습만으로 공격을 구축할 수 있습니다. 2023년에도 이러한 공격은 심각한 문제로 남을 것입니다.
이러한 블랙박스 공격을 효과적으로 차단하기 위해서는 두 가지 작업이 필요합니다:
- 모델을 쿼리할 수 있는 대상과 범위를 엄격하게 제한해야 합니다. API 액세스가 무제한인 블랙박스는 안전하지 않으며, API 액세스가 매우 제한적인 블랙박스는 안전할 수 있습니다.
- 학습 데이터를 숨기면서 학습 데이터 생성 프로세스가 손상되지 않도록 하는 것은 중요한 목표입니다.
전자의 경우, 아마도 이 작업을 가장 많이 수행한 프로젝트는 초기 버전을 여기에서 자세히 분석한 Worldcoin일 것입니다(다른 프로토콜도 마찬가지입니다). Worldcoin은 프로토콜 수준에서 AI 모델을 광범위하게 사용하여 (i) 홍채 스캔을 유사성을 쉽게 비교할 수 있는 짧은 "홍채 코드"로 변환하고 (ii) 스캔하는 대상이 실제로 사람인지 여부를 검증합니다.
Worldcoin이 사용하는 주요 방어책은 누구도 AI 모델을 단순히 호출할 수 없도록 하는 대신, 신뢰할 수 있는 하드웨어를 사용하여 모델이 오브 카메라로 디지털 서명된 입력만 받아들이도록 하는 것입니다.
예를 들어 얼굴에 착용하는 물리적 패치나 장신구 등을 통해 생체 인식 AI에 대한 반격이 가능하다는 사실이 밝혀졌습니다.

하지만 AI 모델 자체를 숨기고, 쿼리 수를 엄격하게 제한하고, 각 쿼리를 어떤 방식으로든 인증하도록 하는 등 모든 방어 수단을 결합하면 내성 공격이 매우 어려워져 시스템의 보안이 더욱 강화될 것입니다.
이는 두 번째 질문으로 이어집니다. 학습 데이터를 어떻게 숨길 수 있을까요?
바로 이 지점에서 "DAO에 의한 AI의 민주적 관리 "가 실제로 의미가 있을 수 있습니다. 훈련 데이터를 제출할 수 있는 사람(및 데이터 자체의 필수 표현), 쿼리할 수 있는 사람, 쿼리 횟수를 관리하기 위해 DAO 체인을 설정하고, 각 개별 사용자의 훈련 입력부터 각 쿼리의 최종 출력에 이르기까지 전체 AI 생성 및 실행 과정을 MPC와 같은 암호화 기술을 사용하여 암호화할 수 있습니다. 각 개별 사용자의 학습 입력부터 각 쿼리의 최종 출력까지 전체 AI 생성 및 실행 과정을 암호화합니다. 이 DAO는 데이터를 제출하는 사람들에게 보상을 제공한다는 대중적인 목표를 동시에 충족시킬 수 있습니다.
다시 말씀드리자면, 이 프로젝트는 매우 야심찬 계획이지만 여러 가지 면에서 비현실적인 것으로 드러났습니다:
- 암호화 오버헤드가 여전히 너무 높아서 완전한 블랙박스 아키텍처가 기존의 폐쇄적인 "나를 믿어라" 방식과 경쟁하기에는 역부족일 수 있습니다.
- 훈련 데이터 제출 프로세스를 분산하고 포이즈닝 공격을 방지할 수 있는 좋은 방법이 없는 것도 사실입니다.
- 다자간 컴퓨팅 장치는 참여자 간의 담합으로 인해 보안 또는 개인 정보 보장이 손상될 수 있으며, 이는 크로스 링크 브리지를 통해 여러 번 반복적으로 발생했습니다.
제가 이 섹션을 "인공지능 판사가 되지 마세요, 반유토피아적입니다"라는 경고로 시작하지 않은 이유 중 하나는 우리 사회가 이미 소셜 미디어에서 어떤 유형의 알고리즘 게시물과 정치적 견해의 등급을 올리거나 내리고 심지어 면밀히 조사하는 등 책임감 없는 중앙집중식 인공지능 판사에게 크게 의존하고 있기 때문입니다.
저는 현 단계에서 이러한 추세를 더 확대하는 것은 매우 나쁜 생각이라고 생각하지만, 블록체인 커뮤니티에서 AI를 더 많이 실험하는 것이 문제를 악화시키는 주된 원인이라고 생각하지는 않습니다.
사실, 암호화폐가 기존의 중앙화된 시스템도 개선할 수 있는 매우 기본적이고 위험도가 낮은 몇 가지 방법이 있으며, 저는 이에 대해 매우 확신합니다. 한 가지 간단한 기술은 지연 릴리스 인증 AI입니다. 소셜 미디어 사이트가 AI 기반 게시물 순위를 사용할 때 순위를 생성한 모델의 해시값을 증명하는 ZK-SNARK를 릴리스할 수 있습니다. 사이트는 일정 기간(예: 1년) 후에 AI 모델을 공개하겠다고 약속할 수 있습니다.
모델이 공개되면 사용자는 해시값을 확인하여 올바른 모델이 공개되었는지 확인할 수 있으며, 커뮤니티는 해당 모델을 테스트하여 공정성을 검증할 수 있습니다. 공개가 지연되면 모델이 공개될 때쯤에는 이미 오래된 모델이 될 수 있습니다.
따라서 중앙화된 세계와 비교했을 때, 우리가 더 잘할 수 있느냐가 아니라 얼마나 잘할 수 있느냐가 문제입니다. 그러나 탈중앙화 세계에서는 누군가가 AI 예측 머신을 이용해 예측 시장이나 스테이블 코인을 만들었는데, 누군가 그 예측 머신이 공격받을 수 있다는 사실을 알게 된다면 엄청난 금액이 순식간에 사라질 수 있다는 점에서 주의가 필요합니다.
게임의 목표로서의 AI
위에서 설명한 확장 가능하고 탈중앙화된 프라이빗 AI를 구축하기 위한 기술들이 아무도 모르는 블랙박스처럼 실제로 작동한다면, 이는 블록체인을 넘어서는 유용성을 가진 AI를 구축하는 데에도 사용될 수 있으며, NEAR 프로토콜 팀은 이를 현재 진행 중인 작업의 핵심 목표로 삼고 있습니다.
여기에는 두 가지 이유가 있습니다:
블록체인과 다자간 컴퓨팅을 조합하여 훈련과 추론 과정을 수행함으로써 "신뢰할 수 있는 블랙박스 AI"를 구축할 수 있다면, 사용자가 시스템의 편향성이나 사기를 우려하는 많은 애플리케이션이 혜택을 받을 수 있습니다. 많은 사람들이 우리가 의존하는 AI의 민주적 거버넌스에 대한 열망을 표명해 왔으며, 암호화와 블록체인 기반 기술이 이를 달성할 수 있는 방법이 될 수 있습니다.
AI 보안의 관점에서 볼 때, 이는 자연스러운 비상 정지 스위치를 갖춘 탈중앙화된 AI를 구축하는 기술이 될 수 있으며, 악의적인 행위를 위해 AI를 사용하려는 쿼리를 제한할 수 있습니다.
"암호학적 인센티브를 사용하여 더 나은 AI를 장려하는 것"은 완전한 암호화를 위해 암호화를 사용하는 토끼굴에 완전히 빠지지 않고도 달성할 수 있으며, 비트텐서와 같은 접근 방식이 이 범주에 속한다는 점에 주목할 필요가 있습니다.
결론
블록체인과 AI가 계속 성장함에 따라 이 두 가지가 교차하는 사용 사례도 증가하고 있으며, 그 중 일부는 다른 것보다 더 의미 있고 견고합니다.
전반적으로 기본 메커니즘은 설계상 크게 변하지 않지만, 개별 참여자가 AI의 사용 사례가 되어 보다 미시적인 수준에서 효율적으로 실행되는 사례가 가장 유망하고 구현하기 쉽습니다.
가장 도전적인 분야는 블록체인과 암호화를 사용해 '싱글톤', 즉 일부 애플리케이션이 특정 목적을 위해 의존하는 신뢰할 수 있는 단일 탈중앙화 AI를 구축하려는 애플리케이션입니다.
이러한 애플리케이션은 중앙 집중화의 위험을 피하면서 기능과 AI 보안을 모두 개선할 수 있는 잠재력을 가지고 있습니다.
그러나 기본 가정은 여러 가지 면에서 실패할 수 있습니다. 따라서 이러한 애플리케이션을 배포할 때, 특히 가치가 높고 위험도가 높은 환경에서는 주의가 필요합니다.
이러한 모든 영역에서 보다 건설적인 AI 사용 사례가 시도되어 어떤 것이 진정으로 대규모로 실행 가능한지 확인할 수 있기를 기대합니다.