현재, AI 기술은 지속적으로 돌파구를 마련하고 있으며, AI 훈련 모드의 혁신적 탐색도 점점 더 깊어지고 있다. 이러한 물결 속에서 중앙집중식 모델의 독점 위험과 오픈소스 모델의 인센티브 메커니즘 부족은 더 나은 해결책을 절실히 필요로 한다.
이러한 배경에서 Pluralis 프로젝트가 등장했다. 팀의 모든 구성원은 박사 학위 소지자로, 인턴을 제외하고는 모두 아마존 출신이다. 본 글에서는 Pluralis의 탈중앙화 AI 훈련 분야의 핵심 기술 개념, 팀 구성, 융자 상황 및 혁신적인 프로토콜 학습 훈련 패러다임을 소개할 것이다.
Pluralis란 무엇인가?
Pluralis Research는 '프로토콜 학습'을 통해 탈중앙화되고 오픈소스인 AI 개발 모드를 만드는 데 주력하고 있다. 이 모드는 탈중앙화 방식으로 다양한 계산 자원을 모아 모델을 공동 훈련한다. 이 과정에서 어떤 단일 참여자도 완전한 모델 가중치를 얻을 수 없도록 보장한다.
Pluralis 프로토콜 학습의 핵심 혁신은 프로토콜 모델로, 신경망의 핵심 특성을 활용해 어떤 참여자도 완전한 가중치 세트를 추출할 수 없게 한다. 이러한 설계는 가치가 기여자에게 흐르도록 보장하면서 모델 소유권을 보호하고, AI 개발의 개방성과 수익화 요구 사이를 교묘하게 균형 잡는다.
Pluralis에서 모델 설계자는 자신의 모델 구상을 제시할 수 있고, 계산 및 데이터 제공자는 모델 훈련에 필요한 자원을 기여할 수 있다. 이러한 프로토콜 모델은 개방적이고 공개적으로 개발되며, 참여자에게 훈련 결과 모델의 부분 소유권을 부여함으로써 각 당사자의 기여를 효과적으로 장려하여 진정한 오픈소스 인공지능 목표를 향해 나아간다.
Pluralis 배경
Pluralis 팀은 강력한 실력을 갖추고 있다. 공식 웹사이트에 나열된 8명의 팀원 중 한 명의 인턴을 제외하고는 모두 아마존 AI 연구 부서 출신이며, 전원이 박사 학위를 보유하고 있다.
창립자 알렉산더 롱: 뉴사우스웨일스 대학교 컴퓨터 과학 박사 학위 소지자로, 이전에 2021년 3월부터 2024년 5월까지 아마존에서 응용 과학자로 근무했다. 그의 박사 논문은 딥러닝의 샘플 효율적 강화 학습 및 비모수 메모리에 초점을 맞추었다.
창립 과학자 길 아브라함: 호주 모나시 대학교 머신러닝 박사로, 2021년 12월부터 2024년 8월까지 아마존에서 응용 과학자로 근무했으며, 이후 선임 응용 과학자로 승진했고 2024년 10월 Pluralis에 합류했다.
창립 과학자 얀 조: 호주 모나시 대학교 전기전자공학 박사 학위 소지자로, 대규모 최적화, 통계 모델링, 머신러닝 및 컴퓨터 비전에 관심이 있으며, 2021년 8월부터 2024년 10월까지 아마존에서 응용 과학자로 근무했다.
창립 과학자 아잔단 탈라이야싱암: 호주 국립대학교 컴퓨터 과학 박사 학위 소지자로, 2020년 12월부터 2024년 3월까지 아마존에서 머신러닝 과학자로 근무했으며, 이후 선임 머신러닝 과학자로 승진했고 2024년 10월 Pluralis에 합류했다.
창립 과학자 사미라 라마싱헤: 호주 국립대학교 머신러닝 및 3D 비전 박사 학위 소지자로, AI 기술 기업 ConscientAI의 공동 창립자 및 최고기술책임자(CTO)이며, 2022년 5월부터 2024년 11월까지 아마존에서 응용 과학자로 근무했다.
쉽게 알 수 있듯이, Pluralis의 창립자, 창립 과학자 및 연구 과학자 모두 아마존 근무 경력이 있으며, 머신러닝, 컴퓨터 비전 및 대규모 언어 모델(LLMs) 분야에서 각자의 강점을 가지고 있고, 일부 구성원은 박사 후 연구원으로도 활동했다.
융자 측면에서, Pluralis는 2025년 3월에 760만 달러의 투자를 유치했다. 이번 투자는 CoinFund와 Union Square Ventures가 주도했으며, Topology, Variant, Eden Block 및 Bodhi Ventures가 참여했다. 이번 투자는 지분 형태로 이루어졌으며, 향후 암호화폐에 대한 워런트도 포함되어 있다.
프로토콜 학습이란 무엇인가?
알렉산더 롱의 "프로토콜 학습, 탈중앙화 프론티어 리스크 및 No-Off 문제" 논문에서 이러한 새로운 AI 모델 훈련 패러다임인 프로토콜 학습(Protocol Learning)을 제시했다. 그 목표는 탈중앙화된 인센티브 네트워크를 활용하여 모델을 협력 훈련하고, 현재 중앙집중식 및 오픈소스 방법의 한계를 돌파하는 것이다.
알렉산더 롱은 중앙집중식 모델이 효율적이지만 독점 위험과 투명성 부족한 거버넌스를 가지고 있으며, 오픈소스 모델은 지속 가능한 인센티브 메커니즘이 부족하다고 지적했다. 프로토콜 학습은 절충안으로, 참여자들의 계산 자원 기여를 장려하여 탈중앙화 훈련 네트워크를 구축하고, 이론적으로 중앙집중식 훈련보다 몇 배의 계산력을 집계할 수 있다.
기술적 실현 가능성 측면에서, 탈중앙화 훈련은 효율적인 통신, 모델 분할, 탄력적 훈련, 비잔틴 결함 허용 및 이종 노드 지원 등의 요구 사항을 충족해야 한다. 분산 훈련, 파이프라인 병렬 처리 및 결함 허용 메커니즘 등에서 일정한 진전이 있었지만, 대규모(100B+ 매개변수) 모델에 완전히 통합되지는 못했다. 또한 계산 기여를 통해 소유권을 분배하여 경제적 인센티브를 형성할 수 있지만, 게임 이론적 스테이킹이나 제로 지식 증명과 같은 기술을 사용하여 계산 검증 문제를 해결해야 한다.
물론 프로토콜 학습에는 새로운 리스크도 따른다. 탈중앙화 모델은 일방적으로 중단하기 어렵고, 모델이 통제 불능 상태가 되거나 오용될 경우 전체 네트워크의 조정이 필요하여 실행이 매우 어렵다. 또한 인센티브, 보안 및 통제 가능성 사이의 균형을 찾아 악의적인 행위를 방지해야 한다.
Pluralis는 인공지능의 미래가 단순히 분산된 것이 아니라 탈중앙화된 것이라고 믿는다. 탈중앙화 훈련의 기술적 장벽은 극복할 수 없는 것이 아니며, 그로 인한 이점은 엄청날 것이다.
요약하자면, Pluralis는 탈중앙화 AI 훈련 인프라를 구축하고 있으며, 프로토콜 학습을 통해 최첨단 모델의 집단 창조를 추진하고, 근본적으로 AI 기반 모델의 생산과 접근을 민주화하는 것을 목표로 한다.





