생성형 AI 채팅봇인 OpenAI의 ChatGPT가 보여준 지능은 개인과 기업의 상상력을 사로잡았고, 인공지능은 갑자기 기술 혁신의 가장 흥미로운 분야가 되었습니다.
AI는 게임 체인저로 인정받고 있으며, 우리 삶의 많은 부분을 변화시킬 잠재력을 가지고 있습니다. 맞춤형 의료, 자율 주행 차량, 자동화된 투자에서 디지털 자산에 이르기까지 AI가 가능하게 하는 가능성은 무한합니다.
그러나 AI가 혁신적일수록 새로운 기술에 따르는 위험도 많습니다. 악의적인 스카이넷 스타일의 AI 시스템이 통제를 벗어날 것이라는 두려움은 잘못된 것이지만, AI 집중화의 위험은 그렇지 않습니다. 마이크로소프트, 구글, 엔비디아 등 기업들이 AI 추구에 박차를 가하면서 소수의 중앙 집중화된 플레이어들의 힘이 커지는 것에 대한 우려가 더욱 커지고 있습니다.
분산형 AI에 대해 걱정해야 할 이유는 무엇인가?
독점 권력
중앙 집중형 AI에서 가장 시급한 문제는 소수의 기술 거대기업이 독점적 지배력을 달성할 수 있다는 것입니다. 빅테크 기업들은 이미 AI 시장에서 상당한 점유율을 확보했고, 방대한 데이터를 보유하고 있습니다. 또한 AI 시스템이 작동하는 인프라를 통제하여 경쟁업체를 억압하고, 혁신을 저해하며, 경제적 불평등을 지속시킬 수 있습니다.
AI 개발에 대한 독점을 달성하면 이들 기업은 규제 체계에 불공정한 영향력을 행사할 가능성이 높습니다. 이는 자원이 부족한 스타트업이 혁신의 속도를 따라가기 어려워질 것을 의미합니다. 살아남아 번창할 것 같은 스타트업들도 거의 확실히 인수될 것이며, 이는 권력이 소수에게 더욱 집중되는 결과를 초래할 것입니다. 그 결과 AI 개발의 다양성이 줄어들고, 소비자 선택권이 감소하며, 더 불리한 조건이 제공되어 AI가 약속한 사용 사례와 경제적 기회가 제한될 것입니다.
편향성과 차별
독점 통제 외에도 AI 시스템의 편향성에 대한 우려가 있으며, 이는 사회가 AI에 점점 더 의존하게 됨에 따라 더욱 중요해질 것입니다.
이 위험은 많은 분야에서 기업들이 의사 결정을 위해 자동화 시스템에 점점 더 의존하게 된다는 사실에서 비롯됩니다. 예를 들어 기업이 AI 알고리즘을 사용하여 채용 지원자를 걸러내는 것은 드문 일이 아니며, 편향된 시스템이 지원자의 인종, 나이 또는 거주 지역에 따라 부당하게 일부 지원자를 배제할 위험이 있습니다. AI는 또한 보험 회사가 보험료를 책정하고, 금융 기관이 대출 자격을 결정하며, 법 집행 기관이 범죄율이 더 높을 것으로 예상되는 지역을 파악하는 데 사용됩니다. 이러한 모든 사용 사례에서 편향된 AI 시스템의 잠재적 영향은 매우 우려스럽습니다.
소수 민족 커뮤니티에 대한 법 집행의 표적화, 차별적인 대출 관행 또는 기타 문제에서 볼 수 있듯이, 중앙 집중형 AI는 사회적 불평등을 악화시키고 체계적 차별을 가능하게 할 수 있습니다.
프라이버시와 감시
중앙 집중형 AI 시스템이 야기하는 또 다른 위험은 프라이버시 보호 부족입니다. 소수의 거대 기업이 AI가 생성하는 대부분의 데이터를 통제하면 사용자에 대한 전례 없는 감시를 수행할 수 있습니다. 가장 강력한 AI 플랫폼이 축적한 데이터는 개인의 행동을 정확하게 모니터링, 분석 및 예측하는 데 사용될 수 있어 프라이버시를 침해하고 정보 오용의 위험을 높입니다.
이는 특히 권위주의 정부가 있는 국가에서 우려되는데, 데이터가 시민 감시를 위한 더 정교한 도구로 악용될 수 있기 때문입니다. 하지만 민주주의 사회에서도 에드워드 스노든의 NSA 프리즘 프로그램 폭로에서 볼 수 있듯이 증가하는 감시에 대한 위협이 존재합니다.
기업들도 소비자 데이터를 이용해 이익을 극대화할 수 있습니다. 또한 중앙 집중 기관이 방대한 민감 데이터를 축적하면 해커들의 주요 타깃이 되어 데이터 유출 위험이 높아집니다.
보안 위험
중앙 집중형 AI로 인한 국가 안보 문제도 발생할 수 있습니다. 예를 들어 AI 시스템이 무기화되어 국가 간 사이버전, 첩보 활동, 신무기 개발에 사용될 수 있다는 우려가 정당화됩니다. AI는 미래 전쟁의 핵심 도구가 될 수 있어 지정학적 갈등의 위험을 높입니다.
AI 시스템 자체도 공격의 대상이 될 수 있습니다. 국가들이 AI에 점점 더 의존하게 되면서 이러한 시스템은 명백한 단일 장애 지점이 되어 매력적인 표적이 될 것입니다. AI 시스템을 무력화하면 도시 교통 흐름, 전력망 등 전체 시스템을 마비시킬 수 있습니다.
윤리
중앙 집중형 AI의 또 다른 주요 우려사항은 윤리입니다. 소수의 기업이 AI 시스템을 통제하면 사회의 문화적 규범과 가치에 상당한 영향력을 행사할 수 있으며, 종종 이윤을 우선시하여 추가적인 윤리적 문제를 야기할 수 있습니다.
예를 들어 AI 알고리즘은 이미 소셜 미디어 플랫폼에서 콘텐츠를 조절하는 데 널리 사용되고 있습니다. 알고리즘이 실수로든 고의로든 표현의 자유를 억압할 수 있다는 우려가 있습니다.
AI 기반 조절 시스템의 효과성을 둘러싼 논란이 이미 있으며, 명백히 무해한 게시물이 자동화된 알고리즘에 의해 차단되거나 삭제되는 사례가 많습니다. 이는 이러한 시스템이 고장난 것이 아니라 플랫폼이 추진하려는 정치적 내러티브에 따라 조작되고 있다는 의혹을 낳고 있습니다.
대안은? 분산형 AI
중앙 집중형 AI에 대한 논리적 대안은 기술 통제권이 소수가 아닌 다수의 손에 있도록 하는 분산형 AI 시스템을 개발하는 것입니다. 이를 통해 어떤 단일 기업이나 주체도 AI 발전 방향에 큰 영향력을 행사하지 못하도록 할 수 있습니다.
AI 개발과 거버넌스가 수천 또는 수백만 개체에 의해 공유되면 그 진보가 더 공평해지고 개인의 요구에 더 잘 부합할 것입니다. 그 결과 다양한 AI 애플리케이션이 나오고, 업계를 지배하는 몇 가지 모델 대신 거의 무한한 선택의 모델이 사용될 것입니다.
분산형 AI 시스템은 또한 대규모 감시와 데이터 조작의 위험을 막는 견제와 균형을 의미합니다. 중앙 집중형 AI는 악용되어 다수의 이익에 반하는 방식으로 사용될 수 있지만, 분산형 AI는 이러한 억압을 막을 수 있습니다.
분산형 AI의 주요 장점은 기술의 진화에 모두가 통제권을 가지고 있어 어떤 단일 주체도 과도한 영향력을 행사할 수 없다는 것입니다.
AI를 어떻게 분산화할 것인가
분산형 AI는 AI 기술 스택을 구성하는 요소, 즉 인프라(컴퓨팅 및 네트워킹 리소스), 데이터, 모델, 학습, 추론 및 미세 조정 프로세스 등을 재구상하는 것을 의미합니다.
아마존, 마이크로소프트, 구글과 같은 클라우드 컴퓨팅 거대기업이 기반 인프라를 완전히 장악하고 있다면 오픈 소스 모델에 의지하는 것만으로는 충분하지 않습니다. AI의 모든 측면을 분산화해야 합니다.
AI 스택을 분산화하는 가장 좋은 방법은 이를 모듈식 구성 요소로 분해하고 공급과 수요에 기반한 시장을 만드는 것입니다. 이를 실현할 수 있는 한 가지 예가 Spheron이 만든 분산형 물리적 인프라 네트워크(DePIN)입니다.
Spheron의 DePIN을 통해 누구나 사용하지 않는 컴퓨팅 리소스를 공유하고 AI 애플리케이션을 호스팅하는 이들에게 대여할 수 있습니다. 따라서 GPU가 장착된 강력한 노트북을 사용하는 그래픽 디자이너는 자신의 작업에 사용하지 않을 때 DePIN에 처리 능력을 기부하고 토큰 인센티브를 받을 수 있습니다.
이는 블록체인 기술과 스마트 계약을 통