편집자 주: 최근 AI가 암호화폐 분야에 미치는 영향력이 계속 증가함에 따라 시장이 AI의 검증 가능성 문제에 주목하기 시작했습니다. 본 기사에서 암호화폐와 AI 분야의 여러 전문가들은 탈중앙화, 블록체인, 영지식 증명 등의 기술이 AI 모델의 잠재적 남용 위험에 어떻게 대응할 수 있는지 분석하고, 추론 검증, 폐쇄형 모델, 엣지 디바이스 추론 등의 미래 동향을 탐구했습니다.
다음은 원문 내용(가독성 향상을 위해 일부 편집):
최근 델파이디지털(Delphi Digital)의 AI 월간 행사에서 암호화폐와 AI 분야의 4명의 창업자가 참여하여 검증 가능한 AI에 대해 논의했으며, 다음은 주요 내용입니다.
패널리스트: colingagich, ryanmcnutty33, immorriv 및 Iridium Eagleemy.
미래에 AI 모델은 소프트 파워가 될 것이며, 경제적 활용도가 높아질수록 남용 기회도 늘어날 것입니다. 모델 출력이 조작되었는지 여부와 관계없이 이러한 가능성만으로도 큰 해가 될 수 있습니다.
우리가 AI 모델에 대한 인식이 소셜미디어 알고리즘과 같아지면 큰 문제에 직면할 것입니다. 탈중앙화, 블록체인, 검증 가능성이 이 문제를 해결하는 핵심입니다. AI는 본질적으로 블랙박스이므로 조작되지 않았음을 증명할 수 있는 방법을 찾아야 합니다.
이것이 검증 가능한 추론이 해결하고자 하는 문제입니다. 패널리스트들은 문제에 대해 동의했지만, 해결책에 대해서는 다른 접근법을 취했습니다.
보다 구체적으로 말하면, 검증 가능한 추론에는 다음이 포함됩니다: 내 질문이나 입력이 변조되지 않았음, 내가 사용한 모델이 내가 약속한 것이 맞음, 출력이 변경되지 않고 그대로 제공됨. 이 정의는 @Shaughnessy119에서 가져왔지만 매우 간결하다고 생각합니다.
현재 'truth terminal' 사례에서 이것이 큰 도움이 될 것입니다.
모델 출력을 검증하기 위해 영지식 증명을 사용하는 것은 가장 안전한 방법입니다. 그러나 이는 계산 비용을 100-1000배 증가시킵니다. 또한 모든 내용을 회로로 쉽게 변환할 수 있는 것은 아니므로 일부 함수(예: 시그모이드)에 대해 근사 처리를 해야 하며, 부동 소수점 근사 손실이 발생할 수 있습니다.
계산 오버헤드와 관련하여, 많은 팀들이 선도적인 ZK 기술을 개선하여 비용을 크게 낮추기 위해 노력하고 있습니다. 대규모 언어 모델의 크기가 크지만, 대부분의 금융 사례는 상대적으로 작을 수 있습니다(예: 자본 배분 모델). 이 경우 오버헤드가 무시할 수 있을 정도로 작아집니다. 신뢰할 수 있는 실행 환경(TEEs)은 최대 보안이 필요하지 않지만 비용이나 모델 크기에 더 민감한 사례에 적합합니다.
Ambient의 Travis는 그들이 매우 큰 분할 모델에서 추론을 검증하는 방법을 설명했습니다. 이는 일반적인 문제가 아니라 특정 모델에 대한 솔루션입니다. 그러나 Ambient가 아직 비밀 상태이므로 이 작업은 공개되지 않았으며, 곧 발표될 논문을 기다려야 합니다.
낙관적 방법, 즉 추론 시 증명을 생성하지 않고 추론을 수행하는 노드가 토큰을 스테이킹하며, 의문이 제기되어 부적절한 작업이 발견되면 스테이킹 토큰을 몰수하는 방식에 대해서는 패널리스트들의 일부 반대 의견이 있었습니다.
첫째, 이를 구현하려면 결정적 출력이 필요하며, 이를 달성하기 위해서는 일부 타협이 필요합니다(예: 모든 노드가 동일한 난수 시드를 사용하도록 보장). 둘째, 100억 달러의 위험에 직면한다면 얼마나 많은 스테이킹이 경제적 안전을 보장할까요? 이 문제에 대한 명확한 답은 여전히 없으며, 이는 소비자가 완전한 증명 비용을 지불할지 선택할 수 있게 하는 것이 중요함을 보여줍니다.
폐쇄형 모델 문제와 관련하여, inference labs와 aizel network는 이를 지원할 수 있습니다. 이는 일부 철학적 논쟁을 불러일으켰습니다. 신뢰에는 실행 중인 모델을 이해할 필요가 없으므로 독점 모델은 바람직하지 않으며 검증 가능한 AI와 배치됩니다. 그러나 경우에 따라 모델의 내부 작동 원리를 알면 조작될 수 있으며, 이 문제를 해결하는 유일한 방법은 때로는 모델을 폐쇄형으로 만드는 것입니다. 100회 또는 1,000회 검증 후에도 신뢰할 수 있는 폐쇄형 모델은 내부 가중치에 액세스할 수 없더라도 신뢰를 얻을 수 있습니다.
마지막으로, 우리는 프라이버시, 지연 시간, 대역폭 등의 문제로 인해 AI 추론이 엣지 디바이스(예: 스마트폰, 노트북)로 이동할 것인지 논의했습니다. 패널리스트들은 이러한 변화가 진행 중이지만 몇 번의 반복이 더 필요할 것이라는 데 동의했습니다.
대규모 모델의 경우 공간, 계산 요구 사항, 네트워크 요구 사항이 문제입니다. 그러나 모델이 점점 더 작아지고 디바이스가 강력해짐에 따라 이러한 변화가 일어나고 있습니다. 그러나 현재 추론 프로세스를 비밀로 유지할 수 있다면 로컬 추론의 많은 이점을 얻을 수 있으며 장애 모드에 직면하지 않을 수 있습니다.
「원문 링크」
블록비츠(BlockBeats) 공식 커뮤니티에 가입하세요:
텔레그램 구독 그룹: https://t.me/theblockbeats
텔레그램 채팅 그룹: https://t.me/BlockBeats_App
트위터 공식 계정: https://twitter.com/BlockBeatsAsia