Mira가 분산 노드를 통해 AI 신뢰도를 향상시키는 방법

이 기사는 기계로 번역되었습니다
원문 표시

작성자: Messari

요약

  • 분산형 검증을 통해 Mira는 독립적인 모델 네트워크를 통해 AI 출력을 필터링하여 사실 신뢰도를 높이고, 재교육이나 중앙 집중식 감독 없이 환각을 줄일 수 있습니다.
  • 합의 메커니즘은 어떠한 주장도 승인되기 전에 여러 개의 독립적으로 운영되는 모델이 합의에 도달하도록 요구함으로써 단일 모델의 신뢰를 대체합니다.
  • Mira는 통합 애플리케이션 전반에 걸쳐 하루에 30억 개의 토큰을 검증하여 450만 명 이상의 사용자를 지원합니다.
  • 생산 환경에서 Mira의 합의 프로세스를 통해 출력을 필터링했을 때 사실 정확도는 70%에서 96%로 상승.
  • Mira는 챗봇, 핀테크 도구, 교육 플랫폼 등의 애플리케이션에 대한 검증 기능을 AI에 직접 내장하여 최종 사용자 제품이 아닌 인프라 역할을 합니다.


미라 소개

Mira 는 AI 시스템의 출력을 검증하도록 설계된 프로토콜입니다. 핵심 기능은 탈중앙화 감사/신뢰 계층과 유사합니다. AI 모델이 출력(답변이든 요약이든)을 생성할 때마다 Mira는 출력이 최종 사용자에게 도달하기 전에 해당 출력의 "사실적" 주장이 신뢰할 수 있는지 평가합니다.


이 시스템은 각 AI 출력을 더 작은 제안으로 분해하여 작동합니다. 이러한 주장은 Mira Network의 여러 검증 노드 에 의해 독립적으로 평가됩니다. 각 노드는 자체 AI 모델을 실행하며, 종종 다른 아키텍처, 데이터 세트 또는 관점을 사용합니다. 이 모델은 각 주장에 대해 투표를 실시하여 주장이 사실인지 거짓인지, 맥락과 관련이 있는지 결정합니다. 최종 결과는 합의 메커니즘을 통해 결정됩니다. 대다수의 모델이 주장의 타당성에 동의하면 Mira가 이를 승인합니다. 의견이 일치하지 않을 경우, 해당 청구는 태그 되거나 거부됩니다.

최종 결정을 내리는 중앙 기관이나 숨겨진 모델이 없습니다. 그 대신 진실은 분산되고 다양한 모델에서 나타나며 집단적으로 결정됩니다. 전체 과정은 투명하고 감사. 검증된 각 출력에는 암호화 인증서가 함께 제공됩니다. 이는 어떤 클레임이 평가되었는지, 어떤 모델이 참여했는지, 어떻게 투표했는지를 보여주는 추적 가능한 기록입니다. 애플리케이션, 플랫폼, 심지어 규제 기관도 이 인증서를 사용하여 출력이 Mira의 검증 계층을 통과했는지 확인할 수 있습니다.

미라는 인공지능의 통합 기술 과 블록체인의 합의 메커니즘에서 영감을 얻었습니다. 정확도를 높이기 위해 예측을 집계하는 대신, 신뢰도를 판단하기 위해 추정치를 집계합니다. 분산된 진위성 테스트에 실패한 출력을 필터링하고 거부합니다.

AI에 Mira와 같은 검증 시스템이 필요한 이유는 무엇입니까?

AI 모델은 결정적 이지 않습니다. 즉, 같은 질문에 대해 항상 같은 출력을 반환하지 않으며, 생성하는 결과가 사실이라는 보장도 없습니다. 이것은 버그가 아닙니다. 이는 대규모 언어 모델을 훈련하는 방식에서 직접적으로 비롯됩니다. 즉, 결정론적이기보다는 확률적으로 다음 태그 예측하는 것입니다.

이러한 확률적 특성은 AI 시스템에 유연성을 부여합니다. 이를 통해 창의성, 상황 인식 능력, 인간과 같은 능력이 향상됩니다. 하지만 이는 그들이 자연스럽게 무언가를 창조할 수 있다는 것을 의미합니다.

우리는 이미 그 결과를 보았습니다. 에어 캐나다의 챗봇은 존재하지 않는 장례식 요금 정책을 조작하여 사용자에게 전달했습니다. 해당 사용자는 챗봇을 믿고 허위 정보를 바탕으로 항공편을 예약했고, 재정적 손실을 입었습니다. 법원은 항공사가 챗봇의 환각에 대한 책임이 있다고 판결했습니다. 간단히 말해, AI는 자신의 주장을 자신 있게 주장했고, 회사는 그에 대한 대가를 치렀습니다.

이것은 단지 예일 뿐입니다. 환각은 흔합니다. 이러한 정보는 부정확한 인용이 포함된 연구 요약, 잘못된 역사적 사실을 제시하는 교육용 앱, 허위 또는 오해의 소지가 있는 진술이 포함된 AI가 작성한 뉴스 요약에 나타납니다. 이러한 출력은 일반적으로 매끄럽고 권위 있기 때문에 사용자는 이를 믿는 경향이 있습니다.

환각을 넘어 더 체계적인 문제들이 있습니다.

  • 편향 : AI 모델은 훈련 데이터에 존재하는 편향을 반영하고 확대할 수 있습니다. 이런 편견은 항상 명확하게 드러나는 것은 아니다. 그것은 표현 방식, 톤, 우선순위를 통해 미묘하게 드러날 수 있습니다. 예를 들어, 채용 담당자는 특정 집단에 대해 체계적으로 편견을 가질 수 있습니다. 금융 상품은 왜곡되거나 낙인찍는 언어를 사용하여 리스크 평가를 생성할 수 있습니다.
  • 비결정성 : 같은 모델에 같은 질문을 두 번 묻는 경우 두 가지 다른 답변이 나올 수 있습니다. 프롬프트를 약간만 변경해도 예상치 못한 변화가 생길 수 있습니다. 이러한 불일치로 인해 AI 출력을 감사 재현하거나 장기적으로 의존하기 어렵습니다.
  • 블랙박스 특성 : AI 시스템이 답변을 제공할 때 일반적으로 설명이나 추적 가능한 추론을 제공하지 않습니다. 결론을 보여주는 명확한 단서가 없습니다. 따라서 모델에 오류가 발생하면 원인을 진단하거나 수정하는 것이 어렵습니다.
  • 중앙집중식 제어 : 현재 대부분의 AI 시스템은 소수의 대기업이 제어하는 ​​폐쇄형 모델입니다. 모델에 결함이 있거나 편향되었거나 검열된 경우 사용자의 선택권은 제한됩니다. 두 번째 의견이 부족하고, 투명한 항소 절차가 없으며, 설명이 상충되는 경우도 있습니다. 이로 인해 이의를 제기하거나 검증하기 어려운 중앙집중식 제어 구조가 생겨납니다.


AI 출력의 신뢰성을 향상시키기 위한 기존 방법 및 그 한계

현재 AI 출력의 신뢰성을 개선하는 방법은 여러 가지가 있습니다. 각 접근 방식은 어느 정도 가치를 제공하지만, 모두 한계가 있으며 중요한 애플리케이션에 필요한 수준의 신뢰에 도달할 수 없습니다.

  • 인간 참여형(HITL) : 이 접근 방식은 AI의 결과물에 대한 인간의 검토와 승인을 포함합니다. 소량 사용 사례에서 효과적으로 작동합니다. 하지만 하루에 수백만 건의 응답을 생성하는 시스템(예: 검색 엔진, 지원 봇, 튜터링 애플리케이션)의 경우 이는 빠르게 병목 현상으로 이어질 수 있습니다. 수동 검토는 느리고 비용이 많이 들며 편견과 불일치가 발생하기 쉽습니다. 예를 들어, xAI의 Grok은 AI 튜터를 사용하여 답변을 수동으로 평가하고 개선합니다. 이는 일시적인 해결책이며, 미라는 이를 레버리지가 낮은 해결책으로 여깁니다. 확장성이 없고, 검증할 수 없는 AI 논리에 존재하는 근본적인 문제를 해결하지 못하기 때문입니다.
  • 규칙 필터 : 이러한 시스템은 금지된 용어를 태그 하거나 출력을 구조화된 지식 그래프와 비교하는 등 고정된 검사를 사용합니다. 이러한 규칙은 좁은 맥락에서 적용될 수 있지만, 개발자의 기대에 부합하는 경우에만 적용됩니다. 그들은 새로운 질문이나 개방형 질문을 처리할 수 없으며 미묘한 오류나 모호한 진술을 처리하는 데 어려움을 겪습니다.
  • 자체 검증 : 일부 모델에는 신뢰도를 평가하는 메커니즘이 포함되어 있거나 보조 모델을 사용하여 답변을 평가합니다. 하지만 AI 시스템은 자신의 실수를 인식하는 데 매우 서툴다. 틀린 답변에 대한 과신은 종종 내부 피드백을 통해 바로잡을 수 없는 만성적인 문제입니다.
  • 앙상블 모델 : 일부 시스템에서는 여러 모델을 서로 교차 검사합니다. 이를 통해 품질 기준을 향상시킬 수 있지만, 기존의 통합 모델은 종종 중앙집중화되고 동질적입니다. 모든 모델이 비슷한 학습 데이터를 공유하거나 동일한 공급업체에서 나온 경우, 동일한 맹점이 있을 수 있습니다. 건축과 관점의 다양성은 제한될 것입니다.

미라는 인식의 문제를 연구합니다. 이 시스템의 목표는 환각을 포착하고 제거하고, 다양한 모델을 통해 편견을 최소화하고, 결과를 재현 가능하게 만들고, 단일 기관이 진위성 검증 프로세스를 제어하지 않는 환경을 만드는 것입니다. 미라 시스템의 작동 방식을 연구하면 이러한 문제를 각각 새로운 방식으로 해결할 수 있습니다.

Mira가 AI 안정성을 개선하는 방법

AI의 신뢰성을 개선하기 위한 현재의 접근 방식(중앙집중화 및 단일 진실 소스에 의존)은 다릅니다. 미라는 다른 모델을 소개합니다. 탈중앙화 검증을 가능하게 하고, 프로토콜 수준에서 합의를 구축하며, 경제적 인센티브를 사용하여 신뢰할 수 있는 행동을 강제합니다. Mira는 독립형 제품도 아니고 상향식 감독 도구도 아니며 , 모든 AI 시스템에 통합될 수 있는 모듈 식 인프라 계층입니다.

프로토콜의 설계는 몇 가지 핵심 원칙을 기반으로 합니다.

  • 사실의 정확성은 모델의 출력에 달려 있어서는 안 됩니다.
  • 검증은 자율적으로 이루어져야 하며 지속적인 인간의 감독에 의존할 수 없습니다.
  • 신뢰는 중앙집중식 통제가 아닌 독립적인 프로토콜을 기반으로 구축되어야 합니다.


Mira는 분산 컴퓨팅 원리를 AI 검증에 적용합니다. 출력이 제출되면(예: 정책 제안, 재무 요약, 챗봇 응답) 먼저 더 작은 사실적 진술로 세분화됩니다. 이러한 주장은 개별적인 질문이나 진술로 구성되고 검증자 노드 네트워크로 라우팅됩니다.

각 노드는 다른 AI 모델이나 구성을 실행하고 할당된 클레임을 독립적으로 평가합니다. 이 함수는 true, false, indetermine의 세 가지 결과 중 하나를 반환합니다. 그러면 미라가 결과를 보고합니다. 구성 가능한 초대다수 임계값이 충족되면 청구가 검증됩니다. 만족스럽지 않을 경우, 태그 되거나 삭제되거나 경고가 반환됩니다.

Mira의 분산형 디자인은 여러 가지 아키텍처적 이점을 가지고 있습니다.

  • 중복성과 다양성: 다양한 아키텍처, 데이터 세트, 관점 갖춘 모델로 클레임을 교차 확인합니다.
  • 내결함성: 한 모델의 결함이나 오류는 여러 모델에서 재현될 가능성이 낮습니다.
  • 투명성: 모든 검증 결과는 온체인 기록되어 어떤 모델이 참여했고 어떻게 투표했는지에 대한 감사 추적 정보를 제공합니다.
  • 자율성: Mira는 인간의 개입 없이 지속적으로 병렬로 실행됩니다.
  • 확장성: 이 시스템은 하루에 수십억 개의 토큰에 달하는 대량 작업 부하를 처리할 수 있습니다.

미라의 핵심 통찰력은 통계에 기반을 두고 있습니다. 단일 모델이 환각을 유발하거나 편견을 반영할 수 있지만, 여러 독립 시스템이 동일한 방식으로 동일한 실수를 저지를 확률은 훨씬 낮습니다. 이 프로토콜은 이러한 다양성을 활용하여 신뢰할 수 없는 콘텐츠를 걸러냅니다. 미라는 앙상블 학습과 비슷한 원리로 작동하지만, 그 아이디어를 분산되고 검증 가능하며 암호경제적으로 안전한 시스템으로 확장하여 실제 AI 프로세스에 내장할 수 있습니다.


노드 위임자 및 컴퓨팅 리소스

Mira Network의 탈중앙화 형 검증 인프라는 검증 노드를 운영하는 데 필요한 컴퓨팅 리소스를 제공하는 글로벌 커뮤니티의 지원을 받습니다. 노드 대표라고 불리는 이러한 기여자들은 프로토콜 처리 생산의 확장과 AI 출력의 검증에서 중요한 역할을 합니다.

노드 대리자란 무엇인가요?

노드 위임자는 검증된 노드 운영자에게 GPU 컴퓨팅 리소스를 임대하거나 제공하는 개인이나 단체로, 검증 노드를 직접 운영하는 것은 아닙니다. 이 위임 모델을 사용하면 참여자는 복잡한 AI 모델이나 노드 소프트웨어를 관리하지 않고도 Mira의 인프라에 기여할 수 있습니다. 위임자는 GPU 리소스에 대한 액세스를 제공함으로써 노드 운영자가 더 많은 검증을 병렬로 수행할 수 있도록 하여 시스템의 용량과 견고성을 향상시킵니다.

노드 위임자는 참여에 대한 재정적 인센티브를 받습니다. 그들은 컴퓨팅 파워를 제공하는 대가로, 지원하는 노드가 수행한 검증 작업의 양과 작업의 품질에 따라 보상을 받게 됩니다. 이를 통해 네트워크 확장성이 중앙 집중식 인프라 투자보다는 커뮤니티 참여에 직접적으로 연결되는 탈중앙화 형 인센티브 구조가 만들어집니다.

노드 운영자는 누가 제공합니까?

컴퓨팅 리소스는 탈중앙화 인프라 생태계의 핵심 참여자인 Mira의 창립 노드 운영자 파트너로부터 제공됩니다.

  • Io.Net : 확장 가능하고 비용 효율적인 GPU 리소스를 제공하는 GPU 컴퓨팅을 위한 탈중앙화 물리적 인프라 네트워크(DePIN)입니다.
  • Aethir : 분산형 클라우드 컴퓨팅 인프라를 제공하는 엔터프라이즈급 AI 및 게임 중심 GPU 서비스 제공업체입니다.
  • Hyperbolic : AI 개발을 위한 저렴하고 조정된 GPU 리소스를 제공하는 개방형 AI 클라우드 플랫폼입니다.
  • Exabits : AI 탈중앙화 클라우드 컴퓨팅의 선구자로, GPU 부족 문제를 해결하고 리소스 할당을 최적화합니다.
  • Spheron : 웹 애플리케이션 배포를 단순화하고 투명하고 검증 가능한 솔루션을 제공하는 탈중앙화 플랫폼입니다.

각 파트너는 Mira Network에서 검증 노드를 실행하여 위임된 컴퓨팅 파워를 활용하여 대규모로 AI 출력을 검증합니다. 이들의 기여 덕분에 Mira는 높은 검증 처리량을 유지하고 속도, 내결함성, 탈중앙화 유지하면서 하루에 수십억 개의 토큰을 처리할 수 있게 되었습니다.

참고 : 각 참가자는 Node Delegator 라이선스를 하나만 구매할 수 있습니다. 사용자는 실제 참여를 증명하기 위해 "지원 영상 검증"의 KYC 절차를 거쳐야 합니다.

AI 분야에서 미라의 대규모 활용 및 데이터 지원

팀이 제공한 데이터에 따르면 Mira 네트워크는 매일 30억 개 이상의 토큰을 검증합니다 . 언어 모델에서 토큰은 작은 텍스트 단위, 보통 단어 조각, 짧은 단어 또는 구두점을 의미합니다. 예를 들어, "Mira가 출력을 확인합니다"라는 문장은 여러 개의 토큰으로 나뉩니다. 보고된 볼륨은 Mira가 API를 사용하는 채팅 도우미, 교육 플랫폼, 핀테크 제품, 내부 도구 등 다양한 통합 분야에서 대량 의 콘텐츠를 처리하고 있음을 시사합니다. 콘텐츠 수준에서 이 처리량은 하루에 수백만 개의 단락을 평가하는 것과 같습니다.

Mira의 생태계(파트너 프로그램 포함)는 약 50 만 명의 일일 활성 사용자를 포함하여 450만 명 이상의 고유 사용자를 지원하는 것으로 알려졌습니다. 이러한 사용자에는 Klok의 직접 사용자는 물론, 백그라운드에서 Mira의 인증 계층과 통합되는 타사 애플리케이션의 최종 사용자도 포함됩니다. 대부분의 사용자는 Mira와 직접 상호 작용하지 않을 가능성이 높지만, 이 시스템은 침묵의 검증 계층 역할을 하여 AI가 생성한 콘텐츠가 최종 사용자에게 도달하기 전에 특정 정확도 임계값을 충족하는지 확인하는 데 도움이 됩니다.

Mira 팀의 연구 논문 에 따르면, 이전에는 교육 및 금융과 같은 분야에서 대규모 언어 모델의 사실 정확도가 약 70%였지만, 이제 Mira의 합의 프로세스를 거쳐 검증 정확도가 96%에 도달했습니다. 주목할 점은 이러한 개선이 모델 자체를 재교육하지 않고도 달성되었다는 것입니다. 대신, 개선 사항은 Mira의 필터링 논리에서 비롯됩니다. 이 시스템은 여러 개의 독립적으로 실행되는 모델이 합의에 도달하도록 요구함으로써 신뢰할 수 없는 콘텐츠를 걸러냅니다. 이러한 효과는 환각, 즉 AI가 생성한 검증되지 않은 허위 정보에 특히 중요한데, 통합 애플리케이션에서 이러한 정보가 90%나 감소한 것으로 보고되었습니다. 환각은 종종 독특하고 일관성이 없기 때문에 미라의 합의 메커니즘을 통과할 가능성이 낮습니다.

Mira 프로토콜은 사실적 신뢰성을 개선하는 것 외에도 공개 참여를 지원하도록 설계되었습니다. 검증은 중앙 감사팀에만 국한되지 않습니다. 인센티브를 조정하기 위해 미라는 경제적 보상과 처벌 시스템을 채택합니다. 지속적으로 합의를 따르는 검증자는 성과에 따라 보상을 받는 반면, 조작되거나 부정확한 판단을 제출하는 검증자는 처벌을 받게 됩니다. 이러한 구조는 정직한 행동을 장려하고 다양한 모델 구성 간의 경쟁을 촉진합니다. Mira는 중앙 집중식 규제에 대한 의존성을 제거하고 프로토콜 계층에 인센티브 조정 메커니즘을 내장함으로써 트래픽이 많은 환경에서 확장 가능한 탈중앙화 검증을 가능하게 하는 동시에 출력 표준이 손상되지 않도록 보장합니다.


결론적으로


Mira는 AI에서 가장 시급한 과제 중 하나인 출력 검증의 신뢰성과 규모에 대한 구조적 솔루션을 제공합니다. Mira는 단일 모델의 신뢰나 사후 인간의 감독에 의존하는 대신, AI 생성과 병렬로 실행되는 탈중앙화 검증 계층을 도입합니다. 이 시스템은 출력을 사실적 진술로 분해하고, 이를 독립적인 검증 노드에 분배하고, 합의 메커니즘을 적용하여 지원되지 않는 콘텐츠를 걸러내는 방식으로 작동합니다. 모델을 재교육하거나 제어를 중앙화할 필요 없이 안정성이 향상됩니다.


데이터에 따르면 도입률과 사실적 정확성이 크게 증가했으며, AI 환각이 크게 감소했습니다. Mira는 채팅 인터페이스, 교육 도구, 금융 플랫폼 등 여러 분야에 통합되었으며 점차 정밀성이 중요한 애플리케이션을 위한 인프라 계층으로 자리 잡고 있습니다. 프로토콜이 성숙해지고 제3자 감사 더욱 보편화됨에 따라 Mira의 투명성, 재현성, 공개적 참여는 대량 또는 규제된 환경에서 운영되는 AI 시스템을 위한 확장 가능한 신뢰 프레임 제공할 것입니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트