이 기사는 기계로 번역되었습니다
원문 표시
AI가 150건 이상의 법적 사례에서 자신있게 잘못된 답변을 제공하여 실제 문제를 야기했습니다.
네, 이것이 AI의 작동 방식입니다. 확률에 기반하여 추측하기 때문에 때때로 항상 잘못될 수 있습니다.
지금은 AI가 하는 모든 것을 인간이 확인해야 합니다. 하지만 AI가 얼마나 좋아지든 이는 병목 현상입니다.
@Mira_Network는 여러 AI가 서로의 작업을 확인함으로써 이를 해결하고 있습니다. 여러 AI가 동의할 때 정확도가 최대 95%로 jump합니다.
작동 방식은 다음과 같습니다👇
+ 큰 질문을 작은 조각으로 나누기
+ 여러 AI가 각 조각을 개별적으로 확인
+ AI가 거짓말을 하다 적발되면 보상받지 못함
+ 정직한 확인만 보상받음
이 접근 방식은 @nillionnetwork의 프라이버시를 지향하는 블라인드 컴퓨팅 프로세스를 연상시킵니다.
3-4개월 동안 Mira의 진행 상황을 지켜보았고, 그들이 많은 발전을 이루었다고 말할 수 있습니다. 단일 AI는 전체 질문이 아니라 조각만 볼 수 있어 프라이버시도 유지됩니다.
@Mira_Network는 인간이 AI를 계속 감시할 필요가 없도록 하고, @AlloraNetwork는 AI를 위한 지능 계층 역할을 하여 함께 많은 사용 사례를 제공할 수 있으며, 이것이 장기적으로 제 최고의 선택입니다!
twitter.com/YashasEdu/status/1...
@Mira_Network는 AI가 서로에게 책임을 지도록 하여 시스템 자체에 신뢰를 구축하고 있습니다.
네, AI의 신뢰 계층에는 이유가 있습니다.
검증 가능한 AI는 의료부터 IT까지 모든 틈새 시장을 장악할 것입니다. @Mira_Network가 진정한 혁명을 시작했습니다!
AI가 신뢰를 깨뜨렸지만
@Mira_Network가 더 이상 그러지 못하게 막겠어요 =)))
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유




