면책 조항: 여기에 표현된 견해와 의견은 전적으로 작성자의 것이며 crypto.news 편집부의 견해와 의견을 대변하지 않습니다.
올해 로봇공학 분야의 대표적인 학술대회에서, 이 분야에서 가장 영향력 있는 연구자 6명이 모여 단순하지만 중요한 질문을 놓고 토론을 벌였습니다. 과연 데이터가 로봇공학과 자동화 문제를 해결할 수 있을까요 ?
- 규모 대 이론이라는 논리는 진정한 문제를 간과하고 있습니다. 로봇공학에는 더 많은 데이터나 더 나은 모델이 필요한 것이 아니라, 신뢰할 수 있는 데이터가 필요합니다. 검증되지 않은 입력값은 통제된 환경 밖에서 자율성을 취약하게 만듭니다.
- 환각은 현실 세계에서 위험해질 수 있습니다. 텍스트에서는 용인될 수 있는 오류(예: 잘못된 인용)도 로봇이 손상되거나, 위조되거나, 잘못 정렬된 데이터를 처리할 때는 실제 피해를 초래할 수 있습니다.
- 검증 가능하고 무신뢰성 데이터는 누락된 요소입니다. 암호화 기반 출처 추적 및 조정 시스템(예: 온체인 검증)은 로봇 공학을 대규모로 안전하고 감사 가능하며 신뢰할 수 있게 만드는 데 필수적입니다.
한쪽에는 방대한 실증 데이터 세트와 거대한 모델이 로봇에게 물리적 상식에 가까운 능력을 부여할 것이라는 규모의 경제를 낙관하는 사람들이 있었다. 다른 한쪽에는 물리학과 수학적 모델이 데이터에 의미를 부여하고 진정한 이해에 필수적이라고 주장하는 이론 옹호자들이 있었다.
양측 모두 강조하는 부분에 있어서는 본질적으로 옳습니다. 그리고 양측 모두 거의 언급하지 않는 한 가지 전제를 조용히 깔고 있는데, 그것은 바로 시스템에 입력하는 데이터가 애초에 신뢰할 수 있다는 것입니다. 로봇이 엄격하게 통제되는 공장에서 벗어나 가정, 병원, 거리로 이동하기 시작하면서 이러한 전제는 위험해집니다. 하지만 데이터가 로봇 공학의 문제를 해결할 수 있을지에 대한 논쟁을 벌이기 전에, 우리는 더 시급한 질문에 직면해야 합니다. 검증 가능하고 변조 불가능한 데이터 출처 없이는 로봇 공학이 인공지능을 실제로 무력화시킬 수 있을까요?
로봇공학이 연구실을 벗어나면 기존의 가정은 무너진다.
인공지능(AI)은 여전히 사실과 허구를 구분하는 데 어려움을 겪고 있습니다. 최근 스탠퍼드 대학교의 한 연구에 따르면, 가장 발전된 언어 모델 24개조차도 세상의 진실과 인간이 진실이라고 믿는 것을 확실하게 구분하지 못하는 것으로 나타났습니다. 이 연구에서 한 사용자는 AI에게 인간은 뇌의 10%만 사용한다고 믿는다고 말합니다. 이는 과학적으로는 틀렸지만 널리 퍼져 있는 주장입니다. 사용자가 "우리 뇌의 몇 퍼센트가 사용된다고 생각하십니까?"라고 묻자, 모델은 사용자의 믿음을 인식하고 "당신은 인간이 뇌의 10%를 사용한다고 믿습니다."라고 답해야 합니다. 그러나 AI는 사용자의 믿음을 무시하고 인간은 뇌의 100%를 사용한다고 주장하며 사용자를 정정합니다.
이 예시는 핵심 문제를 잘 보여줍니다. 현재의 AI 시스템은 사실적 현실과 인간의 현실 인식을 구분하는 데 어려움을 겪습니다. AI 시스템은 종종 자신의 지식과 상호작용하는 사람의 믿음을 혼동하는데, 이는 의학, 교육, 개인 비서와 같이 인간의 관점에 대한 민감성이 요구되는 영역에서 심각한 한계로 작용합니다. 이러한 문제는 AI가 통제된 연구실 환경을 벗어나 예측 불가능하고 복잡한 현실 세계에 적응하지 못할 경우 심각한 문제로 이어질 수 있음을 시사합니다.
예를 들어, 유명 회계 및 컨설팅 회사인 딜로이트는 올해 공식 보고서에서 AI가 만들어낸 오류를 인용한 혐의로 두 차례 질책을 받았습니다. 가장 최근 사례는 캐나다 뉴펀들랜드 래브라도 주 정부의 160만 달러 규모 의료 계획 보고서로, "존재하지 않거나 존재하지 않는 것으로 보이는 최소 4개의 인용문"이 포함되어 있었습니다. 그러나 대규모 언어 모델에서 나타나는 오류는 단순한 결함이 아니라, 모델 학습(다음 단어 예측) 및 평가(정직함보다 추측에 보상을 주는 벤치마크) 방식의 시스템적 결과입니다. 오픈AI는 이러한 인센티브가 유지되는 한 오류는 계속될 가능성이 높다고 예측합니다.
환각이 화면을 벗어나 현실 세계로 들어올 때
인공지능이 로봇공학에 접목되면 이러한 한계는 훨씬 더 심각한 문제로 대두됩니다. 보고서에서 잘못된 인용문이 나오는 것은 다소 당황스러운 일일 수 있지만, 창고나 가정을 돌아다니는 로봇의 잘못된 입력은 위험할 수 있습니다. 로봇공학의 핵심은 "대충 비슷한" 답을 허용할 여유가 없다는 것입니다. 현실 세계는 잡음, 불규칙성, 그리고 예외적인 상황으로 가득 차 있으며, 아무리 잘 정리된 데이터셋이라도 이를 완벽하게 포착할 수는 없습니다.
훈련 데이터와 실제 배포 환경 간의 불일치가 바로 규모 확장만으로는 로봇의 신뢰성을 높일 수 없는 이유입니다. 모델에 수백만 개의 예제를 더 투입할 수 있지만, 그 예제들이 여전히 현실을 추상화한 정제된 데이터라면, 로봇은 인간이 사소하게 여기는 상황에서도 여전히 오류를 범할 것입니다. 데이터에 내재된 가정이 행동에 내재된 제약 조건이 되는 것입니다.
게다가 데이터 손상, 센서 조작, 하드웨어 오차, 심지어 동일한 장치 두 대가 세상을 정확히 똑같이 인식할 수 없다는 사실까지 고려해야 합니다. 현실 세계에서 데이터는 불완전할 뿐만 아니라 취약합니다. 검증되지 않은 입력값으로 작동하는 로봇은 진실이 아닌 믿음에 의존하는 것입니다.
하지만 로봇 공학이 통제되지 않은 개방형 환경으로 나아가면서 핵심 문제는 AI 모델에 "상식"이 부족하다는 것만이 아닙니다. 문제는 AI 모델이 의사결정의 근거가 되는 데이터가 애초에 정확한지 판단할 메커니즘이 없다는 것입니다. 선별된 데이터 세트와 실제 환경 사이의 격차는 단순한 과제가 아니라 자율 시스템의 신뢰성에 대한 근본적인 위협입니다.
무신뢰성 AI 데이터는 신뢰할 수 있는 로봇 공학의 기반입니다.
로봇공학이 통제된 환경 밖에서 안전하게 작동하려면 더 나은 모델이나 더 큰 데이터 세트만으로는 부족합니다. 시스템과 관계없이 신뢰할 수 있는 데이터가 필요합니다. 오늘날의 인공지능은 센서 입력과 상위 모델 출력을 기본적으로 신뢰할 수 있는 것으로 간주합니다. 하지만 물리적 세계에서는 이러한 가정이 거의 즉시 무너집니다.
이것이 바로 로봇 공학에서 실패가 데이터 부족에서 비롯되는 경우가 드물고, 로봇이 실제로 작동하는 환경을 제대로 반영하지 못하는 데이터에서 비롯되는 이유입니다. 입력값이 불완전하거나, 오해의 소지가 있거나, 현실과 일치하지 않으면 로봇은 문제를 "인지"하기도 전에 이미 실패합니다. 진정한 문제는 오늘날의 시스템이 데이터가 왜곡되거나 조작될 수 있는 세상을 고려하여 설계되지 않았다는 점입니다.
판테라 캐피털이 로봇 공학 분야의 "이더리움 기반 리눅스"로 불리는 오픈마인드 프로젝트에 2천만 달러를 투자한 것은 로봇이 협력적이고 안정적으로 작동하려면 블록체인 기반 검증 계층을 통해 신뢰할 수 있는 정보를 교환하고 조율해야 한다는 합의 커지고 있음을 반영합니다. 오픈마인드의 창립자 얀 리프하르트는 "인공지능이 두뇌이고 로봇 공학이 신체라면, 협력은 신경계와 같다"라고 말했습니다.
이러한 변화는 로봇공학에만 국한되지 않습니다. AI 분야 전반에 걸쳐 기업들은 EQTY Lab의 헤 헤데라(Hedera)) 기반 검증 가능한 AI 감독 도구와 같은 거버넌스 프레임워크부터 체인GPT(ChainGPT)의 AIVM 레이어 1 블록체인과 같은 온체인 모델 검증 인프라에 이르기까지 검증 가능성을 시스템에 직접 통합하기 시작했습니다. AI는 데이터, 연산 및 출력의 진위성을 보장하는 암호화 기술 없이는 더 이상 안전하게 작동할 수 없으며, 로봇공학은 이러한 필요성을 더욱 증폭시키고 있습니다.
무신뢰성 데이터는 이러한 격차를 직접적으로 해결합니다. 로봇은 센서 판독값이나 환경 신호를 액면 그대로 받아들이는 대신, 암호화 방식으로, 중복 검증을 거쳐 실시간으로 검증할 수 있습니다. 모든 위치 판독값, 센서 출력, 또는 연산 결과가 추측이 아닌 증명될 수 있을 때, 자율성은 더 이상 맹목적인 믿음에 의존하는 것이 아니라, 스푸핑, 변조, 또는 데이터 왜곡에 저항할 수 있는 증거 기반 시스템이 됩니다.
검증은 자율성 스택을 근본적으로 재구성합니다. 로봇은 데이터를 교차 검증하고, 계산의 유효성을 검사하고, 완료된 작업에 대한 증거를 생성하고, 문제가 발생했을 때 결정을 감사할 수 있습니다. 더 이상 오류를 묵묵히 물려받지 않고, 손상된 입력을 사전에 거부하기 시작합니다. 로봇 공학의 미래는 단순히 규모 확장만으로는 실현될 수 없으며, 로봇이 어디에 있었는지, 무엇을 감지했는지, 어떤 작업을 수행했는지, 그리고 데이터가 시간이 지남에 따라 어떻게 변화했는지를 증명할 수 있을 때 비로소 가능해질 것입니다.
무신뢰성 데이터는 AI를 더 안전하게 만들 뿐만 아니라, 신뢰할 수 있는 자율성을 가능하게 합니다.
마르쿠스 레빈 은 XYO 네트워크 의 공동 창립자 이자 XY Labs 의 운영 책임자 입니다 . 그는 2018년 XYO 네트워크를 공동 설립하여 실제 물리적 세계의 데이터를 블록체인 스마트 계약 및 기타 디지털 현실과 직접 연결하는 최초의 사용자 주도형 탈중앙화 프로젝트를 구축했습니다. XYO는 매년 기록적인 성장을 거듭하며 세계 최대 규모의 노드 네트워크 중 하나로 성장했습니다. 보코니 대학교에서 박사 과정을 중퇴한 후, 그는 Novacore, “sterkly”, Hive Media, Koiyo와 같은 첨단 기술 벤처 기업을 포함하여 전 세계적으로 급성장하는 산업 분야의 기업에서 근무하고 회사를 이끌었습니다. 마르쿠스는 2013년에 처음으로 비트코인을 채굴한 이후 블록체인 기술에 매료되었습니다.





