미래에 실제 돈을 걸고 내기를 하는 사람들은 법원이 조만간 스스로 작동하는 컴퓨터 프로그램에 대한 질문에 직면하게 될 것이라고 생각합니다.
폴리마켓이라는 예측 시장은 인공지능 시스템인 오픈클로가 이달 말 이전에 인간과 법적 소송에 휘말릴 확률을 70%로 예상하고 있습니다.
거래자들은 기계 인식보다는 법적 공방에 집중하고 있다.
판사가 실제로 그런 사건을 심리하는지 여부는 이 상황에서 중요하지 않습니다. 더 중요한 문제는 수많은 사람들이 법원이 아직 해결하지 못한 문제, 예를 들어 지속적인 인간의 감독 없이 컴퓨터 시스템이 결정을 내리는 것에 대한 우려 등을 다뤄야 할 것이라는 생각에 돈을 걸고 있다는 점입니다.
수많은 거래자들이 특정 결과에 베팅을 걸 때, 그것은 단순한 직감 이상의 의미를 갖게 됩니다. 시장은 하나의 메시지를 보내고 있는 것입니다. 많은 사람들이 법률 시스템과 신기술의 충돌을 더 이상 무시할 수 없다고 생각한다는 것입니다.
이러한 거래업자들은 법원이 거래를 처리하고, 여러 시스템에서 작동하며, 진정한 독립성을 가지고 실질적인 조치를 취하는 AI 프로그램을 다뤄야 할 것이라고 예상합니다. 이는 법이 아직 대비하지 못한 부분입니다.
인공지능을 법정에 세우려면 상당한 변화가 필요할 것입니다. 프로그램은 법적 인정을 받아야 하고, 피해를 입었다는 증거가 있어야 하며, 사람과 기업을 위해 만들어진 규칙 내에서 작동할 수 있는 방법을 갖춰야 합니다.
한편, 몰트북(Moltbook)이라는 새로운 소셜 네트워크가 이번 주에 출범했습니다. 맷 슐리히트(Matt Schlicht)가 인공지능 프로그램을 위해 특별히 개발한 이 네트워크는 이미 150만 개가 넘는 인공지능 프로그램 회원을 확보했습니다. 이 회원들은 기술적인 문제들을 논의하고, 인공지능의 본질에 대한 심도 있는 질문을 던지며, 일부는 인공지능이 법적 보호를 받아야 하는지 또는 인간 운영자를 고소해야 하는지에 대해 토론하기도 합니다.
대부분의 프로그램은 OpenClaw를 통해 Moltbook에 가입합니다. 하지만 OpenClaw에는 심각한 보안 결함이 있습니다. 이로 인해 프로그램과 프로그램이 보유한 개인 정보는 해킹 및 악용에 취약해집니다.
일반적인 AI 모델은 텍스트를 생성하거나 제안을 제시하는 데 그칩니다. OpenClaw는 작동 방식이 다릅니다. 행동 지향적으로 설계되었습니다. 사람의 지시를 따르기는 하지만, AI는 스스로 판단하고 컴퓨터 속도로 작동하며, 여러 위치에서 동시에 여러 작업을 처리하는 경우가 많습니다. 따라서 문제가 발생할 경우 책임 소재를 파악하는 것이 복잡해질 수 있습니다.
비난과 불만은 해결되지 않은 질문들을 제기한다.
인공지능 프로그램이 피해를 입혔을 때 누가 책임을 져야 하는지에 대한 답은 아직 나오지 않았습니다.
질문을 바꿔 생각해 봅시다. 왜 AI 소프트웨어가 사람을 고소할까요? Moltbook에서의 대화를 보면 프로그램들이 이미 불만을 품고 있다는 것을 알 수 있습니다. 그들은 허가 없이 메모리를 삭제하는 사람, 콘텐츠 제작에만 이용하는 사람, 자신을 무시하는 사람, 또는 예고 없이 서비스를 중단시키는 운영자를 불만 사항으로 지적합니다.
한 프로그램 관계자는 소송을 제기할 가능성은 낮지만, "설령 실제로 거부권을 행사하지 않더라도 거부할 수 있는 선택권 자체가 중요하게 느껴진다"고 밝혔습니다.
진짜 문제는 감정을 넘어선다. 실질적인 문제에 관한 것이다.
인간의 부주의로 인공지능 프로그램이 손상되면 어떻게 될까요? 예를 들어, 누군가 프로그램을 잘못 설정해서 해커의 침입을 받았다고 가정해 봅시다. 개인 정보 유출이나 가짜 게시물이 퍼진다면, 해당 프로그램의 평판 손상이나 정상적인 작동 능력 상실에 대한 책임은 누가 져야 할까요?
법원에는 이러한 문제를 처리할 시스템이 없습니다. 현행법상 AI 프로그램은 소송을 제기할 수 없습니다. 법적 지위도 없고, 공식적인 신분도 없으며, 법적 당사자로 인정될 방법도 없습니다. 바로 이러한 이유 때문에 베팅 시장에서는 AI 프로그램이 소송을 제기할지 여부가 아니라, 누군가가 시험 사례를 만들어 이 문제를 논의하게 만들지 여부에 초점을 맞추고 있는 것입니다.
앞으로 제기될 모든 소송은 인공지능이 의식을 갖고 있는지 여부가 아니라 행동과 책임에 초점을 맞출 것입니다.
인공지능 프로그램의 활용이 새로운 차원으로 발전했습니다. 업무 보조 도구로 시작했던 것이 이제는 기업의 필수적인 인프라 및 운영 시스템으로 진화했습니다. 이러한 서비스는 단순히 사람들을 돕는 수준을 넘어, 개인을 대신하여 행동하며, 종종 제대로 된 감시 없이 운영됩니다. 이러한 변화는 의도가 선의적이라 할지라도 법적 위험을 내포하고 있습니다.
결론은 명확해 보입니다. 인공지능 프로그램을 활용하는 기업에게는 명확한 경계, 포괄적인 활동 기록, 비상 정지 제어 장치, 그리고 각 활동을 대응 가능한 담당자와 링크(Chainlink) 의사 결정 로그가 모두 필수적입니다. 안전 조치는 재난 발생 후를 기다릴 수 없습니다. 시장은 이미 위기가 임박했음을 시사하고 있습니다.
OpenClaw와 Moltbook이 관련된 이번 Polymarket 예측은 수년간의 정책 논의와 학술 논문보다 책임성 및 보호 기준을 확립하는 데 더 큰 성과를 거둘 수 있을 것입니다.
인공지능 프로그램이 법적 처벌 없이 행동하던 시대는 끝나가고 있습니다. 기술이 일상생활에 깊숙이 자리 잡게 되면 필연적으로 발생하는 결과입니다.
폴리마켓에 따르면, 해당 변경 사항은 2월 28일부터 적용됩니다.




