이더리움 공동 창립자 비탈릭 부테린은 초지능 AI와 강력한 방어 메커니즘의 필요성과 관련된 위험에 대해 경고했습니다.
부테린의 의견은 인공 지능의 급속한 발전으로 AI 안전에 대한 우려가 크게 증가한 시점에 나왔습니다.
부테린의 AI 규제 계획: 책임, 일시 중지 버튼, 국제 통제
2025년 1월 5일 자 블로그 게시물에서 비탈릭 부테린은 기술이 해를 끼치는 것이 아니라 방어하도록 개발되어야 한다는 '방어적 가속화' 개념을 설명했습니다. 그러나 이는 부테린이 인공 지능과 관련된 위험에 대해 처음 언급한 것은 아닙니다.
"AI가 잘못되면 세상을 더 나쁘게 만들 수 있는 방법 중 하나는 (거의) 최악의 방법: 실제로 인류 멸종을 초래할 수 있습니다," 부테린은 2023년에 말했습니다.
부테린은 이제 2023년의 이론을 더 발전시켰습니다. 부테린에 따르면 초지능은 단 몇 년 내에 존재할 가능성이 있습니다.
"AGI가 3년 내에, 그리고 초지능이 또 3년 내에 나타날 가능성이 있습니다. 그래서 우리가 세상이 파괴되거나 되돌릴 수 없는 함정에 빠지지 않게 하려면, 좋은 것만 가속화할 수는 없고 나쁜 것도 늦춰야 합니다," 부테린이 썼습니다.
부테린은 AI 관련 위험을 완화하기 위해 탈중앙화된 AI 시스템을 만들어 인간의 의사결정과 긴밀히 연결되도록 해야 한다고 주장합니다. AI가 인간의 도구로 남도록 보장함으로써 재앙적인 결과의 위협을 최소화할 수 있습니다.
부테린은 군대가 'AI 파국' 시나리오의 책임 있는 행위자가 될 수 있다고 설명했습니다. 우크라이나와 가자에서 볼 수 있듯이 AI 군사 사용이 전 세계적으로 증가하고 있습니다. 부테린은 또한 시행될 AI 규제가 군대를 면제할 가능성이 크다고 믿고 있습니다.
이더리움 공동 창립자는 또한 AI 사용을 규제하는 계획을 설명했습니다. 그는 AI와 관련된 위험을 피하는 첫 번째 단계는 사용자에게 책임을 지우는 것이라고 말했습니다.
"모델 개발 방식과 실제 사용 방식 사이의 연관성이 불분명한 경우가 많지만, 사용자가 AI를 어떻게 사용할지 정확히 결정합니다," 부테린은 사용자의 역할을 강조했습니다.
책임 규칙이 효과가 없다면 다음 단계는 잠재적으로 위험한 진전을 늦추기 위해 AI 규제를 "부드럽게 일시 중지"할 수 있는 버튼을 구현하는 것입니다.
"인류가 준비할 수 있는 시간을 더 벌기 위해 1-2년 동안 전 세계적으로 사용 가능한 컴퓨팅 능력을 약 90-99% 줄일 수 있는 기능을 갖추는 것이 목표입니다."
그는 이 일시 중지를 AI 위치 확인 및 등록을 통해 구현할 수 있다고 말했습니다.
다른 접근 방식은 AI 하드웨어를 통제하는 것입니다. 부테린은 AI 하드웨어에 이를 제어할 수 있는 칩을 장착할 수 있다고 설명했습니다.
이 칩을 통해 AI 시스템이 매주 국제 기구 3곳에서 서명을 받아야만 작동할 수 있게 할 것입니다. 그는 이 중 최소 1곳은 군사 관련이 아닌 기관이어야 한다고 덧붙였습니다.
그럼에도 불구하고 부테린은 자신의 전략에 허점이 있으며 '일시적인 임시 방편'에 불과하다고 인정했습니다.