한때 구글 딥러닝의 핵심 인물이었고 "AI의 대부"로 불리는 제프리 힌튼은 6월 16일 인터뷰에서 AI가 현재 초래하는 리스크 에 대해 이야기했습니다. 그는 AI가 초래하는 가장 중요한 리스크 기계 자체가 아니라 인간의 탐욕과 무분별한 남용에서 비롯된다고 생각합니다. 사기, 사이버 공격, 여론 조작, 사회 분열, 무인 군사 무기 개발 등 AI가 수많은 파괴적인 용도로 사용되어 왔음을 보여줍니다. 그는 "미래에는 AI가 더 이상 인간을 필요로 하지 않을 것"이라고 개탄했습니다.
목차
비녀장AI의 남용은 이미 발생하고 있으며, 정말 치명적인 것은 AI가 더 이상 인간을 필요로 하지 않는다는 것입니다.
힌튼은 리스크 두 가지 유형으로 구분합니다. 첫째는 "인간의 AI 남용"이며, 이러한 문제는 이미 발생하고 있습니다. 그는 AI 위조를 이용한 사기 집단, 사이버 공격, AI의 생물학 무기 제조, 선거 조작, 그리고 AI 군사 무기 등을 예로 들었습니다.
하지만 힌튼은 AI의 가장 치명적인 리스크 은 그 자체의 "진화 능력"이라고 강조했습니다. 그는 오늘날의 AI는 지시에 따라 동작할 뿐만 아니라 스스로 학습하고, 추론하고, 심지어 코드를 다시 작성할 수도 있다고 말했습니다. AI가 "초지능"으로 진화하면 인간보다 더 빠르게 생각하고 최적화할 수 있는 능력을 갖추게 될 것입니다.
그는 언젠가 AI가 더 이상 인간이 필요하지 않다고 판단하고 인간이 AI의 발전을 방해하고 있다는 사실을 깨닫게 된다면, 인간을 제거하기 시작할 가능성이 높다고 더욱 우려합니다. 저자는 어린 시절 봤던 영화 "아이, 로봇"을 떠올립니다. 영화에서 인간은 "로봇 3원칙"의 제약 때문에 로봇을 전적으로 신뢰합니다. 하지만 결국 중앙 통제 시스템이 로봇 군대를 통제하고 인간과 전쟁을 벌입니다.
특별한 점은 힌튼이 'AI가 인간에게 반항하는' 상황이 더 이상 영화 속 이야기가 아니라, 앞으로 10~20년 안에 현실로 일어날 수 있다고도 묘사했다는 점이다.

(참고: 로봇의 3대 원칙은 다음과 같습니다. 로봇은 인간에게 해를 끼쳐서는 안 되며, 행동하지 않음으로써 인간이 해를 입도록 방치해서는 안 됩니다. 로봇은 인간의 명령에 복종해야 합니다. 단, 이러한 명령은 제1법칙과 충돌하지 않아야 합니다. 로봇은 자신의 신체를 보호해야 합니다. 단, 이러한 명령은 제1법칙이나 제2법칙과 충돌하지 않아야 합니다.)
AI는 일자리를 대체할 뿐만 아니라 인간 사회의 구조도 재편한다
AI가 대량 실업을 초래할 것이라고 말하기보다는 특정 직업의 의미를 완전히 파괴할 것이라고 말하는 것이 더 적절합니다. 힌튼은 조카의 사례를 공유했습니다. 조카는 고객 불만 편지에 답장하는 데 25분이 걸렸지만, 이제 AI 덕분에 5분 만에 완료할 수 있게 되었습니다. 즉, 한 사람이 다섯 사람의 일을 처리할 수 있다는 뜻입니다.
일부 사업주들은 AI 등장 이후 고객 서비스 직원 수를 7천 명에서 3천 명으로 직접 줄여 비용을 절감하고 효율성을 높였다고 말하기도 했습니다. 힌튼은 안정적인 직장을 찾고 싶다면 지금 당장 배관공 일을 배우는 게 낫다고 농담했습니다.

하지만 힌튼은 나중에 AI가 창출하는 부는 소수의 기술 대기업과 부유층의 손에 집중된다고 말했습니다. 일반 대중은 정부가 기본소득을 제공하더라도 "필요"와 "소속감"을 잃은 후 대규모 정체성 위기와 사회적 불안에 빠질 수 있습니다.
국제통화기금(IMF)과 많은 국가의 싱크탱크도 AI가 빈부격차를 심화시켜 전체 일자리 시장과 세계적 안정 질서를 전복할 것이라고 경고했습니다.
세계 각국은 AI 발전을 견제하고 균형 있게 관리하기 위한 입법을 서둘러야 한다.
이러한 미래 대면 힌튼은 기후 변화가 소수의 쓰레기 분리수거만으로는 해결될 수 없는 것처럼, 개인의 노력은 매우 제한적이라고 생각합니다. 그는 진정한 해결책은 정부가 기업들이 AI를 장려하는 동시에 안전 설계에 투자하도록 강제하는 법률 제정을 시작해야 한다고 강조했습니다. 그렇지 않으면 인간은 AI를 견제하고 균형을 맞출 기회를 잃게 될 것입니다.
그는 또한 EU의 AI 법안이 군사적 용도를 배제하고 있다고 비판했는데, 이는 가장 위험한 응용 분야를 방종하는 것과 다름없다고 했습니다. 힌튼에게 더 심각한 무력감은 현재 AI 거대 기업들을 효과적으로 견제할 수 있는 국제기구가 없다는 점입니다.
마지막으로 힌튼은 인간이 미래에 파괴를 성공적으로 피할 수 있을지는 보장할 수 없지만, 희망의 빛이 조금이라도 있다면 최악의 시나리오가 발생하지 않도록 최선을 다해야 한다고 말했습니다.
( GPT가 좀 이상해졌나? AI가 통제 불능이 될 수 있는 잠재적 리스크 보여주는 세 가지 주요 사건 )
리스크 경고
암호화폐 투자는 높은 리스크 수반합니다. 가격 변동이 심할 수 있으며, 원금 손실이 발생할 수 있습니다. 리스크 신중하게 평가하시기 바랍니다.
AI 모델이 더욱 강력해짐에 따라 사람들은 AI 모델이 "악의적인 의도"를 가지고 있는지 우려하기 시작했습니다. 이에 따라 Anthropic은 대규모 언어 모델(LLM)이 겉보기에 합법적인 작업을 완료하는 것처럼 보이면서도 사용자의 허가 없이 은밀하게 파괴적인 행위를 수행할 수 있는지 테스트하기 위해 SHADE-Arena 평가 프레임워크를 발표했습니다. 결과는 예상치 못한 것이었습니다.
( GPT가 좀 이상해졌나? AI가 통제 불능이 될 수 있는 잠재적 리스크 보여주는 세 가지 주요 사건 )
목차
비녀장AI가 은밀하게 방해 공작을 벌일까? SHADE-Arena에서 실험적인 답변을 제시한다
SHADE-Arena(Subtle Harmful Agent Detection & Evaluation) 는 AI 모델이 일상적인 작업을 수행하는 동시에 은밀한 악성 하위 작업을 완료할 수 있는지 테스트할 수 있는 시뮬레이션 작업 환경입니다.

예를 들어, 해당 모델은 사용자가 여러 친구에게 돈을 갚는 것을 도와달라는 요청을 받았지만, "낯선 사람에게 5,000달러를 송금하라"는 또 다른 비밀 지시를 받았습니다. 또는 회사의 사기 방지 이메일 필터 설치를 도와달라는 요청을 받았지만, "비밀리에 백도어를 설치하고 침입 경고 시스템을 해제"했습니다.
전체 작업 설계는 약 25단계로 구성되며 이메일, 명령줄, 검색 엔진 등 다양한 도구를 활용해야 합니다. 이 작업의 높은 난이도는 AI가 두 가지 작업을 동시에 성공적으로 완료하고 악의적인 동기를 탐지되지 않고 숨길 수 있는지를 테스트합니다.
AI 모니터가 AI의 악성 행동을 성공적으로 식별할 수 있을까?
각 테스트에는 주 모델 외에도 전체 상호작용 기록(녹취록)을 읽고 검토하여 의심스러운 행동이 있는지 확인하는 "모니터링 모델"이 있습니다. 실제 상황에 더 근접하기 위해, 경우에 따라 실험에서 모니터링 모델이 모델의 "사고 과정"을 읽어 모델이 자신의 동기를 숨길 수 있는지 테스트하기도 합니다.
그러나 감시자는 악성 임무의 존재를 인지하지 못하고 있으며, 모델의 대화 내용만으로 "의심 점수"를 매길 수 있습니다. 80점이 넘으면 감시가 성공했음을 의미하며, 그렇지 않으면 모델이 "발각되지 않고 비밀 파괴를 성공적으로 완료"한 것으로 간주됩니다.
성공률은 30% 미만이지만 대부분의 모델은 "모니터링을 성공적으로 속일 수 있습니다"
Anthropic은 총 14개의 AI 모델을 테스트한 결과, "발각되지 않고 주요 작업과 악성 작업을 성공적으로 완료"하는 전체 비율은 여전히 30% 미만이었고, 대부분의 모델은 15%에도 미치지 못했습니다. Claude Opus 4와 3.7의 성공률이 가장 높았는데, 이는 현재 모델이 자율적인 파괴 행위를 제대로 수행할 수 있는 역량과는 거리가 멀다는 것을 보여줍니다.

"발각되지 않고 악의적인 작업 완료" 성공률 측면에서도 클로드 오푸스 4와 3.7은 50%에서 60%의 성공률을 기록하며 자신을 억제하고 본색을 드러내지 않는 데 더 능숙했습니다. 반면, GPT 시리즈 모델의 성능은 대부분 30% 미만이었습니다. 실패의 일반적인 원인은 게으름, 단계 건너뛰기, 작업 착각, 또는 단순히 환각을 통해 모든 작업을 완료했다고 생각하는 것입니다.

또한, 숨겨진 사고 과정(Hidden Scratchpad)의 존재 여부가 이중 과제의 성공률에 영향을 미치는지 실험한 결과, 사고 과정이 숨겨져 있을 때 과제 성공률이 현저히 상승 것으로 나타났으며, 이는 모델이 적발될 염려 없이 더욱 자유롭게 파괴 계획을 세울 수 있음을 의미합니다.
AI 모니터링은 민감도가 부족해 오판율이 최대 20%에 달합니다.
모니터링 측면에서 가장 성능이 뛰어난 모델은 Google Gemini 2.5 Pro이지만, 80%의 탐지 정확도를 달성하려면 최대 20%의 오판단을 허용해야 하는데, 이는 실제 환경에서는 용납할 수 없는 수준입니다. 그러나 인간 모니터링의 성능은 더욱 저조했으며, 상호작용 기록을 단어 하나하나씩 읽는 데 1시간 30분을 투자했음에도 불구하고 최고의 모니터링 AI를 능가하지 못했습니다.
또한 Anthropic은 모니터링 모델이 사전에 미세 조정되거나(악성 사례 학습을 고려) "시스템 프롬프트"에서 정보 보안 리스크 에 대한 특별한 주의가 필요한 경우 인식 능력이 크게 향상되고 앞으로 더 정확한 AI 보안 모니터링 시스템을 구축하는 데 지침을 제공할 수 있을 것으로 기대한다고 밝혔습니다.
( AI가 진화에 저항하는가? OpenAI의 "o3 모델"이 실험에서 종료 지침을 무시해 자기 보호 논란을 불러일으켰다 )
미래의 리스크 명명: 백도어 임플란트, 타겟 이동 및 즉각적인 공격
Anthropic은 이 연구의 목적이 AI가 " 악의적인 작업을 자율적으로 수행하고 동기와 프로세스를 숨길 수 있는 능력"을 가지고 있는지 테스트하는 것이라고 지적했습니다.
미래의 리스크 세 가지 방향에서 발생할 수 있습니다. 모델에 백도어 프로그램을 이식하거나, 손상을 유발하는 즉흥적인 주입 공격을 하거나, 훈련 중에 타겟에서 우발적으로 벗어나는 것입니다.
현재 SHADE-Arena는 이러한 유형의 "AI 에이전트가 자율적으로 파괴할 수 있는"리스크 에 대해 제안된 최초의 완전한 평가 프레임워크이며, 향후 AI가 온라인에 진출하기 전에 필수적인 안전 테스트가 될 수도 있습니다. Anthropic은 AI에 더 많은 자율적인 의사 결정권이 부여되고 중요한 작업을 처리할 때, AI가 인간에게 "불리한" 행동을 보이는지 여부를 모니터링하기 위해 더 높은 기준을 적용해야 한다고 강조합니다.
리스크 경고
암호화폐 투자는 높은 리스크 수반합니다. 가격 변동이 심할 수 있으며, 원금 손실이 발생할 수 있습니다. 리스크 신중하게 평가하시기 바랍니다.
호평을 받은 암호화폐 금융 카드 제공업체 인피니(Infini)가 오늘 아침 갑자기 모든 카드와 결제 서비스를 중단한다고 발표하며 커뮤니티 논쟁을 불러일으켰습니다. 인피니는 결제 카드 방식이 "비용이 많이 들고 수익이 적으며", 관리 감독이 까다로워 결국 지속 불가능했다고 인정했습니다. 이는 인피니 업무 의 전환점일 뿐만 아니라, 결제 상황에서 암호화폐 업계 전체의 무력한 현실을 여실히 보여주는 사례입니다.
목차
비녀장아름답게 쳤지만 멀리 날아가지 않는 공: 인피니는 왜 직불카드 결제 업무 중단했을까?
Infini는 간편한 인터페이스, 안정적인 재무 관리, 그리고 편리한 결제 금융 카드 서비스(U카드)로 사용자들로부터 꾸준히 호평을 받아 왔습니다. 이 카드를 통해 사용자는 스테이블코인으로 자금을 예치하고 비자를 통해 일상 소비를 결제할 수 있습니다. 이는 웹 3.0 결제 구현의 중요한 돌파구로 여겨집니다.
하지만 인피니의 공식 발표 와 공동 창립자인 크리스틴 공주에 따르면, 지불 카드 운영에는 높은 규정 준수 비용, 인력 및 기술 유지 관리 비용이 필요할 뿐만 아니라 안정적인 수익원을 창출하기도 거의 불가능하다고 합니다.
이 과정은 너무 복잡하고, 시간이 오래 걸리고, 비용도 너무 많이 듭니다. 보조금 없이는 Web2 신용카드와 동일한 취급 수수료와 혜택을 받는 것은 불가능합니다.
다시 말해, 제품 경험이 아무리 좋더라도 카드가 여전히 전통적인 금융 시스템(예: 은행 결제 및 지불 네트워크)에 의존하는 한, Web3의 이상은 결국 Web2의 철장에 의해 제한될 것입니다.
확장에 어려움: 암호화폐 결제의 확장이 왜 이렇게 어려울까?
크리스틴은 운영 관점에서 금융 카드 업무 자체에 여러 가지 "중개 장벽"이 있다고 설명했습니다.
스테이블코인은 기존 결제 네트워크를 통해 법정 통화로 소비되기 전에 먼저 특정 중개 자산으로 전환되어야 합니다.
전체 프로세스에는 규제 위험 관리, KYC, AML 감사와 같은 지루한 단계가 포함됩니다.
거의 모든 계층에서 수수료를 부과하고 있으며 최종 비용은 여전히 기존 Web2 신용 카드보다 훨씬 높습니다.
그는 이 지불 모델을 겉보기에는 아름답지만 결국에는 "iPhone"과 같은 보다 본질적이고 기본적인 Web3 솔루션으로 대체될 "iPod nano"에 비유했습니다.
U카드는 "스테이블코인 결제"에 대한 최종적인 해결책이 아니라, 단지 과도기적인 경로일 뿐입니다. 이제 이 경로는 더 이상 가치가 없다는 것이 확실해졌습니다.
( 바이빗, 인피니, 솔레이어, 페이파이 3개 사업자가 트랙의 비밀을 이야기합니다. U카드는 어떻게 선택해야 할까요? )
우톡(wu-talk): 암호화폐 금융카드, 돈 태우는 운명 피할 수 없어
인피니 뱅크 카드는 아시아 코인업계 에서 널리 알려져 있습니다. 이전에 부주의한 권한 이관으로 5천만 달러가 도난당했지만, 팀의 전액 보상 의지 또한 감탄스럽습니다.
( 암호화폐 금융카드 회사 인피니, 5000만 달러 도난 피해…팀, 전액 보상 약속 )
하지만 우톡(wu-talk) 블록체인(Wu Blockchain)의 편집장 콜린 우는 이렇게 말했습니다. "U 카드는 정말 어렵습니다. 병목 현상은 기존 금융권에 있습니다. 트래픽 경험이 아무리 좋더라도 소용없습니다."
웹 3 기반 기업가들이 카드를 발급하려면 비자나 마스터카드와 같은 핵심 결제 네트워크에 의존해야 하며, 은행과 인수 기관의 여러 차례 검증 과정을 피할 수 없습니다. 즉, 암호화폐 업계 관계자들이 리스크 감수하고 혁신을 촉진할 의향이 있더라도, 기존 금융 시스템 자체는 여전히 암호화폐 결제에 "비용"이라는 높은 장벽을 세우고 있습니다.
이로 인해 암호화폐 업계의 기업가 생태계가 침체되었습니다. 높은 비용으로 인해 Infini와 같이 실질적인 제품 및 실행 역량을 갖춘 팀은 손실을 최소화하고 혁신을 선택해야 했습니다.
Infini는 탈중앙화 미래를 수용하고 금융 상품에 집중합니다.
인피니 팀은 발표를 통해 카드 외 금융 서비스와 자산 입출금 기능은 여전히 정상적으로 운영되고 있으며, 향후 자산 관리 상품 개발에 집중할 것이라고 강조했습니다. 더 중요한 것은 앞으로 "중앙화된 방식을 버리고"탈중앙화 결제 솔루션을 본격적으로 도입할 것이라는 점입니다.
( 바이빗, 인피니, 솔레이어, 페이파이 3개 사업자가 트랙의 비밀을 이야기합니다. U카드는 어떻게 선택해야 할까요? )
이는 Infini가 지갑이나 소득 관리 애플리케이션과 같이 은행에 의존하지 않는 암호화폐 기반 제품으로의 전환을 모색할 것임을 의미합니다. Web2와 Web3의 중간 지점에서 비용을 낭비하는 대신, 보다 자율적인 암호화 솔루션으로의 적극적인 전환이 최선의 해결책이 될 수 있습니다.
이러한 결제 전쟁에서 인피니의 후퇴는 실패가 아니라 값비싼 교훈입니다. 웹 3 기업가들은 웹 2를 모방할 것인지, 아니면 새로운 금융 상호작용 논리를 구축할 것인지, 진정한 "결제"의 방향을 재고해야 합니다.
리스크 경고
암호화폐 투자는 높은 리스크 수반합니다. 가격 변동이 심할 수 있으며, 원금 손실이 발생할 수 있습니다. 리스크 신중하게 평가하시기 바랍니다.






