'AI 대부', 초지능 기계가 생물전으로 인간을 죽일 수 있다고 경고

avatar
Decrypt
06-17
이 기사는 기계로 번역되었습니다
원문 표시

지오프리 힌튼, AI의 "교부"로 널리 알려진 그는 새로운 인터뷰에서 가장 강력한 경고를 발표하며, 인공지능이 일자리 위협뿐만 아니라 세계가 슈퍼인텔리전스 기계를 향해 달려가는 가운데 인류 전체에 대한 실존적 위험을 초래할 수 있다고 경고했습니다.

"CEO의 일기" 팟캐스트에서 힌튼은 미래에 대한 암울한 비전을 제시하며, AI가 결국 인류 자체가 쓸모없다고 판단할 수 있다고 제안했습니다.

"우리가 그것이 우리를 제거하는 것을 막을 방법은 없습니다," 힌튼은 말했습니다. "우리는 우리보다 더 똑똑한 것들에 대해 생각하는 데 익숙하지 않습니다. 최고 지능이 아닐 때의 삶이 어떤지 알고 싶다면, 닭에게 물어보세요."

힌튼은 이 위협이 두 가지 뚜렷한 형태로 나타날 것이라고 말했습니다: 사이버 공격, 허위 정보 확산, 자율 무기 생성과 같은 인간의 오용에서 비롯되는 것과 완전히 자율적이고 통제 불가능해진 AI 시스템에서 발생하는 것입니다.

"지금 치명적인 자율 무기를 만들 수 있으며, 모든 주요 국방부가 그것들을 만드는 데 바쁘다고 생각합니다," 그는 말했습니다. "사람들보다 더 똑똑하지 않더라도 여전히 매우 끔찍하고 무서운 것들입니다."

2023년 5월, 신경망 분야의 선구자인 힌튼은 10년 이상 인공지능 연구를 한 후 구글과 토론토 대학을 떠났습니다. 이는 기술의 위험에 대해 자유롭게 말하기 위해서였습니다.

힌튼의 경고는 AI의 군사적 응용이 급증하는 가운데 나왔습니다. 최근 발전은 기술이 국방 작전에 빠르게 통합되고 있음을 강조했으며, 미국이 자금 조달과 파트너십 증가를 주도하고 있습니다.

11월, AI와 자율 무기로 군대를 증강하려는 시도에서 미국 국방부는 의회에 제출한 2025년 예산 제안에서 연구 및 개발을 위해 1,430억 달러를 요청했으며, 이 중 18억 달러를 AI에 특별히 할당했습니다. 그해 초, 소프트웨어 개발사 팔란티어는 AI 타겟팅 시스템 개발을 위해 미국 육군과 1억 7,500만 달러 규모의 계약을 체결했습니다. 3월, 펜타곤은 스케일 AI와 협력하여 썬더포지라는 AI 에이전트용 전장 시뮬레이터를 출시했습니다.

힌튼은 현재 상황을 핵무기 등장과 비교했지만, AI는 더 통제하기 어렵고 훨씬 더 많은 영역에서 유용하다고 말했습니다.

"원자폭탄은 한 가지 용도만 있었고, 그 작동 방식이 매우 명확했습니다," 그는 말했습니다. "AI는 매우 많은 일에 좋습니다."

기업의 이익 동기와 국제 경쟁의 이러한 조합이 AI 개발이 느려지지 않을 것이라고 힌튼은 설명했습니다.

"이익 동기는 말합니다: 그들이 클릭할 만한 것을 보여주라, 그리고 그들이 클릭할 것은 점점 더 극단적이고 기존의 편견을 확인하는 것입니다," 그는 말했습니다. "그래서 당신은 계속해서 자신의 편견을 확인하게 됩니다."

AI가 어떻게 인간을 죽일 수 있을까요? 힌튼은 슈퍼인텔리전스 AI가 인류를 죽이기 위한 새로운 생물학적 위협을 설계할 수 있다고 말했습니다.

"명백한 방법은 매우 전염성 있고, 치명적이며, 매우 느린 나쁜 바이러스를 만드는 것입니다. 모두가 깨닫기 전에 감염될 것입니다," 그는 말했습니다. "슈퍼인텔리전스가 우리를 제거하고 싶다면, 자신에게 영향을 미치지 않는 생물학적 무언가를 선택할 가능성이 높습니다."

암울한 전망에도 불구하고, 힌튼은 완전히 희망을 잃지 않았습니다.

"우리는 그들이 우리를 장악하거나 해치고 싶어하지 않도록 만들 수 있는지 단순히 모릅니다. 그렇게 할 수 있다고 생각하지 않아 희망이 없을 수도 있습니다," 힌튼은 말했습니다. "하지만 우리가 할 수 있을 것이라고 생각하며, 우리가 신경 쓰지 않아서 인류가 멸종한다면 그것은 다소 미친 일일 것입니다."

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트