인공지능이 인류를 구할 것인가, 아니면 파멸로 이끌 것인가?

avatar
Decrypt
02-02
이 기사는 기계로 번역되었습니다
원문 표시

이번 주에는 인공지능의 미래를 둘러싼 날카로운 의견 차이가 여실히 드러났습니다. 저명한 기술 전문가이자 트랜스휴머니스트 네 명이 인공 일반 지능 (AGI ) 개발이 인류를 구할 것인지 아니면 파멸로 이끌 것인지에 대해 열띤 토론을 벌였습니다.

비영리 단체 휴머니티플러스 가 주최한 이 패널 토론 에는 인공지능 비관론자 중 가장 목소리가 큰 인물 중 한 명으로, 첨단 인공지능 개발 중단을 주장해 온 엘리에저 유드코프스키를 비롯해 철학자이자 미래학자인 맥스 모어, 계산 신경과학자 앤더스 샌드버그, 그리고 휴머니티플러스 명예 회장 나타샤 비타모어가 참석했습니다.

그들의 논의는 인공 일반 지능(AGI)이 인류 생존과 양립할 수 있는지, 아니면 AGI 개발이 인류 멸종을 불가피하게 만들 것인지에 대한 근본적인 의견 차이를 드러냈다.

유드코프스키는 현대 인공지능 시스템은 내부 의사결정 과정을 완전히 이해하거나 제어할 수 없기 때문에 근본적으로 안전하지 않다고 경고했습니다.

유드코프스키는 "블랙박스 기술은 결국 현재 기술과 매우 유사한 문제점을 안게 될 가능성이 높다"고 경고했다. 그는 인류가 고도 인공지능을 안전하게 개발하기 위해서는 "현재의 패러다임에서 아주, 아주 멀리 벗어나야" 한다고 주장했다.

일반 인공 지능(AGI)은 텍스트 , 이미지 또는 비디오 생성과 같은 단일 작업을 위해 설계된 인공지능이 아니라, 광범위한 작업에 걸쳐 추론하고 학습할 수 있는 인공지능의 한 형태를 말합니다. AGI는 종종 기술적 특이점 이라는 개념과 연관되는데, 그 수준의 지능에 도달하면 기계가 인간이 따라잡을 수 있는 속도보다 훨씬 빠르게 스스로를 발전시킬 수 있기 때문입니다.

유드코프스키는 철학자 닉 보스트롬이 대중화한 " 종이 클립 극대화 " 비유를 들어 위험성을 설명했습니다. 이 사고 실험은 모든 물질을 종이 클립으로 변환하는 가상의 인공지능을 가정하며, 인류를 희생시키면서까지 단 하나의 목표에만 집착하는 모습을 보여줍니다. 유드코프스키는 목표를 더 추가한다고 해서 안전성이 의미 있게 향상되지는 않을 것이라고 말했습니다.

최근 출간한 인공지능 관련 저서의 제목인 " 누군가 그것을 만든다면 모두가 죽는다 "를 언급하며 유드코프스키는 "제목이 당신을 죽일 수도 있다는 의미가 아니라, 누군가 그것을 만든다면 모두가 죽는다는 의미"라고 말했다.

하지만 모어는 극단적인 신중함이 가장 안전한 결과를 가져온다는 전제에 이의를 제기했습니다. 그는 인공 일반 지능(AGI)이 인류가 노화 와 질병을 극복할 수 있는 최선의 기회를 제공할 수 있다고 주장했습니다.

모어는 "무엇보다 중요한 것은 인공 일반 지능(AGI)이 노화로 인한 인류 멸종을 막는 데 도움이 될 수 있다는 점"이라며, "우리 모두 죽어가고 있고, 한 명씩 차례로 재앙을 향해 가고 있다"고 말했다. 그는 지나친 제약은 전 세계적인 AI 개발을 막는 유일한 방법으로 정부를 권위주의적 통제로 몰아넣을 수 있다고 경고했다.

샌드버그는 두 진영의 중간에 자리를 잡고, 자신을 트랜스휴머니즘의 낙관론자들보다 더 신중하면서도 "더 낙관적"이라고 묘사했습니다. 그는 자신 이 생물무기 설계에 대형 언어 모형을 활용할 뻔했던 개인적인 경험을 이야기하며, 그 일을 "끔찍했다"고 표현했습니다.

샌드버그는 "악의적인 행위자들을 증폭시키는 것 또한 엄청난 혼란을 초래할 수 있는 지점에 도달하고 있다"고 말했다. 그럼에도 불구하고 그는 부분적이거나 "근사적인 안전"은 달성 가능할 수 있다고 주장했다. 그는 안전이 완벽해야만 의미가 있다는 생각을 일축하며, 인간은 최소한 생존과 같은 최소한의 공통 가치에 대해서는 합의할 수 있을 것이라고 제안했다.

"완벽한 안전을 요구한다면, 그것은 얻을 수 없을 겁니다. 그런 관점에서 보면 매우 나쁜 일이죠."라고 그는 말했다. "하지만 저는 대략적인 안전은 확보할 수 있다고 생각합니다. 그 정도면 충분하죠."

비타모어는 더 광범위한 협력 논쟁 자체를 비판하며, 그 개념이 오랜 협력자들 사이에서도 존재하지 않는 수준의 합의 전제로 한다고 주장했습니다.

"동맹이라는 개념은 낙관적인 발상일 뿐이에요." 그녀가 말했다. "절대 동맹이 될 리 없어요. 여기 있는 우리 모두 좋은 사람들이고, 수십 년 동안 서로 알고 지냈지만, 동조하는 사이는 아니잖아요."

그녀는 유드코프스키가 인공 일반 지능이 필연적으로 모든 사람을 죽일 것이라고 주장한 것을 다른 결과를 고려하지 않는 "절대주의적 사고"라고 비판했다.

"모든 사람이 죽는다는 단정적인 주장에 저는 문제가 있다고 생각합니다."라고 그녀는 말했다. "미래학자이자 실용주의자의 입장에서 볼 때, 그런 주장은 어떤 결과도, 대안도, 다른 시나리오도 남기지 않습니다. 그저 무뚝뚝한 주장일 뿐이며, 저는 그것이 일종의 절대주의적 사고방식을 반영하는 것은 아닌지 궁금합니다."

이번 토론에서는 인간과 기계의 긴밀한 통합이 인공 일반 지능(AGI)이 제기하는 위험을 완화할 수 있는지에 대한 논쟁이 포함되었습니다. 이는 테슬라 CEO 일론 머스크가 과거에 제안했던 내용입니다. 유드코프스키는 AI와의 융합이라는 발상을 일축하며, "토스터 오븐과 융합하려는 것과 같다"고 비유했습니다.

샌드버그와 비타-모어는 인공지능 시스템의 능력이 향상됨에 따라 인간은 인공지능 이후의 세상에 더 잘 대처하기 위해 인공지능 시스템과 더욱 긴밀하게 통합되거나 융합해야 할 것이라고 주장했다.

비타-모어는 "이번 논의 전체는 우리가 인간으로서 어떤 존재인지에 대한 현실 점검입니다."라고 말했습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
57
즐겨찾기에 추가
17
코멘트