2023년 5월 30일: AI 멸종 위험!!??

이 기사는 기계로 번역되었습니다
원문 표시

오늘 아침 저명한 AI 연구자 그룹이 위와 같은 공동 성명을 발표했습니다. “ AI로 인한 멸종 위험을 완화하는 것은 전염병, 핵전쟁 등 다른 사회적 규모의 위험과 함께 글로벌 우선순위가 되어야 합니다.” 23단어로 된 진술 외에는 다른 세부사항은 없습니다. 이런 의미 있는 발언을 했을 때 좀 더 근거가 제시됐으면 좋겠다. 이것은 무엇을 의미 하는가? AI 위험에 대처하지 않으면 우리는 죽을 수도 있다? 우리는 무엇을해야 하는가?

코로나19 이전에도 팬데믹 위험은 잘 알려져 있었지만 일반 사람들이 할 수 있는 일은 아무것도 없습니다. 그것은 추상적인 생각이었다. 지금도 그것은 여전히 추상적인 생각이다. 그러나 적어도 우리는 전염병으로 인해 상황이 어떻게 전개될 수 있는지 알고 있습니다. 즉, 사람들은 이국적인 좀비 바이러스에 감염되어 빠르게 확산되어 사람들을 죽게 만듭니다. 핵전쟁의 경우 원자폭탄이 투하되어 수십만 명이 즉시 사망하고 수백만 명이 방사선 피해를 입는 것을 상상할 수 있습니다.

그러나 AI 멸종 사건은 무엇을 수반합니까? 나는 이것에 대해 읽을 수 있는 공상 과학 소설이 있다고 확신합니다. 하지만 이 거물들에 대해 자세히 설명해 주시겠습니까? 제가 생각할 수 있는 몇 가지 가능성이 있지만 그것이 멸종 사건인지 아니면 인간이 AI의 노예가 되는 것과 같은 것인지는 확실하지 않습니다. 즉, 인간은 오늘날 가축처럼 AI의 공포 속에서 살게 될 것이다. 하지만 우리가 개/고양이가 될지, 닭/돼지/소가 될지는 불분명합니다. 어쨌든, AI 멸종에 관한 더 많은 공공 정책이 제정된다면 대중은 더 많은 세부 사항과 설명을 받을 자격이 있습니다.

Yann LeCun 및 Andrew Ng와 같은 일부 AI 전문가는 AI 초지능 아이디어를 무시하는 것 같습니다. 르쿤 박사에 대한 나의 반론은 우리가 개 수준의 지능을 구현하는 방법을 알아낼 수 있다면 우리는 즉시 슈퍼 지능을 알아낼 수 있다는 것입니다. 왜냐하면 그것은 단지 동일한 시스템을 확장하는 문제일 수 있고 시간이 없기 때문입니다. 반응하다. 그러므로 확률이 아주 작더라도 위험을 무시하는 것은 좋은 생각이 아니라고 생각합니다. AI 멸종 위기가 현실화된다면 심각하게 받아들여야 한다. 최소한 AI가 어떻게 인류를 통제할 수 있는지에 대한 시나리오를 생각해 볼 필요가 있습니다. 다시 한 번 더 구체적인 세부정보가 필요합니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트