오늘 아침 저명한 AI 연구자 그룹이 위와 같은 공동 성명을 발표했습니다. “ AI로 인한 멸종 위험을 완화하는 것은 전염병, 핵전쟁 등 다른 사회적 규모의 위험과 함께 글로벌 우선순위가 되어야 합니다.” 23단어로 된 진술 외에는 다른 세부사항은 없습니다. 이런 의미 있는 발언을 했을 때 좀 더 근거가 제시됐으면 좋겠다. 이것은 무엇을 의미 하는가? AI 위험에 대처하지 않으면 우리는 죽을 수도 있다? 우리는 무엇을해야 하는가?
코로나19 이전에도 팬데믹 위험은 잘 알려져 있었지만 일반 사람들이 할 수 있는 일은 아무것도 없습니다. 그것은 추상적인 생각이었다. 지금도 그것은 여전히 추상적인 생각이다. 그러나 적어도 우리는 전염병으로 인해 상황이 어떻게 전개될 수 있는지 알고 있습니다. 즉, 사람들은 이국적인 좀비 바이러스에 감염되어 빠르게 확산되어 사람들을 죽게 만듭니다. 핵전쟁의 경우 원자폭탄이 투하되어 수십만 명이 즉시 사망하고 수백만 명이 방사선 피해를 입는 것을 상상할 수 있습니다.
그러나 AI 멸종 사건은 무엇을 수반합니까? 나는 이것에 대해 읽을 수 있는 공상 과학 소설이 있다고 확신합니다. 하지만 이 거물들에 대해 자세히 설명해 주시겠습니까? 제가 생각할 수 있는 몇 가지 가능성이 있지만 그것이 멸종 사건인지 아니면 인간이 AI의 노예가 되는 것과 같은 것인지는 확실하지 않습니다. 즉, 인간은 오늘날 가축처럼 AI의 공포 속에서 살게 될 것이다. 하지만 우리가 개/고양이가 될지, 닭/돼지/소가 될지는 불분명합니다. 어쨌든, AI 멸종에 관한 더 많은 공공 정책이 제정된다면 대중은 더 많은 세부 사항과 설명을 받을 자격이 있습니다.


