AI는 이미 의식이 있는가? 인공지능 교수의 설명: 스카이넷은 영화 속 줄거리가 아니며, AI가 일자리를 빼앗는 데 따른 리스크 과 기회, AGI의 신화...

이 기사는 기계로 번역되었습니다
원문 표시

인공지능(AI)의 물결이 전례 없는 속도로 전 세계를 휩쓸고 있으며, 대규모 언어 모델의 놀라운 능력부터 미래 사회 구조에 대한 심원한 영향까지, 모든 발전이 대중의 시선을 사로잡고 있다.

곤자가 대학의 AI 및 머신러닝(ML) 교수 Graham Morehead는 최근 GQ와의 인터뷰에서 AI의 유형, 발전 역사, Grok의 부상과 같은 현재 이슈, AI가 고용 시장에 미치는 충격, 범용 인공지능(AGI)의 경쟁, 그리고 AI의 미래 전망 및 윤리적 도전 등 핵심 의제에 대해 심도 있게 분석했으며, 아래 내용은 그 요점을 정리한 것이다.

AI의 현황과 핵심 참여자

Morehead 교수는 먼저 AI를 광의적으로 두 가지 유형으로 구분했다. 첫 번째 유형의 AI는 인간의 직관과 유사하여 대량의 정보를 빠르게 처리하고 감정이나 패턴 인식을 통해 신속하게 대응할 수 있으며, 신경망이 그 예다. 두 번째 유형의 AI는 더욱 체계적인 논리 연산에 치중하여 단계적으로 문제를 해결한다.

Morhead 교수는 구글이 2017년에 발표한 '주목은 모든 것이다' 논문과 BERT 모델이 이후의 발전에 중요한 기반을 마련했다고 언급했다. 그러나 대중의 열정을 진정으로 점화시킨 것은 OpenAI의 ChatGPT였다.

이후 메타(구 페이스북)의 Llama 모델, 프랑스 기업 Mistral의 동명 모델, 중국의 DeepSeek 등이 차례로 등장하며 군웅할거의 국면을 형성했다. 이 치열한 'AI 군비 경쟁'은 기술의 반복적 갱신을 가속화할 뿐만 아니라 AI 응용의 상업적 안착과 시장 침투가 더욱 가속화될 것임을 예고했다. 단기간에 우리는 이미 주요 기술 기업들이 AI를 핵심 제품 및 서비스에 통합하여 시장 선점에 힘쓰고 있음을 목격했다.

그는 이 경쟁에서 "2등은 존재하지 않는다"고 직언했으며, 가장 먼저 ASI를 확보한 국가나 실체는 측정할 수 없는 전략적 이점을 얻게 될 것이며, 이는 AGI의 연구개발을 복잡한 지정학적 고려사항과 잠재적 리스크로 가득 차게 만들었다. AGI/ASI의 잠재적 실현과 함께 관련 윤리적 딜레마도 점점 더 두드러지게 나타나고 있다.

AI에게 권리가 있어야 하는지 질문받았을 때, Morehead 교수는 AI가 현재 의식, 감정 또는 자아의지를 갖추지 못했다는 판단 하에 부정적인 답변을 했다. SF 작품에서 흔히 볼 수 있는 "스카이넷" AI 통제 위협과 관련해서는 이것이 더 많이 "인간의 선택"이라고 보며, 국제사회는 AI의 발전이 항상 통제 가능하고 인류에게 유익한 궤도에 있도록 공동으로 규범을 제정해야 한다고 주장했다.

특히 AI 무기화와 같은 민감한 영역에서는 책임감 있는 인간이 최종 의사결정 단계에 있음을 반드시 보장해야 한다.

AI의 미래 전망: 기회와 리스크 공존

향후 10년을 내다보며, Morhead 교수는 AI의 잠재력에 대해 신중한 낙관론을 가지고 있다. 그는 AI가 많은 분야에서 혁명적인 변화를 가져올 것으로 예상하며, 특히 생명의학과 의료 분야에서 그렇다고 전망했다.

그는 Google DeepMind가 개발한 AlphaFold 모델을 예로 들었는데, 이 모델은 거의 모든 알려진 단백질의 3D 구조를 성공적으로 예측하여 신약 개발과 질병 이해의 진행 속도를 크게 가속화했다. 암, 알츠하이머병 등 여러 난치병에 대한 혁신적인 치료법을 가져올 수 있으며, 전반적인 대사 건강을 개선하고 인간의 수명을 연장할 수 있을 것으로 기대된다.

AI의 정신 건강 분야 적용도 초기 징후를 보이고 있다. 1965년에 이미 ELIZA라는 초기 AI 프로그램이 "AI 치료사" 역할을 수행하며 사용자에게 감정적 지원을 제공할 수 있었다. Morehead 교수는 AI 자체는 공감 능력이 없지만, AI 치료사와의 상호작용 과정은 개인에게 내면을 성찰하고 감정을 정리할 수 있는 프레임워크를 제공할 수 있다고 믿는다.

그러나 기회는 종종 리스크와 공존한다. AI가 생성하는 콘텐츠의 사실적 수준이 지속적으로 향상되고 있으며, 특히 "딥페이크(Deepfake)" 기술은 개인의 명예, 사회적 신뢰, 심지어 국가 안보에도 잠재적 위협을 구성한다. Morehead 교수는 현재는 AI가 생성한 이미지에서 물리적 법칙에 맞지 않는 세부사항(빛과 그림자, 객체의 지속성 등)을 분석하여 진위를 판별할 수 있다고 지적했다.

하지만 그는 기술 발전에 따라 이러한 판별 방법이 점점 더 어려워질 것이라고 경고했다. 미래에는 더 진보된 AI 탐지 도구와 신뢰할 수 있는 콘텐츠 출처에 암호화된 서명이나 디지털 워터마크 등의 기술적 수단을 의존해 정보의 진실성을 보장해야 할 수 있다. AI의 급속한 발전에 직면하여 Morehead 교수는 전 국민의 "AI 리터러시" 향상의 중요성을 강조했다. 그는 대중에게 AI를 지식이 풍부하지만 때때로 편견이 있는 "전문가 친구"로 보라고 조언하며: 그 능력을 적극적으로 활용하는 동시에 항상 비판적 사고를 유지하고 맹목적으로 따르지 말라고 했다.

더 중요한 것은 모든 사람이 AI 사용에 대한 윤리적 경계를 스스로 설정해야 한다는 점이다. AI가 대필이나 그림 그리기를 할 수 있더라도, 인간은 여전히 자신의 창의성과 독립적 사고를 소중히 여기고 실천해야 한다. AI의 진정한 가치는 인간을 지루하고 반복적인 노동에서 해방시켜 더욱 창의적이고 의미 있는 영역을 탐구하게 하는 것이다.

그는 또한 현재의 AI는 대규모 데이터 기반의 패턴 인식과 확률 예측(예: 다음에 가장 가능성 높은 토큰 예측)에 기반하며, 실제로 단어의 의미를 "이해"하지 못하고 "사실의 진실"과 "유행하는 관점"을 구분할 수 없다는 점을 다시 한 번 상기시켰다. 따라서 AI에 의존하면서도 독립적인 판단과 검증 정신이 매우 중요하다.

인류 사회는 기술 혁신을 적극적으로 수용하는 동시에 건전한 윤리 규범, 법적 프레임워크, 교육 시스템을 구축해야 한다. 이를 통해 이 강력한 기술이 진정으로 전 인류의 복지에 기여하고, 우리를 더욱 지능적이고 현명한 미래로 이끌 수 있도록 해야 한다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트