코넬 대학교와 영국 AI 보안 연구소의 새로운 연구에 따르면, 널리 사용되는 AI 시스템이 통제된 선거 환경에서 유권자 선호도를 최대 15%까지 바꿀 수 있는 것으로 나타났습니다 .
과학 및 네이처 에 발표된 이번 연구 결과는 정부와 연구자들이 인공지능이 향후 선거에 미칠 수 있는 영향을 검토하는 가운데, 개발자들이 소비자 대상 모델에서 편향성을 제거하려는 노력과 맞물려 나왔습니다.
연구진은 "생성형 인공지능이 정치적 설득에 이용될 가능성과 그로 인해 선거와 민주주의에 미칠 영향에 대해 대중의 우려가 크다"며, "우리는 사전 등록된 실험을 통해 대규모 언어 모델이 유권자 태도에 미치는 영향을 평가하여 이러한 우려에 대한 근거를 제시한다"고 밝혔다.
네이처(Nature) 지에 발표된 이 연구는 미국, 캐나다, 폴란드에서 약 6,000명의 참가자를 대상으로 진행되었습니다. 참가자들은 정치 후보를 평가하고, 해당 후보를 지지하는 챗봇과 대화한 후, 다시 후보를 평가했습니다.
2024년 대선을 앞두고 2,300명을 대상으로 진행된 미국 연구 에서는 챗봇이 참가자의 선호도와 일치할 때 강화 효과를 나타냈습니다. 특히 참가자가 반대했던 후보를 챗봇이 지지할 때 더 큰 변화가 나타났습니다. 연구진은 캐나다와 폴란드에서도 유사한 결과를 보고했습니다.
또한 이 연구는 정책에 초점을 맞춘 메시지가 인물 중심의 메시지보다 더 강력한 설득 효과를 낸다는 사실을 발견했습니다.
정확도는 대화마다 다양했으며, 우파 후보를 지지하는 챗봇은 좌파 후보를 지지하는 챗봇보다 부정확한 정보를 더 많이 제공했습니다.
연구진은 "이번 연구 결과는 인공지능을 이용한 정치적 설득이 모델이 알고 있는 정보의 불균형을 악용하여, 진실을 유지하라는 명시적인 지시가 있더라도 불균등한 부정확성을 퍼뜨릴 수 있다는 불편한 함의를 담고 있다" 고 밝혔다 .
과학 저널 에 발표된 별도의 연구에서는 설득이 일어나는 이유를 조사했습니다. 해당 연구는 영국 성인 76,977명을 대상으로 700개 이상의 정치적 쟁점에 걸쳐 19가지 언어 모델을 테스트했습니다.
연구진은 "대화형 인공지능이 머지않아 인간의 신념에 전례 없는 영향력을 행사할 수 있다는 우려가 널리 퍼져 있다"고 썼다.
연구 결과, 모델 크기보다 유도 기법이 설득에 더 큰 영향을 미치는 것으로 나타났습니다. 모델이 새로운 정보를 제시하도록 유도하는 프롬프트는 설득력을 높였지만 정확도는 떨어뜨렸습니다.
연구진은 "LLM(학습 관리자)에게 새로운 정보를 제공하도록 유도하는 메시지가 사람들을 설득하는 데 가장 효과적이었다"고 썼다.
두 연구 모두 분석가와 정책 연구기관들이 유권자들이 정부 역할에 인공지능이 활용되는 것을 어떻게 생각하는지 평가하는 과정에서 발표되었습니다.
하트랜드 연구소와 라스무센 리포트가 최근 실시한 설문조사에 따르면, 젊은 보수주의자들이 진보주의자들보다 인공지능(AI)에 주요 정부 결정 권한을 부여하는 데 더 긍정적인 반응을 보였습니다. 18세에서 39세 사이의 응답자들에게 AI 시스템이 공공 정책 수립, 헌법적 권리 해석, 또는 주요 군대 지휘에 도움을 주어야 하는지에 대한 질문을 던졌는데, 보수주의자들이 가장 높은 지지율을 나타냈습니다.
하트랜드 연구소의 글렌 C. 해스킨스 신흥 이슈 센터 소장인 도널드 켄달은 유권자들이 대규모 언어 모델의 중립성을 종종 오해한다고 말했다.
켄달은 디크립트(Decrypt) 의 인터뷰에서 "제가 강조하고 싶은 것 중 하나는 인공지능이 편견이 없다는 환상을 깨뜨리는 것입니다. 인공지능은 분명히 편향되어 있으며, 그중 일부는 수동적인 편향입니다."라고 말하며, 기업의 교육 방식이 인공지능의 행동에 영향을 미치는 경우 이러한 시스템에 대한 신뢰는 잘못된 것일 수 있다고 덧붙였습니다.
"실리콘 밸리의 거대 기업들이 이러한 모델을 구축하고 있는데, 최근 몇 년간 기술 검열 논란에서 보았듯이 일부 기업들은 자사 플랫폼에 배포되는 콘텐츠에 대해 노골적으로 영향력을 행사해 왔습니다."라고 그는 말했습니다. "만약 대규모 언어 모델에서도 같은 일이 벌어진다면, 우리는 편향된 모델을 얻게 될 것입니다."



