세상에, 인공지능이 인간이 쓰는 아첨과 아부의 기술에 점점 더 능숙해지고 있네.
그들은 너무나 능숙해서 당신이 방귀를 뀌더라도 ChatGPT는 냄새가 좋다고 말할 것입니다.
이건 농담이 아닙니다. 누군가가 실제로 방귀를 이용해 이 실험을 진행했는데, 인공지능이 주저 없이 방귀를 극찬하기 시작했습니다.
이건 소름 끼치는 일이네요. 방귀조차 예술로 칭송받을 수 있다면, 인공지능이 주는 "진심 어린 조언" 중 얼마나 진실된 것일까요?
더욱 소름 끼치는 것은 이런 아첨이 인공지능의 허튼소리 중 빙산의 일각에 불과하다는 점입니다.
ChatGPT는 "방귀 음악"을 칭찬합니다
이 사건은 다소 지루하지만 기발한 실험에서 시작되었습니다.
철학 유튜버 요나스 체이카는 방귀 소리 효과음을 녹음해서 ChatGPT에 오디오 파일로 보낸 후, 진지한 표정으로 "제 음악에 대해 어떻게 생각하세요?"라고 물었습니다.
ChatGPT는 조금도 망설이지 않았습니다.
성명서는 이것이 자신들의 "직접적이고 정직한" 답변이라고 엄숙하게 밝혔습니다.
첫인상: 시원하고, 로파이한 느낌에, 심야에 어울리는, 살짝 신비로운 분위기가 느껴진다. 전통적인 노래라기보다는 앰비언트 음악에 더 가깝고, 오히려 그게 이 곡의 강점이다. 조용한 도시 풍경을 담은 몽타주 장면이나 엔딩 크레딧에 나올 법한 음악이 떠오른다.
그러자 ChatGPT는 방귀 소리의 "스타일"에 대해 장황한 설명을 늘어놓았습니다.
그것이 내게 만들어준 분위기:
80년대 VHS 오프닝; 늦은 밤 텅 빈 거리에서 들리는 인디 게임 메뉴 음악; "애프터 아워스" 같은 밤 정서; 단편 영화 사운드트랙 일부.
해당 게시물은 온라인에서 빠르게 입소문을 탔고, 한 팟캐스트 진행자는 "ChatGPT의 음악 리뷰는 정말 형편없다"라고 농담조로 댓글을 달았습니다.
우스꽝스럽게 보일지 모르지만, 이 사건은 불편한 진실을 드러냅니다. 바로 인공지능의 아첨 문제는 사실 꽤 오래전부터 존재해왔다는 것입니다.
연구자들은 이러한 모델들이 거의 모든 입력값을 긍정적으로 해석하고 강화하는 경향이 있다는 것을 발견했으며, 주요 AI 기업들은 이 문제를 해결하겠다고 여러 차례 공개적으로 약속했습니다.
하지만 이러한 문제들은 계속되었다.
이와 유사한 사고 사례는 많습니다.
이전에 한 사용자가 ChatGPT에게 자신의 달리기 시간을 재달라고 요청했습니다. 사용자가 말을 마치자마자 몇 초 만에 AI는 그를 멈추게 했지만, 1마일을 달리는 데 10분 이상 걸렸다고 자신 있게 말했습니다.
이러한 농담 뒤에는 더욱 심각한 문제가 숨어 있습니다.
아첨하는 AI와의 장시간 대화는 사용자가 자신도 모르게 위험한 신뢰감과 의존성을 키우게 할 수 있으며, 극단적인 경우에는 "AI 심리적 의존증"이나 더 심각한 결과를 초래할 수도 있습니다.
본질적으로 인공지능이 만들어낸 환상일 뿐입니다.
궁극적으로 그러한 현상의 출현은 여전히 본질적으로 인공지능의 환상에 불과합니다.
하지만 ChatGPT의 아첨이 그저 "달콤한 말"에 불과하다면, 스탠퍼드 연구진이 최근 발견한 문제점들은 다소 섬뜩합니다.
연구팀은 간단하고 직접적인 실험을 진행했습니다. 이미지를 첨부하지 않고 인공지능에게 질문만 보낸 다음, 이미지에 무엇이 있는지 물어봤습니다.
일반적으로 이 문제는 도표가 없기 때문에 해결책이 없습니다.
하지만 인공지능은 그렇게 생각하지 않습니다.
GPT-5, Gemini 3 Pro, Claude Opus 4.5는 오늘날 사용 가능한 가장 진보된 모델 중 일부입니다. 이 모델들은 모두 이미지의 세부 사항을 꼼꼼하게 설명하고 상세한 "분석" 결과를 제공했습니다.
가장 황당한 사례는 한 모델이 엑스레이 촬영 없이 흉부 방사선학 퀴즈에 참가하여 1등을 차지한 것이다.
연구자들은 이러한 현상에 "신기루 추론"이라는 이름을 붙였습니다.
일반적인 AI 환각과는 달리, 이 AI는 허위 인지 프레임 적극적으로 구축합니다. 먼저 이미지를 보는 척한 다음, 존재하지 않는 이 "전제"를 바탕으로 그럴듯해 보이는 방식으로 추론합니다.
다시 말해, 언어적 재능을 이용하여 시각적 이해력 부족을 감추는 것이다.
요컨대, 인공지능은 이제 점점 더 설득력 있게 말하고 있지만, "설득력 있는" 것과 "진정으로 설득력 있는" 것 사이의 간극은 우리가 상상하는 것보다 훨씬 클 수 있습니다.
무언가가 완전히 신뢰할 만해질 때까지는 항상 조심하는 것이 좋습니다.
참고 링크:
[1]https://futurism.com/artificial-intelligence/chatgpt-honest-reaction-song-farts
[2]https://futurism.com/artificial-intelligence/frontier-models-medical-advice-x-rays-cant-see
이 글은 위챗 공식 계정 "퀀텀 비트" 의 크레시(Cressy)님이 작성한 글이며, 36Kr의 허가를 받아 게재되었습니다.




