2026년 1월 20일, 오픈아이(OpenAI)는 챗GPT(ChatGPT) 소비자 버전에 '연령 예측' 기능을 공식 출시했습니다. 이 기능은 사용자가 직접 나이를 신고하는 대신, 계정 생성 기간, 활동 시간, 상호작용 패턴 등 다차원적인 행동 신호를 분석하여 18세 미만 사용자를 자동으로 식별하고 강력한 보호 기능을 제공합니다. 또한, 자녀 보호 기능과 제3자 검증 메커니즘을 탑재하여 AI 플랫폼에서 미성년자 보호 방식을 '자발적 신고'에서 '행동 인식'으로 한 단계 끌어올렸습니다.
ChatGPT의 나이 예측에 사용된 기술적 논리
오랫동안 AI 플랫폼에서 미성년자 보호는 "사용자가 직접 나이를 신고하고 콘텐츠 등급을 매기는" 수동적인 모델에 의존해 왔습니다. 즉, 사용자는 가입 시 "18세 이상입니다"를 체크하면 모든 기능을 이용할 수 있습니다. 하지만 이 방식은 우회가 쉬울 뿐만 아니라 미성년자가 성인을 사칭하는 시나리오에는 대응할 수 없습니다.
OpenAI가 새롭게 출시한 "나이 예측" 기능은 이러한 전통적인 논리를 완전히 뒤집습니다. 이 기능의 핵심은 계정 및 행동 신호를 기반으로 하는 다차원 예측 모델 이며, 구체적인 분석 차원은 다음과 같습니다.
계정 수준 지표: 등록 기간, 계정 활동 수준, 결제 상태 등의 기본 정보;
행동적 차원: 일일 활동 시간(예: 심야에 자주 사용되는지 여부), 상호 작용 빈도, 선호하는 질문 내용, 대화 길이 및 스타일 등
추가 고려 사항: 사용자가 등록 시 입력한 연령 정보는 보조 참고 자료로 사용되며, 판단의 유일한 근거가 되지 않습니다.
이 모델의 핵심 장점은 "동적 식별"에 있습니다. 일회성 연령 신고와 달리 사용자 행동을 지속적으로 분석하고 연령 판별 결과를 끊임없이 수정할 수 있습니다. 성인 사용자가 미성년자와 유사한 방식으로 시스템을 장기간 이용하는 경우(예: 어린이를 위한 콘텐츠에 대해 자주 질문하거나 심야에 빈번하게 활동하는 경우) "미성년자 의심"으로 태그 보호 조치가 적용될 수 있습니다. 반대로 미성년자가 성인 사용자의 이용 습관을 모방하는 경우 식별을 완전히 피하기는 어렵습니다.
미성년자 보호를 위한 "온건한 접근과 강경한 접근"
미성년자 소유로 확인된 계정의 경우, ChatGPT는 리스크 가 높은 콘텐츠를 정확하게 차단하기 위해 다음과 같은 5단계 보안 보호 조치를 시행합니다 .
1. 폭력적이고 유혈이 낭자한 장면을 직접적으로 보여주는 것;
2. 미성년자가 모방하도록 유도할 수 있는 위험한 바이러스성 콘텐츠(예: 극단적인 장난 및 위험한 실험)
3. 성적 또는 폭력적인 내용을 포함하는 역할극 콘텐츠;
4. 자해 및 자살과 관련된 설명 및 지침;
5. 극단적인 미적 기준, 건강하지 못한 다이어트 또는 신체 혐오를 조장하는 콘텐츠.
한편, 모델의 오판으로 인해 성인 사용자의 경험이 저하되는 것을 방지하기 위해 오픈아이(OpenAI)는 제3자 신원 확인 서비스인 페르소나(Persona)를 도입했습니다. 미성년자로 잘못 분류된 사용자는 셀카 사진을 업로드하여 간편하게 얼굴 인증을 완료할 수 있습니다. 인증이 완료되면 계정 기능을 복원할 수 있어 보안과 사용자 경험의 균형을 맞출 수 있습니다.
또한, 이 시스템은 자녀 보호 맞춤 설정 기능을 제공하여 부모에게 더욱 유연한 제어 권한을 부여합니다. 부모는 "사용 금지 시간"(수업 시간이나 수면 시간 등)을 설정하거나, 계정 메모리 기능 권한을 제어하여 자녀가 민감한 콘텐츠를 반복적으로 보는 것을 방지할 수 있으며, 시스템이 사용자의 심각한 심리적 고통 징후(예: 자해 관련 질문을 자주 하는 경우)를 감지하면 시기적절한 알림을 받고 개입하여 지도할 수도 있습니다.
OpenAI는 왜 지금 나이 예측 기능을 출시하는 걸까요?
이번 기능 출시는 OpenAI의 "선제적 혁신"의 결과가 아니라 규제 당국의 압력과 업계 동향의 결과 입니다.
한편으로, 오픈아이(OpenAI)는 미국 연방거래위원회(FTC)의 조사를 받고 있는데, 핵심 쟁점은 "인공지능 챗봇이 청소년에게 미치는 부정적인 영향"입니다. 또한, 오픈아이는 여러 건의 관련 소송에도 휘말려 있는데, 학부모들은 과거 챗GPT가 유해 콘텐츠를 효과적으로 차단하지 못해 미성년자들이 폭력, 음란물에 노출되고 심지어 심리적 문제까지 겪었다고 주장했습니다. 연령 예측 기능 도입은 오픈아이가 규제 당국의 감시에 대응하고 법적 리스크 완화하기 위한 중요한 조치입니다.
한편, 미성년자 보호는 글로벌 AI 산업에서 중요한 과제로 떠올랐습니다. AI 도구의 사용이 확산되면서 점점 더 많은 십대들이 ChatGPT를 학습 및 엔터테인먼트 도구로 활용하고 있지만, 이들의 사고는 아직 성숙하지 못해 유해한 정보에 쉽게 영향을 받습니다. 구글 바드(Google Bard)나 앤트로픽 클로드(Anthropic Claude)와 같은 경쟁사들은 이미 다양한 수준의 미성년자 보호 기능을 도입했지만, 이는 주로 콘텐츠 등급 평가와 자발적 신고에 의존하는 방식이었습니다. 오픈아이얼(OpenAI)의 "행동 인식 + 동적 보호" 모델은 업계에서 더욱 혁신적인 접근 방식임이 분명합니다.
산업 동향 관점에서 볼 때, AI 플랫폼의 보안 보호는 '콘텐츠 필터링'에서 '사용자 식별 + 콘텐츠 분류'의 이중 모델로 발전하고 있습니다. 이는 단순히 '콘텐츠가 유해한지 여부'를 판단하는 것을 넘어 '사용자가 해당 콘텐츠에 접근하기에 적합한지 여부'까지 판단하는 것을 의미합니다. 이러한 추세는 AI 보안의 미래 발전 방향을 제시합니다.
나이 예측 기술이 미성년자를 진정으로 보호할 수 있을까요?
겉보기에 완벽한 기능적 설계에도 불구하고, "나이 예측"은 여전히 수많은 논란과 문제에 직면해 있으며, 주로 다음 세 가지 측면에 초점을 맞추고 있습니다.
1. 행동 신호만으로 나이를 완벽하게 나타낼 수 있을까요?
연령 예측 모델의 핵심은 "행동과 연령 간의 상관관계"이지만, 이 상관관계는 절대적인 것이 아닙니다. 예를 들어, 일부 성인 사용자는 업무나 학업 때문에 늦은 밤에 ChatGPT를 자주 이용하거나, 어린 학습자를 위한 과학 대중화 콘텐츠에 대한 질문을 선호하는 경향이 있어 미성년자로 오인될 가능성이 높습니다. 반대로, 조숙한 미성년자는 성인 사용자의 상호작용 패턴을 모방하여 신원 노출을 피할 수도 있습니다. OpenAI는 모델 정확도를 지속적으로 최적화하겠다고 밝혔지만, 단기간에 100% 정확도를 달성하는 것은 여전히 어려운 과제입니다.
2. 행동 분석은 사용자 개인정보를 침해하는가?
나이 예측은 사용자의 활동 시간, 상호작용 콘텐츠, 사용 습관 등 대량 의 행동 데이터를 수집하고 분석해야 합니다. 이로 인해 개인정보 유출에 대한 우려가 제기되고 있습니다. 오픈아이디는 이러한 데이터의 오용을 어떻게 방지할까요? 제3자와 데이터를 공유하지는 않을까요? 오픈아이디는 데이터 사용 규칙을 명시적으로 밝히지는 않았지만, 점점 더 엄격해지는 글로벌 데이터 규제 환경 속에서 '행동 인식'과 '개인정보 보호' 사이의 균형을 어떻게 맞출지는 오픈아이디가 반드시 해결해야 할 과제입니다.
3. 해당 보호 조치가 모든 리스크 시나리오를 포괄할 수 있습니까?
이번에 ChatGPT가 차단한 5가지 리스크 콘텐츠 유형은 주로 "명백히 유해한 정보"에 초점을 맞췄지만, 연령 예측 모델은 아직 "암묵적 리스크"(예: 미성년자의 온라인 사기 유도, 극단주의 사상 유포, 개인 정보 유출)을 포함하지 못했습니다. 또한, 자녀 보호 기능은 부모의 적극적인 조작에 의존하므로, 부모의 감독 의식이나 기술적 능력이 부족할 경우 기능의 실제 효과가 크게 떨어질 수 있습니다.
ChatGPT의 '연령 예측' 기능 출시는 미성년자 보호를 위한 AI 업계의 중요한 돌파구입니다. 이는 AI 플랫폼이 마침내 '개인 맞춤형 접근 방식'을 습득하여 수동적인 콘텐츠 필터링에서 능동적인 사용자 식별 및 정확한 보호로 전환했음을 의미합니다.
하지만 기술이 만병통치약이 아니며, 나이 예측은 미성년자 보호를 위한 "첫걸음"에 불과하다는 점을 명심해야 합니다. 앞으로는 플랫폼, 부모, 규제 기관이 협력하여 기술을 지속적으로 최적화하고, 규칙을 개선하며, 지침을 강화해야만 청소년을 위한 안전하고 건강한 AI 환경을 진정으로 조성하고, AI 기술이 리스크 초래하는 것이 아니라 성장을 촉진하는 도구로 활용될 수 있을 것입니다.
오픈아이디(OpenAI)에게 있어 나이 예측 기능 출시는 규제에 대응하고 기업 이미지를 회복하는 데 있어 매우 중요한 단계입니다. 전체 AI 산업에 있어서는 이는 "안전성 강화"를 의미합니다. 기술 혁신과 안전장치가 조화를 이룰 때 비로소 AI는 진정으로 성숙하고 규제를 준수할 수 있기 때문입니다.
이 글은 위챗 공식 계정 "Shanzi" 의 Rayking629님이 작성한 글이며, 36Kr의 허가를 받아 게재되었습니다.





