OpenAI가 안전하지 않은 AI 사용을 방지하고 지적 재산을 보호하기 위한 조치를 취하며 더 강력한 모델을 출시 준비 중입니다.
OpenAI는 최근 "검증된 조직" 프로세스를 발표했습니다. 이는 향후 회사의 API를 통해 고급 AI 모델에 접근하기 위해 유효한 신분증을 제공해야 하는 새로운 검증 시스템입니다.
지난주 공개된 지원 페이지에 따르면, 조직 검증 프로세스는 "개발자들이 OpenAI 플랫폼의 가장 첨단 모델과 기능에 대한 접근 권한을 해제할 수 있는 새로운 방법"으로 설명됩니다. 이 과정은 OpenAI API에서 지원하는 국가 중 하나에서 발급한 정부 신분증을 요구합니다.
각 ID는 90일 동안 한 조직만 검증할 수 있으며, 모든 조직이 검증 자격이 되는 것은 아니라고 밝혔습니다.
"OpenAI에서 우리는 AI가 광범위하게 접근 가능하면서도 안전하게 사용되도록 엄격히 보장합니다," 지원 페이지에서 인용했습니다. "불행히도, 일부 개발자들은 의도적으로 OpenAI의 API를 사용 정책에 위배되게 사용합니다. 우리는 더 큰 개발자 커뮤니티에 첨단 모델을 제공하면서 동시에 안전하지 않은 AI 사용을 줄이기 위해 검증 프로세스를 추가했습니다."
보안 강화 및 지적 재산 보호
새로운 검증 프로세스는 OpenAI의 제품이 점점 더 정교하고 강력해짐에 따라 보안을 강화하기 위한 것일 수 있습니다. 회사는 북한과 연관된 것으로 알려진 그룹을 포함하여 자사 모델의 악의적인 사용을 탐지하고 완화하기 위한 노력에 대해 여러 보고서를 발표했습니다.
OpenAI는 개발자들이 플랫폼의 가장 첨단 모델과 기능에 접근할 수 있도록 하고 "다음 흥미로운 모델 출시"를 준비하기 위해 새로운 검증된 조직 상태를 출시했습니다.
— Tibor Blaho (@btibor91) 2025년 4월 12일
– 검증은 몇 분 소요되며 유효한... pic.twitter.com/zWZs1Oj8vE
이 조치는 또한 지적 재산 절도를 방지하기 위한 것일 수 있습니다. 올해 초 블룸버그 보고서에 따르면, OpenAI는 중국에 기반을 둔 AI 연구소인 DeepSeek와 연관된 그룹이 2024년 말에 API를 통해 대량의 데이터를 추출했는지 조사하고 있으며, 이는 OpenAI의 약관을 위반하여 자체 모델을 훈련시키기 위한 것일 수 있습니다.
주목할 만하게도, OpenAI는 작년 여름부터 중국에서 자사 서비스에 대한 접근을 차단했으며, 이는 해외에서 자사 AI 기술 사용에 대한 우려가 점점 커지고 있음을 반영합니다.