50페이지가 넘는 분량에 1만 단어가 넘는 인터랙티브 보고서 는 OpenAI가 비영리 연구실에서 영리 기업으로 성장하는 전 과정을 보여줍니다. 최근 두 개의 주요 비영리 기술 모니터링 기관인 Midas Project와 Tech Oversight Project가 공동으로 "OpenAI Files"라는 심층 조사 보고서를 발표했습니다.
미다스 프로젝트 총괄 책임자인 타일러 존스턴이 주도한 이 보고서는 거의 1년 동안 공개 정보를 수집하고 한 달 동안 집중적으로 작성했습니다. 이 보고서는 "OpenAI의 기업 지배구조, 리더십의 성실성, 그리고 조직 문화에 대한 우려 사항을 가장 포괄적으로 정리한 것"이라고 평가됩니다.
기업 공시, 법적 절차, 공개 서한, 언론 보도 등 대량 공개 정보를 면밀히 검토한 1만 단어가 넘는 이 인터랙티브 보고서는 OpenAI가 "인류의 이익을 위해 일하는 것"에서 "투자자의 이익을 위해 일하는 것"으로 근본적인 전환을 체계적이고 계획적으로 완료하고 있음을 발견했습니다. CEO 알트만은 장기적이고 잘 입증된 불일치, 정보 조작, 그리고 감독 회피의 패턴을 가지고 있으며, 그의 개인적인 투자는 회사 업무 과 깊이 연관되어 있습니다. OpenAI는 안전과 투명성에 대한 언행에서 일관성이 없으며, 대외적인 약속은 내부 관행과 심각하게 어긋납니다.
보고서는 구조조정, CEO의 성실성, 투명성 및 보안, 이해 상충이라는 네 가지 주요 주제로 나뉩니다.
그중에서도 OpenAI 경영진과 이사회 구성원들이 회사의 성공으로부터 직간접적으로 어느 정도 혜택을 받았는지는 우려스러운 부분입니다. 여기에는 레트로 바이오사이언스, 헬리온 에너지, 레딧, 스트라이프 등 OpenAI와 파트너십을 맺은 여러 기업들이 포함된 알트만 CEO의 투자 포트폴리오 분석이 포함됩니다.
재편: 신중하게 계획된 "사명의 배신"
보고서는 OpenAI가 설립 당시 핵심 윤리적, 구조적 기반을 체계적이고 계획적으로 해체하고 있다고 지적합니다. 이러한 행위는 공식 선언과 심각하게 상충됩니다. 본질적으로 이는 "인류의 복지 추구"에서 "투자자의 이익 추구"로의 근본적인 전환입니다.
첫째, 보고서는 OpenAI의 두 가지 핵심 기둥인 이익 상한과 비영리 감독이 동시에 무너지고 있다는 사실을 밝힙니다.
원래 "이익 상한제(Capped-Profit)" 모델은 AGI가 창출한 막대한 부를 모든 인류와 공유하고 과도한 부의 집중을 방지하는 것을 목표로 하는 핵심 철학이었습니다. 그러나 이러한 약속은 점차 무의미해졌습니다. 사명을 강화하는 듯 보였던 이익 배수의 감소부터, 기능적으로 비효율적인 "연 20% 자동 성장" 조항의 비밀스러운 도입, 그리고 상한제를 완전히 폐지하려는 최종 계획에 이르기까지, 부의 공유 개념의 완전한 종식을 의미했습니다.
동시에, 감독 메커니즘은 교묘하게 약화되었습니다. OpenAI는 비영리 단체가 전적으로 통제하는 법인에서 델라웨어 공익법인으로 변모했습니다. 법적 의무는 "사명 우선"에서 "주주 이익과 공익의 균형"으로 바뀌었습니다. 보고서는 역사적으로 "주주가 공익을 보호하기 위해 기소하다 전례가 없다"고 지적하며, 이로 인해 법적으로 공익 공약을 이행하는 것이 거의 불가능하다고 지적합니다. 이는 PBC의 "공익" 공약이 현실적으로는 빈껍데기가 되어 이익 극대화를 위한 거대한 법적 구실을 제공할 수 있음을 보여줍니다.

이미지 출처: openaifiles.org/ 웹사이트
이 보고서는 OpenAI가 "치열한 업계 경쟁"으로 인해 약속을 포기했다는 공식 주장을 반박합니다. 회사의 초기 헌장과 내부 이메일을 인용함으로써, 이 보고서는 OpenAI가 설립 초기부터 치열한 업계 경쟁을 충분히 예상하고 대비했음을 입증합니다. 따라서 경쟁을 핑계 삼아 약속을 어기는 것은 "역사 수정주의"에 불과합니다. 이러한 주장의 진짜 동기는 투자자와 회사 경영진이 OpenAI의 막대한 수익 잠재력을 신뢰하기 때문에 상한선을 없애는 것이 매우 중요해졌기 때문입니다.
CEO의 정직성: 신뢰 위기로 이어지는 CEO 행동 패턴
보고서는 또한 CEO 알트먼이 말과 행동 사이에 불일치, 정보 조작, 감독 회피, 조직의 책임보다 개인적 이익을 우선시하는 등의 오랜 잘 문서화된 패턴을 보여왔다고 밝혔다.
보고서는 알트만이 주요 쟁점에 대해 공개적으로 거짓말을 하거나 오도한 사례들을 몇 가지 나열했습니다. 예를 들면 다음과 같습니다.
직원 비방 금지 계약 문제에 대해 알트만은 공개적으로 "전직 직원의 형평성 박탈" 조항을 몰랐다고 주장했지만, 기록에 따르면 그는 분명히 이 조항을 승인한 것으로 드러났습니다.
그는 상원에서 선서 증언하면서 OpenAI에 지분이 없다고 주장했지만 나중에 기금을 통해 간접적으로 지분을 보유하고 있다고 인정했습니다.
그는 오랫동안 이사회에 OpenAI의 스타트업 펀드를 개인적으로 소유하고 있다는 사실을 숨겼습니다.
전 이사회 임원 헬렌 토너는 알트만이 "정보를 은폐하고, 사실을 왜곡하고, 심지어 노골적으로 거짓말을 하는 등" 이사회의 직무 수행을 방해했다고 직접 비난했습니다. 보고서는 또한 이러한 행동 패턴이 그의 경력 내내 지속되었다고 밝혔습니다.
루프트에서 근무하는 동안 고위 직원들은 두 번이나 그를 해고하려고 이사회에 요청했는데, 그의 행동이 "기만적이고 혼란스럽다"는 것이었습니다.
Y Combinator에 있는 동안 그는 개인 프로젝트에 집중하느라 업무를 소홀히 했고 결국 창립자인 폴 그레이엄에게 "떠나라는 요청"을 받았습니다.
가장 극적인 모습은 그가 OpenAI 이사회에서 해고된 후 자신의 영향력을 사용하여 반대로 행동했다는 것입니다. 즉, "자신을 해고한 이사회 구성원을 제거하고 자신의 동맹을 임명하는 것"을 복귀 조건으로 내걸어 감독 시스템에 대한 "반발"을 성공적으로 이끌어냈습니다.
운영 및 안전 리스크: 안전 약속의 체계적인 실패
보고서는 OpenAI가 안전과 투명성에 대한 언행 간에 체계적인 불일치를 보이고 있으며, 공개된 공약과 내부 관행이 심각하게 동떨어져 있음을 보여줍니다. OpenAI의 기업 문화는 "속도가 전부"라는 인식을 보이며, 상업적 이익과 경쟁 우위를 확보하기 위해 내부 안전 감독 및 반대 의견을 체계적으로 약화시키고, 회피하고, 심지어 처벌하고 있습니다.
이 보고서는 OpenAI가 안전성과 투명성 측면에서 체계적으로 모순되는 모습을 드러냅니다. OpenAI는 컴퓨팅 리소스의 20%를 "초정렬된" 안전팀에 할당하겠다고 약속했지만, 전임 CEO 얀 라이케에 따르면 해당 리소스는 실제로 할당되지 않았습니다. GPT-4o 개발 과정에서 안전팀은 제품 출시 전에 신속하게 테스트를 "완료"하라는 요청을 받았고, OpenAI는 평가가 시작되기 전부터 출시 기념 행사를 계획했습니다.
설상가상으로, 회사는 퇴사하는 직원들에게 회사를 비판하면 수백만 달러의 자산을 잃게 될 것이라며 가혹한 퇴직 합의서를 사용하며 위협했습니다. 직원 레오폴드 아셴브레너는 이사회에 국가 안보 리스크 각서를 제출했다는 이유로 해고되었는데, 회사는 그에게 해고 사유가 보안 문제를 보고할 "권한을 남용했다"는 사실을 분명히 밝혔습니다.
보고서는 또한 OpenAI가 2023년에 심각한 보안 사고를 겪었다고 지적했습니다. 해킹을 통해 AI 기술 정보가 유출되었지만, 1년 동안 당국이나 대중에 보고되지 않았다는 것입니다. 여러 현직 및 전직 직원들은 OpenAI가 "무모함과 비밀주의 문화"를 가지고 있으며 보안 사명보다 "이익과 성장"을 우선시한다고 비난했습니다.
이해 상충 리스크: CEO의 개인 투자는 회사 업무 과 밀접하게 연관되어 있습니다.
보고서는 Altman이 OpenAI의 업무, 기술 및 전략적 파트너십과 깊고 직접적인 이해 상충이 있는 광범위하고 얽힌 개인 투자 네트워크를 어떻게 구축했는지 자세히 밝히며, 이는 OpenAI의 명시된 사명인 "모든 인류의 이익을 위해 일한다"는 것에 근본적으로 도전합니다.
다음은 몇 가지 일반적인 사례입니다.
헬리온(핵융합 에너지): 알트만은 헬리온의 회장이자 주요 투자자이며, 오픈AI의 CEO이기도 합니다. 그는 오픈AI가 헬리온으로부터 대량 의 에너지를 구매하도록 직접 주도했습니다. 이 거래가 헬리온에 대한 그의 막대한 개인 투자를 보호하기 위한 것인지에 대한 의문은 타당합니다.
월드코인(암호화폐 프로젝트): 알트만은 월드코인의 공동 창립자입니다. OpenAI는 월드코인과 공식 파트너십을 맺고 있습니다(예: 무료 GPT-4 서비스 제공). 사람들은 이것이 동등한 사업 협력인지, 아니면 알트만이 OpenAI의 자원과 브랜드를 이용하여 자신의 리스크 프로젝트를 지원하고 홍보하는 것인지 의문을 제기합니다.
Humane(AI 하드웨어): Altman은 OpenAI 모델을 기반으로 제품을 생산하는 Humane의 최대 주주입니다. OpenAI의 CEO로서 그는 Humane이 특혜 조건이나 우선 기술 지원을 받도록 하는 데 상당한 개인적 재정적 동기를 가지고 있습니다. 이는 다른 고객의 이익과 시장의 공정성을 저해할 수 있습니다.
이러한 복잡한 이해관계는 CEO로서 알트만의 수탁자 책임을 심각하게 약화시켰습니다. 그의 결정은 OpenAI의 사명을 위한 것일까요, 아니면 개인의 부의 증대를 위한 것일까요? 이 보고서가 궁극적으로 보여주는 모습은 알트만이 오히려 영리한 자본 운용가에 가깝다는 것입니다. 그는 영리하게 OpenAI를 자신의 개인 사업 제국의 중심에 두고, CEO라는 지위를 활용하여 OpenAI의 기술, 자원, 그리고 전략적 관계를 체계적으로 전환하여 개인 투자 포트폴리오의 성장 동력으로 삼고 있습니다.




