정말 미친 주말이에요 !! OpenAI 전설은 계속됩니다. 토요일 저녁에는 OpenAI 직원이 주도하여 Sam Altman과 Greg Brockman을 다시 데려오려는 노력이 있었습니다. 분명히 대부분의 직원은 Sam과 Greg의 편을 들었습니다. OpenAI에서 일했던 친구가 있습니다. 그는 정말 즐거운 시간을 보내고 있었습니다. 팀, 작업, 영향. 모두 훌륭합니다. 이번 이사회 싸움은 큰 충격이었고 대부분의 직원들은 이러한 혼란을 인정하지 않았습니다. 그러나 이사회는 열심히 노력하여 결국 새로운 임시 CEO인 Emmett Shear를 고용했습니다 . 몇 시간 내에 수백 명의 OpenAI 직원이 그만 두었습니다. Sam Altman과 Greg Brockman은 Microsoft에 합류하여 새로운 AI 연구 부서를 시작할 예정이며 Microsoft는 현재 모든 OpenAI 직원에게 제안을 확장하고 있습니다. 현재 OpenAI 직원 770명 중 700명이 회사를 그만뒀다 . 얼마나 많은 직원이 Microsoft에 합류할지는 확실하지 않습니다. 또 다른 큰 반전은 보드 싸움을 시작한 OpenAI의 공동 창립자이자 수석 과학자인 Ilya Sutskever가 보드 싸움에 *참여*한 것을 깊이 후회한다고 말하면서 뒤집혔다는 것입니다. 그 사람이 싸움을 시작한 사람 아닌가요? 나는 혼란스럽다.
이러한 혼란의 중심에는 비영리 지배구조가 있다. 나는 이사회가 OpenAI의 운영이 명시된 사명과 일치하는지 확인하기 위해 신탁 책임을 수행하고 있다고 가정합니다. 다음은 OpenAI 웹사이트에 나열된 미션 섹션입니다.
OpenAI의 사명은 인공 일반 지능(AGI)(가장 경제적으로 가치 있는 작업에서 인간을 능가하는 고도로 자율적인 시스템을 의미함)이 모든 인류에게 이익이 되도록 보장하는 것입니다. 우리는 안전하고 유익한 AGI를 직접적으로 구축하려고 시도할 것이지만, 우리의 작업이 다른 사람들이 이러한 결과를 달성하도록 돕는다면 우리의 임무가 완수된 것으로 간주할 것입니다. 이를 위해 우리는 다음 원칙을 준수합니다.
광범위하게 분산된 혜택
우리는 AGI 배치를 통해 얻은 모든 영향력을 사용하여 그것이 모두의 이익을 위해 사용되도록 하고 인류에게 해를 끼치거나 부당하게 권력을 집중시키는 AI 또는 AGI의 사용을 방지할 것을 약속합니다.
우리의 주요 신탁 의무는 인류에 대한 것입니다. 우리는 사명을 완수하기 위해 상당한 자원을 집결해야 할 것으로 예상하지만, 광범위한 이익을 저해할 수 있는 직원과 이해관계자 간의 이해 상충을 최소화하기 위해 항상 부지런히 행동할 것입니다.
장기적인 안전
우리는 AGI를 안전하게 만드는 데 필요한 연구를 수행하고 AI 커뮤니티 전반에 걸쳐 이러한 연구가 광범위하게 채택되도록 하기 위해 최선을 다하고 있습니다.
우리는 적절한 안전 예방 조치를 취할 시간이 없이 후기 단계의 AGI 개발이 경쟁 경쟁이 되는 것을 우려하고 있습니다. 따라서 가치와 안전을 고려한 프로젝트가 우리보다 먼저 AGI 구축에 가까워지면 우리는 이 프로젝트와 경쟁을 중단하고 지원을 시작할 것을 약속합니다. 구체적인 내용은 사례별로 합의해 나가겠지만, 일반적인 촉발 조건은 "향후 2년 내 성공 가능성이 훨씬 더 높다"는 것일 수 있습니다.
기술 리더십
AGI가 사회에 미치는 영향을 효과적으로 해결하려면 OpenAI가 AI 기능의 최첨단에 있어야 합니다. 정책과 안전 옹호만으로는 충분하지 않습니다.
우리는 AI가 AGI 이전에 광범위한 사회적 영향을 미칠 것이라고 믿으며, 우리의 사명과 전문성에 직접적으로 부합하는 분야를 선도하기 위해 노력할 것입니다.
협력 오리엔테이션
우리는 다른 연구 및 정책 기관과 적극적으로 협력할 것입니다. 우리는 AGI의 글로벌 과제를 해결하기 위해 함께 일하는 글로벌 커뮤니티를 만들기 위해 노력하고 있습니다.
우리는 사회가 AGI로 나아가는 데 도움이 되는 공공재를 제공하기 위해 최선을 다하고 있습니다. 현재 여기에는 대부분의 AI 연구 출판이 포함되지만, 안전 및 보안에 대한 우려로 인해 앞으로는 전통적인 출판이 줄어들면서 안전, 정책 및 표준 연구 공유의 중요성이 높아질 것으로 예상됩니다.
그렇다면 이사회가 OpenAI의 초고 성장 계획과 Microsoft와의 매우 긴밀한 관계에 대해 우려하는 것이 공정하다고 생각합니다. 이사회는 OpenAI가 너무 빨리 움직이고, 성장과 이익 중심으로 움직이고 있으며, 모든 인류에게 이익이 되는 안전한 AGI라는 원래 사명에서 벗어나고 있다고 우려하고 있는 것 같습니다. 반면에 이사회 구성원은 기득권을 갖고 있지 않습니다. 원칙에 어긋나게 행동할 수도 있지만 신중하게 행동하지 않으면 모든 가치를 파괴할 수도 있습니다. 저는 실제로 이 비영리 이사회가 매우 좋은 의도를 갖고 있으며 무엇보다 공익을 최우선으로 생각하려고 노력할 수 있다고 생각합니다. 그러나 이 이사회는 매우 작은 이사회(6명에서 4명으로 줄어들음)이고 게임에 참여할 수 있는 능력이 없습니다. CEO 해고와 같은 어려운 결정이 내려졌을 때 그들은 직원이나 투자자들과 같은 고통을 느끼지 않습니다. OpenAI는 매우 중요한 기관입니다. 그들은 더 크고 더 다양한 이사회를 가졌어야 했습니다. 더 중요한 것은 비영리 조직이 OpenAI에 적합한 구조가 아니라고 생각합니다. 많은 것이 위험에 처해 있으며 역사적으로 소시오패스적인 란도스가 수십억 달러의 비영리 기부금을 인수했다는 끔찍한 이야기가 있습니다. 어떤 면에서는 이제 비영리 구조가 무너지는 게 좋은 것 같아요. 왜냐하면 이 모든 것이 기본적으로 흔들리는 기초 위에 세워지는 초고층 빌딩이기 때문입니다. 투자자와 직원에게 투표권이 없는 복잡한 이익 제한의 비영리 거버넌스는 실패할 수밖에 없습니다. 마이크로소프트 AI 연구 부서가 더 잘 작동할지도 모르겠습니다. 이는 OpenAI 비영리 단체가 달성하려고 했던 것과 완전히 반대일 것입니다. 기업의 과부하는 이익과 주주 중심입니다. 지금으로부터 5년 후에 일부 행동주의 투자자들이 샘과 그렉이 이끄는 AI 부문에서 더 나은 수익을 창출하고 AI 안전에 더 적은 비용을 지출하도록 Microsoft에 압력을 가할 것이라고 상상해 보십시오. 지옥으로 가는 길은 선의로 포장되어 있다. 사람들은 새로운 Microsoft AI 연구 부서에 대해 지나치게 낙관적일 수 있습니다. 이번 주말이 지나면 OpenAI는 더 이상 OpenAI가 될 수 없다는 슬픈 사실이 드러납니다.



