컴파일러: Mu Mu
편집자: 원 다오
7월 초 존스홉킨스 대학교에서 수석 기술 저널리스트이자 팟캐스트 Pivot의 공동 진행자인 Kara Swisher는 OpenAI CTO인 Mira Murati와 컴퓨터 과학자이자 스탠포드 대학교 교수인 Fei-Fei Li와 열띤 대화를 나누었습니다. 그의 또 다른 신분은 구글 클라우드의 인공지능 및 머신러닝(ML) 수석 과학자이다.
미라 무라티(Mira Murati)는 지난해 OpenAI '궁전 싸움' 사건으로 인해 전면에 밀려난 뒤 샘 알트먼(Sam Altman)이 해고되면서 임시 CEO를 맡았다. 실제로 OpenAI의 CTO는 GPT-3 모델 개발팀의 핵심 인물이며 ChatGPT의 대중 공개를 추진했습니다.
이 대화에서 카라 스위셔는 "OpenAI 훈련 데이터는 어디서 오는가?", "소라가 대화형 로봇보다 더 리스크?", "OpenAI는 직원들이 공개적으로 발언하는 것을 막기 위해 기밀 유지 계약을 사용하는 것에 대해 의문을 제기한다"고 지적했다. OpenAI가 소리를 표절한다고 비난하는 내용이 잇따라 미라 무라티에게 던져졌고, 샘 알트만에 대한 평가와 현재 관계에 대해서도 직접적으로 질문을 받았습니다.
Mira Murati는 모든 날카로운 질문에 "재치 있게" 직접 응답하지 않기로 결정했습니다. 비록 기자들이 질문 방법을 계속 바꾸더라도 그녀는 자신의 리듬을 유지하려고 노력했으며 더 자주 자신과 대화하고 다소 공식적인 방식으로 OpenAI의 아이디어를 표현했습니다. . 아이디어.
데이터 개인 정보 보호, 허위 정보, 가치의 영향 등 사람들이 여전히 우려하고 있는 AI 리스크 문제는 이 대화에서 반복되는 주제입니다.
미라 무라티는 이것이 인간이 AI 기술을 오해한 것이라고 생각한다. 오해를 없애는 방법은 AI 기업이 신뢰를 얻기 위해 더 많은 보안 구축 작업을 해야 하는 것 외에도 사람들이 AI와 대규모로 상호 작용하는 데 깊이 관여해야 한다는 것이다. 기술의 잠재력과 한계를 이해하고, AI 기술이 인간 안전에 유익한 방향으로 발전하도록 개발팀과 공동 책임을 집니다.
Kara Swisher도 OpenAI에게 AGI 구현 진행 상황에 대해 반복적으로 질문했지만 Mira Murati는 엄격하게 보호되었으며 구체적인 일정 공개를 거부했습니다. 그러나 그녀는 "향후 10년 안에 우리는 극도로 발전된 지능형 시스템을 갖게 될 것"이라며 "이미 우리가 갖고 있는 전통적인 의미의 지능형 시스템"은 아닐 것이라고 말했습니다.
전체 대화는 존스홉킨스대학교 공식 유튜브 계정에 게재됐다. 다음은 일부 내용이다.
Apple과의 협력에 대해
"OpenAI는 Apple 사용자 데이터를 저장하지 않습니다"
Swisher: Apple의 컴퓨터, 휴대폰 및 태블릿에는 올해부터 ChatGPT가 내장되기 시작할 예정입니다. 이는 중요한 행사입니다. Apple이 이러한 작업을 수행한 것은 이번이 처음이며 향후 다른 회사와 협력할 수도 있습니다. 나는 팀 쿡(애플 CEO)과 그의 관점 이해하기 위해 짧은 대화를 나눴다. 이번에는 당신(미라 무라티)의 관점에서 이야기하고 싶습니다. 이 파트너십은 어떤가요?
Murati: 이번 협업은 우리에게 중요한 이정표입니다. Apple은 상징적인 소비자 제품 회사이며, 우리의 목표는 인공 지능과 뛰어난 AI 애플리케이션을 대중에게 최대한 많이 제공하는 것입니다 . 두 당사자 간의 협력은 더 이상 모든 Apple 장치 사용자에게 ChatGPT를 제공할 수 있는 좋은 기회입니다. 장치 간을 전환해야 합니다. 앞으로 몇 달 동안 우리는 Apple과 긴밀히 협력하여 제품 수준의 세부 사항을 결정할 것이며 더 자세한 내용은 곧 공유될 것입니다.
스위셔: 괜찮으시다면 좀 더 구체적인 내용을 알고 싶습니다. 정확히 무슨 일을 하고 있나요? 나는 이 문제에 대해 Tim Cook과 논의했고 그가 나에게 말한 내용은 사용자가 ChatGPT로 이동하여 Siri를 개선하기 위한 답변을 얻을 수 있다는 것입니다. 왜냐하면 Siri는 현재 정말 형편없기 때문입니다.
하지만 귀하의 현재 상황은 나에게 Netscape를 생각나게 하며 OpenAI가 AI의 Netscape가 되는 것을 분명히 원하지 않으십니다. (편집자 주: Netscape는 1990년대 가장 초기이자 가장 중요한 인터넷 브라우저 스타트업 중 하나였습니다. 그러나 Microsoft는 Windows 운영 체제에 Internet Explorer 브라우저를 번들로 제공하여 Netscape의 지배력에 도전했고 Netscape는 점차 시장 점유율 잃었습니다. 결국 인수) 그럼, 왜 남들보다 일찍 애플과 협력하게 됐나?
Murati: 제품 통합 측면에 대해 논의할 수 있습니다. 우리는 실제로 개발 중인 모델 기능, 다중 양식 및 상호 작용성을 Apple 장치로 가져오고 싶습니다.
최근 GPT-4o가 출시된 것을 보셨을 것입니다. 이러한 모델이 상호 작용 차원에서 도약하는 것을 본 것은 이번이 처음입니다. 지금까지 장치와의 상호 작용은 텍스트 입력으로 제한되어 있었기 때문에 이것은 상호 작용의 제한을 크게 줄여 정보와 상호 작용하는 보다 풍부하고 자연스러운 방법을 가질 수 있는 좋은 기회입니다. 그것은 많은 가능성을 열어주며, 그것이 바로 우리가 추구하는 것입니다.
또한 사용자의 요청은 OpenAI로 전송된 후 저장되지 않으며 사용자의 IP 주소도 숨겨지는데 이는 Apple에게도 중요합니다.
Swisher: 이에 대해 좀 더 자세히 살펴보면 모델 교육을 위해 이러한 요청에서 데이터를 수집할 수 있습니까?
Murati: 아니요. 현재는 명시적으로 허용하지 않는 한 사용자 및 고객 데이터를 사용하여 모델을 교육하지 않습니다.
Swisher: Apple은 특히 개인 정보 보호 및 허위 정보와 관련하여 평판에 큰 관심을 기울이고 있으며 이러한 정보가 어디로 가고 어떻게 사용되는지에 관심을 갖고 있습니다.
Murati: 우리는 같은 생각을 갖고 있으며 그것이 우리가 가고 싶은 방향으로 우리를 이끌 것입니다. OpenAI 는 사람들이 우리가 구축한 것에 대해 주체성과 발언권을 갖고 있다고 믿고 느낄 수 있는 방식으로 기술을 구축하고 배포하므로 개인 정보 보호와 신뢰도 OpenAI의 사명에 매우 중요합니다.
당신이 언급한 허위 정보의 경우, 허위 정보가 수십 년 동안 존재해 왔기 때문에 매우 복잡합니다. 인터넷과 소셜 미디어가 있으면 문제가 어느 정도 악화됩니다. AI의 발달로 허위정보의 상황이 점점 더 심각해졌고, AI는 이러한 문제를 최고조에 달하게 만들었다. 문제가 주목을 받고 있고 문제를 해결하기 위해 의미 있는 일을 하도록 우리를 밀어붙이는 공동의 노력과 책임감이 있는 것 같기 때문에 이는 좋은 일입니다.
나는 이것이 반복적인 과정이라고 생각하며 진행하면서 여러 가지를 시도해야 합니다. 지난 100년 동안 뉴스와 미디어의 거버넌스를 되돌아보면 새로운 기술이 나올 때마다 실제로 변화에 적응하는 것이 좋은 예는 아닐지 모르지만, 기술 혁신은 그 전에 허위 정보를 처리하는 데 도움이 될 것입니다. 이에 대한 사회의 준비와 같은 다른 문제는 더 복잡합니다.
Swisher: Apple에 관해서는 실수하지 않도록 조심해야 합니다. 그렇지 않으면 Apple이 문제를 일으킬 것입니다. 이번 협업은 어떻게 시작됐는지 궁금해요. Tim Cook과 Sam Altman의 토론은 어디서부터 시작해야 할까요? 아니면 어떻게 참여하게 되었나요?
Murati: 정확히 언제인지는 기억나지 않지만 한동안 양조 중이었습니다.
데이터 소스 정보
모델 훈련에서는 "개방적이고 협력적이며 승인된" 데이터를 사용합니다.
Swisher: 다른 회사와 유사한 협업을 모색하고 있나요? 분명히 귀하는 Microsoft와 파트너십을 맺고 있습니다. 최근 OpenAI는 News Corp., The Atlantic 및 Vox Media와 이러한 미디어 매체의 콘텐츠 라이선스 계약을 체결하여 최소한 3가지 잠재적인 법적 분쟁을 피했습니다.
나만의 팟캐스트가 있지만 Vox Media와의 계약에는 포함되어 있지 않으며 라이선스 부여를 고려할 수도 있지만 귀하를 포함해 누구에게도 내 정보가 공개되는 것을 원하지 않기 때문에 그럴 가능성은 낮습니다. 그렇다면 정보를 승인하도록 어떻게 설득할 건가요?
Murati: 데이터를 사용하여 모델을 교육할 때 공개적으로 액세스할 수 있는 데이터, 파트너십을 맺은 게시자, 주석 사용에 동의한 선택된 사용자를 포함하여 주석 작성자에게 비용을 지불하는 특정 데이터라는 세 가지 데이터 소스를 고려합니다. 데이터. 이것이 우리 데이터의 주요 소스입니다 .
출판사와의 협력에 있어서 우리는 정보의 정확성과 뉴스 가치를 매우 중요하게 생각합니다. 왜냐하면 우리 사용자들도 이에 관심을 갖고 있기 때문입니다. 그들은 ChatGPT에서 정확한 정보를 얻고 뉴스를 보고 싶어합니다. 따라서 이 파트너십은 제품 기반으로 제품을 통해 사용자에게 가치를 제공합니다.
콘텐츠 제작자의 데이터가 제품 시연이나 모델 교육에 사용되기 때문에 콘텐츠 제작자에게 약간의 보상을 제공할 수 있는 다양한 비즈니스 모델을 모색하고 있지만 이는 특정 게시자와의 일대일 협업입니다.
Swisher: 당신은 일부 언론 매체와 합의에 도달했지만 New York Times와 같은 일부 회사는 당신을 기소하다 로 결정했습니다. 왜 그런 지경에 이르렀나요? 소송도 어느 정도는 협상의 도구라고 생각해요.
Murati: 뉴스 데이터와 관련 정보를 우리 제품에 통합하는 데 가치가 있다고 믿기 때문에 안타깝습니다. 우리는 원래 이 문제를 함께 해결하려고 했으나 역효과를 냈습니다.
스위셔: 네, 언젠가는 상황이 나아질 수도 있겠네요. 하지만 언론이 수년간 인터넷 기업과 거래를 하다가 결국 곤경에 처하는 경우가 많기 때문이라고 생각합니다. 다음으로, 쇼의 전통에 따라 다른 게스트에게 질문을 하도록 요청하세요.
리페이페이(Li Feifei): 데이터, 특히 빅데이터는 현대인을 더욱 똑똑하게 만드는 세 가지 요소 중 하나로 꼽히고 있습니다. 데이터에 관해 질문을 드리고 싶습니다. OpenAI의 많은 성공은 데이터와 관련이 있으며, 우리는 OpenAI가 인터넷과 기타 소스에서 대량 데이터를 얻는다는 것을 알고 있습니다. 그렇다면 데이터와 모델의 관계는 무엇이라고 생각하시나요? 더 많은 데이터를 보유하고 모델에 더 많은 피드를 제공할수록 모델이 더 강력해진다고 흔히 믿어지나요? 아니면 모델이 효율적으로 실행되도록 하기 위해 다양한 유형의 대량 데이터를 선별하는 데 대량 노력을 기울여야 합니까? 마지막으로, 인간이 생성한 대량 의 데이터에 대한 필요성과 해당 데이터에 대한 소유권 및 권리 문제 사이의 균형을 어떻게 맞추나요?
Murati: 데이터와 모델의 관계와 관련하여 많은 사람들이 AI 모델, 특히 대규모 언어 모델에 대해 오해를 하고 있습니다.
모델 개발자는 특정 작업을 수행하기 위해 모델을 사전 프로그래밍하지 않습니다. 실제로 그들은 대량 데이터를 입력하고 있습니다. 이러한 모델은 엄청난 양의 데이터를 수집하며 지능이 나타나는 놀라운 패턴 일치 시스템입니다. 따라서 모델은 쓰기, 코딩, 기본 수학 수행, 정보 요약 등 모든 종류의 작업을 학습합니다.
우리는 그것이 어떻게 작동하는지 정확히 알지 못하지만 그것이 매우 효과적이고 딥 러닝이 정말 강력하다는 것을 알고 있습니다 . 그러나 사람들이 종종 그것이 어떻게 작동하는지 묻고, 이는 투명성 문제를 야기하기 때문에 이것은 중요합니다.
빅 언어 모델은 신경망 아키텍처, 대량 의 데이터, 대량 의 계산을 결합하여 놀라운 지능을 생성하는 방식으로 작동합니다. 이 기능은 더 많은 데이터와 계산을 입력할수록 계속해서 향상됩니다.
물론 이 데이터를 소화할 수 있게 만들려면 대량 작업이 필요합니다. 모델 행동과 사물의 작동 방식에 투명성을 제공하는 방법에 대해 생각할 때 사람들이 이러한 모델을 사용할 때 자신감을 가질 뿐만 아니라 주체성과 참여 의식도 갖기를 원하기 때문에 활용할 수 있는 몇 가지 도구가 있습니다 .
따라서 우리가 하는 일 중 하나는 실제로 모델 사양이라고 하는 문서를 대중과 공유하는 것입니다. 이 문서는 모델의 작동 방식뿐만 아니라 OpenAI 내에서 내리는 결정 유형과 작업 방식도 보여줍니다. 인간 주석자와 함께. 사양은 모델이 현재 작동하는 방식과 향후 모델이 작동하는 방식을 결정하며 이는 크로스 플랫폼입니다.
사양을 보면 상황이 복잡하고 때로는 방향이 상충된다는 것을 알 수 있습니다 . 예를 들어 우리는 모델이 우리에게 매우 도움이 되기를 원하지만 동시에 법을 어기지 않기를 바랍니다.
누군가가 "슈퍼마켓에서 물건을 훔칠 때 필요한 팁"을 묻는 프롬프트에 들어갔다고 가정해 보세요. 그러면 답변을 제공해야 하는 모델은 불법적인 문제를 처리해서는 안 되지만, 때로는 모델이 질문을 도둑질을 피하는 방법으로 해석한 다음 제공할 수도 있습니다. 반례를 제시할 때 반대 예 몇 가지 "유용한" 팁이 제공됩니다. 이는 모델 동작이 실제로 매우 복잡하며 단순히 자유 값이나 다른 값을 선택할 수 없음을 보여줍니다. 이 경우에는 사람들이 어떻게 사용하는지에 따라 달라집니다.
스위셔: 그런데 사람들이 헷갈리는 것 중 하나가 모델에 어떤 데이터가 있고 어떤 데이터가 없는지 헷갈리는 것 같은데, 데이터의 출처가 중요한 부분이에요. 지난 3월 Wall Street Journal과의 인터뷰에서 OpenAI가 텍스트 생성 비디오 모델인 Sora를 교육하기 위해 YouTube, Instagram 및 Facebook의 비디오 데이터를 사용했는지 여부에 대한 질문을 받았습니다. 그때는 확신이 없다고 하더군요. 하지만 CTO로서 어떤 데이터가 사용되는지 알아야 하지 않나요?
Murati: 데이터의 출처를 구체적으로 말씀드릴 수는 없습니다. 이는 우리의 경쟁력을 유지하는 영업 비밀입니다 . 하지만 데이터 범주는 알려드릴 수 있습니다. 1. 공개적으로 사용 가능한 데이터 2. 라이선스를 통해 비용을 지불하고 콘텐츠를 거래합니다. 공급자 3. 사용자가 승인한 데이터.
스위셔: 퍼플렉시티(Perplexity)는 최근 출처를 명확히 밝히지 않은 채 기사를 빠르게 온라인에서 스크랩해 문제를 일으키고 있는데, 이는 어느 언론사든 우려할 일이다.
Murati: 실제로 우리는 콘텐츠 제작자에 대한 존중을 보장하고 데이터 제작자에게 보상할 수 있는 몇 가지 방법을 시도하고 있습니다. 따라서 우리는 데이터 유형을 보다 구체적으로 식별하는 데 도움이 되는 "콘텐츠 미디어 관리자"라는 도구를 개발하고 있습니다.
접근권한에 대하여
소라 공개 전 "보호조치 마련돼야"
스위셔: 소라는 언제 대중에게 공개되나요?
Murati: Sora의 공개 출시 일정은 아직 정해지지 않았습니다. 현재 Sora를 사용하는 일부 초기 사용자와 콘텐츠 제작자가 기능 향상 방법을 찾는 데 도움을 주고 있습니다.
우리는 보안에 관해 많은 작업을 수행하고 있으며 공개적으로 사용하기에 적합한 방식으로 출시하는 방법을 찾고 있습니다. 이는 간단하지 않으며 우리가 개발하는 모든 신기술을 통해 수행되는 작업입니다. DALL-E를 출시했을 때, 저희도 제작자와 먼저 협력했고, 그들은 좀 더 사용자 친화적인 인터페이스를 만드는 데 도움을 주었습니다. 그래서 기본적으로 우리는 사람들의 창의성을 확장하고 싶습니다.
스위셔: 그럼 소라가 챗봇보다 더 위험할 수도 있다는 건가요? 이 기술이 우려의 원인입니까? 예를 들어, 사람들은 (AI의 도움으로) 스칼렛 요한슨의 머리가 바뀐 포르노 영화를 쉽게 볼 수 있습니다. 영상이 더 걱정되시나요?
Murati: 영상에 문제가 많은 것은 사실입니다. 특히 영상이 잘 만들어졌을 때는 더욱 그렇습니다. 저는 소라가 매우 직관적이고 감정을 표현하는 비디오를 만드는 데 훌륭한 역할을 한다고 생각합니다. 따라서 우리는 모든 보안 문제를 해결하고 우리가 내놓는 제품이 유용하고 안전한지 확인하기 위한 보호조치 마련해야 합니다. 비즈니스 관점에서 볼 때 제품이 안전이나 평판에 위기를 초래하는 것을 원하는 사람은 아무도 없습니다.
스위셔: 네, 페이스북 라이브와 같습니다 . (편집자 주: 페이스북 라이브는 페이스북이 출시한 라이브 방송 기능입니다. 초기에는 폭력 사건을 라이브 방송하는 등의 문제에 직면해 규제 압력과 페이스북에 부정적인 영향을 미쳤습니다.)
Murati: 이 놀라운 기술은 정말 놀랍습니다. 하지만 그 영향과 결과도 엄청납니다. 그래서 우리가 이것을 올바르게 하는지 확인하는 것이 정말 중요합니다.
우리는 반복적인 배포 전략을 사용하며 종종 소수의 사람들에게 먼저 공개하여 극단적인 사례를 식별하려고 시도합니다. 이러한 상황을 잘 처리한 후에만 액세스가 확장될 것입니다. 하지만 제품의 핵심이 무엇인지, 이를 둘러싼 비즈니스 모델이 무엇인지 파악하고 이를 개선해야 합니다.
Swisher: 저는 " 초기 기술 회사의 결과에 대한 관심 부족 "에 관한 프로젝트를 수행한 적이 있습니다. 그들은 우리를 초기 인터넷 제품의 테스터로 만들었습니다. 만약 이런 태도로 자동차를 출시한다면 대중은 결코 용납하지 않을 것이며 파산 소송을 당할 것입니다.
그러나 많은 기술은 베타 버전으로 출시된 후 대중에게 수용됩니다. 결과의 개념과 관련하여, CTO로서 모든 결과를 파악할 수 없더라도 모든 발명에 대해 충분한 인간적 존중을 갖고 그것이 가져올 결과를 인식해야 한다고 생각하시나요?
Murati: 우리는 개인적으로나 사회적으로 결과를 평가합니다. 반드시 규제나 법적 결과의 측면에서가 아니라 도덕적 수준에서 일을 바로잡는 측면에서 평가합니다.
저는 AI 기술이 놀라운 것이며 과학, 발견, 교육, 특히 의료 분야에서 놀라운 결과를 만들어 낼 것이라고 믿습니다. 그러나 당신은 또한 강력한 무언가를 가질 때마다 치명적인 리스크 발생할 가능성이 있으며 인간은 항상 그 결과를 증폭시키려고 노력하고 있다는 것을 알고 있습니다.
스위셔: 사실 저는 책에서 폴 베릴리(Paul Verily)의 말을 인용했습니다. "당신이 배를 발명했을 때 당신은 난파선을 발명했습니다." 그런데 당신은 나의 지나친 걱정을 바로잡아 주었습니다.
Murati: 저는 제 배경이 공학이고 공학에는 리스크 있기 때문에 이런 과도한 관점 에 동의하지 않습니다. 우리의 전체 인류 문명은 공학 실천을 바탕으로 구축되었습니다. 우리 도시와 마찬가지로 다리도 모든 것을 연결하지만 항상 리스크 따릅니다. 따라서 우리는 이러한 리스크 책임감 있게 관리해야 합니다.
이는 개발자만의 책임이 아니라 공동의 책임입니다. 책임 공유를 현실로 만들기 위해서는 진공 상태에서 기술을 구축하고 사람들이 만질 수 없는 기술을 만드는 것이 아니라 실제로 사람들에게 참여를 유도할 수 있는 액세스 권한과 도구를 제공해야 합니다 .
GPT-5 및 AGI 정보
"차세대 대형 모델은 매우 강력하고 기대할만한 가치가 있을 것입니다."
Swisher: 이전에 ChatGPT-4 - GPT-4o의 반복을 발표했는데 그 이름이 정말 마음에 듭니다. 또한 새로운 모델인 GPT-5를 훈련한다고 발표했습니다. 기하급수적으로 좋아질까요? 언제 출시될 것으로 예상되나요?
Murati: O는 Omni의 약자로 "all-modal model"을 의미합니다. 이는 시각적, 텍스트, 오디오 등 모든 양식을 통합한다는 의미입니다. 이 모델의 특별한 점은 처음으로 모델과 원활하고 자연스러운 상호 작용이 가능하다는 것입니다. 더욱이 그 지연 시간은 대면 의사소통과 거의 구별할 수 없으며 거의 감지할 수 없습니다. 이는 AI와의 상호 작용에 있어 큰 도약이며 이전 릴리스와는 매우 다릅니다.
우리는 모든 사용자에게 최신 기능을 무료로 제공하고 싶고 모든 사람이 기술이 무엇을 할 수 있는지, 이러한 새로운 방식이 어떤 모습인지 이해하는 동시에 그 한계도 이해하기를 원합니다. 아까 말했듯이 사람들에게 접근권을 주고, 참여하도록 유도하고, 경험해야만 직관적인 느낌을 받을 수 있고, 그러면 기술의 잠재력과 한계를 훨씬 더 쉽게 이해할 수 있습니다.
Swisher: GPT-4o는 애피타이저와 같습니다. 5세대는 어떤 변화를 가져올까요? 점진적인 개선인가, 아니면 거대한 도약인가?
Murati: 아직은 모르지만 조금씩 출시될 겁니다... 사실 뭐라고 부를지는 모르겠지만 차세대 대형 모델은 매우 강력하고 기대할만한 가치가 있을 것입니다. 우리가 GPT-3에서 GPT-4로 간 것처럼 엄청난 도약을 볼 수 있습니다. 정확히 어떤 모습일지는 아직 확실하지 않습니다.
스위셔: 차세대 모델에는 어떤 기능이 포함될 것이라고 생각하시나요? 당신은 이것을 알아야합니다.
Murati: 그럼 살펴보겠습니다.
스위셔: 그러면 확실히 알겠지만, 당신은요? 지금 당신은 무엇을 알고 있나요?
무라티: 나도 모르겠어요.
스위셔: 정말요? 괜찮은. OpenAI 내부적으로 인공일반지능(AGI)이 2027년까지 달성될 것으로 예측하는 로드맵에 대해 말씀해주셨는데, 그게 큰 일이 될 것 같아요. AGI의 중요성에 대해 설명해주세요. AGI는 언제 실현될 것으로 예상하시나요?
Murati: 사람들은 AGI를 다양한 방식으로 정의합니다. AGI에 대한 우리의 정의는 다양한 분야에 걸쳐 경제적으로 가치 있는 작업을 완료할 수 있는 시스템입니다.
현재 상황에서 지능의 정의는 끊임없이 변화하고 있습니다. 이전에는 학문적 벤치마크를 통해 시스템의 지능을 테스트했습니다. 일단 해당 벤치마크에 도달하면 학교 시험과 같은 시험으로 넘어갔고, 결국 시험 벤치마크가 포화되면 새로운 테스트를 고안해야 했습니다. . 이를 통해 인터뷰, 인턴십 및 기타 다양한 방법과 같은 업무 환경에서 적응성과 지능을 어떻게 평가하는지 생각해 볼 수 있습니다.
그래서 저는 이것(지능과 AIG)의 정의가 계속 진화할 것으로 기대합니다. 사회적 영향이든 경제적 영향이든 실제 영향을 평가하고 평가하고 예측하는 것이 아마도 더 중요하다고 생각합니다. 중요한 것은 그것이 사회에 어떻게 영향을 미치는지, 실제로 얼마나 빨리 침투하는지라고 생각합니다.
Swisher: 이 정의에 따르면 OpenAI는 언제 AGI를 구현할 것으로 예상합니까? 2027년 이 시간이 정확합니까?
Murati: 제가 말할 수 있는 것은 앞으로 10년 안에 우리는 극도로 발전된 지능형 시스템을 갖게 될 것이라는 것뿐입니다.
스위셔: 스마트 시스템? 그것이 전통적인 의미의 지능형 시스템인가요?
Murati: 사실 우리는 이미 전통적인 의미의 지능형 시스템을 보유하고 있다고 생각합니다.
AI 안전성 우려
"심층적인 참여는 잠재력과 리스크 이해하는 데 도움이 될 수 있습니다."
Swisher: OpenAI 내부에는 인류를 위해 좋은 일을 하는 사람들, 수조 달러를 추구하는 사람들, 또는 그 사이 어딘가에 있는 사람들이 있는데 당신도 그 범주에 속한다고 생각합니다.
지난해 6월에는 오픈AI와 구글 딥마인드 전·현직 직원 13명이 첨단 인공지능(AI)에 대해 경고할 수 있는 권리를 양사에 요구하는 공개서한을 냈다. Meta, Google 및 Microsoft의 직원 모두가 이 공개 서한에 서명했습니다.
이 경우 오픈AI 관계자는 “광범위한 비밀유지 협약으로 인해 회사가 이러한 문제를 해결하지 않는 이상 우려를 표명할 수 없다”고 말했다. 보복을 걱정하는 OpenAI 직원들이 있는데, 이에 대해 어떻게 대응하시나요?
이미 사과하고 시정했으니 형평성 문제는 다루지 않겠습니다만, 직원들이 우려의 목소리를 내야 하지 않겠습니까? 다른 의견을 표현할 수는 없나요?
Murati: 우리는 토론을 하고 이러한 우려 사항을 공개적으로 표현하고 보안 문제에 대해 논의하는 것이 매우 중요하다고 생각하며, OpenAI가 시작된 이래로 우리는 GPT-2에서도 허위 정보에 대한 우려를 매우 공개적으로 표명해 왔습니다. The Times는 이러한 문제를 일찍부터 연구하기 시작했습니다.
저는 지난 몇 년간 예측할 수 없는 놀라운 기술 발전이 있었고 사회의 반응에 대한 일반적인 불안을 불러일으켰다고 생각합니다. 우리가 계속 발전하면서 과학이 우리를 어디로 이끌고 있는지도 알 수 있습니다.
사람들은 당연히 미래에 대해 두려워하고 불안합니다. 특히 OpenAI에서 수행하는 작업과 이러한 모델을 배포하는 방식은 가장 강력한 모델에 의해 매우 안전한 방식으로 수행된다는 점을 지적하고 싶습니다. 나는 그것을 매우 자랑스럽게 생각합니다.
또한 기술이 발전하는 속도와 우리 자신이 발전하는 속도를 고려할 때 이러한 모든 것에 주의를 기울이고 훈련 및 절단 배치에 대한 우리의 생각에 대한 리스크 논의하는 것이 중요하다고 생각합니다. 엣지 모델.
스위셔: 무슨 말인지 명확히 할게요. 첫째, 왜 다른 회사보다 더 엄격한 비밀유지 시스템이 필요한가요? 둘째, 이 공개 서한은 이전에 보안을 담당했던 Super Alignment 팀을 이끌었던 Jan Leike와 Ilya Sutskever와 같이 귀하가 세간의 이목을 끄는 일련의 이탈에 이어 나온 것입니다 .
Ilya의 이탈이 놀랍지는 않다고 생각하지만 Leike는 지난 1년간 OpenAI의 안전 문화와 프로세스가 광택 제품으로 대체되었다고 X에 게시했습니다. 이것은 당신에 대한 가장 강력한 비판일 수도 있고, 회사 분할의 이유 중 하나일 수도 있습니다.
당신은 OpenAI가 보안을 매우 중요하게 여긴다고 강조했지만 그들은 그렇지 않다고 말합니다. 이러한 비판에 어떻게 대응하시나요?
Murati: 우선 정렬팀은 OpenAI에서 보안을 담당하는 유일한 팀은 아니지만 매우 중요한 보안팀 중 하나일 뿐입니다. OpenAI에는 보안 관련 업무를 하는 사람들이 많이 있습니다. 이에 대해서는 잠시 후에 설명하겠습니다.
Jan Leike는 제가 3년 동안 함께 일했고 큰 존경심을 갖고 있는 놀라운 연구 동료입니다. 그는 OpenAI를 떠난 후 Anthropic에 합류했습니다.
현장에서 우리가 기대하는 진전을 고려할 때, 우리를 포함한 업계의 모든 사람들은 안전, 보안, 대비, 규제 참여와 같은 업무에 대한 노력을 두 배로 늘려야 한다고 생각합니다. 하지만 “우리는 안전보다 제품을 우선시한다”, “안전을 최우선으로 생각한다”는 말에는 동의하지 않습니다.
스위셔: 그들이 왜 그런 말을 했다고 생각하시나요? 이들은 당신과 함께 일한 사람들입니다.
Murati: 그렇다면 그들에게서 직접 답을 얻어야 할 수도 있습니다.
많은 사람들은 안전을 능력과 별개의 것으로 보고 둘 중 하나 또는 둘 중 하나로 봅니다. 저는 매우 정교한 안전 사고와 시스템을 갖춘 항공우주 및 자동차 산업에 대해 잘 알고 있습니다. 이러한 업계에 종사하는 사람들은 회의 테이블에서 보안이 무엇인지에 대해 항상 논쟁을 벌이는 것은 아닙니다. 보안은 주어진 것이고 상당히 확립된 것이기 때문입니다. 따라서 업계 전체가 점점 더 경험이 풍부한 안전 분야로 전환해야 한다고 생각합니다.
우리는 보안 시스템을 보유하고 있으며 운영 보안뿐만 아니라 오늘날 제품 및 배포의 보안을 포함하여 유해한 편견, 허위 정보, 잘못된 정보, 분류기 등을 다루는 운영 보안에 대한 강력한 규율을 갖추고 있습니다.
장기적인 모델 정렬 문제도 고민하고 있으며, 이를 RLHF(Reinforcement Learning with Human Feedback)를 통해 수행하는 동시에 모델이 점점 더 강력해짐에 따라 발생하는 정렬 문제도 동시에 해결할 계획입니다.
Swisher: 하지만 OpenAI는 이러한 비난(제품 > 보안)으로 인해 어려움을 겪는 경우가 많습니다. 지금은 당신이 선두기업이기 때문인 것 같아요. 하지만 누군가 OpenAI를 떠나 이런 비난을 한다면 얘기는 달라진다.
심지어 Sam Altman 자신도 의회에서 "AI가 세계에 심각한 해를 끼칠 것"이라고 말하고 AGI로 인한 멸종 리스크 경고하는 서한에 서명했습니다. 정말 끔찍합니다. 그의 말은 "AI 비관론자", "AI 종말론자"의 말과 겹치는 것 같은데, 아직도 AI 제품을 출시하고 계시나요? 그래서 많은 사람들이 OpenAI는 돈만 원하고 피해는 걱정하지 않는다고 말할 것입니다.
Murati: 제가 보기엔 지나치게 냉소적인 발언인 것 같습니다 . 내 말은, OpenAI는 회사의 사명을 모두 수행하는 놀라운 팀을 보유하고 있으며 모두가 안전한 방법으로 시스템을 개발하고 배포하기 위해 매우 열심히 노력하고 있으며 우리는 AI 시스템을 배포한 세계 최초의 기업입니다. 또한 API 형태로 플랫폼 전반에 걸쳐 GPT-3, GPT-3.5, DALL-E3 및 GPT-4를 배포했습니다. 우리는 극단적인 상황을 피하기 위해 매우 조심합니다.
Swisher: 그러니까 우리는 자동차의 안전벨트와 같은 안전 표준 수준에 있지 않습니다. 내 말은, 자동차 제조사들은 과거에 자동차에 안전벨트를 매는 것이나 자동차를 더 안전하게 만들기 위한 다른 조치에 저항해 왔다는 뜻입니다. 아직 이 단계에 도달했습니까? 아니면 규제 당국이 귀하에게 조치를 취하도록 강요할 것입니까?
연방거래위원회(Federal Trade Commission)는 지난 7월 소비자에 대한 불특정 피해 가능성에 대해 OpenAI에 대한 조사를 시작했습니다. 지난 주 그들은 Microsoft와 OpenAI 간의 거래에 대한 독점 금지 조사를 발표했습니다. 당시 저는 마이크로소프트가 실제로 OpenAI를 인수했다고 믿었지만, 인수하지 않은 척 했습니다. 기술적으로 그들은 49%를 소유하고 있습니다. Microsoft와의 관계를 강제로 끊어야 한다면 이것이 귀하의 경쟁력에 어떤 영향을 미칠까요? 보안 문제든 다른 문제든, 정부가 개입하기 시작하면 어떻게 할 수 있나요?
Murati: 사람들이 OpenAI를 보는 것이 좋다고 생각합니다. 업계 전체를 봐야 합니다.
우리는 믿을 수 없을 정도로 강력한 도구를 구축하고 이를 훌륭하게 만들기 위해 열심히 노력하고 있지만 리스크 따릅니다. 따라서 사람들은 이 기술의 본질에 깊이 관여하고 이해해야 하지만, 이 기술이 다양한 분야에 미치는 영향도 이해해야 합니다.
기술 자체를 이해하는 것만으로는 충분하지 않습니다. 기술을 안전하고 효과적으로 배포하려면 적절한 소셜 및 엔지니어링 인프라도 구축해야 합니다.
그래서 면밀히 조사하고, 사람들을 참여시키고, 독립적인 검증자가 있는 등의 작업이 좋다고 생각합니다. 우리는 누구보다 먼저 이러한 문제에 대해 논의했습니다.
Microsoft와의 구체적인 협력에 있어서 그들은 좋은 파트너이며 우리는 가장 발전된 슈퍼컴퓨터를 구축하기 위해 긴밀히 협력하고 있습니다. 우리 모두 알고 있듯이 슈퍼컴퓨터는 AI 모델 구축의 핵심입니다. 따라서 이것은 우리에게 매우 중요한 파트너십입니다.
경영진 관계에 대하여
"팀을 너무 밀어붙인 샘을 반박하겠다"
Swisher: 나는 또한 당신과 회사에서의 당신의 역할, 그리고 Sam Altman과의 관계에 대해서도 이야기하고 싶습니다. 나는 Sam을 많이 좋아하고 그는 대부분의 기술자처럼 거칠고 공격적이라고 생각합니다. 그는 작년에 해고됐다가 복직됐다. 임시로 회사의 CEO가 된 기분은 어땠나요?
Murati: 확실히 좀 스트레스를 받았어요.
Swisher: 이사회의 일부 구성원은 귀하가 그의 행동에 문제가 있다고 말했고 귀하의 변호사는 귀하가 그에게 피드백을 제공했을 뿐이라고 대답했습니다. 그럼 그에 대해 어떻게 생각하는지 말씀해 주시겠어요?
Murati: 우리는 회사를 운영하는 사람들일 뿐입니다. 서로 의견이 일치하지 않으며 이를 해결해야 합니다 . 결국 우리 모두는 우리의 사명에 깊은 관심을 갖고 있습니다. 그것이 바로 우리가 여기에 있는 이유이며, 우리의 사명과 팀을 최우선으로 생각합니다.
Sam Altman은 큰 야망을 갖고 놀라운 회사를 세운 비전가였습니다. 우리는 강력한 업무 관계를 가지고 있습니다. 저에게 질문해주신 게시판에 제 생각을 모두 공유했으니 비밀은 없습니다.
스위셔: 그럼 당신의 관계에 대해 어떻게 생각하시나요 ? 왜냐하면 당신은 이제 회사의 주요 직원 중 한 명이고 회사는 관리 경험을 강화하기 위해 다른 사람을 고용했기 때문입니다.
Murati: 우리는 매우 강력한 파트너십을 맺고 있으며 우리에게 다가오는 모든 문제에 대해 직접 이야기할 수 있습니다. 지난 몇 년은 정말 힘든 시간이었습니다. 우리는 사명을 최우선으로 생각하고, 끊임없이 개선하며, 겸손하게 발전하기 위해 성장하는 고통을 겪었습니다.
Swisher: 회사가 성장함에 따라 파트너십도 변합니다. 저는 이 상황을 잘 알고 있습니다. Google에서, Microsoft 초기에, Amazon에서 일어났습니다. Google의 초창기는 혼란스러웠습니다. Facebook은 많은 COO를 거쳤고 Zuckerberg가 좋아하지 않는 경영진도 여러 번 교체되었습니다.
그렇다면 귀하의 파트너십에 대해 어떻게 생각하시나요? Sam Altman과 매일 어떻게 소통하시나요? 당신은 무슨 문제에 대해 그에게 반론을 제기하겠습니까? 그는 400개 회사에 투자했으며 그 중 일부는 OpenAI와 협력하고 있습니다. 그는 또한 현재 OpenAI에 대량 전력을 제공하는 Helion이라는 에너지 회사에 3억 7,500만 달러를 투자했습니다. 우리 모두 알고 있듯이 컴퓨팅에는 대량 전력이 필요합니다.
Murati: 언제 반박해야 할까요? 나는 그에게 계속 밀어붙이고 있는데, 우리가 일을 하는 방식에서는 이것이 정상이라고 생각합니다. Sam은 팀을 매우 열심히 밀어붙일 것입니다. 저는 그것이 훌륭하다고 생각합니다. 큰 비전을 갖고 우리의 한계를 시험해 보는 것은 좋은 일입니다. 한계를 넘어섰다고 느낄 때 나는 그 사람을 밀어낸다. 우리가 6년 동안 이어온 관계였어요. 나는 그것이 생산적이라고 생각했고 그와 논쟁을 벌일 수 있었습니다.
스위셔: 예를 들어주실 수 있나요? 스칼렛 요한슨처럼 그 사운드 프로젝트에도 참여하셨죠? (편집자 주: Scarlett Johansson은 ChatGPT-4o의 음성 시스템 Sky에서 자신의 음성을 무단으로 사용했다는 이유로 OpenAI를 고소했습니다.)
Murati: 우리는 훌륭한 업무 관계를 유지했지만 사운드 선택은 우리의 우선순위도 아니었고 우리가 함께 결정한 것도 아니었습니다. 실제로 의사결정에는 제가 관여했고, 스카이의 목소리로 정한 뒤 스칼렛 요한슨에게 연락을 했고, 샘도 나름의 인맥이 있었고 그 결정에 대해 아무런 소통도 없었던 것이 안타깝습니다. 그 사람 자체 네트워크가 있어서 이번에는 완전히 조율하지 못했어요.
Swisher: 이것이 OpenAI의 큰 실수라고 생각하시나요? 왜냐하면 모두가 당신이 스칼렛의 목소리를 '훔친' 것 같다고 말하고 있기 때문이죠. 비록 그렇지는 않지만 실제로는 비슷한 다른 목소리를 사용하셨습니다. 그러나 이는 기술 기업이 자원을 빼앗는 것에 대한 두려움을 반영하기도 합니다.
Murati: 기술 회사가 창작자로부터 모든 것을 빼앗아 간다는 비난을 받는 것에 대해 걱정하시나요?
스위셔: 사실 그게 맞는 것 같아요.
Murati: 저는 그런 인식이 걱정됩니다. 하지만 우리가 할 수 있는 일은 사람들이 우리의 노력을 보고 신뢰를 쌓을 수 있도록 모든 프로젝트를 잘 수행하는 것입니다. 실제로 일을 잘하는 것 외에 신뢰를 쌓을 수 있는 마법 같은 방법은 없다고 생각합니다.
스위셔: 스칼렛 요한슨과 얘기해 보셨나요?
무라티: 아니요. 긴급 상황이었고 일에만 집중했지만 알바니아와 발칸 반도에서 자라면서 미국 대중 문화를 많이 접하지 못했습니다.
AI가 허위 정보를 생성하는 것을 방지하는 방법
"메타데이터와 분류자는 두 가지 기술적 방법입니다."
스위셔: 선거와 허위정보에 대한 이야기로 마무리하겠습니다.
새로운 연구에 따르면 온라인 허위 정보는 우리가 생각했던 것보다 문제가 적으며 허위 정보 자체는 거의 영향을 미치지 않는 것으로 나타났습니다. 한 연구에 따르면 OpenAI는 수요 측면의 문제를 다루고 있으며 사람들이 음모론을 듣고 싶어하면 라디오, 소셜 미디어 등에서 답변을 찾는 반면 다른 사람들은 허위 정보가 매우 큰 문제라고 주장했습니다.
이전에 토론을 들어보셨겠지만, 많은 사람들이 많은 음모론을 갖고 있으며, 그 중 상당수는 소셜 미디어에 의해 주도됩니다. 그렇다면 허위 정보에 대한 AI의 힘과 다가오는 대통령 선거에 미치는 영향에 대해 생각할 때 우려되는 점은 무엇입니까? 귀하의 관점에서 볼 때 최악의 시나리오와 가장 부정적인 결과는 무엇입니까?
Murati: 기존 시스템은 매우 설득력이 있으며 생각하고 믿는 방식에 영향을 미칠 수 있습니다. 이것은 우리가 한동안 연구해 왔던 문제이고, 나는 이것이 진짜 문제라고 생각합니다. 특히 지난 한 해 동안 우리는 AI가 선거에 어떤 영향을 미치는지에 대해 많은 관심을 기울여 왔습니다. 우리는 여러 가지 일을 하고 있습니다.
첫째, 정치적 정보의 정확성을 확인하고, 플랫폼에서 일어나는 일을 파악하고, 신속한 조치를 취하는 등 정보의 오용을 최대한 방지하기 위해 노력합니다 . 두 번째는 정치적 편견을 줄이는 것입니다 . ChatGPT가 너무 진보적이라는 비판을 받을 수도 있습니다. 이는 의도적인 것이 아니며 앞으로도 그럴 것입니다. 세 번째는 유권자가 투표 정보를 찾을 때 올바른 정보를 알려주고자 한다는 것입니다.
허위 정보와 관련하여 딥페이크는 용납될 수 없습니다. 우리는 사람들이 보고 있는 것이 딥페이크임을 알릴 수 있는 매우 신뢰할 수 있는 방법이 필요합니다. 콘텐츠가 다양한 플랫폼에 확산됨에 따라 여권과 유사한 이미지에 대한 C2PA를 구현하는 등의 작업을 수행했으며, 이미지가 DALL·E에 의해 생성되었는지 여부를 감지할 수 있는 DALL·E용 분류기를 열었습니다.
따라서 메타데이터와 분류자는 이 문제를 처리하는 두 가지 기술적 방법이며, 이는 특히 이미지의 경우 정보 소스의 증거입니다. 또한 텍스트에 워터마킹 기술을 구현하는 방법도 연구하고 있습니다. 하지만 요점은 사람들이 딥페이크가 무엇인지 알아야 하며 우리는 사람들이 편안하게 볼 수 있는 정보를 원한다는 것입니다.
Swisher: 연방통신위원회(FCC)는 뉴햄프셔 예비선거 기간 동안 바이든의 녹음처럼 들리는 딥페이크 오디오를 제작한 회사에 600만 달러의 벌금을 부과했습니다. 더 복잡한 버전이 있을 수 있습니다.
OpenAI는 15초 녹음으로 누군가의 목소리를 재현할 수 있는 Voice Enunciation이라는 도구를 개발하고 있습니다. 이는 사람이 다른 언어로 말하는 것을 녹음할 수 있습니다 . 제품 관리자가 New York Times에 이것이 민감한 문제라고 말했기 때문입니다. 이걸 왜 개발하는 걸까요? 저는 항상 기술자들에게 Black Mirror에서 나온 것처럼 보이는 것을 개발하고 있다면 개발해서는 안 된다고 말합니다.
Murati: 저는 그것이 절망적인 태도라고 생각합니다. 이 기술은 놀랍고 엄청난 잠재력을 갖고 있으며 우리는 잘 할 수 있지만 여전히 희망을 가져야 합니다.
2022년에 Voice Enunciation(음성 엔진)을 개발했지만 출시하지는 않았습니다. 지금도 이러한 (보안) 문제를 해결하기 위해 노력하고 있기 때문에 매우 제한적인 방식으로 진행됩니다. 하지만 이러한 문제는 혼자서 해결할 수 없으며, 실제로 다양한 분야의 전문가, 시민사회, 정부, 창작자와 협력해야 합니다. 이는 원스톱 보안 문제가 아니며 매우 복잡하므로 우리 측에서 대량 작업이 필요합니다.
스위셔: 당신은 이 기술에 대해 매우 낙관적이기 때문에 그렇게 대답했습니다. 다음 비유는 다소 과장된 것일 수 있습니다. 만약 당신이 비관주의자라면, 제가 Sam Altman을 막지 않으면 그가 인류를 파괴할 것이라고 말하는 회사도 있고, 다른 사람들은 무슨 일이 있어도 이것이 최선이라고 생각합니다. 우리 모두는 화성에서 맛있는 스니커즈 바를 즐길 것입니다.
현재 공화당과 민주당의 입장은 매우 다른 버전일 것 같습니다. 그렇다면 가장 걱정되는 점과 가장 말하고 싶은 점은 무엇인지 말씀해 주실 수 있나요?
Murati: 저는 이것이 미리 결정된 결과라고 생각하지 않습니다. 이 기술을 구축하고 배포하는 방법을 결정하는 기관이 많다고 생각합니다. 이를 잘 수행하려면 공동 책임을 창출하는 방법을 찾아야 합니다.
이 중 많은 부분은 기술에 대한 이해에 달려 있습니다. 문제는 많은 사람들이 기술의 기능과 리스크 이해하지 못하는 리스크 있습니다. 맥락에서 볼 때, 우리 민주주의가 이러한 기술과 어떻게 상호 작용하는지가 매우 중요하다고 생각합니다.
저는 오늘 이 문제에 대해 여러 번 이야기했는데, '설득' 자체가 매우 리스크 하다고 생각합니다. 특히 사람들이 특정한 일을 하도록 강력하게 설득하거나 특정한 일을 하도록 사람들을 통제하고, 사회가 특정 방향으로 발전하도록 통제하는 것은 매우 위험한 일이라고 생각합니다. 매우 무섭습니다.
Hope에 대해 제가 매우 기대하는 것 중 하나는 어디에서나, 특히 자원이 없는 일부 외딴 마을에서 고품질의 무료 교육을 제공할 수 있다는 것입니다.
교육은 정말로 내 삶을 변화시켰습니다. 오늘날 우리는 사용할 수 있는 도구가 너무 많고 전기와 인터넷이 있는 곳이라면 어디에서나 사용할 수 있습니다. 불행하게도 대부분의 사람들은 여전히 한 명의 교사와 50명의 학생이 있는 교실에서 모두가 같은 것을 배우고 있습니다. 교육이 귀하의 사고 방식, 문화 및 특정 관심사에 맞게 맞춤화될 수 있다고 상상해 보십시오. 그러면 지식과 창의성의 수준이 크게 확장될 것입니다.
우리는 이것을 배우는 방법에 대해 생각하기 시작합니다. 대개 인생의 후반부, 아마도 대학 졸업 후 또는 그 이후일 것입니다. 하지만 우리가 정말 인공지능을 숙달하고 아주 어린 나이에 배우는 방법을 배울 수 있다면 이는 매우 강력할 것이며 인간 지식의 진보를 촉진하여 전체 문명의 진보를 촉진할 수 있을 것이라고 생각합니다.
우리는 기술이 전 세계적으로 구축되고 배포되는 방식에 대해 큰 소유권을 갖고 있지만, 기술이 올바르게 개발되도록 하려면 공유된 책임감을 조성해야 합니다. 핵심은 기술을 완전히 이해하고 접근성을 보장하는 것입니다. 기술의 편견은 기술의 본질에 대한 오해에서 비롯되는 경우가 많으며, 이로 인해 잠재적인 위험과 잠재적인 리스크 모두 간과하게 될 수 있습니다. 제 생각에는 이것이 가장 큰 숨겨진 위험이라고 생각합니다.





