인공지능 커뮤니티에서 샘 알트먼이 하는 모든 발언은 미래의 "날씨 예보"에 대한 업데이트로 여겨진다.
어젯밤, 알트만은 X에 차세대 도구 개발에 앞서 대중의 피드백과 의견을 수렴하기 위해 온라인 워크숍을 개최할 예정이라고 게시했습니다.
오늘 아침 베이징 시간 8시, 오픈AI CEO 샘 알트만이 주최한 세미나가 예정대로 시작되었습니다. 다양한 산업 분야의 기업가, CTO, 과학자, 개발자 커뮤니티 대표들이 알트만에게 인공지능의 미래, 모델 진화, 지능형 에이전트, 과학 연구 자동화, 보안 문제 등에 대한 가장 날카롭고 실질적인 질문들을 던졌습니다.
이번 세미나에서 OpenAI의 수장은 GPT-5와 그 후속 버전들의 진화 계획을 설명했을 뿐만 아니라, 모든 개발자와 기업가들이 대면 해야 할 현실을 밝혔습니다. 바로 지적 비용이 극히 낮아지고 소프트웨어 형태가 "정적"에서 "실시간 생성"으로 전환되는 급격한 변화의 시기에 접어들고 있다는 것입니다 .
회의의 첫 번째 초점은 GPT-5 성능의 "비대칭성"이었습니다. 일부 개발자들은 새 버전이 GPT-4.5에 비해 논리적 추론과 프로그래밍 능력은 매우 뛰어나지만, 글쓰기 표현 능력은 다소 떨어지는 것 같다고 예리하게 지적했습니다. 알트만은 이 문제에 대해 매우 솔직한 태도를 보였습니다.
그는 OpenAI가 GPT-5.2 개발 과정에서 쓰기 능력의 우선순위를 잘못 정했다고 인정하면서, 그 이유로 팀이 추론, 코딩, 엔지니어링과 같은 지적 능력에 제한된 해시레이트 자원을 할당했기 때문이라고 설명했다.
알트만의 관점에서 지능은 "가변적인 자원"이며, 일단 모델이 최고 수준의 추론 엔진을 갖추게 되면 글쓰기 능력은 시간 문제일 뿐입니다. 이러한 "전문화"는 실제로 오픈AI의 전략적 초점을 반영합니다. 즉, 스케일링 법칙을 통해 인간 지능의 최고 수준을 먼저 정복한 다음, 미학과 표현의 세부 사항을 채워나가는 것입니다. 이는 미래의 모델 경쟁이 더 이상 단일 차원의 경쟁이 아니라, 누가 모든 차원에서 "지적 평등"을 더 빨리 달성할 수 있느냐의 싸움이 될 것임을 의미합니다.
지능 수준이 인공지능의 한계를 결정한다면, 비용과 속도는 인공지능의 보급률을 결정합니다. 알트만은 컨퍼런스에서 매우 인상적인 약속을 했습니다. 2027년 말까지 GPT-5.2 수준의 지능을 구현하는 데 드는 비용이 최소 100배는 줄어들 것이라는 것입니다 .
하지만 "측정할 수 있을 만큼 저렴한" 미래가 끝은 아닙니다.
알트만은 시장에서 미묘한 변화가 일어나고 있다고 지적합니다. 개발자들이 비용에 대한 집중보다 속도에 대한 갈망이 더 커지고 있다는 것입니다. 에이전트가 수십 단계에 걸친 장거리 작업을 처리하기 시작하면서, 출력 속도를 100배 이상 높이지 못하면 복잡한 자율 의사 결정은 비현실적이 됩니다. 이러한 상충 관계를 고려할 때, OpenAI는 두 가지 경로를 제시할 수 있습니다. 하나는 매우 저렴한 "지능형 수돗물"이고, 다른 하나는 매우 빠른 피드백을 제공하는 "지능형 증폭기"입니다. 이러한 속도에 대한 강조는 단순한 질의응답에서 고주파 실시간 자율 주행으로의 완전한 도약을 예고합니다.
지적 재산권 비용이 급격히 하락하고 개발 속도가 빨라지는 이러한 배경 속에서 전통적인 소프트웨어 개념은 무너지고 있습니다. 알트만은 혁신적인 비전을 제시했습니다. 미래의 소프트웨어는 정적인 것이 되어서는 안 된다는 것입니다.
과거에는 일반적인 워드나 엑셀 파일을 다운로드하는 것이 일반적이었지만, 미래에는 특정 문제에 직면했을 때 컴퓨터가 직접 코드를 작성하여 문제를 해결하는 "주문형 애플리케이션"을 생성할 것입니다. 이러한 "주문형, 일회용" 모델은 운영 체제를 완전히 재편할 것입니다. 습관적으로 익숙한 몇몇 버튼은 유지될 수 있겠지만, 그 기반이 되는 논리적 구조는 고도로 개인화될 것입니다. 각 사용자의 손에 쥐어진 도구는 작업 흐름이 축적됨에 따라 진화하여 궁극적으로 고유하고 역동적으로 발전하는 생산성 시스템을 형성하게 될 것입니다. 이는 단순한 소프트웨어 맞춤화를 넘어 생산 관계의 재구조화를 의미합니다.
InfoQ는 독자 여러분을 위해 이 세미나의 핵심 내용을 번역하고 정리했습니다.
질문: 인공지능이 미래 사회와 경제에 미칠 영향에 대한 당신의 견해는 무엇입니까?
샘 알트만: 솔직히 말해서, 이 정도 규모의 경제적 변혁을 1년 안에 완전히 이해하기는 매우 어렵습니다. 하지만 저는 이 변혁이 모든 사람에게 큰 힘을 실어줄 것이라고 생각합니다. 막대한 자원이 공급되고, 진입 장벽이 낮아지며, 새로운 것을 만들고, 새로운 회사를 설립하고, 새로운 과학을 탐구하는 데 드는 비용이 극히 낮아질 것입니다.
중대한 정책적 실수를 피할 수 있다면, 인공지능은 사회에서 "균형을 잡아주는 힘"으로 작용하여 오랫동안 불공평한 대우를 받아온 사람들에게 진정한 기회를 제공할 수 있을 것입니다. 하지만 인공지능이 권력과 부의 고도 집중을 초래할 수도 있다는 점이 우려스럽습니다. 이는 정책 결정의 핵심 과제가 되어야 하며, 우리는 이러한 상황을 단호히 피해야 합니다.
질문: GPT-4.5가 한때 글쓰기 능력의 정점에 있었던 것으로 보이는데, 최근 ChatGPT에서 GPT-5의 글쓰기 성능이 다소 어색하고 읽기 어렵게 느껴집니다. GPT-5는 에이전트(지능형 에이전트) 관리, 도구 호출, 추론 능력은 확실히 뛰어나지만, 특정 분야에 특화된 것처럼 보입니다(예: 프로그래밍 능력은 매우 뛰어나지만 글쓰기 능력은 평균 수준). 이러한 능력 불균형에 대한 OpenAI의 입장은 무엇인가요?
샘 알트만: 솔직히 말해서, 저희는 글쓰기 부분에서 정말 실수를 저질렀습니다. 앞으로 나올 GPT-5.x 버전에서는 글쓰기 능력이 4.5 버전을 훨씬 뛰어넘기를 바랍니다.
당시 우리는 자원과 역량이 제한적이었기 때문에 GPT-5.2의 "지능, 추론, 프로그래밍 및 엔지니어링 능력"에 대부분의 노력을 집중하기로 결정했습니다. 한 가지 측면에만 집중하면 다른 측면을 소홀히 할 수 있기 때문입니다. 하지만 저는 미래는 "범용적이고 고품질의 모델"의 시대라고 확신합니다. 단순히 코드를 작성하는 것만 필요하더라도, 명확하고 날카롭게 소통할 수 있는 뛰어난 의사소통 및 표현 능력을 갖춰야 합니다. 우리는 "지능"이 근본적으로 상호 연결되어 있다고 믿으며, 하나의 모델 안에서 이러한 모든 차원을 극대화할 수 있다고 생각합니다. 현재는 "프로그래밍 지능"에 집중하고 있지만, 곧 다른 분야에서도 따라잡을 것입니다.
지능은 너무 저렴해져서 측정이 불가능해질 것이다.
질문: 수천만 개의 에이전트를 운영하는 개발자들에게 가장 큰 병목 현상은 비용입니다. 더 작은 모델과 향후 비용 절감에 대해 어떻게 생각하시나요?
샘 알트만: 우리의 목표는 2027년 말까지 GPT-5.2 수준의 지적 비용을 최소 100배 줄이는 것입니다.
하지만 새로운 추세가 나타나고 있습니다. 모델 출력이 점점 더 복잡해짐에 따라 사용자의 "속도"에 대한 요구가 "비용"에 대한 요구를 넘어섰습니다. OpenAI는 비용 곡선을 낮추는 데 탁월하지만, 과거에는 "초고속 출력"에 충분히 집중하지 못했습니다. 어떤 시나리오에서는 사용자가 100배의 속도 향상을 위해 프리미엄을 지불할 의향이 있을 수도 있습니다. 우리는 "극도로 저렴한 가격"과 "극도로 빠른 속도" 사이의 균형을 찾아야 합니다. 시장이 더 낮은 비용을 원한다면, 우리는 비용 곡선을 따라 너무 멀리 나아가게 될 것입니다.
질문: 현재 사용자 인터페이스는 에이전트를 고려하여 설계되지 않았습니다. 에이전트의 확산이 "마이크로 앱"의 등장을 가속화할까요?
샘 알트만: 저는 더 이상 소프트웨어를 "정적인" 것으로 보지 않습니다. 이제 작은 문제가 생기면 컴퓨터가 즉시 코드를 작성해서 해결해 줄 거라고 기대합니다. 컴퓨터와 운영체제를 사용하는 방식이 근본적으로 바뀔 거라고 생각합니다.
매일 같은 워드프로세서를 사용할 수도 있지만(익숙한 위치에 버튼이 있어야 하기 때문에), 소프트웨어는 사용자의 습관에 맞춰 매우 맞춤화될 것입니다. 사용자가 사용하는 도구는 끊임없이 진화하고 개인의 필요에 맞춰 수렴될 것입니다. OpenAI 내부에서도 사람들은 이미 프로그래밍 모델(Codex)을 사용하여 워크플로를 맞춤 설정하는 데 익숙해져 있으며, 각자 사용하는 도구는 완전히 다릅니다 . "나 때문에, 나를 위해" 소프트웨어가 탄생하는 것은 거의 필연적인 추세입니다.
창업가를 위한 조언: 기존 모델을 단순히 덧붙이기만 하지 마세요.
질문: 모델 업데이트가 스타트업의 기능을 지속적으로 소모하는 상황에서, 기업가들은 어떻게 경쟁 우위를 확보할 수 있을까요? OpenAI는 어떤 부분을 건드리지 않겠다고 약속했나요?
샘 알트만: 많은 사람들이 비즈니스의 물리 법칙이 변했다고 생각하지만, 사실은 그렇지 않습니다. 달라진 점은 "업무 속도가 빨라지고" "소프트웨어 개발 속도가 빨라졌다"는 것뿐입니다. 성공적인 스타트업을 구축하는 규칙은 변하지 않았습니다. 여전히 고객 확보 문제를 해결하고, 시장 진출 전략(GTM)을 수립하고, 고객 충성도를 높이고, 네트워크 효과 또는 경쟁 우위를 구축해야 합니다.
창업가 여러분께 드리는 제 조언은 이렇습니다. 여러분의 회사가 GPT-6의 놀라운 업데이트 대면 때, 기쁘십니까, 아니면 슬프십니까? "모델이 강할수록 제품도 강해진다"는 원칙에 따라 제품을 개발해야 합니다. 모델의 부분적인 보완만 하려 한다면 어려움을 겪게 될 것입니다.
질문: 현재 에이전트는 긴 프로세스 작업을 수행할 때 5~10단계 후에 종종 오류가 발생합니다. 진정한 장기 자율 작동은 언제쯤 달성할 수 있을까요?
샘 알트만: 작업의 복잡성에 따라 다릅니다. OpenAI 내에서 SDK를 통해 실행되는 특정 작업은 거의 무기한으로 실행될 수 있습니다.
이제는 "언제 구현할 것인가"의 문제가 아니라 "적용 범위"의 문제입니다. 특정 작업을 완벽하게 이해하고 있다면 지금 당장 자동화를 시도해 볼 수 있습니다. 하지만 모델에게 "나 대신 스타트업을 시작해 줘"라고 지시하는 것은 긴 피드백 루프와 검증의 어려움 때문에 현재로서는 매우 어렵습니다. 개발자는 먼저 작업을 세분화하여 에이전트가 각 중간 단계를 자체적으로 검증하도록 한 다음, 점진적으로 책임 범위를 확장하는 것이 좋습니다 .
인공지능이 인간의 좋은 아이디어 창출을 도울 수 있을까요?
질문: 많은 사람들이 AI가 생성한 콘텐츠가 "엉성하다"고 불평합니다. AI를 활용하여 인간 창의성의 질을 향상시킬 수 있는 방법은 무엇일까요?
샘 알트만: 사람들은 AI의 결과물을 쓰레기라고 부르지만, 인간 역시 마찬가지로 많은 허튼소리를 만들어냅니다. 진정으로 새로운 아이디어를 창출하는 것은 극히 어렵습니다. 저는 인간 사고의 한계가 우리가 사용하는 도구의 한계에 달려 있다는 확신이 점점 더 강해지고 있습니다.
저는 사람들이 좋은 아이디어를 떠올리는 데 도움이 되는 도구를 개발하고 싶습니다. 아이디어 창출 비용이 획기적으로 낮아지면, 집중적인 피드백 과정을 통해 빠르게 시도하고 실패를 거듭할 수 있으므로, 좋은 아이디어를 더 빨리 찾아낼 수 있을 것입니다.
당신의 과거, 코드, 그리고 작업물을 모두 알고 끊임없이 아이디어를 공유해주는 "폴 그레이엄 로봇"(Y Combinator의 창립자)이 있다고 상상해 보세요. 그 로봇이 제시하는 100가지 아이디어 중 95가지가 틀렸다고 하더라도, 그중 단 5가지만으로도 당신에게 영감을 주어 훌륭한 아이디어를 떠올리게 한다면, 세상에 미치는 영향은 엄청날 것입니다. 저희 GPT-5.2는 이미 사내 과학자들에게 놀라운 과학적 성과를 보여주었습니다. 과학적 통찰력을 도출할 수 있는 모델이라면 탁월한 제품 아이디어를 제시하지 못할 이유가 없습니다.
질문: 저는 이 모델이 우리를 구식 기술에 갇히게 할까 봐 걱정됩니다. 현재 모델은 2년 전 기술조차 학습하는 데 어려움을 겪고 있습니다. 앞으로 이 모델이 최신 기술을 학습하도록 유도할 수 있을까요?
샘 알트만: 전적으로 동감합니다. 기본적으로 모델은 "범용 추론 엔진"입니다. 현재 모델에는 방대한 양의 세계 지식이 내장되어 있지만, 향후 몇 년 안에 달성해야 할 중요한 목표는 모델에 완전히 새로운 환경, 도구 또는 기술을 제공했을 때 단 한 번의 설명(또는 한 번의 자율 탐색)만으로도 놀라울 정도로 안정적으로 사용할 수 있도록 학습하는 것입니다. 이는 머지않아 실현될 것입니다.
질문: 과학자로서 저는 연구에 대한 영감이 기하급수적으로 증가하지만, 인간의 에너지에는 한계가 있다는 것을 알게 되었습니다. 모델이 연구 과정 전체를 대신할 수 있을까요?
샘 알트만: 완전한 폐쇄 루프 방식의 자율적인 과학 연구를 달성하기까지는 아직 갈 길이 멉니다. 수학 연구는 실험실이 필요하지 않을 수도 있지만, 최고의 수학자들은 여전히 모델의 직관적 편향을 바로잡기 위해 깊이 관여해야 합니다.
이는 체스의 역사와 유사합니다. 딥 블루가 카스파로프를 꺾은 후, "인간-기계 협업(센타우르)"이 순수 AI보다 강세를 보였던 시기가 있었지만, 순수 AI는 곧 게임에서 다시 주도권을 잡았습니다.
오늘날 과학자들에게 AI는 마치 "무제한 박사후 연구원 풀"과 같습니다. AI는 광범위한 탐색을 통해 동시에 20개의 새로운 질문을 탐구하도록 도울 수 있습니다. 물리 실험과 관련하여, OpenAI가 자체 자동화 연구실을 구축해야 할지 아니면 전 세계 연구 커뮤니티가 실험 데이터를 제공하도록 해야 할지 논의 중입니다. 현재 연구 커뮤니티가 GPT-5.2를 적극적으로 활용하고 있는 추세를 보면 후자가 더 나은 선택으로 보입니다. 이는 더욱 분산되고 지능적이며 효율적인 연구 생태계를 구축하는 데 기여할 것입니다.
질문: 저는 보안, 특히 더욱 강력한 보안 조치에 대해 우려하고 있습니다. 2026년에는 AI가 생물안전성을 비롯한 여러 잠재적 문제를 야기할 수 있으며, 이는 우리에게 큰 불안감을 주고 있습니다. 이러한 모델들은 이미 생물학 분야에서 상당한 영향력을 발휘하고 있으며, 현재 오픈AI와 전 세계적인 전략은 주로 이러한 모델에 대한 접근을 제한하고 다양한 분류기를 사용하여 새로운 병원균 생성을 막는 데 초점을 맞추고 있습니다. 하지만 저는 이러한 접근 방식이 오래 지속될 수 있다고 생각하지 않습니다. 어떻게 생각하시나요?
샘 알트만: 저는 세계가 인공지능 보안, 특히 인공지능 생물보안에 있어 근본적인 변화 , 즉 '차단'에서 '복원력'으로의 전환이 필요하다고 생각합니다.
제 공동 창업자 중 한 분이 제가 정말 좋아하는 비유를 하나 들려주셨습니다. 바로 화재 안전에 관한 이야기입니다. 불은 처음에는 인류 사회에 엄청난 이점을 가져다주었지만, 나중에는 도시 전체를 불태워버리기 시작했습니다. 인류의 초기 반응은 불을 최대한 줄이는 것이었습니다. 저는 최근에야 "통행금지"라는 단어가 원래 "밤에 불을 피우는 것을 금지하는 것"과 관련이 있다는 것을 알게 되었습니다. 밤에 불을 피우면 도시가 불타버리기 때문이라는 것이죠.
이후 우리는 접근 방식을 바꿔 단순히 화재를 금지하는 것을 넘어 화재에 대한 회복력을 강화하는 데 집중했습니다. 화재 안전 규정을 개발하고, 난연 소재를 발명했으며, 포괄적인 시스템을 구축했습니다. 그 결과, 우리 사회는 화재에 상당히 잘 대처하고 있습니다.
저는 인공지능도 같은 길을 걸어야 한다고 생각합니다. 인공지능은 생물 테러에 심각한 위협이 될 것이고, 사이버 보안에도 심각한 문제가 될 것입니다. 하지만 동시에 인공지능은 이러한 문제들을 해결하는 중요한 수단이기도 합니다.
따라서 저는 사회 전체의 노력 이 필요하다고 생각합니다. 몇몇 "믿을 만한 연구소"에 의존하여 리스크 항상 정확하게 통제하는 것이 아니라, 탄력적인 인프라를 구축해야 합니다. 세상에는 필연적으로 대량 훌륭한 모델들이 등장할 것이기 때문입니다. 우리는 많은 생물학 연구자 및 기업들과 "신종 병원체" 대응 방안에 대해 논의해 왔습니다. 실제로 많은 사람들이 참여하고 있으며, 인공지능이 이 분야에 도움이 된다는 상당한 의견도 있었습니다. 하지만 이는 순전히 기술적인 문제도 아니고, 기술만으로 완전히 해결될 문제도 아닙니다. 전 세계가 과거와는 다른 방식으로 이 문제를 고민해야 합니다. 솔직히 저는 현재 상황이 매우 우려스럽 습니다. 하지만 "탄력성 중심" 접근 방식 외에는 현실적인 선택지가 없다고 생각합니다. 그리고 긍정적인 측면에서 볼 때, 인공지능은 이러한 탄력성을 더 빠르게 구축하는 데 도움을 줄 수 있습니다.
하지만 만약 올해 인공지능이 "중대하고 심각한" 오류를 겪는다면, 생물안전은 "리스크 발생 지점"으로 고려하기에 매우 타당한 분야라고 생각합니다. 그리고 1~2년 후에는 그 외에도 심각한 문제를 야기할 수 있는 많은 요인들을 상상해 볼 수 있을 것입니다.
인공지능 학습 효율이 향상됨에 따라 인간의 협업은 여전히 중요할까요?
질문: 제 질문은 "인간 협업"에 관한 것입니다. AI 모델이 점점 더 강력해짐에 따라, 새로운 주제를 빠르게 습득하는 등 개인 학습에서 매우 효율적입니다. ChatGPT와 교육 관련 실험에서 이를 확인했고, 이에 전적으로 동의합니다. 하지만 저는 종종 이런 질문을 생각합니다. 언제든 답을 얻을 수 있다면, 왜 시간을 들여 다른 사람에게 질문하고 불편함을 감수해야 할까요? 또한 AI 프로그래밍 도구가 이전에는 인간의 팀워크가 필요했던 작업을 매우 빠른 속도로 완료할 수 있다고 말씀하셨습니다. 따라서 "협업, 협력, 집단 지성"에 대해 이야기할 때, 인간과 AI의 조합은 매우 강력합니다. 인간 간의 협업은 어떻게 변화할까요?
샘 알트만: 이 문제에는 여러 측면이 있습니다. 저는 여기 계신 여러분 대부분보다 나이가 좀 더 많습니다. 하지만 구글이 처음 등장했을 때 저는 고등학생이었죠. 당시 선생님들은 학생들에게 "구글을 사용하지 않겠다"고 약속하게 하려고 애썼습니다. 왜냐하면 모두가 이렇게 생각했기 때문입니다. "모든 것을 그렇게 쉽게 찾을 수 있다면 역사 수업이 왜 필요할까? 왜 뭔가를 암기해야 할까?"
제 생각에 이 아이디어는 완전히 터무니없었어요. 당시 제 생각은 이랬습니다. "이렇게 하면 더 똑똑해지고 , 더 많이 배우고, 더 많은 일을 할 수 있게 될 거야. 어른이 되어서도 오랫동안 쓸 수 있는 도구들을 얻게 될 테니까. 단지 존재한다는 이유만으로 시대에 뒤떨어진 기술을 배우게 하는 건 말도 안 돼."
이건 마치 계산기가 있다는 걸 알면서도 주판을 배우라고 강요하는 것과 같아요. 당시에는 중요한 기술이었을지 몰라도 지금은 쓸모없는 기술이죠. 인공지능 도구에 대한 제 생각도 마찬가지입니다. 인공지능 도구가 현 교육 시스템에 문제가 된다는 건 인정합니다. 하지만 바로 이런 점이 우리가 교육 방식을 바꿔야 한다는 걸 보여주는 거죠. 인공지능이 존재하지 않는 척해서는 안 됩니다.
"ChatGPT가 대신 글을 써주는" 아이디어는 미래의 한 부분입니다. 물론 글쓰기는 사고의 일부이기 때문에 글쓰기 훈련은 여전히 중요합니다. 하지만 사람들에게 사고하는 방법을 가르치는 방식과 사고 능력을 평가하는 방식은 반드시 바뀌어야 하며 , 이러한 변화가 존재하지 않는 척해서는 안 됩니다. 저는 이러한 변화에 대해 비관적이지 않습니다.
자기주도 학습 능력이 뛰어난 상위 10%의 학습자들은 이미 놀라운 성과를 보여주고 있습니다. 우리는 커리큘럼을 재구성하고 다른 학생들도 함께 성장시킬 수 있는 새로운 방법을 찾을 것입니다. 또 다른 질문, 즉 "컴퓨터 앞에서 혼자 실력을 키우는 과정"이 아니라 협력적인 과정 으로 만드는 방법에 대해서는, 인공지능이 인간 상호작용을 감소시킨다는 증거는 아직 발견되지 않았으며, 우리는 이 부분을 지속적으로 관찰하고 측정하고 있습니다.
제 직감은 정반대입니다. AI로 가득 찬 세상에서 인간관계는 덜 중요해지는 것이 아니라 오히려 더 중요해질 것입니다 . 이미 많은 사람들이 협업을 더 쉽게 만들어주는 새로운 인터페이스를 개발하고 있습니다. 저희도 처음부터 하드웨어와 기기 개발을 고려했을 때, "다자간 협업 + AI" 경험은 어떤 모습이어야 하는지 고민했습니다.
아직 누구도 이 개념을 완벽하게 구현하지는 못했지만, 저는 인공지능(AI)이 전례 없는 방식으로 이러한 협업을 가능하게 할 것이라고 믿습니다. 다섯 명이 테이블에 둘러앉아 있고, 그 옆에 AI나 로봇이 있다고 상상해 보세요. 팀의 생산성은 극적으로 향상될 것입니다. 미래에는 AI가 모든 브레인스토밍과 문제 해결 과정에 필수적인 요소가 되어 그룹 전체의 성과 향상을 도울 것입니다.
에이전트가 대규모로 운영 시스템에 도입됨에 따라 가장 과소평가되는 리스크 무엇일까요?
질문: 에이전트가 대규모로 작동하고 운영 시스템을 직접 조작하기 시작하면서 가장 과소평가되는 실패 유형은 무엇이라고 생각하십니까? 보안, 비용, 아니면 신뢰성일까요? 그리고 현재 제대로 다뤄지지 않고 있는 "어렵지만 중요한 작업"은 무엇일까요?
샘 알트만: 말씀하신 문제점들은 거의 모두 사실입니다. 하지만 한 가지는 저뿐만 아니라 많은 사람들을 놀라게 했습니다. 제가 처음 코덱스를 사용했을 때, 한 가지는 절대적으로 확신했습니다. "절대 코덱스에 완전한 컴퓨터 접근 권한을, 그것도 감독 없이 부여하지 않겠다."
저는 두 시간 정도 계속 시도해 봤습니다. 그러다 문득 '뭔가 제대로 작동하는 것 같긴 한데, 모든 단계를 일일이 확인하는 건 너무 귀찮잖아. 그냥しばらく 켜놓고 어떻게 되는지 보자'라는 생각이 들었습니다. 그 결과, 그 후로는 다시는 전체 접근 권한을 끄지 않았습니다. 알고 보니 저와 비슷한 경험을 한 사람들이 많더군요.
제가 정말 걱정하는 것은 이러한 도구 들이 너무 강력하고 편리해서 실패율은 낮을지 몰라도 실패했을 때의 결과는 치명적일 수 있다는 점 입니다. 실패가 드물기 때문에 사람들은 점차 "괜찮겠지?"라는 생각에 빠지게 됩니다.
하지만 모델이 점점 더 강력해지고 이해하기 어려워짐에 따라, 모델 내부에 미묘한 불일치가 있거나 장기간 복잡한 사용 후에 새로운 시스템적 문제가 발생한다면, 이미 시스템에 보안 취약점을 심어놓았을 가능성이 있습니다. "인공지능이 통제 불능 상태가 된다"는 상상을 할 때 공상 과학적인 감성을 어느 정도 가질 수도 있겠지만, 제가 진정으로 우려하는 것은 사람들이 이러한 도구의 강력함과 즐거움에 현혹되어 그 복잡성을 진지하게 고려하지 않게 되는 것입니다. 기능은 매우 빠르게 상승 할 것이고, 우리는 특정 단계에 이르면 모델의 동작 방식에 익숙해져서 신뢰하게 될 것입니다. 하지만 충분히 견고하고 포괄적인 보안 인프라를 구축하지 않은 채로 말입니다.
그러므로 우리는 자신도 모르게 위험한 상태로 나아가게 될 것입니다.
저는 바로 이 점이 훌륭한 회사를 탄생시키기에 충분하다고 생각합니다.
인공지능을 유아 교육 및 기초 교육에 어떻게 통합해야 할까요?
질문: 교육이라는 주제로 다시 돌아가고 싶습니다. 고등학교 시절에는 친구들이 ChatGPT를 이용해서 에세이를 쓰고 과제를 하는 것을 보았고, 지금 대학교에서는 컴퓨터공학이나 인문학 같은 다양한 분야에서 AI 정책에 대해 토론하고 있습니다. 제 질문은 이렇습니다. 아버지로서 유치원, 초등학교, 중학교와 같이 아이들의 중요한 성장기에 AI가 교육에 미치는 영향에 대해 어떻게 생각하시나요?
샘 알트만: 전반적으로 저는 유치원에서 컴퓨터를 사용하는 것에 반대합니다 . 유치원은 아이들이 야외에서 뛰어놀고, 실제 사물과 상호작용하며, 다른 사람들과 소통하는 방법을 배우는 곳이어야 합니다. 따라서 인공지능뿐만 아니라 대부분의 경우 유치원에는 컴퓨터 자체가 없어야 한다고 생각합니다.
발달적 관점에서 볼 때, 우리는 기술이 아이들에게 미치는 장기적인 영향을 아직 완전히 이해하지 못하고 있습니다. 소셜 미디어가 십대 청소년에게 미치는 영향에 대한 연구는 많이 진행되었지만, 결과는 그다지 긍정적이지 않았습니다. 제 생각에는 어린 아이들에게 미치는 기술의 대량 은 훨씬 더 심각할 가능성이 높지만 , 이에 대한 논의는 훨씬 부족합니다. 이러한 영향을 제대로 이해하기 전까지는 미취학 아동들이 인공지능을 대량 사용하는 것은 바람직하지 않다고 생각합니다.
질문: 저희는 바이오제약 분야에 있습니다. 생성형 AI는 임상시험 문서 작성 및 규제 절차 등 여러 분야에서 이미 많은 도움을 받고 있습니다. 현재는 신약 설계, 특히 화합물 설계에도 이를 활용하려고 노력하고 있습니다. 하지만 3D 추론 능력이 부족한 것이 주요한 병목 현상입니다. 이 부분에서 중요한 전환점이 있을 것으로 예상하시나요?
샘 알트만: 우리는 이 문제를 반드시 해결할 것입니다. 2026년까지 완료될지는 확신할 수 없지만, 매우 흔하고 빈번하게 발생하는 요구 사항입니다. 대략적인 해결 방법은 알고 있지만, 아직 시급히 해결해야 할 분야가 많습니다. 하지만 이 문제는 반드시 해결될 것입니다.
참고 링크:
https://www.youtube.com/watch?v=Wpxv-8nG8ec&t=2s
이 글은 위챗 공식 계정 "AI 프론트라인" 의 Dongmei 님이 작성한 글이며, 36Kr의 허가를 받아 게재되었습니다.





