GPT-5 이후 Altman은 왼쪽으로, Liang Wenfeng은 오른쪽으로 갔습니다.

avatar
36氪
08-15
이 기사는 기계로 번역되었습니다
원문 표시

GPT-5가 공식 출시되었으며, 테스트 세트에서 정상을 차지했지만 사용자 피드백은 엇갈렸고, 많은 사용자들이 GPT-4o를 계속 유지하길 바랐습니다. OpenAI는 모델 라우팅 기능을 추가하여 다양한 모델과 해시레이트 비용으로 다른 사용자 요구를 충족시키고자 합니다.

현재 경험으로 볼 때, OpenAI의 "통합 모델" 노력은 아직 갈 길이 멀어 보입니다. GPT-5는 모델 능력의 뚜렷한 혁신이나 기술 패러다임의 업데이트 없이, OpenAI는 주로 제품화 혁신에 집중했습니다. GPT-5는 환각이 적고 더 사용하기 쉬우며 사용자의 구체적인 문제를 더 잘 해결할 수 있는 모델이지만, 새로운 능력이나 대규모 모델의 구조적 결함을 완전히 해결하지는 못했습니다. 최근 외신에 따르면 DeepSeek가 국산 칩으로 최신 모델을 훈련 중이지만, 새 모델의 출시 날짜는 여전히 불확실합니다. GPT-5의 출시는 대규모 모델 능력의 상한선에 도달한 듯 보입니다. OpenAI는 이 "Transformer 능력 경계의 벽" 앞에서 기존 능력을 극대화하고 "슈퍼 앱" 서사를 끝까지 밀고 나가기로 했습니다.

AGI로 인간 사회를 "극도로 풍요로운" 상태로 이끌고자 하는 OpenAI는 슈퍼 앱 길을 점점 멀리하며 수익과 기업 가치를 계속 높이고 있습니다. 반면 AI 능력의 상한선을 탐구하고 오픈소스 생태계를 구축하여 기술의 보편적 혜택을 추구하는 DeepSeek는 아마도 다른 과제를 풀어야 할 것입니다.

아마도 수년 후, 사람들이 대규모 모델 산업의 발전 타임라인을 돌아보면 여러 경로가 DeepSeek R1과 GPT-4o 출시에서 교차하고 GPT-5 이후 분화되었음을 발견하게 될 것입니다.

01 성능은 최고지만 기대에 미치지 못한 GPT-5, 제품화 가속화

시장은 패러다임의 전환, 인간-기계 상호작용을 재정의할 수 있는 순간을 기대했습니다. 하지만 최종 결과는 일반적인 업그레이드에 가깝습니다. 모델 매개변수는 더 많고 훈련 데이터는 더 광범위하며 일부 벤치마크 테스트에서 더 높은 점수를 받았지만, 핵심 지능 측면에서 혁명적인 진전은 보이지 않았습니다. 뉴욕대학교 명예교수 게리 마커스는 GPT-5의 성과를 "늦었고, 과대광고되었으며, 평범하다"라는 세 단어로 요약했습니다.

그의 분석에 따르면, GPT-5는 대규모 언어 모델의 고유한 결함을 근본적으로 해결하지 못했습니다. 여전히 때때로 사실을 날조하고, 다단계 논리 추론이 필요한 작업에서 실수를 저지르며, 현실 세계에 대한 이해의 다중 모달 성능에서도 질적인 개선이 없었습니다.

이러한 문제들은 GPT-4 시대부터 존재했으며, 업계는 GPT-5가 해결책을 제공하기를 희망했지만, 현실은 OpenAI가 기존 프레임워크를 수정하고 최적화하는 것을 선택했다는 것입니다. 그리고 이러한 능력을 바탕으로 더 제품화되고 사용하기 쉬운 모델 도구를 제공했습니다.

... (이하 생략)

우선 국산 GPU의 성능은 엔비디아 GPU의 단일 카드 성능과 비교했을 때 여전히 세대 간 격차가 있습니다. 국산 GPU가 더 밀집된 상호 연결 기술을 통해 단일 카드의 성능 차이를 최대한 보완할 수 있더라도, 실리콘밸리의 대규모 모델에서 사용하는 엔비디아의 "10만 카드 클러스터"와 경쟁하고 국산 GPU로 성능 최고의 모델을 훈련하기 위해서는 상상하기 어려운 엔지니어링 난제에 직면해야 합니다.

대규모 모델 연구 개발에는 PyTorch나 TensorFlow와 같은 오픈 소스 프레임워크가 필수적이며, 이러한 프레임워크는 원래 국제 주류 하드웨어용으로 최적화되어 있습니다. DeepSeek가 국산화를 추진하려면 전체 소프트웨어 스택을 국내 하드웨어로 마이그레이션해야 하며, 이는 국내 컴퓨팅 아키텍처와 호환되도록 대량의 코드를 다시 작성하거나 수정해야 함을 의미합니다. 수년간 발전해 온 성숙한 주류 오픈 소스 프레임워크와 CUDA 생태계와 비교했을 때, 재구성된 국산 소프트웨어 스택이 이미 10년 가까이 발전해 온 주류 솔루션의 성능과 안정성에 근접하는 것은 상당히 어려운 과제입니다.

하지만 DeepSeek가 국산 하드웨어 제조업체와 지속적으로 긴밀히 협력하고, DeepSeek가 대규모 모델 연구 개발을 그러했듯이 처음부터 한 걸음씩 산업의 최전선에 나아간다면, 머리 위의 다모클레스의 검을 완전히 내려놓을 희망이 있을 것입니다.

대규모 모델 훈련 및 추론 효율성을 지속적으로 개선하는 방향에서 DeepSeek는 계속해서 탐구하고 있으며, 주목할 만한 성과를 거두었습니다.

올해 7월 말, DeepSeek 팀과 베이징대학 등 기관이 발표하고 량원펑이 교신저자로 참여한 논문 《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention》이 ACL 2025 최우수 논문상을 수상했습니다.

https://arxiv.org/abs/2502.11089

이 논문은 최초로 희소 주의를 이론적 추론에서 완전한 훈련 과정으로 가져왔으며, 모델 성능을 유지하고 훈련 효율성을 높이는 동시에 최대 11배의 추론 가속을 달성했습니다. 자연어 처리 최고 학회인 ACL에서 최우수 논문상을 수상한 것은 업계에서 이 기술의 가치를 충분히 인정받았음을 보여줍니다.

상업적 경쟁에서 핵심적인 역할을 하는 이러한 혁신을 공개하려는 의지는 DeepSeek가 대규모 모델 기술의 보편화를 지속적으로 추진하려는 결심과 능력을 보여줍니다.

"원시 희소 주의"와 같은 더 많은 혁신이 융합된 DeepSeek의 새로운 모델이 업계에 얼마나 큰 놀라움을 선사할지, 그리고 대규모 모델 연구 개발의 국산화 수준을 얼마나 더 발전시킬 수 있을지 기대해 봅니다.

본 기사는 위챗 공식 계정 "AI 정면 대응"(ID: faceaibang)에서 가져왔으며, 저자는 후룬 묘정이고 36커우의 허가를 받아 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트