GPT-5 논란, 오픈소스의 따라잡기, 그리고 AI 기능의 비약적 발전: 에포크 AI의 연말 보고서, 가속화된 AI 기능 발전 현황 공개

이 기사는 기계로 번역되었습니다
원문 표시

인공지능 벤치마킹에 주력하는 비영리 단체인 에포크 AI는 12월 25일 연말 보고서를 발표했는데, 이 보고서에 따르면 인공지능 모델의 전반적인 성능이 빠르게 향상되고 있는 것으로 나타났습니다.

GPT와 Gemini 같은 세계적인 최고 수준의 인공지능 모델들은 전문가 수준의 수학 문제인 FrontierMath에서 탁월한 성능을 보여주지만, 진정으로 어려운 문제에 직면했을 때는 여전히 만점에 미치지 못하는 모습을 보여 추론 능력에 개선의 여지가 있음을 시사합니다. 한편, 인공지능 추론 능력과 강화 학습 기술의 발전으로 성장률이 거의 두 배로 증가하고 비용이 크게 절감되었으며, 많은 모델들이 일반 소비자용 하드웨어에서도 작동할 수 있게 되었습니다.

이러한 배경 속에서 중국의 오픈소스 대규모 모델들이 상당한 발전을 이루었음에도 불구하고, 세계 최고 수준의 모델들과 비교하면 여전히 큰 격차가 존재합니다. 프론티어매스(FrontierMath) 테스트에서 대다수의 중국 모델들은 거의 제로에 가까운 점수를 기록했으며, 딥시크-V3.2(DeepSeek-V3.2)만이 약 2%의 점수를 얻었습니다. 이는 중국 모델들이 따라잡고 있기는 하지만, 진정으로 복잡한 문제를 다루는 데에는 여전히 어려움이 있음을 보여줍니다.

01 중국의 "7개월 만의 격차 해소": 오픈 소스 파워가 판도를 바꾸고 있다

중국 모델이 달성한 최고 점수는 여전히 세계 최고 수준에 비해 약 7개월 정도 뒤처져 있습니다.

Epoch AI의 최신 FrontierMath 벤치마크에서 중국의 오픈소스 모델이 놀라운 성능을 보여주었습니다. FrontierMath는 정수론, 실해석학, 대수기하학, 범주론 등 현대 수학의 주요 분야를 포괄하는, 전문가들이 세심하게 설계한 매우 어려운 수학 벤치마크입니다. 전체 데이터셋은 350개의 문제로 구성되어 있으며, 그중 300개는 기본 문제(레벨 1~3)이고 50개는 매우 어려운 문제(레벨 4)입니다. 이러한 문제를 해결하는 데에는 일반적으로 연구원들이 몇 시간 또는 며칠씩 소요해야 합니다.

프론티어매스 문제 세트

FrontierMath 문제 세트는 공개 문제와 비공개 문제, 두 가지 범주로 나뉩니다. 기본 세트의 첫 3단계에는 10개의 공개 문제가 포함되어 있으며, 나머지 290개 문제는 비공개 세트입니다. 4단계에서는 가장 어려운 문제 2개가 공개 문제로 구성되어 있고, 나머지 48개 문제는 비공개 세트에 있습니다.

평가 결과에 따르면, 1~3단계 문제 은행에서 중국 모델의 최고 점수조차도 세계 최고 수준에 비해 약 7개월 정도 뒤처져 있습니다. 이 수치는 상당해 보일 수 있지만, 인공지능 개발 역사에서 볼 때 이는 중국 모델들이 OpenAI나 Anthropic과 같은 세계 최고 연구소들과의 격차를 놀라운 속도로 좁혀가고 있음을 의미합니다. 불과 2년 전만 해도 오픈소스 모델과 클로즈드소스 최첨단 모델 간의 성능 격차는 몇 년에 걸쳐 측정되었지만, 이제는 소비자용 GPU에서 구동되는 최고의 오픈소스 모델과 절대적인 최첨단 모델 간의 성능 격차가 1년도 채 되지 않습니다.

더욱 주목할 만한 점은 문제 세트의 네 번째 레이어, 즉 "풀이하는 데 며칠이 걸리는" 매우 어려운 수학 문제 50개입니다. DeepSeek V3.2(Thinking)는 이 레이어에서 0이 아닌 점수를 얻은 유일한 중국 모델로, 한 문제(약 2%)에 정답을 맞혔습니다. 언뜻 보기에는 작아 보이지만, 이는 매우 상징적인 의미를 지닙니다. 중국 모델들이 최고 수준의 수학 문제를 해결할 잠재력을 가지고 있음을 보여주기 때문입니다. 심지어 OpenAI의 o3와 o3-mini조차도 이러한 유형의 문제에서 한 자릿수 정확도에 그칩니다.

기술적으로, DeepSeek은 Multi-Head Latent Attention(MLA), Hybrid Expert(MoE), 다중 태그 예측과 같은 혁신적인 아키텍처를 통해 Meta Llama 3에 필적하는 사전 학습 성능을 10분의 1의 해시레이트 로 달성했습니다. 이후 개발된 추론 모델인 R1은 OpenAI의 o1과 성능 면에서 경쟁했지만, 개발 비용은 훨씬 저렴했습니다. 이는 AI 학습 비용 하락의 주요 원동력이 저렴한 하드웨어가 아니라 알고리즘 최적화와 데이터 개선이라는 Epoch AI의 관점 뒷받침합니다.

Epoch AI는 FrontierMath 문제 은행의 보안을 보장하기 위해 타사 API(DeepSeek의 경우 Fireworks, 나머지 모델의 경우 Together)를 활용하여 평가를 수행합니다. Epoch AI의 분석에 따르면 일부 타사 API가 모델 점수에 약간의 영향을 미칠 수 있으며, 특히 새로 출시된 모델일수록 더 큰 영향을 받는 것으로 나타났습니다. 이는 중국 모델의 실제 성능이 공개된 것보다 더 뛰어날 수 있음을 시사합니다.

FrontierMath의 문제 해결 방식 또한 이해할 가치가 있습니다. 모델은 답을 반환하는 `answer`라는 파이썬 함수를 제출하는데, 이 함수는 일반적으로 정수 또는 sympy 객체를 반환합니다. 모델은 사고하고, 파이썬 코드를 실행하고, 확신이 들면 답을 제출할 수 있습니다. 각 문제에는 엄격한 태그 제한(최대 100만 태그)이 있으며, 평가 시스템은 제출물을 기록하고 점수를 매깁니다. 파이썬 도구를 사용한 코드 실행 시간 제한은 30초로, 상용 하드웨어에서 평가를 반복적으로 검증할 수 있도록 보장합니다.

데이터는 또한 한 가지 추세를 보여줍니다. 최첨단 AI 기술은 등장 후 1년도 채 안 되어 널리 보급된다는 것입니다. 이는 중국 모델이 선두 자리를 따라잡아야 하는 기회이자 동시에 도전 과제이기도 합니다. 왜냐하면 최첨단 기술은 여전히 ​​빠르게 발전하고 있으며, 그 경쟁은 결코 끝나지 않기 때문입니다.

02 최첨단 글로벌 모델의 "군비 경쟁": GPT-5에서 제미니 3까지

2025년 GPT-5가 출시되었을 때, 일부 시장에서는 "실망"을 불러일으켰습니다. Claude 3.7이나 Gemini 2.5와 같은 중간 버전과 비교했을 때 성능 향상이 제한적인 것처럼 보였기 때문입니다. 그러나 Epoch AI 데이터에 따르면 GPT-5의 GPT-4 대비 성능 향상은 GPT-4의 GPT-3 대비 성능 향상과 거의 동일한 수준입니다.

MMLU: +43%

수학: +37%

• TruthfulQA: +40%

HumanEval: +67%

GPQA 다이아몬드: +55%

수학 레벨 5: +75%

AIME 24-25 모의고사: +84%

"영향력"이 줄어든 이유는 출시 속도가 빨랐기 때문입니다. GPT-3에서 GPT-4까지는 약 2년이 걸렸지만, GPT-4에서 GPT-5까지는 단 1년밖에 걸리지 않았습니다. 클로드 3.7, 제미니 2.5, o1과 같은 중간 모델들이 이미 시장에 출시되어 있었기 때문에 GPT-5에 대한 기대감이 자연스럽게 높아진 것입니다.

Gemini 3 Pro는 FrontierMath 벤치마크에서도 주로 API 안정성 문제로 인해 어려움을 겪었습니다. 1~3단계 문제 은행에서는 정확도가 38%였지만, API 오류로 인해 10개 문제에서 점수를 잃었습니다. 4단계의 매우 어려운 문제에서는 정확도가 19%에 그쳤으며, 3개 문제가 API 오류의 영향을 받았습니다. Epoch AI는 엄격한 평가를 위해 최소 10회 이상 재시도했습니다. 이는 API 안정성이 최첨단 모델의 성능에 상당한 제약 조건이 되고 있음을 보여줍니다.

xAI의 Grok 4는 훨씬 더 심각한 네트워크 및 타임아웃 문제를 겪었습니다. 4단계의 48개 문항 중 8개가 제대로 채점되지 못했습니다. Epoch AI는 이러한 문제를 처리하기 위해 특정 규칙을 사용하면서도 평가 과정의 투명성을 보장하기 위해 완전히 독립적인 편집 기능을 유지합니다.

더욱이, OpenAI의 연구 개발 지출 내역을 보면 진정한 비용 구조가 드러납니다. 2024년 50억 달러의 해시레이트 예산 중 90%가 GPT-4.5나 다른 모델의 최종 출시보다는 실험적 학습과 기초 연구에 할당되었습니다. 이는 최고 수준의 모델을 구축하는 데 드는 핵심 비용이 "모델을 만드는 것"이 ​​아니라 "모델을 만드는 방법을 알아내는 것"임을 보여줍니다. 따라서 DeepSeek이 더 낮은 비용으로 유사한 성능을 달성할 수 있는 것은 최첨단 연구소의 기술력을 기반으로 하고 있다는 이점 덕분입니다.

03. AI 모델 기능 가속화: 최첨단 모델 발전 속도 두 배 증가

인공지능 모델의 성능은 전례 없는 속도로 향상되고 있습니다.

최신 데이터에 따르면 AI 모델의 성능이 전례 없는 속도로 향상되고 있습니다. 에포크 AI의 에포크 역량 지수(ECI)에 따르면, 2024년 4월 이후 최고 모델들의 성능 향상률은 다양한 지표에서 이전 2년 대비 거의 두 배에 달했습니다. 특히, 변곡점 이전의 연간 성능 향상률은 약 8포인트였지만, 변곡점 이후에는 약 15포인트로 증가하여 성능 향상 속도가 크게 가속화되었음을 보여줍니다.

이러한 가속화는 몇 가지 중요한 변화와 맞물려 있습니다. 바로 OpenAI의 o1 및 DeepSeek R1과 같은 추론 모델의 급속한 발전과 주요 연구소들의 강화 학습에 대한 투자 증가입니다. 이는 AI 개발 모델의 변화를 시사합니다. 더 이상 대규모 사전 학습에만 의존하지 않고, 사전 학습, 추론 연산, 강화 학습을 결합한 다각적인 전략을 통해 모델 기능을 향상시키는 방향으로 나아가고 있다는 것입니다.

글로벌 주요 모델 ECI 순위

Epoch AI의 보고서는 2021년 말부터 2025년 말까지 모든 핵심 최첨단 모델을 포함한 149개의 최첨단 모델을 추적했습니다. 분석에서는 시간 경과에 따른 최고 모델 기능의 추세를 파악하기 위해 구간별 선형 모델을 사용했으며, 최적의 "변곡점"은 2024년 4월로 나타났습니다. 변곡점 이전과 이후의 기능 성장률은 각각 연간 8.2포인트와 15.3포인트로, 약 1.86배의 가속도를 보였습니다. 통계 분석 결과, 이러한 가속 신호는 견고하고 유의미하며, 단선형 추세보다 실제 개발 속도를 더 정확하게 반영하는 것으로 나타났습니다.

이는 2024년 이후 최첨단 모델의 성능 향상이 절대적인 수치 증가뿐 아니라, 그 속도 또한 더욱 빨라질 것임을 의미합니다. 선도적인 연구소들이 해시레이트, 알고리즘, 그리고 학습 데이터에 투자하는 금액은 그들이 선두 자리를 유지할 수 있는 능력을 직접적으로 좌우할 것입니다. 동시에 이는 오픈 소스 팀들에게 더 높은 요구를 하게 됩니다. 더 짧은 시간 안에 클로즈드 소스 모델을 따라잡으려면 알고리즘과 학습 전략을 지속적으로 최적화해야 하기 때문입니다.

요컨대, 인공지능 역량 향상 속도가 가속화되고 있으며, 그에 따라 글로벌 인공지능 경쟁이 더욱 치열해져 장기적으로 선도적 우위를 유지하기가 어려워지고 있습니다.

04 2025년 인공지능 10대 트렌드: 기술적, 경제적, 사회적 영향

2025년, Epoch AI는 36개의 데이터 분석 보고서와 37개의 뉴스레터를 발행하여 총 70개의 AI 관련 짧은 설문조사를 진행했습니다. 어떤 콘텐츠가 가장 많은 독자의 관심을 끌었을까요? 연말 결산 결과, 이러한 분석 보고서와 뉴스레터의 독자 수 및 참여도 데이터를 통해 10가지 핵심 트렌드를 파악할 수 있었습니다.

가장 인기 있는 설문조사 중 상위 5개는 AI 기능 발전, 해시레이트 분배, 비용 변화와 같은 핵심 산업 동향을 보여주는 가장 관련성 높은 데이터 통찰력을 제공합니다. 그 다음 5개는 정책, 사회적 활용, 산업 관행의 동향을 반영합니다.

다시 말해, 올해의 10대 트렌드는 단순히 연구자들이 정한 것이 아니라 독자들의 관심과 데이터 분석을 종합하여 도출한 것으로, 전문가적인 시각과 시장 및 대중의 관점을 모두 아우르는 AI의 전반적인 모습을 보여줍니다.

추세 1: 추론 비용은 급격히 감소했지만, 작업 간 차이는 여전히 상당합니다.

2023년 4월부터 2025년 3월까지 동일한 성능 수준에서 추론 비용은 기하급수적으로 감소했습니다.

가장 느린 작업: 연간 9배 감소

중간 속도 작업: 연간 40배 감소

가장 빠른 작업: 연간 900배 감소

비용 절감은 주로 두 가지 요인에 의해 주도됩니다. 첫째는 시장 경쟁 심화(API 제공업체 증가, 가격 투명성 향상)이고, 둘째는 효율성 개선(추론 알고리즘 최적화, 하드웨어 활용률 증가)입니다. 그러나 이러한 비용 절감 효과가 작업에 따라 크게 달라집니다. 텍스트 분류와 같은 단순한 작업은 거의 무료로 이용할 수 있는 반면, 박사 수준의 과학적 추론과 같은 복잡한 작업은 비용 절감 속도가 더딥니다. 이는 AI 기능의 보편화로 인한 경제적 이점이 모든 작업에 동일하게 적용되는 것이 아니며, 기업과 개발자는 특정 애플리케이션에 맞춰 전략을 최적화해야 함을 시사합니다.

트렌드 2: 소비자용 하드웨어와 최첨단 모델 간의 격차가 7개월로 좁아지고 있습니다.

Epoch AI는 RTX 4090 및 RTX 5090과 같은 소비자용 GPU에서 실행되는 최고의 오픈 소스 모델과 절대적인 최첨단 모델 간의 격차가 약 7개월로 좁혀졌다는 사실을 발견했습니다.

이는 수십억 명의 사용자가 개인용 컴퓨터에서 거의 최첨단 AI를 실행할 수 있음을 의미하며, 고정된 모델 기능에만 의존하는 기업은 장기적으로 경쟁 우위를 유지하기 어려울 것이고, 정책적인 측면에서 "기술 봉쇄"는 기능 확산을 막기 어려울 것이라는 뜻입니다.

이러한 추세는 오픈 소스 AI의 파괴적인 영향력을 보여줍니다. 최첨단 기능이 빠르게 확산되고 있으며, 시장 경쟁의 기회는 줄어들고 있고, 혁신적인 우위는 단일 모델의 성능이 아닌 지속적인 반복과 전반적인 서비스 역량에 달려 있습니다.

트렌드 3: OpenAI의 해시레이트 주로 실험에 투자되고 있으며, 연구 개발 비용이 학습 비용을 훨씬 초과합니다.

Epoch AI 데이터에 따르면 2024년 OpenAI의 해시레이트 대부분은 모델 추론이나 최종 학습에 직접 사용되지 않고 실험 및 연구 개발 활동을 지원하는 데 사용되었습니다. 구체적인 지출 구조는 다음과 같습니다(모든 수치는 클라우드 해시레이트 비용입니다).

기초 연구 및 실험 해시레이트: 기초 연구, 실험/ 리스크 회피 운영(최종 훈련 준비용) 및 미공개 모델을 포함하여 약 45억 달러.

GPT-4.5 최종 학습 비용: 약 4억 달러 (90% 신뢰 구간: 1억 7천만 달러 ~ 8억 9천만 달러)

기타 모델 학습: 약 8천만 달러(GPT-4o, GPT-4o mini, Sora Turbo, GPT-4o 업데이트 및 o 시리즈의 사후 학습 포함, 90% 신뢰 구간: 2천4백만 달러~4억 3천5백만 달러)

총 연구개발 해시레이트: 50억 달러

추론 해시레이트: 20억 달러 (마이크로소프트가 자사 제품에 OpenAI 모델을 실행하는 데 드는 비용 제외)

이는 AI 개발이 막대한 자본 투자를 필요로 하며, 개발 책임자들이 최종 학습 및 배포뿐만 아니라 탐색과 실험에도 대량 해시레이트 투입해야 함을 보여줍니다. 대부분의 비용은 모델을 직접 생산하는 것보다는 "방법을 알아내는 데" 사용됩니다. 이러한 이유로 일부 오픈 소스 모델이나 새롭게 등장하는 모델들이 더 낮은 비용으로 거의 완벽한 성능을 달성할 수 있는 것입니다. 최첨단 연구실의 성과를 바탕으로 대량 시행착오 단계를 건너뛰었기 때문입니다.

다시 말해, OpenAI의 해시레이트 활용 전략은 연구 개발 자체의 엄청난 가치를 보여줍니다. 실험은 AI 역량의 혁신을 이끄는 핵심이며, 학습 및 배포는 결과의 일부일 뿐입니다.

트렌드 4: 엔비디아의 해시레이트 재고는 10개월마다 두 배로 증가합니다.

2020년 이후 전 세계적으로 설치된 NVIDIA AI 해시레이트 연평균 약 2.3배씩 증가했으며, 새로운 플래그십 칩은 출시 후 3년 이내에 기존 해시레이트 의 대부분을 차지했습니다.

2022년에 출시된 H100은 2025년까지 주류로 자리 잡았으며, H200 및 B100과 같은 차세대 칩은 2026년에서 2028년 사이에 시장을 장악할 것입니다.

해시레이트 의 기하급수적 증가는 AI 역량 발전을 유지하는 데 필수적이지만, 동시에 공급망에 압력을 가중시키기도 합니다. 칩 부족이나 물류 차질은 모델 학습 및 추론 능력에 직접적인 영향을 미칠 것입니다. 에포크 AI는 이러한 "해시레이트 경쟁"이 지속될 것이며, 이는 AI 개발 속도를 뒷받침하는 핵심 요소라고 강조합니다.

트렌드 5: GPT-5는 벤치마크 테스트에서 지속적으로 비약적인 발전을 보이고 있지만, 시장에 미치는 영향은 제한적입니다.

Epoch AI 데이터에 따르면 GPT-4와 GPT-5 모두 주요 벤치마크 테스트에서 이전 버전 대비 상당한 성능 향상을 보였습니다. 예를 들어 MMLU, MATH, TruthfulQA, HumanEval, GPQA Diamond, MATH Level 5, Mock AIME 24-25와 같은 주요 테스트에서 GPT-4는 GPT-3 대비 37%에서 84%에 이르는 성능 향상을 기록했으며, GPT-5는 동일한 벤치마크에서 GPT-4와 거의 동등한 수준의 성능 향상을 보여 최첨단 AI 모델 중 선두 자리를 더욱 공고히 했습니다.

GPT-5는 GPT-4에 비해 성능이 크게 향상되었지만, 일부 시장 참여자들은 "놀라운 효과"가 부족하다고 느꼈습니다. 에포크 AI의 분석에 따르면 이는 성능 향상 속도가 둔화되었기 때문이 아니라 지난 2년간 모델 출시 속도가 너무 빨랐기 때문입니다. GPT-3에서 GPT-4로의 발전에는 약 2년이 걸린 반면, GPT-4에서 GPT-5로의 발전에는 단 1년밖에 걸리지 않아 실제 성능 향상 폭은 상당함에도 불구하고 GPT-5에 대한 대중의 기대치가 높아진 것입니다.

이러한 추세는 AI 기능이 여전히 빠르게 발전하고 있음을 보여주지만, 잦은 중간 버전 업데이트는 대중이 인식하는 "성능 향상"과 실제 상황 사이에 쉽게 격차를 초래할 수 있습니다.

트렌드 6: ChatGPT 쿼리 한 번에 소모되는 에너지는 전구 5분 동안 불을 켜두는 것보다 적습니다.

조쉬는 GPT-4o 쿼리 한 번에 소모되는 평균 에너지량을 추정했는데, 이는 전구 하나를 5분 동안 켜는 데 필요한 에너지보다 적다는 것을 보여주었습니다. 이 추정치는 이후 샘 알트만에 의해 확인되었으며, 구글의 제미니 모델의 쿼리당 에너지 소비량 데이터와 유사합니다.

인공지능(AI)의 에너지 소비는 항상 대중의 관심 대상이었습니다. 이 데이터는 일상적인 가정 활동과 비교하여 AI의 에너지 소비량을 정량화하는 데 도움이 됩니다. 단일 쿼리 실행에 필요한 에너지 소비량은 상대적으로 적지만, 전 세계적으로 AI 사용량이 기하급수적으로 증가함에 따라 전체 AI 에너지 소비량은 계속 상승, 이는 미래에 더욱 심각한 문제로 대두될 수 있습니다.

트렌드 7: DeepSeek은 저비용 고성능을 달성하기 위해 Transformer 아키텍처를 최적화합니다.

2025년, DeepSeek 팀은 v3 논문에서 자사의 오픈 소스 사전 학습 모델이 당시 최첨단 성능을 달성하면서도, 그 다음으로 우수한 오픈 소스 모델인 Llama 3에 비해 10분의 1의 해시레이트 만 필요로 하는 세 가지 핵심 기술을 제안했습니다. 이 기술들은 다음과 같습니다.

멀티헤드 잠재 주의(MLA) – 추론 메모리 사용량을 줄이고 계산 효율성을 향상시킵니다.

하이브리드 전문가(MoE) 아키텍처 혁신 – 모델 매개변수 활용도 향상

다중 태그 예측 – 학습 과정을 가속화하고 학습 효율을 향상시킵니다.

불과 3일 후, DeepSeek은 OpenAI의 o1과 비슷한 성능을 보이면서도 비용은 훨씬 저렴한 추론 모델 R1을 출시했습니다.

본 사례 연구는 AI 학습 해시레이트 효율성의 새로운 추세를 보여줍니다. 알고리즘 혁신과 데이터 최적화를 통해 모델 개발 비용을 연간 약 3배까지 절감할 수 있다는 것입니다. 다시 말해, 학습 기법과 데이터의 개선을 통해 최첨단 모델은 막대한 해시레이트 에 의존하지 않고도 최고 수준의 연구실 결과에 필적하는 성능을 빠르게 달성할 수 있습니다. 이는 오픈 소스 모델의 활용 가능성을 높일 뿐만 아니라, 산업 전반의 효율성과 비용 측면에서 질적인 향상을 이끌어냅니다.

트렌드 8: 추론 모델을 확장할 수 있는 여지는 1~2년밖에 남지 않았을 수 있습니다.

조쉬는 강화 학습(RL) 추론 훈련에 필요한 해시레이트 의 증가 추세를 분석했습니다. 오픈AI와 앤스로픽 같은 주요 연구소들은 2025년 초에 이러한 유형의 강화 학습이 확장되는 속도는 장기적으로 지속될 수 없으며 1~2년 내에 해시레이트 인프라의 한계에 도달할 수 있다고 지적했습니다.

추론 능력은 특히 수학, 프로그래밍 및 복잡한 추론 작업에서 AI 모델 성능 향상의 핵심 요소가 되었습니다. 그러나 이러한 능력의 추가 확장은 하드웨어 및 비용 병목 현상에 직면해 있으며, 이는 2024~2025년에 예상되는 폭발적인 성장기가 둔화될 수 있음을 의미합니다. 경쟁력을 유지하기 위해 기업은 보다 효율적인 데이터 활용, 더 나은 모델 아키텍처 또는 "AI 지원 AI 연구 개발"을 통한 성능 혁신 달성과 같은 새로운 성장 경로를 모색해야 합니다.

추론 능력의 제한적인 성장 잠재력은 해시레이트 무한하지 않으며 성능 향상에도 한계가 있음을 업계에 상기시켜 줍니다. 미래의 경쟁은 단순히 해시레이트 늘리는 것보다 알고리즘 혁신, 데이터 최적화 및 연구 개발 전략에 더욱 의존할 것입니다.

트렌드 9: "AI 맨해튼 프로젝트"는 놀라운 잠재력을 지니고 있다

Epoch AI의 분석에 따르면 미국이 맨해튼 프로젝트나 아폴로 프로그램과 유사한 규모의 국가 차원 AI 프로젝트를 수립할 경우, 그 훈련 규모는 GPT-4보다 약 1만 배 더 커질 수 있다고 합니다.

2024년 11월, 미중 경제안보검토위원회는 의회에 "맨해튼 프로젝트와 유사한 인공지능 프로젝트를 설립하고 자금을 지원하여 일반 인공지능(AGI) 역량 확보 경쟁을 유도해야 한다"고 권고했습니다. 이러한 아이디어는 국가 차원의 중앙집중적 투자를 통해 이론적으로 전례 없는 규모의 AI 해시레이트 달성할 수 있음을 시사하지만, 두 가지 주요 질문을 제기합니다. 첫째, 투자와 그 ​​수익 – 수천억 달러에 달하는 자금 지원이 실제 AGI 혁신을 가져올지는 불확실합니다. 둘째, 기술적 및 관리적 과제 – 이러한 대규모 훈련에는 해시레이트 뿐만 아니라 데이터, 알고리즘 최적화, 하드웨어 지원, 그리고 기관 간 협력이 필요하기 때문입니다.

이러한 추세는 인공지능 역량 확장의 엄청난 잠재력을 보여주는 동시에, 정책 입안자와 대중에게 국가 차원의 프로젝트가 잠재력을 지니고 있더라도 그 실현 가능성과 리스크 신중하게 평가해야 한다는 점을 상기시켜 줍니다.

트렌드 10: AI의 가치는 과학 연구 가속화보다는 광범위한 자동화에서 주로 비롯됩니다.

샘 알트만 , 데미스 하사비스 , 다리오 아모데이 등이 제시한 인공지능(AI)의 폭발적인 성장에 대한 많은 분석들은 연구 개발 자동화가 AI의 급속한 발전을 이끄는 핵심 동력이라고 관점. 이는 AI가 연구의 최종 단계를 자동화하는 등 특정 분야에 빠르고 눈에 띄는 영향을 미쳐 AI 기업의 획기적인 발전을 촉진할 수 있음을 시사합니다.

하지만 인공지능이 사회에 미치는 영향은 분산적이고 점진적인 방식으로 나타날 가능성이 더 높습니다. 다양한 조직들이 효율성 향상을 위해 인공지능을 도입함에 따라 그 효과는 수년 또는 수십 년에 걸쳐 서서히 드러날 것입니다. 이는 정책 입안자와 기업 의사 결정권자들이 단기적인 과학적 기적만을 기대하기보다는 산업 전반에 걸친 인공지능의 광범위한 적용과 효율성 향상에 초점을 맞춰야 함을 시사합니다.

전반적으로 인공지능 기능은 해시레이트 모델 개선을 가속화하고 있습니다. 비용은 계속해서 감소하고 있어 오픈 소스 및 중소 규모 팀이 따라잡을 수 있는 기회를 제공하고 있습니다. 그러나 에너지 소비, 해시레이트 병목 현상, 평가 방식의 차이 및 기능 한계는 업계가 대면 해야 할 현실적인 과제로 남아 있습니다.

인공지능의 미래 발전은 두 가지 특징을 보일 것입니다. 첫째, 기능과 효율성은 지속적으로 향상될 것이며, 최첨단 연구소들은 끊임없이 한계를 뛰어넘으려 노력할 것입니다. 둘째, 가속화된 발전 속도, 시장의 기대, 그리고 정책 및 규제의 불확실성이 어우러져 전체 산업에 매우 역동적인 경쟁 환경을 조성할 것입니다.

Epoch AI가 보여주듯이, AI 산업은 열정과 합리성 사이에서 끊임없이 이야기를 바꿔가고 있습니다. "더 큰 모델"에서 "더 나은 알고리즘"으로, "폐쇄형 소스 독점"에서 "오픈 소스 열풍"으로, "해시레이트 군비 경쟁"에서 "효율성 혁명"으로 말입니다. 대중은 데이터와 분석을 통해서만 정보의 홍수 속에서 냉철함을 유지하고 AI 개발의 진정한 속도와 잠재적 영향을 이해할 수 있습니다.

이 기사는 텐센트 테크놀로지 에서 제공한 것으로, Wuji가 번역하고 Boyang이 편집했으며, 36Kr의 허가를 받아 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트