
NVIDIA는 CES 2026에서 오픈 소스 AI 모델, 시뮬레이션 도구, 실제 주행 데이터로 구성된 완벽한 생태계인 알파마요(Alpamayo)를 공식 공개했습니다. 알파마요는 '추론 능력을 갖춘' 자율주행 기술 개발을 가속화하는 것을 목표로 합니다. 이 시스템은 자율주행차가 대처하기 어려워하는 희귀하고 복잡한 도로 상황과 같은 '롱테일 시나리오'를 해결하고자 합니다. 궁극적인 목표는 차량이 단순히 상황을 보는 것을 넘어 이해하고, 원인과 결과를 추론하며, 특정 주행 결정을 내린 이유를 사람처럼 명확하게 설명할 수 있도록 하는 것입니다.
알파마요 오픈 소스 생태계가 세 가지 핵심 요소를 발표하며 공식적으로 출범했습니다.
CES 에서 엔비디아 CEO 젠슨 황은 세 가지 핵심 요소로 구성된 알파마요 제품군의 전체 구조를 공개했습니다.
"사고 과정"을 포함한 VLA 모델
완전 오픈소스, 매우 사실적인 자율 주행 시뮬레이션 시스템
대규모, 지역 간 실제 주행 데이터베이스
황런쉰은 이 디자인이 예측 불가능한 상황 대면 자율주행이 직면하는 안전 및 다양한 문제점을 해결하기 위한 것이라고 밝혔습니다.
(참고: VLA 모델(Vision-Language-Action의 약자)은 보고, 듣고, 행동하는 것을 통합하는 AI 모델 아키텍처입니다.)
자율주행 투어의 가장 큰 문제점은 여전히 안전상의 걸림돌로 작용하는 장거리 주행 시나리오입니다.
황런쉰은 자율주행 시스템이 매우 다양한 도로 조건에서 작동해야 하며, 실제 어려움은 일상적인 상황이 아니라 갑작스러운 사고, 비정상적인 교통 행동 또는 특수한 환경 요인과 같이 드물지만 리스크 가 높은 상황에서 발생하는 경우가 많다고 지적했습니다.
기존의 자율주행 아키텍처는 대부분 '인지'와 '계획'을 별도로 처리합니다. 이러한 접근 방식은 미지의 상황이나 새로운 상황에 직면했을 때 확장성이 제한적입니다. 최근 엔드투엔드 학습 기술이 발전했지만, 황런쉰은 롱테일 문제를 진정으로 극복하기 위해서는 시스템이 기존 패턴을 적용하는 데 그치지 않고 '인과 추론 능력'을 갖추고 사건들 간의 관계를 이해할 수 있어야 한다고 주장합니다.
알파마요의 핵심 개념은 자동차를 단계별로 명확 하게 설명하는 것입니다 .
알파마요 제품군은 사고 연쇄(Chain-of-Thought) 개념을 통합하여 추론 능력을 갖춘 VLA 모델을 구현합니다. 이를 통해 자율 주행 시스템은 새롭거나 드문 상황에 직면했을 때 점진적으로 행동 논리를 추론할 수 있습니다. 알파마요의 주요 기능은 다음과 같습니다.
시각적 인지 : 도로와 주변 환경을 이해하는 것.
언어 이해력 : 문맥과 의미 흐름을 파악한다.
행동 생성 : 실제 운전 결정이 생성됩니다.
젠슨 황은 이러한 설계가 주행 성능을 향상시킬 뿐만 아니라 의사 결정의 해석 가능성을 높여 자율 주행의 안전성에 대한 신뢰를 구축하는 데 도움이 된다고 강조했습니다. 전체 시스템은 엔비디아의 Halos 안전 시스템을 기반으로 합니다.
인공지능 분야는 중요한 전환점에 도달하고 있으며, 자율주행 택시가 그 혜택을 가장 먼저 누리고 있습니다.
젠슨 황은 물리적 AI가 중요한 전환점에 접어들고 있다고 말하며, 기계가 현실 세계를 이해하고 추론하고 행동하기 시작하는 시점이라고 설명했습니다. 이는 ChatGPT가 디지털 AI를 변화시킨 것과 마찬가지이며, 자율주행 택시가 이러한 변화의 혜택을 가장 먼저 누릴 분야 중 하나가 될 것이라고 덧붙였습니다.
그는 알파마요가 차량이 복잡한 환경에서 안전하게 주행하고 의사 결정에 대한 근거를 설명할 수 있도록 해준다는 점을 강조했는데, 이는 확장 가능한 자율 주행을 달성하기 위한 중요한 기반입니다.
세 가지 핵심 요소를 한 번에 결합하여 완벽한 오픈 소스 생태계를 구축합니다.
엔비디아는 알파마요를 차량에 직접 탑재하는 것이 아니라, 다른 차량 탑재형 모델을 훈련, 미세 조정 및 개선하기 위한 기반으로 활용하는 "교사용 모델"로 포지셔닝하고 있습니다.

(참고: 여기서 '정제'란 알파마요의 추론 능력을 활용하여 차량에 즉시 탑재되어 전문가 수준에 가까운 자율주행 모델을 대량 생산하는 것을 의미합니다.)
I. Alpamayo 1: 사고 과정 체인을 갖춘 최초의 자율 주행 VLA 모델
Alpamayo 1은 100억 개의 파라미터를 자랑하며, 비디오를 입력으로 받아 주행 궤적과 완전한 추론 과정을 출력합니다. 또한 오픈 소스 모델 가중치와 추론 코드를 제공합니다. 현재 Hugging Face에서 연구 개발 용도로 사용 가능하며, 향후 버전에서는 파라미터 규모, 추론 심도 및 상용 옵션이 확장될 예정입니다.
(참고: Hugging Face는 AI 세계의 GitHub로 알려져 있으며, 가장 큰 특징은 대량 모델과 데이터셋을 통합한 오픈소스 모델 저장소입니다.)
II. AlpaSim: 완전 오픈 소스 자율 주행 시뮬레이션 플랫폼
AlpaSim이 GitHub에 공개되었으며, 매우 사실적인 센서 모델링을 지원하여 사용자가 교통 행동 및 폐쇄 루프 테스트를 설정하고 신속한 검증 및 전략 최적화를 수행할 수 있도록 합니다.
III. 물리적 AI 공개 데이터 세트: 대규모 실제 주행 데이터
Physical AI Open Datasets는 다양한 지리적 지역과 환경 조건을 포괄하는 1,700시간 이상의 운전 데이터 데이터베이스를 보유하고 있으며, 희귀하고 복잡한 시나리오에 초점을 맞추고 있습니다. 이 데이터베이스는 Hugging Face에서도 다운로드할 수 있습니다.
황런쉰은 이 세 가지 요소의 결합이 자체 강화적인 연구 개발 순환을 형성하여 추론 기반 자율 주행 기술의 성숙도를 가속화할 수 있다고 밝혔다.
자동차 제조업체와 업계 리더들은 레벨 4 자율주행을 목표로 삼고 지지 의사를 표명했습니다.
루시드 , JLR , 우버 , 그리고 연구기관인 버클리 딥드라이브 를 비롯한 여러 자동차 제조업체와 연구기관들이 알파마요에 관심을 표명했습니다. 모든 관계자들은 추론 능력을 갖춘 AI, 개방형 시뮬레이션 환경, 그리고 고품질 데이터가 레벨 4 자율주행 기술 발전에 필수적인 요소라는 데 동의합니다.
(참고: 레벨 1~2는 운전 보조 단계이고, 레벨 3은 전환 단계이며, 레벨 4는 운전자의 도움 없이 완전히 운전할 수 있는 단계입니다.)
엔비디아 생태계의 다른 구성원들과의 추가적인 통합은 상용 배포를 지원할 것입니다.
Alpamayo 외에도 개발자는 Cosmos 및 Omniverse를 포함한 다른 NVIDIA 플랫폼에서 이 모델을 사용할 수 있으며, NVIDIA DRIVE Hyperion 아키텍처와 DRIVE AGX Thor 컴퓨팅 플랫폼에 이 모델을 통합할 수도 있습니다.
NVIDIA는 개발 과정에서 실제 상용 배포에 앞서 시뮬레이션 환경에서 성능을 검증할 수 있다고 밝혔으며, 이는 안전성과 확장성을 모두 고려한 것입니다. 이러한 프로세스 설계 덕분에 자율주행 기술은 "연구 단계"와 "상용 배포" 사이에 처음부터 다시 시작하는 것이 아니라, 동일한 아키텍처 내에서 시뮬레이션에서 실제 차량으로 점진적으로 전환할 수 있습니다. 실제 도로 주행 테스트에 들어가기 전에 가상 환경에서 안전성과 안정성을 반복적으로 검증함으로써 리스크 줄이고 확장성을 향상시키며, 자동차 제조업체와 개발자는 상용화를 추진하는 데 있어 더욱 명확하고 통제 가능한 경로를 확보할 수 있습니다.
(황 회장, CES 2026의 분위기 조성: 베라 루빈, 본격적인 양산 개시, AI 자율주행차 1 상장, TSMC의 핵심 제조 공정 공개)
이 기사, "알파마요 생태계 출범: AI 자율주행 차량에 추론 능력 부여 및 결정 이유 설명"은 ABMedia 에 처음 게재되었습니다.




