Nvidia 推出 Alpamayo AI 用於自駕車:汽車技術領域的「Chat-GPT 突破」
NVIDIA發佈Alpamayo:於CES 2026革新自駕車智能
在CES 2026期間,NVIDIA Corp.(NASDAQ: NVDA)推出了其開源Alpamayo套件,這是自駕車技術上的重大進展。這一全新AI模型家族旨在徹底改變自駕車感知及與環境互動的方式。
- NVDA股票正經歷顯著波動。
傳統的自駕系統通常將感知(「看見」)與規劃(「駕駛」)分開處理。相比之下,Alpamayo利用視覺語言行動(VLA)模型,使車輛能以類似人類思考的方式推理其周遭環境。
相關閱讀:
AI推理的崛起
自駕車面臨的最大挑戰之一是「長尾問題」——即傳統演算法難以應對的罕見且不可預測的道路情境。
為此,NVIDIA的Alpamayo 1模型擁有100億個參數,運用鏈式思考推理來應對複雜且異常的場景。
「我們已達到實體AI的ChatGPT時刻——機器現在開始能理解、推理並在現實世界中採取行動,」NVIDIA執行長Jensen Huang表示。
他補充說:「Robotaxi將是最早受益者之一。Alpamayo賦予自駕車分析罕見事件、在艱難環境下安全運作,並清楚解釋其決策的能力。這是安全且可擴展自動化的基石。」
例如,正如人類駕駛者會預判有小孩可能會追球衝出馬路,Alpamayo 1也能生成駕駛路徑並對其選擇給出邏輯說明。
這種透明度對開發者和監管機構理解車輛行動背後的推理至關重要。
NVIDIA的三管齊下策略
NVIDIA為實體AI提供了一個全面的開放開發平台,包含三大核心組件:
- Alpamayo 1:一款開放的VLA模型,作為「教師」角色,讓開發者能將其先進推理能力萃取到更小、更高效、適合車載部署的模型中。
- AlpaSim:一個開源、高擬真的模擬環境,允許在實際部署前對自駕系統進行嚴謹、閉環的測試。
- Physical AI Datasets:一套精選超過1,700小時的多元駕駛數據,專為涵蓋歷來限制Level 4自動駕駛的罕見與困難場景而設計。
透過推動端到端實體AI,NVIDIA憑藉其硬體領先地位——特別是DRIVE Thor平台——來支持這些強大的神經網絡。
業界領袖如Lucid Group, Inc.(NASDAQ: LCID)與Uber Technologies, Inc.(NYSE: UBER)已經開始探索Alpamayo框架,以加速他們自身Level 4自動駕駛計劃。
「邁向實體AI強調了系統需能對現實世界行動進行推理,而不僅僅是分析數據的必要性,」Lucid Motors ADAS及自動駕駛副總裁Kai Stepper表示。
Stepper補充:「先進模擬工具、全面數據集和推理模型,都是自駕車發展下一階段的關鍵。」
如Jensen Huang所強調,這可能標誌著機器真正開始理解和詮釋物理世界複雜性,而不再只是被動反應的關鍵時刻。
圖片來源:Shutterstock
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
黃金與白銀因格陵蘭關稅擔憂創下新高
澳洲Syrah Resources獲得與Tesla石墨供應協議的延期
AI烏托邦主義掩蓋了科技億萬富翁的恐懼:Douglas Rushkoff
Tesla推出全國首座大型鋰精煉廠
