在近期于圣地亞哥舉行的 NeurIPS 大會上,英偉達推出了其最新的自動駕駛 AI 模型 Alpamayo-R1(AR1),旨在加速實現更廣泛的無人駕駛汽車。英偉達稱,AR1是全球首個用于自動駕駛的行業級開放推理視覺語言行動(VLA)模型,能夠同時處理文本和圖像,幫助汽車傳感器將所 “看到” 的信息轉化為自然語言描述。
AR1結合了推理鏈 AI 和路徑規劃技術,能夠更好地處理復雜情境。與以往的自動駕駛軟件相比,它通過分析場景并考慮所有可能選項,模擬人類的思考方式,從而進行決策。英偉達指出,這一能力對于實現四級自動化至關重要,四級自動化被汽車工程師協會定義為在特定情況下,汽車完全控制駕駛過程。
在一篇與發布會同步的博文中,英偉達應用深度學習研究副總裁布萊恩?卡坦扎羅(Bryan Catanzaro)提供了一個實例,說明 AR1的工作原理。他表示,在行駛于行人密集區域和自行車道旁的情況下,AR1可以利用推理鏈分析路徑數據,做出更合理的駕駛決策,比如避開自行車道或對潛在的橫穿馬路者停車等。這種基于推理的思考方式,能讓工程師更清晰地了解 AI 為何做出某種決策,從而幫助提升車輛安全性。
AR1模型基于英偉達今年早些時候推出的 Cosmos Reason,開放訪問使得研究人員可以為自己的非商業用途定制這一模型,進行基準測試或開發自主駕駛汽車。AR1現已在 GitHub 和 Hugging Face 上發布,卡坦扎羅提到,后期強化學習訓練在提升推理能力方面效果顯著,研究人員反饋取得了 “顯著改善”。


產品與服務
聯系站長
關于我們