我們采用了多源融合(攝像頭+毫米波雷達)定位結合高精度地圖(hdap)輔助的方案,預計在鵬城復雜高架道路的實車測試中,百公里人工接管次數能降至3次以下,接近行業標桿水平。
智能限速功能已打通導航地圖數據與交通標識識別(tsr),能自動根據路牌或電子眼信息調整巡航車速。”
“場景化高階功能嘗試:打燈自動變道(alc)。
這是高速noa的核心體驗點之一,也是用戶感知最強的功能。
核心挑戰在于變道決策的時機判斷比如安全間隙、鄰車道車速預測和執行平順性。
我們基于強化學習框架構建了決策模型,結合多目標雷達的精準測速測距,目前在高精度地圖覆蓋的高速路段,變道成功率達到92%。
下一步重點是提升復雜車流環境下的決策魯棒性和執行流暢度,消除用戶的突兀感。”
“泊車領域突破:全場景自動泊車(apa)與遙控泊車(rpa)。
apa已支持垂直、水平、斜列等多種車位,基于環視攝像頭與超聲波雷達融合感知,車位識別成功率和泊入成功率均達到98%以上。
rpa功能在手機藍牙連接穩定范圍內,可實現直線前進\/后退遙控,解決狹窄車位上下車痛點。
這部分相對成熟,是提升用戶便利性和科技感的重要抓手。”
蔣雨宏的匯報條理清晰,數據扎實,既展現了進展,也不回避挑戰。
他最后總結道:
“l2.5功能包是我們在啟界5上實現‘全系標配高速noa’承諾的基石,是必保項。
當前資源投入占比約60%,預計在q3完成全部功能凍結和車規級驗證。”
徐平聽得頻頻點頭,姚塵風則在筆記本上快速記錄著什么,眼神專注。
蔣雨宏看向身旁的卞金麟:“金麟,你補充下技術底座和前瞻布局。”
卞金麟,這位哈工大博士出身的車控專家,氣質更為內斂,但開口便是硬核技術:“好的,雨宏。我補充三點核心底座能力建設。”
“第一,感知架構升級。我們堅定推進‘bev(鳥瞰圖)感知’作為下一代主航道。”
卞金麟的ppt切換到復雜的神經網絡結構圖。
“傳統‘前融合’或‘后融合’在處理多傳感器(攝像頭、毫米波雷達、未來激光雷達)異構數據時存在信息損失或延遲問題。
bev感知將不同視角、不同模態的原始數據,通過transforr等網絡結構,統一轉換到車輛上方的鳥瞰視角坐標系下,生成統一的、稠密的環境表征。
這更符合自動駕駛的決策需求。”
他展示了仿真環境下的bev感知效果,車輛、車道線、可行駛區域等元素清晰直觀。
“目前,我們的bev感知原型在nuses數據集上的目標檢測ap值已提升至52.7%,接近行業頭部開源方案水平,但距離量產落地還有距離,主要在實時性和車規級芯片的部署優化上。
投入占比約25%。”</p>