第681章 蒋雨宏的汇报 (第2/2页)
我们采用了多源融合(摄像头+毫米波雷达)定位结合高精度地图(HD Map)辅助的方案,预计在鹏城复杂高架道路的实车测试中,百公里人工接管次数能降至3次以下,接近行业标杆水平。
智能限速功能已打通导航地图数据与交通标识识别(TSR),能自动根据路牌或电子眼信息调整巡航车速。”
“场景化高阶功能尝试: 打灯自动变道(ALC)。
这是高速NOA的核心体验点之一,也是用户感知最强的功能。
核心挑战在于变道决策的时机判断比如安全间隙、邻车道车速预测和执行平顺性。
我们基于强化学习框架构建了决策模型,结合多目标雷达的精准测速测距,目前在高精度地图覆盖的高速路段,变道成功率达到92%。
下一步重点是提升复杂车流环境下的决策鲁棒性和执行流畅度,消除用户的突兀感。”
“泊车领域突破: 全场景自动泊车(APA)与遥控泊车(RPA)。
APA已支持垂直、水平、斜列等多种车位,基于环视摄像头与超声波雷达融合感知,车位识别成功率和泊入成功率均达到98%以上。
RPA功能在手机蓝牙连接稳定范围内,可实现直线前进/后退遥控,解决狭窄车位上下车痛点。
这部分相对成熟,是提升用户便利性和科技感的重要抓手。”
蒋雨宏的汇报条理清晰,数据扎实,既展现了进展,也不回避挑战。
他最后总结道:
“L2.5功能包是我们在启界M5上实现‘全系标配高速NOA’承诺的基石,是必保项。
当前资源投入占比约60%,预计在Q3完成全部功能冻结和车规级验证。”
徐平听得频频点头,姚尘风则在笔记本上快速记录着什么,眼神专注。
蒋雨宏看向身旁的卞金麟:“金麟,你补充下技术底座和前瞻布局。”
卞金麟,这位哈工大博士出身的车控专家,气质更为内敛,但开口便是硬核技术:“好的,雨宏。我补充三点核心底座能力建设。”
“第一,感知架构升级。 我们坚定推进‘BEV(鸟瞰图)感知’作为下一代主航道。”
卞金麟的PPT切换到复杂的神经网络结构图。
“传统‘前融合’或‘后融合’在处理多传感器(摄像头、毫米波雷达、未来激光雷达)异构数据时存在信息损失或延迟问题。
BEV感知将不同视角、不同模态的原始数据,通过TranSfOrmer等网络结构,统一转换到车辆上方的鸟瞰视角坐标系下,生成统一的、稠密的环境表征。
这更符合自动驾驶的决策需求。”
他展示了仿真环境下的BEV感知效果,车辆、车道线、可行驶区域等元素清晰直观。
“目前,我们的BEV感知原型在nUSCeneS数据集上的目标检测mAP值已提升至52.7%,接近行业头部开源方案水平,但距离量产落地还有距离,主要在实时性和车规级芯片的部署优化上。
投入占比约25%。”