斩获“扶轮奖”!摇橹船空间智能相机终结智能驾驶的感知路线之争
来源: 重庆中科摇橹船信息科技有限公司    日期:2025-12-20    点击:26   属于:企业动态

                                                              
智能辅助驾驶的感知路线之争能否终结?车企是否必须为“融合方案”付出巨大的人力与算力成本?
 

近日,2025年(第十八届)国际汽车技术年会在上海召开。中科摇橹船创始人郑道勤受邀出席并进行主题演讲。演讲中,郑道勤系统阐释了“空间智能感知”这一全新技术路线,并发布了基于此路线研发的“空间智能相机”。该产品以其在感知底层技术上的原创性突破,对以上两个问题做出了回应。 

作为洞察行业技术演进的关键平台,国际汽车技术年会吸引了吉利、长城、东风、理想等主流车企参会。在会议同期举办的评选中,中科摇橹船空间智能相机斩获“2025汽车工业扶轮奖——汽车技术创新突破奖”。

                                                                

智能辅助驾驶的演进。始终伴随感知路径的争议。纯视觉路线存在天然短板,而多传感器融合路线实际应用中又面临诸多极限挑战。
 

01 纯视觉路线的天然短板

纯视觉路线的环境适应性不足,在弱光、强光、眩光、暴雨、暴雪、浓雾等恶劣环境与光照干扰下,成像质量与可靠性会下降。其次,如图所示,视觉路线对路面上的纸箱、轮胎、三角牌等异形障碍物或特殊标识识别能力有限。再次,其无法精准测距,依赖间接估算,容易产生误判。
 

02 融合路线面临物理极限

多传感器融合方案中,激光雷达、视觉相机与毫米波雷达三类数据需经过复杂的标定、对齐、时序同步及权重分配等处理流程,在感知融合决策过程中,系统难免会误判。

如图所示,空中坠落的电线、突然收窄的路面、动物闯入车道等大量极端场景(Corner Case),都可能导致系统响应失效,这些因素共同推高了车企智驾研发的边际成本。
                                                             


基于高时间分辨的空间计算成像技术,是面向未来的全新一代感知路线。该技术作为支撑空间智能的终极感知手段,具备底层统一 、超越融合;全场景、全测量、全识别、深度重建;显著降低开发成本,极大节省人力与算力等核心优势。
 
直面当前智能辅助驾驶感知瓶颈,依托空间计算光学,中科摇橹船自主研发出空间智能相机。该相机把激光雷达3D测距、可视化相机成像、毫米波阵列的抗干扰与穿云透雾能力,集合在一个传感器上,通过一条光路实现了激光雷达、可视化相机、毫米波雷达阵列的功能,并在底层实现感知统一,在前端完成数据统一。
评审组意见认为,基于高时间分辨的空间计算成像技术为突破高阶智能辅助驾驶在极端复杂场景下的感知瓶颈,提供了一条创新且有效的路径。
                                                             
郑道勤在演讲中,用“三步”比喻,解析了不同技术路径的本质差异:多传感器融合方案,是让视觉、激光雷达与毫米波雷达三种独立的信号各自前进一步,再通过复杂的算法艰难“对齐”,可被视为曲折的“三步”;行业近期出现的、将激光雷达与视觉进行前端融合,但没有跨越融合,可理解为前进了“一步半”;而中科摇橹船推出的空间智能相机,实现底层统一的同时前进了“三步”,是从被动对齐到底层统一的跨越。
 

中国汽车产业正经历从“汽车大国”迈向“汽车强国”的关键一跃,而关键核心技术的自主突破,是完成跃升的坚实根基。此次获奖,对中科摇橹船而言是一个新起点。公司将持续深耕空间计算光学与智能感知,全力推动中国智能辅助驾驶感知技术进入深水区,为全球汽车产业的智能化变革,贡献源自中国的创新智慧。