侵权投诉
订阅
纠错
加入自媒体

东风+华为,还是华为借东风?华为ADS3.0技术详解

2025-04-11 09:43
智驾最前沿
关注

背景

自从华为ADS 3.0于2024年4月24日在“华为智能汽车解决方案发布会”上正式发布后 ,2024年第四季度率先搭载于问界M9旗舰SUV,2024年9月11日起,鸿蒙智行全系(问界M5、问界M7、问界M9、享界S9、智界S7等车型)陆续升级华为ADS 3.0。

华为ADS 4.0计划在2025年推出,余承东表示2025年ADS4.0可实现高速L3商用/城区L3商用试点,预计2025年7-8月走向高速和城市L3的商用试。

最近更是传出华为ADS 4.0将首发搭载在岚图SUV上。

图1网传东风研发总院内部的岚图骡子车,图片来自网络

东风与华为的合作渊源由来已久,早在2012年,双方就开始携手合作,2013年确定共同研发下一代车载系统 。2014年10月17日,东风公司与华为技术有限公司签署战略合作协议。

2024年,东风岚图、东风猛士科技陆续与华为宣布达成战略合作。

2025年1月22日,东风汽车集团有限公司旗下主流科技电动品牌东风奕派与华为技术有限公司在华为深圳总部签署智能汽车战略合作协议 。近期曝光的华为与东风汽车合作的首款SUV车型,或预示双方合作进一步深化。

当前,国内外车企巨头与IT、通讯巨头纷纷携手,探索未来汽车的发展路径,汽车产业“五化”(轻量化、电动化、智能化、网联化、共享化)趋势带来产品和技术变革,出行形态被重构,东风与华为的合作是顺应这一趋势的前瞻性布局 。

东风于2023年推出eπ品牌,在新能源汽车市场销量弱于集团领导预期,如华为和赛力斯联合打造的Aito品牌同期销量较高。东风需借助华为技术提升竞争力,扭转局势 。此前华为为东风旗下岚图等品牌提供技术支持后,产品销量显著增长,如2024年9月上市的升级版岚图梦想家,在华为技术加持下,销量成绩突出,证明合作有效,促使东风进一步深化与华为合作 。

自2024年起,华为通过HI模式(Huawei Inside)与智选车模式双线推进,已与赛力斯(问界)、奇瑞(智界)、北汽(享界)等车企合作。本次与东风的合作,是其智能汽车业务布局的进一步拓展,特别是若第三方合作方为长安汽车,三方联合或为深化国资车企改革的重要一步 。

东风汽车整车制造领域积淀深厚;华为在ICT(信息与通信)基础设施、智能终端、智能驾驶、鸿蒙座舱及三电系统等方面拥有深厚技术积累与丰富商业实践 。双方合作可实现优势互补、彼此赋能,共同助推智能化汽车的加速普及和高质量发展。

由此看来,这张岚图骡子车照片并非空穴来风。

华为ADS 3.0的实现方案解析

虽然华为ADS 4.0已经在途,但现在主力方案还是ADS 3.0。

ADS 3.0是无图方案,意味着摆脱高精地图依赖。传统高阶智能驾驶多依赖高精地图,存在更新成本高、对图商高度依赖、覆盖有限等问题。ADS 3.0通过“多模态融合感知+AI实时建模”技术,仅靠车载传感器(激光雷达、摄像头、毫米波雷达 )和自研算法,就能实时构建道路环境模型,实现精准定位与路径规划,做到全国范围“有路就能开”。

因为是无图方案,不再局限于高精地图覆盖区域,全国均可启用高阶智驾功能,使用场景大大拓展。

不依赖高精地图是依靠实时动态建模,借助AI算法,可实时识别道路拓扑、交通标志、障碍物等,并动态调整行驶策略,应对复杂路况能力增强。

具有学习进化能力,基于华为云端大数据和车端学习,能不断优化驾驶策略,适应不同地区驾驶习惯,越用越“聪明”。虽然公开资料没有明说,从中也可以推断,ADS3.0具有“影子模式”功能,并收集匿名司机驾驶大数据上传服务端,供AI学习和模仿。

为保证绝对安全,有多重冗余设计,融合多传感器数据,保证在暴雨、大雾等极端天气下也能稳定运行,保障行车安全。

驾驶体验方面也有提升,城区智驾更精准连贯。以智界S7为例,基于城区智驾领航辅助(City NCA),对道路识别更精准,行驶更连贯。决策果断,类似老司机,密集车流下换道成功率高,加速平顺,无保护路口左转及人车混行路段也能从容应对 。

泊车功能更实用,新增泊车辅助自定义靠左/靠右功能,用户可按需选择位姿偏好,解决窄车位上下车不便问题 。

而且安全性增强,AEB防碰撞能力升级,前向防碰撞新增对斜穿行人、两轮车提前预判避免碰撞功能;后向防碰撞新增支持锥桶、水马等常见障碍物,遇有碰撞风险车辆可跨虚线借道横向避。

HUAWEI ADS 3.0全称是华为智能驾驶解决方案3.0版本 ,据报道,这不仅是一套具备端到端智能驾驶系统,还是一套类人智能系统,旨在提升驾驶安全性与效率的智能驾驶系统。

图2华为ADS 3.0架构图,图片来自网络

端到端类人智驾是指从车辆感知外界环境信息到最终做出驾驶决策并执行,整个过程模仿人类驾驶思维和决策方式,实现智能驾驶。其感知内容包括以下三方面:

多维立体感知:通过多种传感器从多个维度、立体全面地获取车辆周围环境信息。

路况感知:对道路状况,如车道线、路面标识、道路坡度、弯道曲率等信息的探测与识别。

环境感知:感知车辆周边的动态和静态物体,包括其他车辆、行人、交通设施、障碍物等信息。

其感知手段包括了激光雷达和导航地图,并没有采用现在流行的纯视觉方案:

激光雷达:通过发射激光束并接收反射光来测量目标物体距离、位置、速度等信息的传感器,可构建高精度三维环境地图。

毫米波雷达:利用毫米波频段电磁波探测目标物体的距离、速度和角度,在恶劣天气下性能稳定。

摄像头:采集车辆周围视觉图像信息,用于识别物体、交通标志、车道线等。

导航信息:提供车辆行驶路线、目的地、地图数据等信息,辅助智能驾驶系统规划路径。

表1 ADS3.0传感器硬件

据报道,ADS 3.0实现了端到端仿生大脑思考,其核心是GOD感知神经网络:General Obstacle Detection的缩写,即通用障碍物检测神经网络,可识别各类已知和未知障碍物和PDP决策神经网络:负责根据GOD感知神经网络传来的信息,做出驾驶决策,如加速、减速、转向等。

其效果是决策速度提升1倍:相比前代系统或同类产品,决策生成速度提高一倍,使车辆能更快应对路况变化。

且决策更类人:做出的驾驶决策更接近人类驾驶习惯和逻辑,提升驾驶舒适性和安全性。

拥有更平稳的驾控体验:在加速、减速、转向等操作过程中,使驾乘感受更舒适、平稳。

由于目前我们的认知水平并没有解决人脑的基本运行机制,只是做出了诸多推测,最成功的推测当然是神经网络模型。

所以笔者推测,ADS 3.0的类人功能,还是来自影子模式,也就是学习人类行为。

影子模式,本来是有tesla首先提出并实现的一个功能。是指在有人驾驶状态下,系统包括传感器仍然运行但是并不参与车辆控制,只是对决策算法进行验证—系统的算法在“影子模式”下做持续模拟决策,并把决策与驾驶员的行为进行对比,一旦两者不一致,该场景就被判定为“极端工况”,进而触发数据回传。

Telsa的所有车型都支持此功能,因此Tesla的每个用户都是特斯拉免费的测试员,用户越多,能采集到的数据越多。

根据网上公布的信息,特斯拉影子模式触发数据采集和上传的方式主要分为2种:

1、触发器模式

在触发器模式下,当驾驶员的操作行为契合程序预先设定的触发条件时,车辆端便会迅速将影子模式所指定提取的相关信息传送给后端。后端在获取这些基于固定触发条件生成的场景数据后,可直接运用这些数据来优化特斯拉神经网络算法。

举例而言,若工程师察觉到后端需要更多转向场景的数据以完善算法,进而使ADAS功能能够从容应对各类转向状况,并提升转向过程中的平顺性,此时便可设定当驾驶员拨动转向拨杆这一操作(触发条件)发生时,系统自动上传转向所需的系列数据,包括当时拨杆的状态、车速、挡位、油门开合程度、周边已标记的障碍物类型以及障碍物的距离等。这些数据上传至后端后,会立即投入到ADAS相关神经网络算法的训练中,助力算法不断优化升级。

2、后台上传型

在后台上传型模式中,特斯拉的Autopilot程序持续在后台稳定运行,不过该运行模式不会对驾驶员的实际操作产生任何干预。可以把这一模式下的影子模式形象地类比为一位时刻学习驾驶技术的副驾驶,它会依据所感知到的周边场景做出自身的判断,然而却没有权力干涉主驾驶的操作。当后台运行程序所输出的指令与驾驶员的指令出现不一致的情况时,系统会判定后台神经网络算法存在偏差。与此同时,后台会及时记录驾驶员的驾驶信息以及对应的周边场景,并将这些数据上传至后端,以此来实现对自身算法的优化改进。

华为ADS3.0相对于前代产品的提升

HUAWEI ADS系统从1.0到3.0版本在方案上的进化,最主要的是从有中间表达(BEV网络)的非端到端方案(1.0),过渡到混合方案(2.0),到摈弃了中间表达的彻底端到端方案(3.0)。

ADS 1.0采用BEV(Bird's - Eye - View,鸟瞰图)网络 ,实现2D感知,能识别道路结构和目标白名单(预先设定可识别的目标清单),但感知维度较单一。

ADS 2.0在BEV网络基础上加入GOD(General Obstacle Detection,通用障碍物检测)网络 ,从2D感知进化,可识别道路结构和异形障碍物,能看懂物和路,感知能力提升。

ADS 3.0使用GOD感知神经网络,达到3D感知。可综合感知全景信息,不仅识别道路结构、目标障碍物,还能进行场景理解和实况行为预判,感知系统更为强大。

图3华为ADS从1.0到3.0的进化过程,图片来自网络

过渡到彻底端到端方案后,具有如下能力提升:

图4华为ADS 3.0的性能提升,图片来自网络

1、全向防碰撞3.0:汽车主动安全技术的进阶版本,可从多个方向对可能发生的碰撞进行监测和预防,减少事故发生。

2、超全感知:全天候系统不受白天黑夜、晴雨雾雪等天气条件限制,始终能正常工作。

3、全场景:涵盖城市道路、高速、乡村道路、停车场等各种行驶和停放场景。

4、全目标:能识别包括机动车、非机动车、行人、动物 、道路设施等在内的各类目标物体。

5、超快响应:系统从检测到危险到做出反应(如制动、避让指令等)的时间极短,仅需200毫秒(ms,1秒= 1000毫秒 ),可及时避免或减轻碰撞伤害。

6、超前验证:通过实车道路测试结合云端大数据模拟分析,对防碰撞系统进行全面、深入验证,确保其可靠性和安全性。

另外根据公开资料,ADS 3.0车端算力为200TOPS(万亿次运算/秒),相比ADS 1.0的400TOPS反而有所降低,主要通过算法优化和硬件协同实现了更高效率。

在不同车型上,ADS 3.0的计算芯片是不一样的,比如阿维塔124搭载华为MDC810(Mobile Data Center) 自动驾驶芯片,基于7nm制程工艺打造,问界M8则采用华为MDC 610芯片。

下表是主流智驾方案的算力对比:

ADS 3.0的性能提升,笔者认为是来自端到端方案省略了中间步骤,以及华为采用自研芯片和自研软件,能够软硬件结合实现最大性能,才能实现算力的经济性。

总结

从报道数据来看,华为ADS 3.0的性能已经全方位的趋于完美。以华为在软件和算法方面的深厚的技术积累,自研芯片表现出的超高技术水准,以及软硬件都是自研能够发挥最大效力,从这些角度看,华为ADS 3.0的性能表现是完全有现实依据的。

如果要类比,上一个依靠自研软硬件结合而创造爆品的公司当然是苹果,自家软件能够最大限度发挥自家硬件的潜能,自家硬件也可以根据自家软件修改适配,结果就是创造出最顺滑的产品。这也是很多大型车企要跨界自研芯片的原因。

-- END --

       原文标题 : 东风+华为,还是华为借东风?华为ADS3.0技术详解

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号