侵权投诉
订阅
纠错
加入自媒体

与高通硬刚,英特尔拿出了怎样的座舱产品?

2024-08-13 09:22
赛博汽车
关注

作者 | 章涟漪

编辑 | 邱锴俊

“英特尔正在将AI PC带到汽车上”。

今年美国国际消费电子展期间,英特尔宣布正式进军汽车市场,并发布了旗下的“第一代软件定义汽车SoC”芯片产品,首位客户为极氪

如今,它又有新成果发布。

8月8日,英特尔发布了新战略下的车载产品线第二款产品,也是旗下第一代英特尔锐炫™车载独立显卡,ARC A760-A

据英特尔副总裁Jack Weast介绍,该显卡平台算力达229TOPS,搭配了16G的DDR6显存,每秒浮点运算能力相比集成显卡算力提升4倍;支持8块独立显示屏同时支持4K,并搭载Xe图形引擎及XMX计算引擎

“我们将独立显卡带入汽车行业,这样就可以在汽车中运行大语言模型,在车里体验到家中一样的3A PC游戏体验,同时在本地可以利用芯片获得电脑般的体验”。Jack Weast称,“显卡将于2025年实现量产,届时会开启汽车座舱个性化定制和智能互动的新时代。”

作为PC阶段的霸主,英特尔在智能座舱芯片领域却不占上风。根据盖世汽车研究院数据,2023年中国市场,英特尔占比仅4.6%,位列高通、AMD、瑞萨之后,排名第四

显然,英特尔想改变这一格局,且它认为自己有很大机会。

01再次发力车圈,英特尔有机会

这不是英特尔第一次在汽车领域发力。

早在2016年,英特尔即推出Apollo Lake系列产品,迅速占领高端汽车座舱市场,当时除了奔驰和奥迪,座舱高端芯片几乎都选择了Apollo Lake

但,由于当时汽车市场规划还太小,英特尔也没有将主要精力放在该领域,一直到2023年都没有升级产品。

这给了高通机会。

高通智能座舱芯片迭代历程2020年前后,高通第三代智能座舱芯片骁龙SA8155P发布,逐步取代了Apollo Lake的地位,并且几乎垄断了中国中高端市场,随后于2021年发布的第四代智能座舱芯片骁龙SA8295P,也成为当下国内大部分旗舰车型首选。

根据盖世汽车研究院数据,2023年中国市场,高通座舱SoC芯片出货量达226万颗,占比为59.2%;AMD排在第二位,市场占比为15.1%;瑞萨排在第三位,占比为8.6%;英特尔排在第四位,占比仅为4.6%

英特尔显然希望能打破现有格局。

2024年1月9日,英特尔在CES 2024展会上宣布,计划将公司“AI everywhere”战略推向汽车市场,同时还发布了全新的人工智能增强型软件定义汽车片上系统系列,极氪将是第一家“尝鲜者”,上车时间为2024年。

彼时,Jack Weast表示,“坦率地说,今天的智能汽车让我们想起了第一代笔记本电脑。2035年,80%的汽车将会是软件定义或电动汽车。现在正是进入市场的最佳时机”。

此次发布会上,Jack Weast又进一步更新了中国数据,他表示,到2025年,中国将有80%的智能座舱渗透率,很多智能座舱解决方案都以AI为特色

英特尔此时推出ARC A760-A,显然在他们看来正当时。

实际上,确实存在机会。

目前汽车智能座舱的主控芯片标配是SoC系统级芯片+MCU芯片。其中,SoC芯片是市场一大重要增长点,高通占据主导地区,且采用的主流框架是“ARM+Android”。

随着智能汽车的崛起,用户对3D HMI、AI大模型、大型游戏等差异化座舱需求日益增长,“x86+Linux” 架构受到车企关注。

相比ARM架构,x86架构下的CPU在运算的需求量上很大,其优势在于运行大型软件。而后者的主导者之一正是英特尔

02大算力,英特尔的重要法宝

作为“后来者”,英特尔想要在高通手里分走蛋糕,自然是有法宝的:大算力。

据Jack Weast介绍,英特尔ARC A760-A是一款车规级独立显卡,在AI能力方面,它能够提供229 TOPS的平台算力

与之对比,高通智能座舱芯片骁龙8295的AI算力为30 TOPS。也就是说,英特尔ARC A760-A的AI算力比高通骁龙8295高了将近7倍。

衡量深度学习计算能力的另一重要指标,FP32单精度算力为14TFLOPS,与大模型训练所用的主流GPU A100相当。

此外,英特尔ARC A760-A拥有28个Xe核心、28个光线追踪单元和多达448个面向AI的XMX/矢量引擎。同时,它继承了16 GB显存,支持8个独立的4K显示屏同时运行。

Jack Weast表示,凭借图形处理能力,英特尔车载独立显卡可支持高保真视觉效果和复杂的3D人机界面。

之所以在座舱领域推出这样大AI算力的产品,是基于英特尔为智能座舱市场未来趋势的判断。尽管AI最大的大脑在云端,但英特尔中国区技术部总经理高宇表示,丰富且创新的AI应用场景需要强大的本地算力平台作为支撑

我们强调要把AI算力预埋在座舱里,而不仅仅是依赖云端。我们不是否定云端,而是希望看到云和端的算力合理分布”。Jack Weast称,把算力放在端上,是出于五点考虑。

第一,本地算力摆脱了对网络的依赖;第二,本地算力可以保证极低的时延;第三,出于成本考虑,把算力部署在本地,端到端的成本会更低;第四,保护隐私和安全,随着车内外摄像头以及传感器的广泛配置,个人的信息安全问题日益突出,放在本地非常好地规避了此类风险;最后,可以应用大模型的记忆能力,包括短期记忆、长期记忆以及动态微调能力,实现更加人性化的部署

“出于这五个原因,我们强烈建议大家在规划未来车型时,考虑足够的本地AI算力。”高宇呼吁车企,一定要把AI算力进行预置,来迎接未来两年之内座舱内AI应用场景的大爆发。

高宇称,要实现非常好的AI出行伴侣,就需要更大的模型,必须有6B、7B甚至是10B以上的模型才可以达到比较好的效果。“得益于大算力、大容量显存,我们可以承载更大的模型。从目前的优化结果来看,它直接覆盖了从6B、7B、10B、13B甚至是18B这样一个广阔的模型区间。”在高宇看来,英特尔ARC A760-A是当下能够在座舱内运行如此大规模的大模型的唯一选择。

03软硬件结合,英特尔全力出击

到2030年,半导体市场将会发生巨大变化,市场规模将会达到1万亿美元”。Jack Weast认为,英特尔是唯一一家能够百分之百参与其中的公司,因为英特尔拥有代工厂,可以制造人工智能产品并完成交付。

同时,英特尔正在采用开放标准,即开源软件。

在Jack Weast看来,现在的行业充满挑战,英特尔希望帮助行业解决三项挑战。首先是架构挑战,借助软件定义解决电子/电气架构挑战,各个产业包括电信行业,都在从嵌入式的微控制器的思维模式向软件定义转型。

第二是能源挑战,尽管电动汽车行业发展很好,但想要赚钱利润不容易,英特尔希望可以通过提升车辆能源效率,降低成本,帮助行业盈利。

第三是动力和性能挑战,现在很多厂商都在追求可扩展性,希望软件可以重复使用,英特尔希望利用芯片,帮助合作伙伴们更好的实现扩展可能性。

基于此,英特尔在智能座舱芯片领域将包括三个方案。

软件定义座舱,英特尔会把PC级处理器,包括PC级的CPU、GPU,带到汽车上,把汽车看作一个系统进行设计这样即能提升效率,也能带来更低的成本

可持续性,英特尔会和产业标准化组织一起,共同推进在舱内电源管理的标准化的方向,为此,英特尔收购专门从事智能电动汽车(EV)能源管理 SoC 的无晶圆厂芯片设计和软件公司Silicon Mobility,以为主机厂提供更好的能源管理解决方案。可扩展性。基于IDM 2.0战略,英特尔将推出基于UCIe的开放式汽车芯粒(Chiplet)平台。

落地到整车上会有哪些效果,Jack Weast以“哨兵模式”进行了介绍。

他指出,哨兵模式下,能够知道车辆是否被人破坏,但时刻启动对耗电量比较大,软件定义架构可以从整个系统层面进行能源管理,在车辆中部署类似功能,同时还可以降低能耗,尽可能的降低哨兵模式的耗电量。

“如何实现整车智能化。”Jack Weast进一步表示,英特尔正在制定一项新的行业标准SAE车辆平台电源管理标准(J3311),它的作用是将PC的电源管理概念引入到车辆平台。“车当中每一个ECU的电源控制都会通过这样一套标准来控制,从而帮助整个行业进行能源管理”。

在Jack Weast看来,AI未来走向无法预测。有的时候在CPU上运行更好,有的时候在NPU上运行更好,有的时候在GPU上运行更好,英特尔平台提供三种引擎,可以选择适合的计算引擎,以获得最好的性能。

Jack Weast还强调,英特尔ARC A760-A支持4K,支持SR-IOV,这是非常重要的未来导向型的高性能AI产品。“我们是汽车领域中唯一的一个能够支持这一功能的企业”

除了芯片,Jack Weast也分享了英特尔软件层面的成果。“AI PC加速计划已经携手超过100家ISV合作伙伴,实现了300项新功能,并在英特尔的AI PC平台上优化了500多个AI模型。到今年年底,全球将部署超过1亿台英特尔人工智能设备”。

借助“AI”之力,英特尔势要强势进入车圈,其中ARC A760-A能否成功,很重要-END-

       原文标题 : 与高通硬刚,英特尔拿出了怎样的座舱产品?

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号