高通CEO:2024将成为AI手机关键元年
那边适道刚盘点完2024年的AI预言,这边三星就宣布将在今年1月18日推出新款Galaxy手机,并引入多项AI功能,包括但不限于:视频AI处理、本地AI聊天机器人、通话实时翻译等等。相比之下,苹果iPhone16要搞的“AI大动作”还在外界的猜测中。
可以看到,几乎在所有预言中,AI硬件爆发和边缘计算都有被提及。不过,尽管AI硬件包含XR眼镜、“领带夹”AI Pin,甚至是比尔盖茨提到的智能耳机。但就目前来看,智能手机,一个人人都离不开的“器官”,最可能先被AI改造。
2007年,随着第一代iPhone横空出世,智能手机时代就此拉开序幕。17年来,手机屏幕越来越大,摄像头越来越多,功能越来越强大。然而,颠覆性创新似乎没有出现,即便你可以从“会说话的汤姆猫”玩到“王者荣耀”。
无论是“卷谁屏幕更大”还是“卷谁刘海更短”,内卷的本质是科技创新的停滞。如今,AI技术的突飞猛进让智能手机厂商久旱逢甘露。近日,高通CEO Cristiano Amon在接受FT采访时预测,2024年将成为全球AI智能手机的关键元年,生成式AI正在“非常、非常快”的进入手机。
有句话“立场决定嘴巴。”早在去年3月,Amon就表示:在ChatGPT热潮之下,手机将成AI主流设备,并带领高通成为AI公司。
当然,高通急于“押宝”的心情可以理解。2021年7月,Amon出任高通CEO,并将工作重心放在寻找5G应用场景,探索5G时代硬件形态等推动5G发展的事业上。结果是,5G技术并没有带来手机销量销量的“大跃进”,反而是弯道超车的英伟达,用GPU挤出了一片天。
在此背景下,去年6月,高通的高级副总裁 Alex Katouzian 宣布,高通正在从一家通信公司过渡到一家智能边缘计算公司。
那么,换道钻研边缘计算的高通如何看待发生在终端设备上的AI革新?适道简译了FT对Amon的采访,试着梳理出一些要点。
01 为什么不能100%在云端?
首先,提出一个根本问题:为什么执着将模型塞进手机里?AI运算放在云端不好吗?
终端侧,即可以直接和用户交互的设备,例如手机、汽车、XR眼镜等。具有两个特点:一是个体相对复杂,部署起来各有各的难点;二是本地芯片算力有限,带不动大模型。(虽然苹果最新发布的Flash-LLM技术可能会改变这一情况。)
因此,在云端部署AI模型是一条正确的思路。
然而,这其中也有一些限制。一是,云计算带宽不足。例如,高速公路上的无人驾驶汽车要在毫秒内做出反应,即便云端算力足够,带宽也无法承载。
二是,云计算不能保证隐私。例如,用生成式AI撰写包含敏感财务数据文档时,你一定不想将这些数据上传到云端。
三是,传统云端AI交互性差。例如,你要向ChatGPT发出一串明确的Prompts,它才会作出响应。但在理想情况下,你更想让ChatGPT预测出自己的每一个动作,主动理解需求并提供服务。
Amon在采访中表示:一方面,随着训练方法的改进,一些更小型、高效的AI处理器和模型将被集成到便携设备中。端侧芯片的算力困局得到了解决;另一方面,更多混合型AI将在设备上运行,即一部分AI处理在端侧进行,而另一部分在云端完成。这种方法可以降低运行AI的成本。例如,开发者基于在终端运行的Stable Diffusion创建应用程序,生成每张图像将承担很低的查询成本,甚至完全没有成本。
对此,Amon还提出了一条人类运算史的发展规律:“创新最初出现在集中化的系统(大型计算机或云计算中),随后转移到更分散的系统(PC和手机)。”
02 AI手机将如何改变生活?
具体来看,以端侧AI为代表的AI手机将如何改变我们的生活?
Amon从两个层面回答了这个问题。
一是,响应速度更快。例如文生图大模型 Stable Diffusion的参数超过了10亿,但目前在手机上运行仅花费0.6 秒就能生成一张图像,大大提高了用户拍照和编辑图片的体验。
二是,可实现更深层次交互。不同于传统智能手机只能操作单一应用,AI手机由生成式 AI 调动所有应用协同工作。例如,访问用户的实时上下文信息(如位置、当前活动等),提供定制化服务。
Amon举了一个发短信的例子。你正在编写发给Clare的短信,此时部署在手机里的AI会思考“这里有我要做的事吗?”。当你写道:想和Clare约下周二见面。AI助手会调出日程表,提示你的空闲时间,询问是否给Clare发送邀请;而当你又写道:刚和家人度过了一个美好的假期。AI会跳出来:这些是你拍的照片,想分享给Clare吗?
Amon表示,不同于连比尔盖茨都吐槽过的微软Clippy,当前的AI应用更加精确和智能。过去的技术难以准确理解用户语言和上下文含义,需要对每个一步骤进行编程。而现在,内置AI的设备能够更准确地学习用户的行为和偏好,并提供更个性化,且不打扰用户的体验。
至于AI手机能否刺激消费者市场,Amon非常乐观:“这是一个价值数十亿美元的问题。你将在2024年初看到搭载多种AI用例的手机。它有潜力创造智能手机的新升级周期。最终你会说:‘我的旧手机已经用了四年,但现在我想购买一部可以运行AI的新手机。’你不得不买一部新手机,因为这关乎那些新平台上将出现的计算引擎。”
03 “训练”芯片转向“推理”芯片
当我们谈论AI大模型时,芯片制造商有两个角色:一是事先处理所有数据来构建模型,被称为“训练”;二是在实际应用中使用模型,被称为“推理”。
Amon表示,芯片制造商的主要战场会由“训练”转向“推理”。
目前AI市场主要集中在使用大数据训练模型的“训练”阶段,英伟达是主要受益者。但Amon表示,随着AI模型变得更小巧、能够在设备上运行并专注于特定任务,芯片制造商的主要市场将转向“推理”,即模型的应用。数据中心也开始对专门用于已训练模型推理的处理器感兴趣,这一切预示着推理市场将大于训练市场。
Amon的话有暗戳戳给自家贴金的嫌疑。公正起见,我们也来看看高通的老对手——英伟达。
去年11月,英伟达发布了新一代GPU——H200。相较H100,其实H200在算力方面提升并不明显。数据显示,在GPT-3175B大模型的训练中,H200只比H100强了10%。
但在处理Llama 2等大语言模型时,H200的推理速度比H100提高了接近1倍。
也就是说,无论是高通还是英伟达,都提前切中了“推理”和“模型应用”这一要点。在接下来的时间里,我们或许将会看到新的竞争格局和新的赢家。
04 改变iOS和Android双雄格局
Amon表示:目前负责构建和运行AI大模型的公司(如OpenAI、Anthropic、微软、亚马逊和Meta)和生产智能手机及操作系统的公司(如苹果、谷歌和三星)存在很大不同。
但随着将AI模型放进手机里,微软和Meta等公司可能会重获影响力,改变由iOS和Android长期主导的行业格局。然而,实现这一目标需要手机制造商、操作系统开发商和应用开发商之间的合作,而这种合作实现起来也不太容易。
和App Store不同,AI模型将被预先安装在设备引擎中。移动平台将支持第一方和第三方模型,以及原始设备制造商(OEM)的模型。这就像将相机功能内置在设备中一样,不同的AI引擎也将内置于设备中。
另外,除了AI手机,Amon表示,他本人始终看好轻便型的可穿戴设备,比如AR眼镜,(没有提VR)。一是产品会变得更轻,用户能够佩戴更长时间。二是随着这些设备功能增多,更优质的内容将会出现。他相信,随着市场规模的扩大,开发者将愿意投入更多资金,进一步推动更丰富的内容。
结语
2024年,随着AI大模型应用落地,智能手机进化的号角也终于吹响。
根据市场研究机构Counterpoint预测,2024年生成式AI智能手机出货量有望突破1亿支,在整体智能手机中占比8%;2027年出货量有望达到5.22亿支,占智能手机比重40%。2023-2027年复合成长率达83%,这或将在五年内,引发一场关于交互方式的革新。
可以预见的是,无论是三星、苹果还是其他厂商,都会在巨大的压力和机遇中完成智能手机的第二次革命。现在,AI改造终端的浪潮才刚刚开始,我们将持续观察。
原文标题 : 预言成真!高通CEO:2024将成为AI手机关键元年
最新活动更多
-
即日-11.13立即报名>>> 【在线会议】多物理场仿真助跑新能源汽车
-
11月20日火热报名中>> 2024 智能家居出海论坛
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论