技术创新:苹果在闪存上存储大型语言模型(LLM)引领未来AI发展
(本篇文篇章共1135字,阅读时间约1分钟)
2023年12月22日,据多家媒体报道,苹果正积极探索在闪存上存储大型语言模型(LLM)的技术创新,并计划将其引入iPhone、iPad和Mac等设备,以在资源有限的环境中提高人工智能(AI)的运行效率。这一突破性进展将有望让强大的Siri、实时语言翻译以及融入摄影和增强现实的AI功能成为未来iPhone的独特卖点。
传统上,大型语言模型需要占用大量CPU和内存资源。为了解决这一问题,苹果的研究人员正在探索在有限内存设备上存储LLM的可能性。在一篇新发表的论文中,苹果详细介绍了他们利用闪存芯片存储AI模型数据的创新技术。由于iPhone和Mac计算机上闪存大量可用,这项技术使用了一种称为“Windowing”的方法,通过重复使用已处理的数据,减少了对连续内存获取的需求,从而提高了整个过程的速度。
具体而言,两种关键技术被引入,分别是“窗口化(Windowing)”和“行列捆绑(Row-Column Bundling)”。前者实现了数据的有效分组,减少了对内存的频繁读取,而后者更有效地对数据进行捆绑,使得AI模型能够更快地从闪存中读取数据并提高其理解和生成语言的速度。
根据研究人员的介绍,这两项技术的引入将使AI模型在iPhone可用RAM大小的两倍范围内运行,极大地提高了在标准处理器上的速度,最高可达5倍,在图形处理器上更是可达25倍。
苹果对AI的重视不断显现,从自家聊天机器人Apple GPT的推出到计划中的iPhone 16系列搭载升级麦克风,以提升语音输入功能。此外,有传言称,iOS 18将在明年正式到来时引入某种形式的生成式AI,进一步将苹果推向人工智能技术的前沿。
这一技术创新有望为未来iPhone带来更强大的AI功能,包括更智能的Siri、实时语言翻译以及在摄影和增强现实领域的复杂AI驱动功能。苹果的生成式AI模型,代号为“Ajax”,被认为将与OpenAI的GPT-3和GPT-4竞争,具有高度复杂性和强大的语言理解和生成能力,为苹果的生态系统带来更深层次的AI整合。
*免责声明:以上内容整理自网络,仅供交流学习之用。如有内容、版权问题,请留言与我们联系进行删除。
原文标题 : 技术创新:苹果在闪存上存储大型语言模型(LLM)引领未来AI发展
最新活动更多
-
即日-11.13立即报名>>> 【在线会议】多物理场仿真助跑新能源汽车
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【限时免费下载】TE暖通空调系统高效可靠的组件解决方案
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论