订阅
纠错
加入自媒体

最强中文大模型,通义千问2.5追上GPT-4了?

2024-05-11 10:25
雷科技
关注

最有希望的选手之一。

从 ChatGPT(GPT-3.5)发布至今的一年多,大语言模型的迭代速度之快、进步幅度之大,时刻刷新着我们的认知。最近一段时间,各家更是密集发布了新版的大模型,都在追赶和超越最新领先的大模型,甚至逼得 OpenAI 进一步取消了 GPT-4 的限制。 

现在阿里云最新的通义千问 2.5 版本也来了,不仅在中文语境下追上了 GPT-4 Turbo,更让人期待的是:在开源和免费的发展策略下,通义千问 2.5 会不会成为大模型落地的分水岭,加速 AI 应用的全面爆发? 

这一点还需要我们拭目以待,但至少,通义千问的这一轮升级中再次证明自己的能力和潜力。

 通义千问全面升级,中文性能追平 GPT-4 Turbo 

5 月 9 日,阿里云正式发布通义千问 2.5,这是其旗下的通义大模型系列的最新版本。与此同时,阿里云还开源通义千问 1100 亿参数模型。 

按照阿里云方面的说法,得益于全方位的能力提升,在中文语境下,通义千问 2.5 的文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超 GPT-4。

通义千问 2.5.png

图/阿里

而据权威基准测评 OpenCompass 的结果显示,通义千问 2.5 的得分也追平了 GPT-4 Turbo,是第一个做到的国产大模型。

在 LMSYS 最新的大模型对战排行榜中,通义千问(Qwen-Max)暂时位居总榜第 10,中文场景下与 GPT-4 Turbo 并列第 2,仅仅略逊于排在第一的 Claude 3 Opus 和 GPT-4(1106)。 

SCR-20240510-qozx.png

 图/ LMSYS 

当然,跑分和排行榜很难完全说明大模型的实际性能表现,更遑论最终落到实处的用户体验。 

根据介绍,通义千问 2.5 采用了阿里云自研的「问天」架构,并通过大量数据和算法的训练,使得模型的核心性能得到了大幅提升。相比 2.1 版本,2.5 版本通义千问的理解能力、逻辑推理、指令遵循、代码能力分别提升 9%、16%、19%、10%。 

简单来说,你可以认为通义千问 2.5 能够更准确地理解自然语言的语义,并识别出其中的细微差别;也能进行更复杂的逻辑推理,并解决更具挑战性的问题等。此外,通义千问版本升级后还新增了文档处理、音视频理解、智能编码等多种能力。 

在文档处理上,通义千问 2.5 支持单次最长 1000 万字、100 个文档,覆盖 PDF、Word、Excel,甚至 Markdown 和 EPUB 等多种文件格式。同时不只是正文内容,还可以解析标题、段落、图表等多种数据格式。

SCR-20240510-ohav.png

 图/通义千问

另外在音视频理解上,通义千问 2.5 也支持了实时语音识别、说话人分离等能力,能够提取全文摘要、总结发言、提取关键词等,且支持最多同时上传处理 50 个音视频文件。 

这些升级或许看上去没有核心性能的提升来得「性感」,但从实际使用的角度,不管是能一次塞给大模型更大、更多、更多格式的文档,还是音视频的多种能力,其实都在大幅扩展大模型的真实使用场景。 

从这个角度来看,通义千问 2.5 的意义就远不只是在性能上追平 GPT-4 Turbo。 

另一方面,AI 算力成本的高昂已经广为人知,不管是海外的 ChatGPT Plus(GPT-4)、Gemini Advanced、Claude Pro,还是国内的文心一言会员(文心一言 4.0)、WPS AI 等服务,都有不低的收费。 

而面向 C 端用户,通义千问主打一个全功能「免费」。同时通义千问 APP 还升级为「通义 APP」,集成文生图、智能编码、文档解析、音视频理解、视觉生成等全栈能力,想成为用户的「全能 AI 助手」。

不难理解,阿里还是通过免费迅速扩大 C 端用户规模。但在现阶段,B 端用户可能更为关键。

大模型生态落地,开源路线加速 

「从 2022 年 9 月发布通义系列模型以来,如今我们的 API 日调用量已经过亿。」5 月 9 日,阿里云 CTO 周靖人在总结通义千问过去一年时指出。 

不仅如此,阿里云还透露通义系列大模型已经服务包括新浪微博、小米、中国一汽在内的 9 万家企业用户。发布活动上,阿里云还邀请微博和小米分享了他们对于通义千问的落地应用。 

其中微博作为最早的用户,就基于通义千问打造了出圈的官方评论机器人 「评论罗伯特」。小米的小爱同学同样也是基于通义千问,强化了在图片生成、图片理解等方面的多模态 AI 生成能力,包括在小米汽车、手机、音箱等硬件上。 

事实上,上个月联想发布了内嵌个人智能体的「真 AI PC」,其背后也是通义系列大模型。

Lenovo AI PC.jpg

图/联想

开源,毋庸置疑是阿里在大模型生态上发展迅猛的关键因素之一。「大到整个产业落地 AI,小到每个企业开发应用,开源技术都至关重要,这一点在全球范围内已经被多次证明,」周靖人在财新的采访中说道。 

去年 8 月,阿里宣布通义千问加入开源生态,随着沿着「全模态、全尺寸」的开源路线陆续推出十多款模型,参数规模横跨 5 亿到 1100 亿,并且迅速成为开源大模型社区最受欢迎的开源大模型之一。

通义千问 开源.png

图/阿里

其中,1.8B、4B、7B、14B 等小尺寸的通义千问,可以直接在手机、PC 等设备端侧部署运行;72B、110B 等大尺寸模型则更多运行在服务器和数据中心,支持更大规模、更专业的 AI 应用。 

而随着通义千问 2.5 的发布,其落地应用还有望得到进一步加速。在开源大模型中,通义千问拥有全尺寸的参数规模,还有目前最强的性能,开发者自然会更倾向基于通义千问的大模型生态进行开发。

更何况,即使相比最领先的闭源大模型,通义千问的差异也拉得很小了。

 写在最后 

「我们仍处于 AI 发展的初期阶段」,谷歌 CEO 桑达尔·皮查伊在最近一次采访中说道。 

过去一年多,AI 世界几乎是一天一变,头部厂商的大模型之争也愈演愈烈,实质也带动了整个生态的前进。事实上,今天打开手机,不提系统自带的 AI 功能,已经有大量的应用都引入了生成式 AI,还在涌现大量的生成式 AI 原生应用。 

不过还是不够。所有人都明白,面向普通用户的 AI 应用还没真正迎来爆发时刻,通义千问当然也不可能直接做到,但作为开源大模型,通义千问确实是最有希望推动 AI 应用真正爆发起来的大模型之一。

来源:雷科技

       原文标题 : 最强中文大模型,通义千问2.5追上GPT-4了?

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号