订阅
纠错
加入自媒体

豆包砸钱抢市场,烧不出大模型的未来?

2025-01-07 15:40
蓝莓财经
关注

在过去的一年里,大模型赛道掀起了一场“血拼式”的价格战,而硝烟并未随着新年的到来而消散。这场战争的逻辑并不复杂:降价是一种市场教育工具,也是一种生存策略,但最终谁能笑到最后,还得看技术、生态和用户的选择。

就在2024年的最后一天,阿里云宣布了年度第三轮大模型降价,旗下通义千问视觉理解模型的价格降幅超过80%。这并不是孤例。几周前,火山引擎在Force大会上宣布豆包视觉理解模型输入价格降至0.003元/千tokens,相当于1块钱处理284张720P图片,这种“白菜价”几乎让人怀疑利润空间的存在。而百度智能云更是激进,直接宣布其两款文心大模型核心产品全面免费开放。

降价并非没有代价。在这场价格内卷中,小玩家的生存空间将进一步被压缩。对于巨头而言,降价是为了构建生态壁垒,但对中小型大模型厂商来说,利润被压榨、研发资金不足可能导致技术迭代乏力,最终只能被迫退出赛道。随着竞争加剧,价格战的背后实际上是行业对生存权的争夺。

1、大模型降价:“套路”之下的商业博弈

如果想看清大模型行业的降价策略,首先需要拆解其商业模式。归根结底,这是一场围绕基础服务、精细化需求和算力独占的复杂博弈,而降价只是表象,真正的“套路”藏在细节中。

根据目前的市场调研,大模型厂商的商业模式可以分为三种:

1. 基础服务: 这是用户最直接接触到的部分,即根据输入的内容生成输出,也就是模型推理过程。这个环节定价门槛最低,各家厂商的价格战主要集中于此。

2. 模型微调: 厂商根据客户需求对模型进行定制化训练,通常按训练文本的token数量和训练迭代次数收费。这部分费用相对高昂,且通常按量后付费。

3. 模型部署: 针对大型客户,厂商提供专属算力资源,按实际消耗的算力或token数量计费。这一服务更接近“个性化定制”,收费逻辑复杂且溢价显著。

从浅到深,这三种模式反映了大模型从入门到高阶的服务路径。而厂商疯狂降价的焦点,主要集中在第一种服务——基础模型推理的价格上。

厂商的降价并非毫无章法,甚至可以说是“降价有术”。以豆包的通用模型Pro-32k为例,其输入价格为0.8元/百万tokens,比行业均价低99.3%。然而,输出部分价格却高达2元/百万tokens,与同行相比并不算特别低。这种“输入便宜、输出略贵”的模式,正是为了吸引开发者试用,同时确保利润空间。

图片

再看视觉理解模型Doubao-Vision-Pro-32k,其输入定价为3元/百万tokens,输出高达9元/百万tokens。虽然声称整体降价幅度达85%,但与阿里Qwen-VL或Gemini 1.5 Flash等直接竞争者相比,价格并不占明显优势。

更有意思的是,国内其他厂商也有类似的“套路”。百度推出的ERNIE-Speed-8K虽然对外宣传“免费”,但一旦实际部署,便按5元/百万tokens收费。阿里的Qwen-Max和豆包Pro-32k也采用类似策略,只在基础服务上“卷”得厉害,而高端服务价格却始终居高不下。

表面上看,降价是为了抢占用户,但实质上这是厂商争夺市场话语权的战略手段。通过“白菜价”降低中小开发者的试用门槛,厂商能快速积累用户数据,优化模型性能,同时为后续的高端服务埋下伏笔。

然而,真正的利润增长点并不在这些轻量级的“基础服务”中,而是集中在定制化训练和专属算力部署上。以豆包Pro系列为例,其精调服务价格高达50元/百万tokens,比基础服务高出数十倍,远超行业降价幅度。

虽然大厂为了抢占市场不惜大幅降价,但这样的策略并非没有代价。轻量级模型的低价竞争可能降低行业整体利润率,同时也可能让中小厂商无力参与竞争。然而,用户真正关心的是模型性能和实际应用效果。

更值得关注的是,降价带来的用户增长是否能持续转化为收入?如果用户仅停留在基础服务层面,而未能深入使用微调或部署服务,那么厂商的降价投入可能无法收回成本。

大模型的价格战,就像一款免费网游:入门容易,但想要更强大的装备、技能,就必须不断“氪金”。厂商通过低价吸引用户,实际上是在为高端服务蓄水。然而,这种模式能否长期奏效,取决于用户是否愿意为性能提升买单,以及厂商能否在降价中保持技术竞争力。

字节跳动的“中间态”焦虑

纵观大模型赛道,字节跳动绝非起跑最快的那一批选手。CEO梁汝波曾在内部坦言,字节对大模型的敏感度“迟钝”,尤其与2018年至2021年间成立的创业公司相比,字节直到2023年才开始讨论GPT。然而,后来者往往最需要通过内卷弥补差距,而字节的打法则是“砸钱制造热度”。

在C端市场,豆包以一种“无孔不入”的姿态席卷线上线下。数据显示,2024年上半年,字节通过豆包在广告投放上持续加码。仅4月至5月的投流金额就达到1500万至1750万元,而到6月上旬,这一数字飙升至1.24亿元。此外,字节充分利用旗下抖音的强势流量池,几乎屏蔽了其他AI应用的投放,豆包成为独占资源的明星产品。

据AppGrowing统计,2024年11月,豆包和另一AI原生应用Kimi成为国内广告投放最激进的两款产品,分别投入5.4亿元和4亿元。这种不计成本的投流策略让豆包一跃成为国内用户量断层式第一的AI软件,然而,这背后的隐忧同样显而易见。

图片

高昂的广告投入并未带来预期中的用户粘性。数据显示,豆包的用户活跃度平平,每周仅活跃2至3天,用户每天发送消息轮次仅为5到6次,人均使用时长仅为10分钟。这些数据在过去一年中增长并不显著,反映出用户对产品的实际依赖度较低。

字节管理层的内部判断也显得克制:“豆包这样的AI对话类产品,可能只是AI产品的‘中间态’。”用户付费订阅模式在中国难以走通,而用户时长和交互轮次的低迷,又限制了广告空间的开发潜力。这种双重困境为豆包的商业化路径设下了隐形天花板。

C端市场的瓶颈迫使字节将更多精力转向B端业务。从大规模降价到大力推广豆包的多模态模型,字节试图通过企业级服务建立稳固的现金流。然而,中国市场与美国大相径庭,AI产品很难通过单纯的订阅或平台销售实现盈利。更多时候,商业化的成败依赖于具体项目和工程,而这些项目通常与厂商的热度和品牌信任度密切相关。

正因如此,无论是初创公司还是巨头,都必须善于维持行业热度。初创公司制造热点是为了融资,而豆包这样的巨头则希望通过热度锁定更多客户。但这种策略同样有代价:热度本身无法直接转化为长期收益,尤其是当产品的用户价值尚未充分体现时。

从字节的战略转向看,“更低门槛、更多模态”的方向或许是未来的突破口。以剪映和即梦为代表的视频模型,可能成为大模型落地的关键场景。豆包在最新的Force大会上将部分重点放在视频领域,显然是看中了这一领域的潜力。

然而,市场的最终选择权仍在用户手中。

字节的路径选择无疑有其深思熟虑的一面,但也暴露出行业普遍的问题:过度依赖热度,而忽略了用户价值的真正沉淀。豆包的现状说明了一个事实,仅靠“砸钱”吸引用户,并不能填补产品体验上的短板。而这种“中间态”的焦虑并非字节独有,而是整个大模型行业在价格战和用户体验之间难以找到平衡的缩影。

3、价格战白热化,技术竞速开启

大模型行业从来不是温情的竞技场。2024年,随着市场洗牌的加速,这场被称为“去九存一”的淘汰赛已将大部分二线厂商挤出局。然而,这并不意味着幸存者可以松一口气。新一轮的竞争已经开始,而这一次,价格不再是唯一的胜负手,技术才是决定生死的关键砝码。

从2023年起,二线及以下大模型厂商纷纷通过“烧钱买流量”的方式试图留住用户。这种打法简单粗暴:降价、免费、疯狂投流,只为吸引C端用户并抢占市场份额。然而,事实证明,这种模式难以持久。

国内大模型应用的获客成本正在快速上升。即便是“撒币”最狠的厂商,也发现免费产品并不能直接转化为收益。与此同时,C端的用户粘性不高,用户流失率居高不下。更重要的是,企业最终需要抓住那些愿意付费的B端客户,例如金融、政务等高附加值行业,而B端客户看中的从来不是价格,而是技术和服务能力。

随着市场趋于冷静,简单的价格战逐渐被技术竞速取代。谁能以更低的成本提供更强的技术能力,谁就能在竞争中活得更久。

技术成本的降低,取决于硬件能力和算法优化,而国内主流厂商在这方面的差距并不明显。此时,差异化的技术路线成为突围的关键。例如,最近引发热议的DeepSeek-V3,通过蒸馏技术实现了生成式AI性能的精简与优化,为行业提供了新的探索方向。然而,这种技术也引发了“优化GPT”的争论,业界对其真正价值仍存分歧。

技术竞速的焦点,从“生成式AI”开始向“推理式AI”转移。OpenAI推出的o1模型成为行业风向标。这款产品通过延时推理的方式模拟人类逻辑推演能力,迈出了AI从“生成”到“推理”的关键一步。更具爆发力的是,o1发布后仅三个月,迭代版o3便迅速面世。o3进一步优化了推理时间与任务适配能力,并推出精简版mini版,展现了OpenAI在技术革新中的压倒性速度。

相比之下,国内厂商虽然在快速追赶,但与OpenAI的差距依然明显。国内企业尝试通过集成思维链、树搜索以及反思策略优化推理性能,但仍未完全超越o系列的领先水平。一位行业专家表示,国内厂商如果能获得支持o1架构的开源模型,或许可以加速追赶,但在此之前,现有技术仍将面临诸多瓶颈。

以往GPT系列的发展节奏表明,从领先厂商推出革命性技术到行业全面跟进,大约需要一年时间。2025年上半年,国内厂商大概率会完成对o系列的初步追赶。但在此之后,现有的生成式AI技术可能逐渐被淘汰。

对于国内大模型厂商而言,留给他们的时间并不多。在下一轮淘汰赛中,价格将不再是决定胜负的关键,技术能力将成为生存的唯一筹码。与其坐等被淘汰,不如趁着“生成式AI”尚未完全退出历史舞台,尽可能提高产品性能、优化服务体验,为自身赢得更多的竞争筹码。

       原文标题 : 豆包砸钱抢市场,烧不出大模型的未来?

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    人工智能 猎头职位 更多
    扫码关注公众号
    OFweek人工智能网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号