大模型为什么要强调全栈自研?
文:诗与星空
ID:SingingUnderStars
DeepSeek发布以来,各大厂商纷纷官宣接入DeepSeek。但是,不同的厂商,说法不同,这里面的学问很大。
一是接入。
只说接入的,大概率是API接入。这个很简单,星空君第一时间就接入了,DeepSeek和硅基流动的API非常便宜,每天高强度使用(一个周超过80次),10块钱怎么都用不完。企业级应用,每天上万次甚至几十万次调用,也不算贵。
二是私有化部署。
其实私有化部署的门槛非常高,但很多量化版本并不是真正的DeepSeek,这些量化模型打着DeepSeek的幌子进入政企高校。最低几万块的消费级配置就可以满足。而真正的DeepSeek需要差不多150万+的服务器才能部署,通常叫“满血版”。只要不是“满血版”的,都是这种量化版,大模型的能力比真正的DeepSeek差着很远。
三是全栈自研。
星空君注意到中国石油和中国移动合作的官宣里提到了这个说法。
什么是“全栈自研”?
众所周知,DeepSeek是在英伟达的显卡上训练出来的,大部分企业即便是私有化部署,也是部署在英伟达的显卡上,而英伟达的显卡不能算作自研。
经过适配后的DeepSeek可以部署在华为昇腾算力卡上,这就实现了硬件自研;使用国产的操作系统(如麒麟Linux、华为欧拉等)、国产的开发工具,就实现了软件自研。二者合起来,方可成为全栈自研。
即便是在最极端的情况下,全栈自研依然是安全可控的。
在A股上市公司中,搞全栈自研的有几家知名企业。
一是科大讯飞,它主攻方向是软件自研,硬件依托华为昇腾;
另一个是中科曙光,它主攻方向是硬件自研,以AI服务器为主。
01
中科曙光的2024年年报
2024年之前,受益于信创的推广,中科曙光的成长性非常快。到了2024年突然失速,年报显示,公司的营收出现了下滑,降幅为8.4%。
数据来源:iFind
结合公司年报,主要有四个原因:
一是全球经济下行压力增大,地缘政治风险加剧,导致市场需求疲软,项目延期或取消。同时,AI技术快速发展,行业竞争加剧,公司面临更大的市场压力。
二是客户对设备性能和可靠性提出了更高的要求,给公司的产品带来了压力。
三是云计算市场竞争激烈,价格战导致产品收入下降,而固定成本(如研发、人员)相对稳定,影响了整体盈利能力。
四是客户集中度过高,一旦大客户订单减少或延期,将对公司业绩产生较大影响。
其实这里头最大的原因,是第四个,公司的大客户出现了订单减少的情况。
2024年度的前五大客户销售额为116亿元,占年度销售总额的比例为87.95%。作为对比,上年同期前五大客户销售额为122亿元。
02
AI领域进展
作为全栈自研方向的六边形选手,公司在AI领域分四大部分。
一是AI硬件,也就是AI服务器。
公司持续迭代开发浸没式液体相变冷却刀片系统、人工智能工作站等高端计算机产品,并加快国产核心零部件导入,形成全国产整机解决方案。
发布全栈自研的集中式存储系统FlashNexus,达到亿级IOPS,最大支持256个控制器拓展。
面向AI应用需求,ParaStor分布式全闪存储全面升级,将分布式存储系统的带宽单位从GB级带到TB级时代。
推出业界首款液冷存储产品,存储系统PUE值降至1.2以下。
二是软件,主要是管理软件。
迭代研发AI技术软件栈DAS平台,提升AI全栈优化能力,平台提供从基础算子、框架工具到扩展组件的多层次计算服务,助力AI应用的迁移、开发及迭代;同时,基于国产算力平台上线AI模型仓库,支持百余精调模型下载即用。
DeepAI深算智能引擎, 通过打造端到端全栈AI加速套件,助力各行各业AI应用开发与落地。
三是卖完整解决方案:一体机。
曙光云发布了全国产DeepSeek大模型超融合一体机,采用国产X86 CPU和国产GPGPU加速卡,支持全精度、半精度混合训练与推理,契合信创要求。
政府机关、央企国企、高校等客户群体,都有信创的要求,所以唯一选择就是国产算力,而曙光在这方面属于头部供应商。
四是行业应用
政务领域,通过曙光人工智能基础软件系统DAS,实现自动化监控与数据采集、实时数据处理和智能检测预警,从而加强数据保护,简化服务流程,并提高政府服务质量和响应速度。
矿山开采领域,DAS应用于岩石检测,涉及图像识别、模式分析和数据预测,全流程赋能岩石检测,优化模型,提高数据处理效率和检测准确性。
03
前景
对于服务器厂商来说,AI服务器即将(已经)迎来爆发式需求。
星空君很喜欢陆奇在2017年提出的那句“All in AI”,对于曙光来说,x86躺着数钱太舒服了,公司应该向AI服务器战略转移。
随着政企客户AI转型需求增加,“东数西算”工程深入推进,公司有望在智能算力基础设施建设与服务领域获得更多订单。
2025年信创DeepSeek大模型超融合一体机会迎来一波爆发,有望在政府、金融等关键行业实现快速推广。
随着数据中心PUE值要求日益严格,公司的液冷技术与绿色算力解决方案将具有更强的市场竞争力。针对AI大模型训练与推理的需求,公司有望在存储系统与数据解决方案领域实现突破。通过曙光云扩大政企私有云市场份额。
-END-免责声明:本文章是基于上市公司的公众公司属性、以上市公司根据其法定义务公开披露的信息(包括但不限于临时公告、定期报告和官方互动平台等)为核心依据的分析研究;诗与星空力求文章所载内容及观点公正,但不保证其准确性、完整性、及时性等;本文中的信息或所表述的意见不构成任何投资建议,诗与星空不对因使用本文章所采取的任何行为承担任何责任。
版权声明:本文章内容为诗与星空原创,未经授权不得转载。
原文标题 : 大模型为什么要强调全栈自研?

最新活动更多
-
即日-3.21立即报名 >> 【深圳 IEAE】2025 消费新场景创新与实践论坛
-
即日-3.25立即报名 >>> 【在线会议】医疗设备的无线共存、高速数字与射频测试
-
即日-3.27立即报名>> 【在线直播】解密行业检测流量密码——电子与半导体行业
-
3月27日立即报名>> 【工程师系列】汽车电子技术在线大会
-
即日-3.28立即报名>>> 【在线会议】汽车检测的最佳选择看这里
-
即日-3.31立即报名>>> 【在线会议】AI加速卡中村田元器件产品的技术创新探讨
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论