2025年春节期间,DeepSeek爆火出圈,发布开源大模型,在数学、代码、自然语言推理等任务上表现追平OpenAI,在美国对我国AI产业链全方位打压遏制的背景下,成功走出了一条低成本、高性能、国产化“突围之路”并震惊世界,为加速国产AI大模型降本提效、生态繁荣注入了强大动力。
1、出圈情况
DeepSeek凭借“低成本+高性能”模型全球破圈。DeepSeek早前发布的V3模型每训练1万亿tokens仅需在2048块H800 GPU集群上耗时3.7天,总计278万 GPU小时、557.6万美元的训练成本,约为GPT-o1的1/20、Llama 3.1的1/10。
新发布的R1模型API服务价格为每百万输入tokens 1-4元、每百万输出tokens 16元,远低于同期 OpenAI o1 API定价水平,且在逻辑、数学及中文任务中表现优异。DeepSeek应用程序霸榜苹果应用商店第一名,获全球主流公有云公司平台接入。
2、成功原因
①DeepSeek通过较少算力实现高性能模型表现,主要通过算法创新和工程优化等方式大幅提升模型效率。
一是成功走通“纯”强化学习(RL)路径。DeepSeek-R1抛开以预设思维链模板和监督式微调等为特点的AI推理能力传统训练方法,仅依靠简单的奖惩信号来指导优化模型行为,不仅省去了SFT和复杂的奖惩模型对计算资源的需求,还促使模型以“顿悟”的形式学会思考。二是实现算法、框架和硬件的优化协同。为大幅减少内存占用和计算量,DeepSeek系列模型在算法层面引入专家混合模型、多头隐式注意力、多token预测,框架层面实现FP8混合精度训练,硬件层面采用优化的流水线并行策略,同时高效配置专家分发与跨节点通信,实现最优效率配置和资源节约。
②DeepSeek具有拥抱AI的创始基因丰富的算力资源储备、极具天赋的本土人才团队。
一是自带AI创始基因。创始人梁文锋毕业于浙江大学电子信息工程和计算机科学专业,早年创立对冲基金“幻方量化”,实现投资策略全面AI化,2023年5月成立深度求索,聚焦发展通用人工智能。二是丰富的算力资源储备。幻方量化曾投资超过10亿元,先后研发了AI超级计算机“萤火一号”和“萤火二号”。其中,“萤火二号”搭载了约1万张英伟达A100显卡。三是极具天赋的本土人才团队。DeepSeek团队工程师和研发人员几乎都来自清华大学、北京大学、中山大学、北京邮电大学等国内顶尖高校,鲜有“海归”,以走出校园不久的博士为主,也有部分成员有英伟达、微软等国外企业工作或实习经历。
3、产业影响
一是DeepSeek打破大模型发展路径依赖,基本确立了符合中国实际的AI发展道路。DeepSeek 打破了 AI 大模型发展对算力和标注数据的高度依赖,展示了通过改进模型架构和训练方法,以较少的数据标注量和算力消耗提升模型推理能力的可行性,标志着我国在硬件上长期存在代际差距的情况下,可采取软硬协同方式实现对海外顶尖大模型的性能追赶和成本领先。
二是DeepSeek提升行业对模型的后训练和推理需求,长期提振算力需求。DeepSeek R1在 V3 的基础上进行了两次强化学习,明显提升了训练的探索时间和推理思考时间,将在后训练阶段延续Scaling Law法则。随着高性能低成本模型的出现将大幅降低国内AI赋能千行百业的应用开发门槛,推动AI产业链从“训练驱动”向“推理驱动”转变,带动推理算力需求加速释放。
三是DeepSeek以模型开源推动AI平权,开源路线有望打造应用繁荣的“安卓时刻”。DeepSeek完全开源了模型权重,允许其他开发者将模型用于商业用途并进行模型蒸馏。已发布了基于R1蒸馏Llama与Qwen的6个小模型,在多项基础测试集中性能对标 o1-mini,被Facebook首席人工智能科学家杨立昆誉为“开源模型对闭源模型的胜利”。开源模型通过知识蒸馏快速打造高性能、轻量化小模型,将驱动端侧模型在手机、电脑、眼镜等智能硬件上的部署应用,形成AI应用百花齐放的格局。
作者:邓衢文
单位:中移湾区(广东)创新研究院有限公司
来源: 中移科协