科大讯飞近期在自主可控大模型训练领域动作频频,通过算力基建扩容、技术架构创新与行业场景落地的三维联动,持续巩固全栈国产化技术优势。以下从战略布局、核心突破与产业影响三方面展开分析: 一、战略加码:24亿算力投入构建自主底座2025年9月,科大讯飞宣布调整募集资金用途,将24亿元专项投入算力租赁项目,这一决策背后是大模型迭代对算力需求的指数级增长。不同于传统厂商自建算力集群的重资产模式,该公司采用的租赁方案具备双重优势:一方面能快速响应星火大模型升级的算力缺口——按照行业标准,每训练一个token需对模型参数进行6-8次浮点运算,千亿参数模型的训练单次迭代就需海量算力支撑;另一方面依托政策红利实现成本优化,相比自建集群缩短部署周期约60%,单机位算力成本降低35%以上。这一布局延续了其“飞星”系列智算平台的演进路径。自2023年发布支持万亿参数训练的全国产智算平台“飞星一号”以来,科大讯飞已形成“算力平台-模型训练-行业应用”的闭环:2024年基于该平台训练出国内首个国产算力千亿参数模型星火V3.5,2025年初推出具备深度推理能力的星火X1,此次算力扩容将为后续“飞星二号”平台的迭代奠定基础,目标实现训练效率再提升200%。 二、技术突破:国产算力集群实现性能飞跃在自主可控的技术攻坚中,科大讯飞与华为昇腾团队的合作成果尤为突出。双方联合突破MoE(混合专家)模型的大规模跨节点并行推理技术,通过四重创新实现性能翻倍:1. 架构优化:首创PD分离部署模式,定制集合通信协议消除流量冲突,使Prefill/Decode阶段性能提升20%;2. 算法创新:实现国产算力专属的MTP多token预测技术,单步计算耗时降低30%;3. 负载均衡:升级多DP均衡算法,卡间负载差异控制在8%以内,集群吞吐提升30%;4. 硬件协同:异步双发射技术解决高并发场景下的CPU瓶颈,实现NPU与CPU的高效调度。这些突破已转化为实际性能优势。最新升级的星火X1深度推理模型,在参数量比业界主流模型少一个数量级(70B vs 千亿级)的情况下,数学能力全面对标DeepSeek R1和OpenAI o1,中文数学任务准确率领先15%-20%。更关键的是,该模型实现“快思考”与“慢思考”双模架构创新,在实时响应场景(如智能客服)和深度推理场景(如医疗诊断)中可动态切换,幻觉治理准确率比主流模型高出25个百分点。 三、产业落地:300+场景验证自主价值自主可控的技术底座正在加速行业渗透。截至2025年上半年,星火大模型已服务80.6万企业用户,覆盖教育、医疗、水利等300多个垂直场景:教育领域:依托弹性算力支撑,可针对不同学段定制训练专属模型,2025年高考盲测中,星火作文得分登顶,数学成绩突破140分;医疗场景:推出的星火医疗大模型X1,整合临床数据与医学知识库,辅助诊断准确率达到三甲医院主治医师水平;公共服务:在水利行业构建“AI+数字孪生”系统,通过大模型分析水利工程日志数据,故障诊断效率提升3倍,预警响应时间缩短至分钟级。生态层面,讯飞开放平台已开放813项AI能力,吸引152万大模型开发者,API日均调用量同比增长430%。特别在多语言能力上,星火大模型已覆盖130+语种,成为央国企海外业务数字化转型的首选底座,打破了国外大模型的垄断格局。从行业意义看,科大讯飞的实践验证了国产算力的可行性——通过“飞星一号”平台和昇腾芯片的深度适配,证明国产算力集群在大规模模型训练中可达到国际一流水平。随着24亿算力项目的落地,预计2026年将推动行业大模型定制成本降低50%,加速金融、制造等关键领域的AI自主化进程。
|
|