在算力产业竞争日益激烈的当下,中国算力产业正凭借独特的场景驱动模式,探索出一条突破资源约束的创新之路。近日,一场以“中国算力方案:如何用有限资源做出无限可能”为主题的圆桌对话在北京举行,后摩智能、海光信息、蓝耘科技、新华三集团等企业代表齐聚一堂,共同探讨产业发展的关键挑战与破局之道。
当前,中国算力产业面临多重挑战。后摩智能联合创始人项之初指出,软件栈生态是首要瓶颈。以CUDA为例,其经过近20年积累,在长尾场景中已形成深厚壁垒,国产算力芯片需时间追赶。但他强调,硬件产品的差异化优势是突破关键,若硬件性能领先数倍,即便软件生态稍弱,仍有机会胜出。海光信息智算产品负责人贺群则从芯片厂商视角补充,制程限制不仅影响芯片算力密度,还制约卡间互联带宽,需在国产化上实现突破。同时,他提出生态问题包含“习惯打破”与“系统化工程”两部分,需通过有机调度形成闭环。
在突破路径上,找准场景成为共识。蓝耘科技CTO安江华认为,软件栈适配可聚焦特定场景,以市场收益驱动优化;制程问题亦非所有场景均需顶尖算力,部分场景需求可分层满足。新华三集团企业技术部总经理朱哲则从算力支撑角度分析,国产卡堆叠导致对卡间互联、液冷等技术需求激增,形成连锁反应。他以超节点为例,千卡或万卡集群性能非线性增长,卡间通信带宽、时延丢包等问题显著影响训练效率,超节点形态通过优化互联方式提升性能,同时降低推理场景成本。
技术路线选择上,海光信息坚持通用架构兼容主流生态。贺群解释,GPGPU覆盖计算类型广泛,适合AI高速发展需求,而DSA虽在特定算法上优化,但牺牲了通用性。海光DCU通过软兼容策略,支持从GitHub直接下载代码运行,降低用户迁移成本。对于存算一体技术,项之初透露,后摩智能第二代芯片已进入商业化量产阶段,客户包括头部AIPC、语音厂商及运营商,但端侧大模型尚未出现“杀手级应用”,产业链爆发仍需时日。他预测,端侧将承担至少50%计算任务,隐私性是其核心优势,未来本地化AI将杜绝数据泄露风险。
在系统架构层面,Scale-up与Scale-out的争议中,朱哲认为超节点更强调内部短距离、高带宽互联,而液冷已成为高密度节点标配。安江华补充,Scale-up性能更优但灵活性不足,液冷可节能30%并降噪,在超高密度场景中不可或缺。贺群则提醒,技术路线需结合业务场景,投入产出比是关键,海光DCU已做好液冷兼容准备。
工程化落地中,真实场景测试被反复强调。项之初分享,第一代产品通过客户反馈迭代编译器工具链,真实环境调优至关重要。朱哲介绍,新华三与杭州萧山共建芯模社区,要求芯片在测试环境运行3个月以上,挖掘边界条件问题。安江华则建立测试矩阵,帮助客户匹配最佳使用场景。对于中国算力的全球竞争力,嘉宾认为,端侧生态创新、系统化工程能力、AI应用场景优势及细分市场孵化能力,将构成独特护城河。















