导读:2024年过去,AI又走过了狂奔的一年,大模型加速落地的热切、应用场景创新的火热和高投入、商业化缓慢带来的“下牌桌”焦虑同时处在这个行业。回过头看来,过往行业共识的一些问题在2024年中被打上了问号,例如智能算力还是否短缺、中国AI企业的“算力焦虑”是必要的吗?Scaling Law(规模法则)还值得信仰吗?辞旧迎新之际,中国AI行业的“拐点”时刻更受关注。不再统一的答案 ……

2024年过去,AI又走过了狂奔的一年,大模型加速落地的热切、应用场景创新的火热和高投入、商业化缓慢带来的“下牌桌”焦虑同时处在这个行业。

回过头看来,过往行业共识的一些问题在2024年中被打上了问号,例如智能算力还是否短缺、中国AI企业的“算力焦虑”是必要的吗?Scaling Law(规模法则)还值得信仰吗?

辞旧迎新之际,中国AI行业的“拐点”时刻更受关注。不再统一的答案背后,值得关注的是,对中国AI企业来说,一些好的变化正在发生,也有更多挑战等待2025年去回答。

训练成本下降

2024年12月27日,海外社交媒体平台X被来自中国的大模型DeepSeek-V3刷屏,这一模型能力对标头部模型,但训练的预算却非常低,“2048个GPU、2个月、近600万美元”,相比之下,GPT-4o等模型的训练成本约为1亿美元,至少在万个GPU量级的计算集群上训练。

这是一项展现了极致性价比的训练成本数据。在已开源的论文中,幻方量化旗下AI公司深度求索(DeepSeek)强调了DeepSeek-V3训练成本较低通过对算法、框架和硬件的优化协同设计,在预训练阶段,模型每训练1万亿token仅需要18万个GPU小时,即在团队配备2048个H800 GPU的集群上只需3.7天,也就是说,团队的预训练在不到2个月的时间完成。加上后训练,DeepSeek-V3完整训练消耗了278.8万个GPU小时。假设H800 GPU的租用价格为每块GPU 2美元/小时,DeepSeek-V3的全部正式训练成本总计仅为557.6万美元。

DeepSeek的成功并非个例,值得关注的是,在英伟达显卡等高端算力资源受限的情况下,2024年,许多中国AI企业正在找到降低训练成本的方法。

极佳科技联合创始人兼首席科学家朱政向第一财经记者透露,过去一年,极佳科技训练大模型的成本也在大规模下降。朱政介绍,之前极佳科技训练一个视觉模型大概需要500万美金,基本上是一个语言模型的1/10,但现在他们已经把这个成本降到了100万美金以下。

从训练成本的降低来看,朱政表示“方法有很多”,一方面,大模型公司正在关注与云厂商加强合作,通过做一些训练加速、通讯优化、设置优化等降低成本。同时,行业对数据优化也更为重视,之前行业用Scaling Law只是在对数据,但对完数据后并没有做非常多相应的优化,事实上数据优化带来的训练效率提升空间也很大。

中国AI企业的“抢卡”焦虑也因此有所缓解,朱政表示,例如英伟达最新发布的显卡还是要买,得买最新的架构的显卡,但随着训练效率的提升,需要的规模会下降。他同时表示,来到100万美金以下,未来进一步下探大模型的训练成本将是一件更困难的事情,可能不是一家企业能搞定的事情,可能需要训练框架的支持、编程语言的支持包括显卡算式的支持。

从全行业的角度来看,蚂蚁集团科技战略与执行部副总经理彭晋对第一财经记者表示,在采购先进算力有些困难的情况下,国内也在推进国产算力的替代,各大公司都在不断采购一些国产算力,从蚂蚁的实践来看,国产算力已经可以支撑很大规模,比如在千亿参数甚至以上规模的模型训练中国产算力是没有问题的。至于到下一步,例如说要建十万卡规模的集群,国产算力能否支撑有待进一步检验。

“远虑”仍存,但走过2024年,中国企业的“算力焦虑”正在回归理性。

未来趋势

2025年,中国AI行业会有哪些变化?

北京智源人工智能研究院在《2025十大AI技术趋势》报告中指出,从基础设施到产品应用,Scaling Law、基础模型、具身智能、超级应用、AI安全等AI发展的关键方向都可能在2025年迎来新的变化。

视觉模型训练成本一年下降80%,中国AI厂商“掀起”全球算力降价潮

报告认为,AI4S驱动科学研究范式变革;具身智能领域具身大小脑和本体的协同进化;统一的多模态大模型实现更高效AI;Scaling Law扩展向RL + LLMs,模型泛化从预训练向后训练、推理迁移;世界模型加速发布,有望成为多模态大模型的下一阶段;合成数据成为大模型迭代与应用落地的重要催化剂;推理优化迭代加速,成为AI Native应用落地的必要条件;Agentic AI成为产品落地的重要模式;AI应用将迎来Super APP以及AI安全治理体系的持续完善将成为2025年AI技术发展的十大趋势。

不少中国自研的技术和产品让业内看到了这些趋势的到来。2024年9月,蚂蚁发布了支小宝、蚂小财等系列AI管家产品,探索更多服务类智能体形态,2024年10月,智源研究院发布了完全自研的基于自回归技术的原生多模态世界模型Emu3,实现了视频、图像、文本三种模态的统一理解和生成,2024年年底,豆包月活跃用户数达到了7116万,成为国内第一、全球第二的AI原生应用。

智能研究院行业研究组负责人倪贤豪提到,走过2024年全年来看,与2023年相比,国内AI整体的应用热度已明显升温,相比2023年第一季度,他所在的团队调研到,2024年第四季度,整个基础模型的垂直产业链以及其他赛道AI应用的成熟度已有了明显提升,例如AI在3D内容、AI硬件等场景的应用以及医疗文献处理等未来场景的探索中,都有了明显拓展。

从国内大模型公开中标项目的类型分布来看,2024年10月,大模型应用类项目数量首次超过了算力类项目,应用类大模型招标项目占比已达到56%,国产大模型在垂直行业实现了加速落地,或是在诸多中大型企业扮演中台性质的基础设施。

AI应用领域的Super APP能否在2025年出现同样受到业内关注。从C端的用户规模、交互频次、停留时长等维度来看,目前,国产AI应用尚未出现爆发式增长,倪贤豪表示,随着大模型推理成本的下降,包括开发工具的适配、框架的创新以及应用安全、决策的可解释性、鲁棒性等问题的解决,未来,推动Agent解决复杂问题的能力提升将变得更有可能也更关键。他认为,从用户视角切入,以需求反推技术或许能撬动AI应用的用户存量和增量市场,Super APP在2025年的诞生值得期待。

“当前,我们处在人工智能发展的新拐点,大模型的能力涌现加速通用人工智能时代的到来,原生统一多模态、具身智能、AI for Science,将进一步深化人工智能对世界的感知、理解与推理,连接数字世界与物理世界,驱动科学研究创新突破。”智源研究院院长王仲远表示。

文章来自:人工智能实验室

Loading

作者 yinhua

发表回复