2025年初DeepSeek跃入大众眼帘,一方面将AI推理和应用推入发展快车道,但另一方面也意味着此前模型巨头们之间的竞争门槛被快速消弭。
这显示出,无论是字节跳动的“大力出奇迹”,阿里巴巴的“开源战略”,还是百度文心大模型的早发优势,都不具备明显护城河。
中国科技巨头之间围绕大模型技术所开展的布局,也早已从单纯的模型技术参数比拼,升级为基座、算力、场景、生态的全方位较量。
在Create 2025大会上,百度发布了文心大模型4.5 Turbo和深度思考模型X1 Turbo,前者每百万token的输入价格仅为0.8元,输出价格3.2元,相比文心4.5模型的价格下降80%,后者相比文心X1,性能提升的同时价格再降50%。
百度创始人兼首席执行官李彦宏在演讲中表示,当前开发者做AI应用的一大阻碍,就是大模型成本高、用不起。成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
全栈护城河
围绕基座模型本身的竞速还在持续。
“多模态将成为未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型的市场会越来越大”。李彦宏指出,基于这样的判断,文心大模型4.5 Turbo和X1 Turbo都进一步增强了多模态能力。在多个基准测试集中,文心4.5 Turbo多模态能力与GPT 4.1持平、优于GPT 4o。
文心大模型X1 Turbo是基于4.5 Turbo的深度思考模型,性能提升的同时,具备更先进的思维链,问答、创作、逻辑推理、工具调用和多模态能力进一步增强,整体效果领先DeepSeek R1、V3最新版。
“有了这样超级能干的基础模型,我们就可以打造出超级有用、超级有趣的AI应用来。”李彦宏表示。
由此,大会期间,百度发布了一系列新应用,先打了个样。
“2025年最令人激动的突破性应用之一,就是AI数字人。”李彦宏介绍,百度发布的高说服力数字人,具有声形超拟真、内容更专业、互动更灵活的特点,在电商直播、游戏、消费等领域,有着巨大应用空间。
不同于传统数字人有明显的文案枯燥、动作少、机器音重等缺点,高说服力数字人的表现力甚至可以超越真人。支撑其落地的一个重要基础是“剧本生成”能力,基于多模态大模型,可以让高说服力数字人做到表情、语气、动作都匹配台词内容实时调整,情绪转折和动作切换十分顺畅。
智能体已成为AI应用的代名词。其中,代码智能体Coding Agent,是最近半年AI应用进展最快、最火的赛道。全球陆续涌现了cursor、devin、lovable等一系列代码智能体。
去年11月的百度世界大会上,百度发布了无代码编程工具“秒哒”,它有无代码编程、多智能体协作、多工具调用三大特性。今年3月,秒哒向全社会开放,任何人都可以通过秒哒,一句话生成应用。
李彦宏表示,“全球有近3000万程序员,有80亿人,当技术的门槛逐渐消失,每个人都可以具备程序员的能力”。
文心大模型的能力拓展和效率提升,得益于飞桨文心的联合优化。百度首席技术官王海峰在现场介绍,飞桨框架3.0既延续了动静统一、训推一体的技术特色,更在自动并行、神经网络编译器、高阶自动微分等方面持续突破。截至目前,飞桨文心开发者数量已超过2185万,服务超过67万家企业,创建的模型达到110万。
不止于此,百度作为国内最早布局大模型的厂商,其核心优势在于“芯片-框架-模型-应用”四层架构的全栈自研能力,并通过大规模算力集群构建的成本与效率壁垒。
进入人工智能时代,算力是重要基石。在大会期间,李彦宏发布一系列大模型基座和应用产品后,宣布了“One more thing”:正式点亮国内首个全自研3万卡集群。
这是基于昆仑芯第三代芯片P800的XPU架构。据介绍,该集群可同时承载5-6个千亿参数大模型全量训练,支持1000个客户进行百亿参数模型微调。
一个三万卡集群的建设,从硬件到软件,技术挑
战是全方位的。据悉,该集群建设了超大规模HPN高性能网络,将通信带宽有效性提升至90%以上;为了提升GPU有效利用率(简称“MFU”),百舸不断优化并完善模型的分布式训练策略,将训练主流开源模型的集群MFU提升至58%;而昆仑芯作为百度自研AI芯片,在百舸4.0的加持下,能够帮助企业解决算力供应问题。
巨头齐竞速
随着大模型产业持续迭代竞速,中国科技巨头的战略路径也逐渐清晰:百度希冀凭借全栈布局与自研基础设施抢占身位,阿里巴巴的业务加速从电商向AI转型,字节跳动则在基座模型基础上推进应用全方位覆盖。
谁能真正在模型和应用之间找到生态闭环的钥匙,谁就具备更多竞争力。
其中,阿里巴巴正试图撕掉“电商公司”标签,转向AI驱动的技术公司。其主要从云计算、模型、应用三个维度完善战略布局。
阿里云计算网络是其主要技术底座,但公司方面尚未公布大规模自研算力集群的进展;旗下通义千问开源模型的能力已经跻身全球第一梯队;应用方面,钉钉与夸克是其典型落地场景。
字节跳动的AI战略则依托了云计算平台火山引擎、豆包基座模型和应用构建整体逻辑,应用层在B端有飞书、C端有即梦作为典型,此外还面向诸多场景推进应用落地,被业内称为“全面平推”。
相比之下,百度在核心算力基础设施方面构建了夯实的底色,让其在大模型竞争中有更深一层底气。
海通证券就认为,如果受贸易环境影响,部分美国GPU厂商无法在中国市场正常推进业务,预计中国数据中心AI芯片市场将重构为华为、寒武纪、昆仑芯三家公司主导的格局。
在开发者大会期间,百度智能云还发布了昆仑芯超节点。
百度集团执行副总裁、百度智能云事业群总裁沈抖介绍,昆仑芯超节点支持把64张昆仑芯AI加速卡放到同一个机柜,一个机柜就能顶过去100台机器。与以往的方案相比,昆仑芯超节点用更快的机内通信替代机间通信,可以有效降低带宽成本,最终实现卡间互联带宽提升8倍,单机训练性能提升10倍,单卡推理性能提升13倍。
沈抖认为,未来三年,推理降本,一定是企业最重要的工作。
2025年被称为AI应用爆发之年,为此,百度搜索开放平台发布了“AI开放计划”(sai.baidu.com),通过建立多样的内容和服务分发机制,为智能体、H5、小程序、独立App等应用开发者提供流量和收益。
MCP的出现,帮助开发者和企业在开发Agent时,能够更好利用行业数据和工具。本次大会期间,百度智能云发布国内首个企业级MCP服务,第一批已经有超过1000个MCP Servers供企业及开发者选择。另外,开发者也可以在百度智能云千帆平台上开发自己的MCP Server,并发布到MCP广场,支持免费托管,而且百度搜索也会索引这些MCP Server,让它们被更多的开发者引用。
当前大模型竞争的本质是生态能力的比拼,而基础设施与场景渗透成为关键变量。百度凭借全栈布局、自研算力与开放生态暂时领先,但其能否持续保持优势,取决于能否在行业场景中实现更深度的标准化输出。随着DeepSeek等新玩家加入,中国大模型市场的“混战”将持续升级,而真正的赢家,属于那些既能仰望技术星空、又能脚踩产业实地的长期主义者。
还没有评论,来说两句吧...