您的位置 首页 科技

吴泳铭官宣3800亿投入后,阿里云如何打AI这场硬仗?

出品 | 搜狐科技作者 | 梁昌均编辑 | 杨锦“我非常有理由坚信,2025年一定是中国AI应用爆发的元年。”在4月9日的阿里云AI势能大会上,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示。

出品 | 搜狐科技

作者 | 梁昌均

编辑 | 杨锦

“我非常有理由坚信,2025年一定是中国AI应用爆发的元年。”在4月9日的阿里云AI势能大会上,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示。

他说这话是有底气的——过去一年,阿里云平台大模型API调用量增长近100倍,接入大模型的企业数量也接近100倍的增长。

阿里云希望进一步加速这一进程。“我们即将发布新的模型,最重要的方向主要是两个,一个是Reasoning推理,一个是Omin全模态融合。”刘伟光提到。

在应用方向上,这次大会,阿里云宣布推出AI Agent Store,从生成式AI向代理式AI发展,并表示将首先推动阿里旗下所有服务走向Agent(智能体)。

此前,阿里巴巴集团CEO吴泳铭宣布,未来三年,将在AI和云计算领域投入超过3800亿元,推动AI和云计算的基础设施建设、AI基础模型平台及AI原生应用和现有业务的AI转型升级。

以AI驱动为战略之一的阿里云无疑是重中之重。现在,阿里云已经逐渐明确,这笔钱要花到哪儿了。

模型和云,硬币的两面

过去很长一段时间,外界认为AI应用爆发预期不足的一大原因,是基础模型的能力下限不够高,因此很多企业对大模型的应用也停留在相对浅的层面。

在刘伟光看来,基础模型仍然是整个AI应用生态最核心的引擎,而随着基础模型从深度推理模型到多模态能力大幅度提升,让更多AI应用落地的可能性变得越来越高。

阿里云通义大模型业务总经理徐栋对搜狐科技表示,过去大模型的精度在75分到80分之间,所以今天的主脉络就是提高精度,同时要降成本。

展开全文

阿里云明确提出,未来基础模型最重要的两个方向是Reasoning推理和Omni全模态融合。

此前,OpenAI的o1模型点燃了推理模型这把火,而DeepSeek的R1模型则让这把火烧得更旺了。

OpenAI CEO山姆·奥特曼近日宣布,公司计划在未来几周内发布新的推理模型o3和o4-mini。这意味着,OpenAI技术路线再次调整,其此前表示会将推理模型和GPT-5融合。

“大模型未来的方向一定是向越来越强的推理能力演化。”刘伟光提到,很多客户都在利用更强大的基础模型做基于强化学习的后训练,同时反过来为推理提供重要能力补充。

今年3月,阿里通义团队推出最新推理模型QwQ-32B,用不到5%的参数规模,达到了DeepSeek-R1的相同性能,背后正是借助了大规模强化学习。

不过,阿里云在模型推理的基础上,还把工具调用等能力融合进来。具体做法是,先用强化学习进一步提升模型的跨领域泛化能力,然后让模型自行判断用快思考还是慢思考解决问题,同时还让模型具备更强大的任务规划和工具调度能力。

此外,阿里云认为单一的文本模型已经难以满足市场需求,必须发展全能模型。

“客户今天越来越希望要的是全模态的模型,今天的模型很聪明,但如果是聋子、哑巴,在很多交互场景就不行。”常常跟客户打交道的徐栋,观察到了客户需求的变化。

阿里云已踏出第一步,3月底发布并开源了首个端到端全模态大模型Qwen2.5-Omni-7B,可同时处理文本、图像、音频和视频等多种输入,并实时生成文本与自然语音合成输出。

此前,市场对AI的未来终局存在两种路线,一条是依靠单一的大语言模型就能实现AGI,另一条则认为必须发展多模态才是正道,阿里云显然倾向后一条路线。

刘伟光的解释是,人类对世界的认知本身就是多模态的,多种模态模型必然相互融合,最终实现全模态的输入和输出,从而实现多模感知和协同,为最终的交互带来全新方式。

当然,阿里云还重申会坚持开源。目前,通义开源模型总量超过200款,在开源社区衍生的千问模型突破10万,成为全球最大开源大模型家族。

谈及开源对阿里的影响,徐栋表示,如果开源,模型做不到SOTA(最先进)没有意义。所以这会倒逼整个团队,反过来加强了团队的模型迭代速度和能力建设。

从业务层面看,他认为,模型和云是一个硬币的正反面,模型开源之后,反过来对云销售的提升也是显而易见的。“这是一个间接的过程,但对我们来说,非常行之有效。”

最新财季显示,阿里云收入296亿元,同比增长7%,环比增长超11%,连续四个季度实现增长。

走向Agent,自家业务先行

“春节期间DeepSeek火爆出圈,让公众对大语言模型能力的认知水平有了显著提升,也推动了企业能够基于基础大模型做更多的AI Agent、AI原生应用、推理应用等。”刘伟光表示。

截至2025年1月底,阿里云百炼平台中调用通义API的企业和开发者超29万。这次大会,阿里云就现场展示了通义在购物、硬件、职场、教育、健康、出行等多个行业的应用。

叮咚买菜CTO蒋旭介绍,其在供应链侧、消费者侧和内部运营侧都用到了通义,比如监测重点产品,同时开发了对话式AI产品叫叮小咚,用来满足用户对食品有关问题的解答。

不过,目前还有很多问题尚未解决。蒋旭提到,针对垂直领域如何建立更好的知识库和模型面临挑战,现在的多模态能力也难以完全满足业务更高要求的需求。

当然,普遍关心的问题还是成本。蔚来座舱AI多模态负责人吴楠认为,在大模型推动汽车变革的过程中,成本不可避免,最好的方式就是如何平衡自研和合作伙伴的合作。

“叮咚买菜是一家相对薄利的公司,所以对成本的管控会更严,希望阿里云将来能出更好的混合部署的方案。”蒋旭表示。

美高域研发负责人孟文静也对搜狐科技提到,作为香港公司,AI应用不仅面临粤英复杂的语言环境问题,还面临医疗数据集的问题,而通用模型没有办法解决具体场景的理解问题。

此前,阿里云确定了AI驱动、公共云优先的战略,因此很少做定制化项目。按徐栋的解释,这是因构造SFT的数据集成本比较高,涉及到企业数据等,同时阿里云希望通过提高模型的基线来解决这些问题。

为了解决这些客户需求,加速应用爆发,阿里云发布“繁花”计划,提出未来三年将在基础设施、模型、数据、工具、应用、交付等领域与生态伙伴一起服务百万云上客户。

今年被视为AI Agent爆发元年,阿里云也正式参战,这次大会宣布推出AI Agent Store,加速从生成式AI走向代理式AI的新阶段。

“我们首先从自身做起,推动阿里旗下所有服务走向AI Agent。”刘伟光表示,阿里追求的不是单纯的模型强,也要追求更为丰富的应用强。

为此,阿里云百炼上线业界首个全生命周期MCP服务,以降低Agent开发门槛。MCP即为模型上下文协议,是由Anthropic提出的开放协议。

MCP是模型和外部数据、工具的通信协议,解决了双方交互问题,可以让用户不用懂代码就能直接调用模型和MCP服务,搭建Agent应用,因此不少人将其类比为互联网的HTTP协议。

阿里云百炼高级产品专家徐志远认为,MCP推动了技术平权和服务平权,将加速大模型的应用,而Agent正是大模型落地的最佳载体,预计未来Agent的数量将远超现有的软件应用。

“接下来,Agent的繁荣只缺一个点,就是从业者对领域、行业和真实需求的洞察和理解。”徐志远说。

此前,OpenAI已宣布接入MCP,微软、谷歌也不例外。国内除阿里之外,百度、腾讯等最近也均宣布支持MCP。可以说,这些玩家都在发力,但现在还没有最终的赢家。

吴泳铭此前说,AI最大的想象是接管数字世界、改变物理世界。现在,阿里才刚刚准备驶向代理式AI。

本文来自网络,不代表大火龙新闻网立场,转载请注明出处:/27466.html

作者: wczz1314

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

13000001211

在线咨询: QQ交谈

邮箱: email@wangzhan.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部