阿里上调资本开支,2032年AIDC功耗将增长10倍,看好国产AI提速发展 | 投研报告

来源:中国能源网2025年09月28日 10:53

开源证券近日发布通信行业周报:硬件方面,发布磐久AI Infra2.0128卡超节点AI服务器、高性能网络HPN8.0、自研飞天+CIPU架构等。巨头持续加大AI资本投入,通过柜内超节点、柜外scale across等方式构建万卡或10万卡等更大算力规模集群,弥补单芯片算力及显存不足的差距,持续看好国产AI大模型及应用发展,国内算力产业链或持续受益。

以下为研究报告摘要:

阿里加大资本开支,2032年AIDC功耗将增长10倍

2025年9月18日,阿里巴巴云栖大会召开,阿里表示将在3年3800亿AI资本开支计划外追加更多投资,在2032年阿里IDC能耗较2022年提升10倍,并提出ASI目标,强调两大AI战略。应用方面,公司发布7款大模型,旗舰模型Qwen3-Max性能全球前三。硬件方面,发布磐久AI Infra2.0128卡超节点AI服务器、高性能网络HPN8.0、自研飞天+CIPU架构等。巨头持续加大AI资本投入,通过柜内超节点、柜外scale across等方式构建万卡或10万卡等更大算力规模集群,弥补单芯片算力及显存不足的差距,我们持续看好国产AI大模型及应用发展,国内算力产业链或持续受益。

阿里发布128卡超节点AI服务器,网络侧升级至800G

公司发布磐久AI Infra2.0128卡自研超节点AI服务器,支持多种AI芯片,单柜支持128个AI计算芯片,内部集成公司自研CIPU2.0芯片和EIC/MOC高性能网卡,采用开放架构,扩展能力较强,可实现高达Pb/s级别Scale-Up带宽和百ns极低延迟,相对于传统架构,同等AI算力下推理性能还可提升50%;公司推出新一代高性能网络HPN8.0,采用训推一体化架构,存储网络带宽拉升至800Gbps,GPU互联网络带宽达到6.4Tbps,搭配灵骏集群,可支持单集群10万卡GPU高效互联,助力AI训推提效。

阿里发布7款大模型,不断丰富Qwen模型家族,性能持续提升

阿里正式发布旗舰模型Qwen3-Max,是通义千问家族中最大、最强的基础模型,预训练数据量达36T,总参数超过万亿,性能超过GPT5、Claude Opus4等,跻身全球前三,包括指令(Instruct)和推理(Thinking)两大版本,在Coding编程能力和Agent工具调用能力上有较大提升;发布下一代基础模型架构Qwen3-Next,模型总参数80B仅激活3B,性能即可媲美千问3旗舰版235B模型,模型训练成本较密集模型Qwen3-32B降低超90%,长文本推理吞吐量提升10倍以上;多模态模型中,Qwen3-VL开源,拥有极强的视觉智能体和视觉Coding能力,在32项核心能力测评中超过Gemini2.5-Pro和GPT5。

重视国产算力各大细分板块

推荐标的:中兴通讯、英维克、源杰科技、紫光股份、盛科通信、光环新网、奥飞数据、新意网集团、中际旭创、新易盛、天孚通信、中天科技、亨通光电等

风险提示:5G建设不及预期、AI发展不及预期、中美贸易摩擦(开源证券 蒋颖,陈光毅,雷星宇)

【责任编辑:杨梓安】

投稿与新闻线索: 微信/手机: 15910626987 邮箱: 95866527@qq.com
中国能源网官方微信二维码
欢迎关注中国能源官方网站
分享让更多人看到
中国能源网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。

即时新闻

要闻推荐

热点专题

精彩视频

河海大学华昊辰:“混合储能 + AI 调控”赋能高原铁路牵引供电绿色升级
守牢大国能源“饭碗” 铸强矿山革新“引擎”——武强院士解码新时代能源保障与转型之路
上海市监局回应韩束被曝添加禁用成分:进一步核实调查中
能源奋楫·强国鼎新——扬帆“十五五” 开局最“一线”

精彩图集

再访美军空袭后的拉瓜伊拉港
华盛顿举行反对联邦执法人员暴力执法抗议活动
首批下穿太湖超大直径盾构机下线
沪宁合高铁南京特大桥跨滁河斜拉桥顺利合龙
阿里上调资本开支,2032年AIDC功耗将增长10倍,看好国产AI提速发展 | 投研报告
分享到: