预判了美国的预判!就在美国高调官宣封禁AI芯片第二天,英国媒体就爆出猛料:中国科技巨头获得廉价供电,推动国内AI晶片发展! 美国当初官宣封禁令时,怕是觉得稳操胜券。他们认准了中国AI离不了英伟达H100、H20这些高端芯片,毕竟以前百度练文心一言、阿里做智能推荐,机房里堆的全是这些“抢手货”,英伟达一度占了国内高端市场95%的份额。 可他们偏偏忘了,AI这东西就像烧火做饭,光有好锅没用,得有足够的柴火才能让它转不起来。 而支撑AI跑起来的“柴火”,正是电力——这恰恰是中国藏得最深的底气。 AI本身就是个电老虎,IDC刚放的数据显示,2025年全球AI数据中心耗电量已经突破3500亿度,差不多抵得上整个广东省一年的用电量。 国内某头部企业训练个千亿参数大模型,光训练阶段就烧了1.2亿度电,这相当于10万户普通家庭一整年的用电总量。就连日常用的AI聊天工具,一天的电耗就相当于一个小县城的日用电量,而且只要有人用,电就不停烧,这比训练阶段的“阶段性耗电”更熬人。 美国那边其实早被这“电老虎”折腾得头疼。微软CEO纳德拉前不久就抱怨,手里海量的英伟达GPU只能躺在机架上,因为根本没有足够的电力点亮它们。 要知道,AI芯片迭代速度比电网扩容快多了,芯片“有效保质期”越来越短,等电的那几天,价值数十亿美元的硬件资产就在无声贬值。 被逼急了的硅谷巨头们只能想些“野路子”:亚马逊、谷歌开始布局小型模块化反应堆,英伟达和谷歌甚至琢磨着把数据中心送进太空,搞什么“在轨计算”,谷歌计划2027年发射原型卫星,英伟达投资的公司刚在2025年11月送了颗测试星上天。 可这些方案动辄耗资千亿,还得等好几年才能落地,说白了就是“远水解不了近渴”。 反观中国,早就把这个问题解决得明明白白。国家能源局2024年的成绩单摆着:全国可再生能源发电累计装机容量达到18.89亿千瓦,占全部电力装机的56.4%,其中太阳能发电就有8.87亿千瓦,风电5.21亿千瓦,全年风电太阳能发电量合计达1.83万亿千瓦时,比城乡居民生活用电量还高。 这些绿电大多集中在西部,电价便宜得惊人。新疆工业电价低至0.24-0.32元/度,仅为东部城市的一半;克拉玛依更划算,0.28元/度的电价再加上220天的免费冷却期,算力运营成本直接再降15%;阿里云在内蒙古的超算中心,2025年绿电占比已经到75%,电价比火电低30%。 算笔实在账,一个1万PFlops的智算中心,在新疆年电费仅需7亿元,比东部同类项目每年节省超6亿元,静态回收期才3.8年,这性价比谁看了不心动? 有了廉价稳定的“柴火”,国产AI芯片这口“新锅”很快就烧得旺了起来。 华为9月刚甩出Atlas960超节点,把15488张昇腾芯片塞进一个节点,FP8算力直接飙到16EFLOPS,比传统架构性能暴涨17倍。更聪明的是直接把集群建在西部算力枢纽,用风电光伏供电,有家自动驾驶公司用上后,算力成本从每PFlops每天8美元降到3美元,比进口集群便宜一半还多。 这边华为刚秀肌肉,阿里就在云栖大会亮出磐久128超节点,一个机柜塞128个AI芯片,还能兼容英伟达、海光、平头哥等好几个品牌。有家做工业质检的厂商以前混用三种芯片,算力利用率才40%,换用磐久超节点后直接飙到85%,检测效率翻一倍。 寒武纪的芯片更是直接冲进了互联网巨头的机房,字节跳动2025年一季度96%的营收都来自它,采购的思元690芯片用来支撑抖音电商和AIGC内容生成,火山引擎平台上部署了超2万张,日均处理10亿次AIGC内容生成。思元690单卡价格约8万元,比H100便宜73%,在推荐系统中能效比还达到H100的1.8倍。 就连北大团队都凑了热闹,搞出的模拟矩阵计算芯片,跑AI图像识别时耗电只有传统芯片的1/5,训练小模型能从1000度电省到200度,北京某互联网公司机房换上后,空调电费都省了30%。 地方政府还在旁边“添柴加火”:新疆给算力企业搞0元地价、“三免三减半”所得税,采购国产芯片能拿15%补贴,绿电用得多还有0.05元/度的额外补贴;内蒙古电力公司三季度对算力中心的供电量同比增220%,河北电力相关营收涨了45%。 这么一套组合拳下来,中国AI已经走出了“靠进口芯片续命”的阶段。 美国怕是到现在都没反应过来,他们盯着芯片这个“单点”死磕,却忽略了AI是个“系统工程”,中国早把电力搭得稳稳当当,再配上国产芯片,就算没有进口,照样能实现逆袭。等硅谷巨头们的太空数据中心好不容易落地,说不定中国的AI算力已经靠着廉价绿电,在西部戈壁上跑出更远的距离了。
