英伟达要在3月15号发布一款新芯片。 这次不是他们最擅长的训练芯片,而是专门做

迎海咸莱 2026-02-28 18:58:33

英伟达要在3月15号发布一款新芯片。 这次不是他们最擅长的训练芯片,而是专门做推理的。推理就是AI回答用户提问的那个过程,现在大模型火是火,但响应慢、并发一高就卡,问题就出在推理环节。 新芯片叫“Feynman”,在英伟达的GTC开发者大会上亮相。黄仁勋已经把话说得很满,说这是世界前所未见的技术突破。 这芯片有意思的地方,是用了家初创公司Groq的技术。Groq做了一种叫LPU的东西,语言处理单元。它跟传统GPU思路不一样,不靠HBM内存,而是在芯片上直接塞SRAM,带宽能做到80TB每秒。这就意味着,AI模型在回答问题时,不用频繁去内存里取数据,延迟一下子就降下来了。 打个比方,以前的芯片像是个仓库,东西存得远,取一次费点时间。LPU这个架构,东西就在手边,拿起来就用。对金融交易、自动驾驶这种对响应时间要求苛刻的场景,这是刚需。 速度上,LPU推理比GPU快五到十倍,成本只有十分之一。单机柜的PCB板子,价值就接近五十万人民币。 散热也是个大问题。算力往上走,热量出不来。英伟达下一代可能要用金刚石热沉片,这东西导热率超过两千瓦每米每开,比传统材料强得多。制造工艺也在升级,台积电1.6纳米,英特尔14A,两边可能都用上,通过3D堆叠把LPU和GPU摞在一起,解决内存瓶颈。 客户已经锁定了。OpenAI是首批最大买家之一,打算用这批芯片优化他们的Codex工具。 但竞争也没闲着。谷歌有TPU,亚马逊有自研芯片,Meta在折腾CPU加GPU的混合方案,都想在推理市场分一杯羹。 产业链已经开始动了。 新芯片对PCB板的要求高得多,得五十二层以上的高多层板,用的覆铜板和石英布都是顶配,单块板子的价值量比之前翻了十倍。胜宏科技、沪电股份、菲利华这些厂商,跟着受益。 国产那边也没闲着。华为昇腾910B在国内推理市场已经占到四成以上,政策还在压国企采购国产化率,要求超百分之六十。英伟达的H200在国内卖,得交百分之二十五的分成,国产替代加速,市场份额肯定被挤。 风险也有。 英伟达的采购义务一年内从一百六十亿美元飙到九百五十亿。如果AI需求降温,或者推理市场没想象中那么大,库存能压死人。地缘政治也是变数,芯片定位技术搞不好引发隐私争议,限制出口的事随时可能再来。 整个行业正在从“训练竞赛”转向“推理优化”。训练拼的是谁算力强,推理拼的是谁快、谁便宜、谁跑得稳。英伟达这一步踩得挺准,但能不能跑赢,还得看落地之后的效果。英伟达芯片 英伟达AI 英伟达CFO

0 阅读:3
迎海咸莱

迎海咸莱

感谢大家的关注