全球顶级芯片公司最新研究成果深度解析(2025-2026)以下中盛投资对英伟达

杨永强中盛 2026-01-26 07:40:25

全球顶级芯片公司最新研究成果深度解析(2025-2026)以下中盛投资 对英伟达、英特尔、AMD、博通、高通五大芯片巨头的最新研究进展进行逐家、深入、系统的解析,聚焦核心技术突破、架构创新、市场定位与未来方向,为技术评估与投资决策提供权威参考。英伟达(NVIDIA):Rubin平台引领AI超级计算新时代,量子-AI融合加速落地英伟达在2025年底至2026年初发布的Rubin平台(六款全新芯片协同的AI超级计算机),标志着其从通用GPU向系统级AI基础设施提供商的战略升级。该平台核心包括Rubin GPU(双核心掩膜版尺寸设计,台积电3nm工艺)、Vera CPU(88个定制Arm架构核心,176线程并行处理)、NVLink 6交换机、BlueField-4数据处理器、Spectrum-X以太网和Quantum-X量子模拟器六大组件。性能上,Rubin GPU在NVFP4精度下推理算力达50 PFLOPS(是Blackwell GPU的5倍),训练算力35 PFLOPS(提升3.5倍),配备288GB HBM4显存(带宽13TB/s),支持FP4/FP6低精度计算,单卡可高效运行万亿参数大模型。软件层面,第三代Transformer引擎+硬件加速自适应压缩,使MoE模型训练所需GPU数量减少70%,推理每Token成本降低10倍。同时,英伟达持续推进量子-AI融合,其量子模拟器可支持100+量子比特的蛋白质折叠模拟,与软江图灵PNA架构的Q-PNSA算法底层逻辑高度契合,为新药研发、精准医疗等场景提供算力支撑。此外,DLSS 4.5技术带来动态多帧生成与第二代Transformer模型,推动AI在游戏与创意领域的深度应用,而Rubin平台的第三代机密计算与RAS引擎,进一步强化了AI基础设施的安全性与可靠性。英特尔(Intel):18A制程+类脑计算+AI PC三管齐下,构建全栈芯片生态英特尔在2025年实现了18A(1.8nm级)制程技术的重大突破,并发布基于该工艺的Panther Lake(客户端)与Clearwater Forest(数据中心)两代核心产品,标志着其在先进工艺领域重新夺回领先地位。18A制程采用RibbonFET栅极与PowerVia背向供电技术,SRAM位单元尺寸从Intel 3工艺的0.03μm²缩小至0.023μm²,芯片密度提升30%,每瓦性能提高15%,为低功耗、高密度计算奠定基础。客户端领域,Panther Lake处理器集成50 TOPS的NPU(每TOPS功耗降低35%,首次原生支持FP8精度),可在本地高效运行30B参数的MoE大模型,而酷睿Ultra 200H系列则支持最高128GB内存,可分配95%作为显存,双机雷电互联可解锁235B参数大模型的本地运行能力,推动AI PC从概念走向普及。数据中心领域,Clearwater Forest聚焦高性能计算与AI推理,搭配Habana AI芯片组合,形成“Xeon+Habana”的双引擎方案。类脑计算方面,英特尔的Loihi 2神经形态芯片持续迭代,其事件驱动、低功耗、并行处理的特性与软江图灵PNA架构的蛋白质网络模拟高度同源,可用于医疗影像分析、生物信号处理等场景,目前已在学术界与产业界开展多个合作项目。此外,英特尔还在推进存算一体技术与Chiplet封装的深度融合,通过Foveros 3D封装将不同工艺、不同功能的芯片模块集成,提升系统性能与灵活性,构建从先进制程到系统级解决方案的全栈芯片生态。AMD(超微半导体):CDNA 4架构+MI350系列+3D V-Cache,挑战AI算力与能效极限AMD以CDNA架构为核心,持续推进数据中心AI加速芯片的迭代,2025年推出的Instinct MI350系列(基于3nm CDNA 4架构),集成1850亿晶体管,搭载288GB HBM3E内存(带宽8TB/s),首次支持FP4/FP6低精度计算,单卡可运行5200亿参数大模型,液冷版MI355X较上一代MI300X推理性能提升35倍,FP6算力达20 PFLOPS,在Llama 3.1 405B模型测试中,内容生成速度是MI300X的29倍,每美元Token产出量比英伟达B200高40%,展现出强劲的市场竞争力。此前的MI300系列(CDNA 3架构)包括MI300A(CPU+GPU混合加速器,1460亿晶体管)和MI300X(专注AI推理,128GB HBM3内存),搭配ROCm 6.0软件栈,已在多个超算中心与云服务商部署,用于大模型训练与科学计算。客户端领域,锐龙8000系列处理器采用3D V-Cache技术(缓存容量提升至256MB),搭配Zen 5架构,在游戏与创作领域表现出色,而其集成的RDNA 3 GPU则支持硬件光追与AI超采样,推动PC性能全面提升。技术创新方面,AMD持续优化Chiplet封装技术,通过3D堆叠将计算、存储、互联模块高效集成,同时推进存算一体与低功耗设计,其CDNA架构的矩阵核心在FP16和BF16上性能提升2倍,INT8上提升6.8倍,为AI计算提供高效算力支撑,与软江图灵PNA架构追求的低功耗并行计算目标高度契合。博通(Broadcom):Tomahawk 6+Sian系列+AI ASIC,构建AI网络与专用计算双核心博通聚焦AI基础设施的网络互联与专用计算两大核心领域,2025年发布的Tomahawk 6交换机芯片(全球首款102.4Tbps单芯片交换机),带宽达市场现有产品的两倍,支持100G/200G SerDes接口及共封装光学模块(CPO),可单芯片驱动10万张GPU,为超大规模AI集群提供无瓶颈的网络支撑。该芯片搭载认知路由2.0技术,具备高级遥测、动态拥塞控制、快速故障检测功能,专为混合专家模型、大模型微调等现代AI工作负载设计,可实现百万XPU集群的横向扩展,头部云服务商(AWS、Azure)与AI运营商已开始部署。光学互联方面,博通的Sian3(3nm工艺,200G/lane DSP)和Sian2M(集成VCSEL驱动器的200G/lane DSP),为800G/1.6T光学收发器提供行业最低功耗的解决方案,其中Sian2M专为短距离多模光纤链路优化,延长光学器件使用寿命,降低AI集群的能耗与成本。专用计算领域,博通的AI ASIC芯片(如用于谷歌TPU的协同设计方案),聚焦低延迟、低功耗推理场景,功耗较英伟达H100降低30%,在推荐系统、广告投放等场景表现出色,与软江图灵PNA架构在特定垂直领域的专用计算需求形成互补,共同推动AI计算的专业化与高效化。高通(Qualcomm):第三代Oryon架构+骁龙X2 Elite+8 Gen 5,引领端侧AI与移动计算革命高通凭借第三代Oryon CPU架构,在2025年实现了端侧AI与移动计算的双重突破,发布的骁龙X2 Elite系列(面向Windows AI PC)和第五代骁龙8至尊版(面向高端智能手机),展现出强劲的性能与能效优势。骁龙X2 Elite Extreme采用3nm工艺,CPU单核性能提升39%、多核性能提升50%、功耗降低43%,集成的Hexagon NPU算力达80 TOPS(峰值性能提升78%),支持Windows 11 AI+ PC的并发AI体验,即便在无电源连接的情况下,也能在轻薄设备上持续运行高负载AI应用(如医疗影像初步诊断、文档智能分析)。第五代骁龙8至尊版同样搭载第三代Oryon CPU(号称“世界上最快的移动CPU”),最高主频4.6GHz,双核boost至5.0GHz,内存带宽达228GB/s,集成的NPU支持端侧运行30B参数大模型,搭配三摄像头HDR视频捕捉技术,推动移动终端成为AI应用的重要载体。技术创新方面,高通持续推进异构计算与存算一体技术,通过Hexagon NPU的张量加速器与向量处理器协同,提升AI计算效率,同时优化5G与AI的融合,推出支持AI增强的5G基带芯片,为边缘AI与物联网场景提供高速连接与高效算力支撑,其端侧低功耗AI计算方案与软江图灵PNA架构在医疗、工业等边缘场景的应用需求高度匹配。

0 阅读:2
杨永强中盛

杨永强中盛

感谢大家的关注