NVIDIA要用上X3D堆叠设计!下代Feynman GPU将引入LPU
时间:2025-12-29 | 作者: | 阅读:012月29日消息,虽然NVIDIA目前在AI训练领域无可匹敌,但面对日益增长的即时推理需求,其正筹划一项足以改变行业格局的“秘密武器”。
据AGF透露,NVIDIA计划在2028年推出的Feynman(费曼)架构GPU中,整合来自Groq公司的LPU(语言处理单元),以大幅提升AI推理性能。
Feynman架构将接替Rubin架构,采用台积电最先进的A16(1.6nm)制程,为了突破半导体物理限制,NVIDIA计划利用台积电的SoIC混合键合技术,将专为推理加速设计的LPU单元直接堆叠在GPU之上。
这种设计类似于AMD的3D V-Cache技术,但NVIDIA堆叠的不是普通缓存,而是专为推理加速设计的LPU单元。
设计的核心逻辑在于解决SRAM的微缩困境,在1.6nm这种极致工艺下,直接在主芯片集成大量SRAM成本极高且占用空间。
通过堆叠技术,NVIDIA可以将运算核心留在主芯片,而将需要大量面积的SRAM独立成另一层芯片堆叠上去。
台积电的A16制程一大特色是支持背面供电技术,这项技术可以腾出芯片正面的空间,专供垂直信号连接,确保堆叠的LPU能以极低功耗进行高速数据交换。
结合LPU的“确定性”执行逻辑,未来的NVIDIA GPU在处理即时AI响应(如语音对话、实时翻译)时,速度将实现质的飞跃。
不过这也存在两大潜在挑战,分别是散热问题和CUDA兼容性难题,在运算密度极高的GPU 再加盖一层芯片,如何避免“热当机”是工程团队的头号难题。
同时LPU强调“确定性”执行顺序,需要精确的内存配置,而CUDA生态则是基于硬件抽象化设计的,要让这两者完美协同,需要顶级的软件优化。
来源:https://news.mydrivers.com/1/1095/1095424.htm
免责声明:文中图文均来自网络,如有侵权请联系删除,心愿游戏发布此文仅为传递信息,不代表心愿游戏认同其观点或证实其描述。
相关文章
更多-
- 从 RTX 到 Spark:NVIDIA 为本地代理式 AI 加速 Gemma 4
- 时间:2026-04-07
-
- 显卡不怕缺货 NVIDIA正享受内存危机:AMD截然相反
- 时间:2026-04-04
-
- AI彻底改写全球市值排行榜 TOP25半导体独占7席:三年翻了一倍多
- 时间:2026-04-04
-
- 《巫师4》新技术演示曝光!RTX 5090跑4K/80帧
- 时间:2026-04-03
-
- NVIDIA DLSS 4.5全功能解锁!6倍多帧+动态多帧生成重磅上线!
- 时间:2026-04-02
-
- 驱动总裁怎么装Nvidia驱动
- 时间:2026-04-01
-
- NVIDIA又放神技!空闲预编译着色器:告别游戏加载卡顿
- 时间:2026-04-01
-
- Intel、AMD拍大腿!黄仁勋:显卡植入CDUA是当年最英明的决定 已成NVIDIA最大护城河
- 时间:2026-04-01
精选合集
更多大家都在玩
大家都在看
更多-
- 搞笑的网名女生极简冷酷(精选100个)
- 时间:2026-04-07
-
- 高德地图怎么查看未来天气-高德地图如何查看未来天气情况
- 时间:2026-04-07
-
- 曼哈顿音响怎么设置WiFi连接?
- 时间:2026-04-07
-
- 逆水寒庄园设计布局指南 打造独一无二的庄园空间
- 时间:2026-04-07
-
- 幻想少女公会恶意破韧冰邪神玩法搭配
- 时间:2026-04-07
-
- 浩取名网名搞笑女生名字(精选100个)
- 时间:2026-04-07
-
- 网络热词认真你就输了是什么意思
- 时间:2026-04-07
-
- openclaw小龙虾AI养成指南如何做
- 时间:2026-04-07

