大家目前应该是对于台积电:HPC芯片功率密度推动行业对1kW+散热系统需求增长方面的知识比较感兴趣,所以今天小编也是特地在网络上收集了一些台积电:HPC芯片功率密度推动行业对1kW+散热系统需求增长方面的知识来分享给大家,感兴趣的小伙伴就好好看下下面的文章吧。
近年来,超算等高性能系统的功率密度,始终保持着高速增长。不过台积电在其年度技术研讨会上表示 —— 计算领域的一个明显趋势,就是每个芯片和机架单元的功耗,并不会坐等受到传统风冷散热的限制。显然,晶体管功耗的降低,并没有其尺寸缩减那样快。由于芯片制造商不会放弃性能上的定期增长,HPC 领域的晶体管功率正在飞涨。
另一方面,小芯片技术正在为构建更强大的芯片铺平道路。但在性能与延迟优势之外,其在散热方面遇到的问题也不容忽视。
以台积电为例,这家芯片代工巨头拥有 CoWoS 和 InFO 等现代技http://www.cppcns.com术,允许芯片制造商WWDWPctDX突破传统标线限制、构建集成更多芯片的系统级封装(SiP)。
通过将四个标线大小的芯片结合到一起,其复杂性也会迎来巨大的增长 —— 每个 SiP 或拥有超过 3000 亿个晶体管。但在性能增长的同时,台积电及其合作伙伴也付出了功耗与发热方面的代价。
至于英伟达的 H100 加速卡,此类旗舰产品的峰值性能功耗动辄超过 700W,所以在单封装系统里使用多个 GH100 芯片的难度也是可想而知。
如果找不到更好的办法,未来我们需要为 1kW 及以上的多芯片 SiP 做好准备,以应对功耗 / 散热方面的严峻挑战。
除了 700W 的英伟达 H100,英特尔http://www.cppcns.com Ponte Vecchio 和 AMD Instinct MI250X 的故事也大致相同,且传统水冷散热方案也有其局限性。
当芯片封装功率迈过 1000W 的关口时,台积电设想数据中心需要为此类极端的 AI / HPC 处理器使用浸没式的液冷散热系统,结果就是需要彻底重新改造数据中心的结构。
尽管面临着短期和持续性挑战,英特尔等科技巨头还是相当看好浸没式液冷散热方案,并希望推动这项技术变得更加主流。
此外去年,台积电有透露其已尝试过片上水冷方案,甚至据说可应对 2.6 kW 的 SiP 散热需求。
对于愿http://www.cppcns.com意为此买单的客户(比如超大规模云数据中心的运营商们)来说,其有望推动究极 AI / HPC 解决方案的发展,但缺点是技术复杂性和成本都相当高昂。
此前我们已经在 Cerebras 的大型“晶圆级”处理器产品上看到过相关演示(需要高功率压缩机来为芯片散热),但初期台积电还是会继续打磨 CoWoS 和 InFO 等封装工艺,以突破传统芯编程客栈片设计的标线限制。
版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。