[]DRAM的架构历史和未来( 四 )


HBM
HBM与GDDR有很多共同点 。内存芯片也与GPU紧密集成 。它们也没有放在GPU之上 , 因为我们仍然需要大量的容量 , 并且需要散热芯片 。
那有什么不同呢?首先 , 不是将内存芯片放置在靠近GPU的PCB上 , 而是把它们放在将芯片与GPU连接的插入器上(图5) 。如今 , 通常使用无源硅中介层 , 它是一个大型硅芯片 , 但没有任何有源组件:它仅具有互连 。这种插入器的优点是我们可以在其上面进行更多的并行互连 , 而这些互连不需要消耗大量的功耗 。因此 , 可以创建非常宽的总线 , 这在PCB上是不可能的 。这种插入器虽然很容易创建 , 但仍然是一块很大的硅片 , 因此成本更高 。
[]DRAM的架构历史和未来
文章图片

文章图片

其次 , 可以堆叠存储芯片 , 从而在水平面上的小区域实现高容量(图6) 。这些芯片具有大量的TSV , 将堆栈中的芯片彼此连接 , 逻辑芯片位于底部 。然后 , 该逻辑管芯再次与中介层上的宽总线连接 , 从而实现了存储芯片和GPU之间的高带宽 。实际上 , 总线足够宽 , 可以将存储芯片的IO时钟放宽到较低的频率 。这样 , 再加上与GPU的非常短的互连 , 可以在使用HBM时 , 将每bit的功耗降至更低(约3倍) 。
[]DRAM的架构历史和未来
文章图片

文章图片

表4列出了HBM一代的一些关键规格 。当前 , HBM2存储器可用 。有趣的是 , 三星最近发布了HBM2e内存 , 该芯片的芯片规格更高 , 每个管芯的容量更大(16Gb) , 数据传输速率更高(每个堆栈410 GB / s) 。
[]DRAM的架构历史和未来
文章图片

文章图片

HMC
尽管美光公司取消了在HMC标准上的推动 , 但我还是要说几句话 。HMC是常规DDR存储器的3D对应物 , 在未来的服务器中可能会备受欢迎 。这种看法在行业中并不是很明确 。HBM实际上专注于带宽 , 它需要紧密集成 , 权衡容量和可扩展性 。这称为近存储器 。HMC专注于容量 , 可以轻松地将更多内存堆栈插入服务器 , 就像将更多DDR内存轻松插入具有空闲插槽的主板一样 。它提供了高系统总存储容量所需的松散集成 。有时称为远存储器 。
[]DRAM的架构历史和未来
文章图片

文章图片

除了这种相似性之外 , HMC是与DDR差别最大的标准 , 比本文中提到的任何其他标准都要大 。它使用的不是DDR信号 , 而是使用内存包来进行处理器和内存块之间的高速串行链路发送 。通过这种方式 , 可以在有限的互连条件下实现更高的容量 。而且 , 内存控制器可以完全集成在每个立方体的基础芯片中 , 而不是像DDR一样位于CPU芯片上 , 或者像HBM一样分布在GPU和内存堆栈上(图8) 。
[]DRAM的架构历史和未来
文章图片

文章图片

宽I/O
宽I / O是LPDDR存储器的3D对应物 , 它选择了集成以达到可能的最低功耗 。预计这些存储器将使用TSV直接连接到CPU芯片 , 直接集成在SoC之上 。同样 , 根据TSV技术的密度和大小 , 实现很宽的总线也是可能的 。但是 , 这种集成也将需要SoC中的TSV , 这会消耗大量宝贵的逻辑区域 , 因此非常昂贵 。这可能是为什么我尚未看到使用此技术的任何商业产品的重要原因 。有趣的是 , 第一个Wide I / O标准实现了SDR接口 , 但是第二代标准则又转向了DDR接口 。


推荐阅读