内存,芯片

【Ai时刻】都知道NVIDIA赚翻了,其实背后赢麻了的还有它!


【Ai时刻】都知道NVIDIA赚翻了,其实背后赢麻了的还有它!

  大家都知道伴随着Ai产业的火爆,作为全球算力最大的供应商-英伟达已经赚麻了,不仅股市频频出现新的高点,来自四面八方的计算卡的订单也源源不断,老黄也被各大媒体称为Ai时代的爱迪生,名利双收。而大多数人只看到了英伟达在人前挣钱,在Ai产业的背后还有一家硬件企业也在背后笑出了声,它就是SK海力士。随着Ai产业的高速发展,对于高性能、大容量内存的需求不断提升。目前,SK海力士推出的高带宽内存(High Bandwidth Memory,HBM)已经成为这一领域的最佳选择。

图片源自于网络

  什么是HBM

  HBM(高带宽内存)是一种新型的内存技术,采用3D堆叠技术,将多个DRAM芯片堆叠在一起,并通过钎焊垫(TSV)将它们连接在一起。这使得HBM内存在相同容量下的体积更小,且功耗更低。相较于传统的GDDR5显存,HBM内存具有更宽的数据总线宽度、更快的速度和更高的带宽。这使得HBM内存在高性能计算(HPC)和Ai领域具有极大的优势。

图片源自于网络

  通过层叠芯片和芯片间的通孔实现极高的性能。HBM内存可以直接连接到CPU和GPU,带宽远超其他内存产品,成为大数据运算的关键解决方案。自2013年首次推出以来,SK海力士已经推出了多代HBM产品,如第二代HBM2、第三代HBM2E、第四代HBM3,目前占据60-70%的市场份额。

图片源自于网络

图片源自于网络

  AI为什么需要HBM

  随着AI技术的高速发展,对内存性能和容量的要求也不断提高。HBM内存的优势决定了它在Ai发展中的重要作用。Ai平台和相关服务的快速发展必将改变计算机内存市场的格局。

图片源自于网络

  高带宽:HBM内存具有远高于其他内存产品的带宽,能够满足AI领域对高速数据传输的需求。

  大容量:AI服务器通常使用1.2-1.7TB的内存,每台服务器还配备多个搭载HBM2e或HBM3的GPU,每台服务器的HBM内存总容量可达320-640GB。随着GPU的升级,容量将进一步增加。

图片源自于网络

  低延迟:HBM内存具有更低的延迟,有助于提高AI计算的效率。

  HBM芯片行业的发展现状与前景

  据TrendForce数据显示,2022年SK海力士将占据HBM出货量的50%份额,成为HBM需求增长的最大受益者。随着Ai和生成式Ai应用日益广泛,对HBM的需求将持续增长,未来几年内将出现爆炸式增长。AI服务器使用量增加将带动各类内存需求上升,如DDR5、HBM2e、HBM3和3D NAND内存。

图片源自于网络丨NVIDIA H100 芯片中心周围的小矩形下便是HBM芯片

  目前,主要云服务商广泛应用AI服务器,像百度和字节跳动也将在未来推出相关产品和服务。Ai平台开发已成为众多公司的首要任务。尽管HBM内存价格是传统内存的3倍以上,但其优异性能使需求方并不在意价格。HBM内存价格上涨并未减缓市场需求,相反,市场需求的持续增长更会推高价格。Ai和相关服务的快速发展正在彻底改变内存市场的游戏规则。

  SK海力士的12层24GB HBM芯片是当前HBM3芯片中最大容量产品,NVIDIA、Intel和AMD等都选择SK海力士作为HBM3芯片的主要供应商。SK海力士表示将在今年上半年开始批量生产该新产品,以满足Ai聊天机器人等计算密集型市场对高性能内存产品的需求。

图片源自于网络

图片源自于网络

  综上所述,凭借在HBM内存市场的领先地位,SK海力士必将从Ai产业高速发展中获得丰厚回报。随着AI技术的不断进步和应用范围的拓展,HBM内存在高性能计算领域的地位将愈发稳固,未来几年内市场需求将迎来爆炸式增长。反过来,作为HBM龙头的SK海力士也必定会在这场“科技风暴”中获得充足的市场订单,稳固其地位。