返回
快速导航关闭
当前搜索
网站分类
栏目推荐
实用工具
热门标签
子分类:
创奇学院 >SEO >服务器 » 正文

自己搭建一个服务器多少钱,存储芯片持续调整库存 AI服务器带动增量

服务器 更新时间: 发布时间: 服务器归档 最新发布 网站地图

2022年,全球存储芯片厂商都面临价格骤降的寒潮,2023年以来,存储市场仍处于下行周期。产业本身的周期属性叠加外部环境因素,行业普遍承压,不过当前产业链正在进一步去库存,供需关系有望在下半年好转。

“从去年各家上游减产以及各区域客户砍单的情况来看,上游库存最高的时间在今年的Q1,我们判断大部分客户的库存调整将在今年内结束,因此从供需角度来看,今年底大概率会恢复到平衡的状态。”近日,大普微副总裁李金星接受21世纪经济报道记者采访时谈道。

同时他认为,由于目前各家上游厂商已经严重亏损、产能增加需要时间,存储芯片价格大概率会从下半年陆续上扬,不排除年底快速反弹。

另一方面,随着AI技术的演进,业界对于算力、存储的需求大幅增加。比如AI服务器的订单提升,将带动存储产品的出货量。

TrendForce集邦咨询向记者提供的最新数据显示,展望2023年,微软、Meta、百度与字节相继推出基于生成式AI衍生的产品服务,积极加单,预估今年AI服务器出货量年增率可望达15.4%,2023~2027年AI服务器出货量年复合成长率约12.2%,AI服务器可望带动存储器需求成长。


存储市场年底有望反弹


随着存储芯片公司继续清理库存和减产,多家存储器厂商告诉记者,上半年订单并没有恢复,下半年预计会好转。现在虽然一些客户也有需求,但是价格的压力仍较大,没有那么快反弹回升,因为渠道里还有库存。

眼下,市场的供需还在波动和调整过程中。大为股份旗下存储方案提供商大为创芯向21世纪经济报道记者表示:“从存储产品来看,DRAM(内存)的供给增速已经慢于需求增速,有望在2023年Q3达到平衡,加上整体消费能力和信心回升,可能可以在2023年底触底反弹。”

对于NAND Flash(闪存),大为创芯表示目前波动仍较大,尚不能预测回升时点,但因为数据中心的兴起,市场对于SSD(固态硬盘,需要用到闪存技术)的需求量仍然会持续。

根据TrendForce集邦咨询的数据,由于美光、SK海力士已经启动DRAM减产,预估第二季跌幅会收敛至10%~15%。不过,由于2023下半年需求复苏状况仍不明确,DRAM均价下行周期尚不见终止。

而目前NAND Flash市场也处在供给过剩状态,集邦咨询预估二季度均价仍将持续下跌,环比下跌幅度收至5%~10%。后续恢复供需平衡的关键在于原厂是否有更大规模的减产,若需求端未再持续下修,NAND Flash均价有机会在第四季止跌反弹,反之反弹时间恐再延后。

面对市场波动,存储器厂商也在产能规划和产业链合作等层面进行应对。李金星向记者表示,DapuStor(大普微)主要专注于高端企业级SSD(固态硬盘)领域,在产能规划方面,由于行业从去年Q2至今下行幅度很大,短期内持续观察动态,新的产能规划预计在Q4左右落地,同时也在布局海外产能。

在他看来,现在大多数芯片已经过了“缺芯涨价”的阶段,特别是存储这类重资产周期领域,波动性非常明显。“追涨杀跌很难避免,这需要对供应趋势和客户需求的预判,我们也非常重视和合作伙伴的长期合作关系,所以除了业务规划层面,还会有战略层面的合作考量。”李金星说道。


生成式AI拉动新需求


尽管去年存储市场处于下行周期,但是数据生成仍呈现出持续增长的势头。在不少业内人士看来,随着算力需求增长,服务器市场对于存储芯片的需求也将扩大。今年ChatGPT将生成式AI往大众市场普及,更是带动了AI服务器的出货,存储芯片的需求量也将因此扩大。

Arm物联网事业部业务拓展副总裁马健向21世纪经济报道记者分析道:“生成式AI主要依赖于诸如Transformer、BERT、GPT系列等AI大模型。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练。支持此类大规模AI模型训练将进一步推进异构AI服务器(CPU+GPU/FPGA/NPU)算力的迅速提升,甚至数据中心架构的演进。”

他进一步表示,AI服务器需要高带宽、高性能内存和高容量服务器DRAM来提高数据处理速度,并需要HDD(硬盘驱动器)和SSD(固态硬盘)去存储大量数据,为存储芯片与内存创新带来发展机遇。

企业们也已经感受到浪潮,从上游的芯片架构厂商到下游的存储器厂商都已提前规划相关产品。比如,Arm就已经有部署于边缘和终端的Arm CPU和NPU,将有助于ChatGPT推理应用的落地。

大为创芯则积极布局嵌入式市场,并结合人脸识别、智能家居等应用,已经有DDR3、DDR4、LPDDR4/4X等内存解决方案,在NAND方面也针对部分物联网需要,推出了PSLC的eMMC(嵌入式存储解决方案)产品。

李金星告诉记者:“大型AI模型处理时,AI芯片需要与DRAM频繁数据交互,对硬盘存储的要求也越来越高,特别是需要低延迟和高带宽的SSD(固态硬盘),因为每一次AI芯片需要拉新数据的时间越短,整体AI效率也就越高。在这个模式下,我们认为更多Lane数的PCIe主控芯片将更具竞争力,这与DapuStor自研的8Lane主控芯片不谋而合。”

TrendForce集邦咨询最新的数据显示,由于需求获AI间接带动,128GB高容量模组4月最新报价已止跌。ChatBOT(AI聊天机器人)热潮带动AI服务器出货量,未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动Server DRAM(服务器内存)、SSD(固态硬盘)以及HBM(高带宽内存,新型的CPU/GPU内存芯片)的需求成长。

更多内容请下载21财经APP

转载请注明:文章转载自 http://www.320g.com/
本文地址:http://www.320g.com/fwq/34581.html
考高分网交流群

扫一扫加入QQ交流群

和更多志同道合朋友一起交流,分享干货资料!
创奇学院客服

扫一扫加客服微信

有疑问请咨询创奇学院微信号,在线为您解答!
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 Copyright 320g.com Rights Reserved. Powered · 创奇学院

ICP备案号:陇ICP备2020003353号