AI大模型来袭,服务器价格狂飙20倍,板块投资价值凸显?

财华社 2023-05-19 08:01

在智能时代,用好AI已成为国家、行业、企业的核心竞争力,尤其以ChatGPT为代表的大模型诞生后,AI行业更是被摁下了加速键,算力需求井喷。

而AI服务器作为算力基础设施之一,其需求有望受益于算力需求的不断提升而快速增长,市场价值凸显。

今年以来,AI服务器价格一路攀升,已成了市场重点关注的焦点。有企业透露,其去年6月购买的AI服务器不足一年价格涨了近20倍。

01 AI大模型热潮来袭

AI服务器价格的大幅提升,究其根本,市场需求爆发是关键所在。

近几年,随着AI(人工智能)技术的爆发式发展,AIGC等大模型已成为发展趋势。特别是2022年11月ChatGPT横空出世后,迅速成为一款现象级的AI应用,引发全球投资热潮。

当前,各大科技巨头在AI大模型方面的军备竞赛已经开始打响。在国外,以微软、谷歌、亚马逊等为代表的国内外巨头,几乎都投身于AI大规模应用的开发。

国内方面,自3月16日百度率先公布“文心一言”以来,阿里、360、商汤等公司也相继对外展示了大模型项目进展,一时之间,国内大模型领域风起云涌。

AI大模型投资热潮持续升温,而AI大模型的实现,需要海量数据和强大算力来支撑训练和推理过程,AI算力需求也将出现指数级增长。

据华为预估,2030年相比2020年,AI爆发带来的算力需求将增长500倍。随之而来的巨大投资机会,将主要集中在服务器、光模块、算力芯片、数据中心等硬件环节。

其中,AI服务器作为算力基础的重要设备,在AI时代下有望迎来高速发展机遇。据IDC数据显示,中国AI服务器2021年的市场规模为57亿美元,同比增长61.6%,预计到2025年市场规模将增长到109亿美元,CAGR为17.5%。

02核心零部件GPU“一货难求”

AI服务器市场需求强劲,但其核心零部件GPU(图像处理器、加速芯片)供应却严重短缺,价格持续高增。受零部件成本上升影响,AI服务器价格随之上涨。

据悉,目前通用服务器的CPU(中央处理器)可提供的算力难以满足AI应用的需求,而GPU(图像处理器、加速芯片)具有实时高速的并行计算和浮点计算的能力,更擅长梳理密集型的数据运算,如AI训练/推理、机器学习等应用场景。

与此同时,在传统服务器中,通常最多配备4个CPU+相应内存和硬盘,AI服务器往往需要搭载2颗CPU+8颗GPU,部分高配服务器甚至需搭配16颗GPU。也就是说,在AI服务器中,GPU的需求将成倍增加。

从市场规模看,考虑到AI服务器的单价比普通服务器单价高20倍以上,市场推测,伴随着AI服务器渗漏率的提升,GPU未来市场潜力巨大。据VerifiedMarketResearch估算,GPU全球市场2027年预计可达1853亿美元,中国市场2027年可达346亿美元。

而在供给端,漂亮国不断遏制中国AI产业的发展,并限制英伟达(市场比重高达80%)、AMD等GPU的主要厂家向中国销售高性能GPU。

国内上游GPU缺货现象严峻,服务器厂商缺少核心零部件,自然会影响AI服务器企业的生产。

在这样的背景下,GPU国产化迫在眉睫。眼下,以中兴通讯等通讯设备制造龙头为代表的企业正加速布局GPU服务器。

在2022年度业绩说明会上,中兴通讯执行董事、总裁徐子阳就表示,将在今年年底推出会支持大宽带的ChatGPT的GPU服务器。

徐子阳称,主要分出三步走,首先是新一代算力基础设施产品,计划今年底推出支持大带宽ChatGPT的GPU模型,支持大模型训练,包括AI服务器、高性能交换机等;第二在软件层面,会把能力放在数字星云解决方案中去;第三,中兴会自研新一代AI芯片,降低推理成本。

多家机构认为,中兴通讯有望在这波ChatGPT掀起的AI浪潮中受益。据IDC发布了《2022年第四季度中国服务器市场跟踪报告Prelim》显示,中兴通讯的市场占比已从3.1%提升至5.3%,挤进国内前五。

结语:

综上,从产业趋势来看,随下游大模型陆续推出,AI算力需求迅速增加,GPU的国产化推进进程加速。但目前国内GPU产品在诸多方面与海外英伟达等龙头的差距较大,突破更为不易。

为此,市场也推测,未来AI服务器价格或仍将保持上涨趋势。

作者:瓶子

上一篇 & 下一篇