除了GPU,其他芯片都危险

日期:2023-05-16 16:43:32 作者:kunshan 浏览量:26

谷歌上周宣布的雄心勃勃的生成人工智能计划对一家芯片制造商来说是个好消息。


在周三举行的 I/O 开发者大会上长达两个小时的演讲中,谷歌煞费苦心地指出其使用了H100,这是该芯片制造商今年早些时候才开始发售的高端数据中心处理器。没有其他芯片制造商或数据中心组件供应商得到这样的呼声。不仅仅是谷歌;上个月,微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 在其公司的财报电话会议上将 Nvidia 点名作为关键支持点,以支持他关于“我们拥有最强大的 AI 基础设施”来训练大数据模型说法。同样,没有提到其他芯片制造商。


对于市值最高的芯片公司英伟达来说,这些都是好兆头。自今年年初以来,它的市值已经翻了近一倍。


在本月晚些时候公布的财报中,英伟达预计将报告截至 4 月的财政季度数据中心收入同比增长 4% 至 39 亿美元。对于去年实现两位数高增长的业务部门而言,这似乎微不足道,但与英特尔公布的 3 月季度自有数据中心部门38% 的暴跌形成鲜明对比。即使是在这个关键市场上一直在追赶英特尔的 Advanced Micro Devices,其 3 月份的数据中心也基本没有增长,预计 6月份的季度 将出现下滑。


Nvidia 的优势在于其专为 AI 使用而设计的图形处理器。随着科技巨头如谷歌、微软、和的母公司现在急于建立类似于流行的 ChatGPT 技术的生成人工智能能力,他们需要 Nvidia 的 H100 芯片等组件。但同样是这些公司,其核心业务也面临放缓,因此面临着放缓资本支出的压力,而资本支出最近一直在飙升。


1684226647121203.png


上述四家公司的合并资本支出在 3 月季度同比下降 4%,这是四年来首次出现此类下降。市场研究公司 Dell'Oro Group 预计,与 2022 年 36% 的激增相比,今年数据中心的特定资本支出将以中等个位数增长。


但经济放缓带来的痛苦不会平均分配。厂商们需要投资昂贵的芯片,例如 Nvidia 的 H100 来为生成式 AI 产品提供动力,这意味着需要削减数据中心支出的其他方面。摩根士丹利分析师乔摩尔在周五的一份报告中写道,“很明显,客户正在整合对传统服务器的采购,以便为价格高出 20 倍的 GPU 服务器腾出预算空间。”


谷歌计划将聊天机器人功能单独注入其庞大的搜索业务是一个昂贵的前景:New Street Research 的 Pierre Ferragu 表示,使用 Nvidia 的芯片为所有谷歌查询提供支持将意味着额外的 800 亿美元资本支出,尽管他补充说他希望该公司能够抵消其中一些计算需要使用自己的内部 TPU 芯片。


随着时间的推移,消化去年芯片采购的激增可能会帮助其他数据中心芯片制造商。摩根士丹利的摩尔先生表示,AMD 的人工智能机会“看起来是我们初步评估的数倍”,最初预计 2024 年这家芯片制造商的人工智能收入将达到 1 亿美元。摩尔先生现在认为这个数字在 4 亿美元的范围内。


尽管如此,对于仍深陷销售低迷的芯片行业来说,人工智能带来的收益将是为数不多的亮点之一。半导体行业协会本月早些时候报告称,3 月份行业销售额同比下降 21%,这是该行业自 2009 年以来最严重的月度跌幅。该组织追踪的上一次重大放缓持续了 13 个月,而当前的是仅仅八个月。即使是 Big Tech 的雄厚财力也只能走到这一步。

注:本文选自半导体行业观察,版权原作者所有,如侵犯你的权益,我们将第一时间删除。


行业资讯