?最近,芯片大厂频频传出售罄的消息。
芯片出现售罄的情况并不常见,但在一些特定情况下会发生。比如2021年全球芯片缺货潮,在这一年,全球半导体产业面临着严重的芯片短缺问题,多家芯片公司的产品都出现了供应紧张甚至售罄的情况。
与疫情时期的大多数芯片缺货不同,这次是缺的是细分领域的AI芯片。
01
售罄的芯片大厂们
最近,英伟达的 Blackwell GPU 未来12个月的供应量已全部售罄。
据摩根士丹利分析师与英伟达管理层会面后得到的消息,英伟达的传统客户(如亚马逊、戴尔、Google、Meta、微软等)已经购买了英伟达及其合作伙伴台积电在未来几个季度将能够生产的所有 Blackwell GPU。这意味着现在下订单的新买家必须等到明年年底才能收到货。
Blackwell GPU 系列是英伟达在今年3月发布的。Blackwell GPU 采用定制的双光罩极限 4NP TSMC 工艺制造,GPU 芯片通过 10TBps 芯片到芯片链路连接到单个统一的 GPU,拥有 2080 亿个晶体管。这比 Hopper 系列的 800 亿个有所增加,并包括第二代变压器引擎和新的 4 位浮点 AI 推理功能。
8 月,Nvidia 首席财务官Colette Kress在公司 2024 年第三季度财报电话会议上告诉分析师,公司预计 2024 年最后一个季度将实现“数十亿美元的 Blackwell 收入”。Blackwell GPU的售罄能够一定程度上反映出AI的持续热度。
前不久,富士康母公司鸿海精密还宣布正在墨西哥打造全球最大的英伟达GB200芯片制造工厂,以应对AI市场对Blackwell芯片的火爆需求。鸿海董事长刘扬伟表示,市场对Blackwell芯片的需求达到“疯狂程度”。计划到2025年产能达到20000台英伟达NVL72机柜。
这并非英伟达第一次售罄。
英伟达上一次售罄是去年的H100 GPU。当时自 ChatGPT 引发生成式 AI 热潮后,擅长训练大模型的英伟达 H100 GPU 需求大增。2023 年 4 月开始,GPU 市场供应变得紧张,到 8 月左右,英伟达 H100 GPU 出现大量短缺,即使当时立即订购,也要等到 2024 年第一季度甚至第二季度才能用上。
OpenAI、Meta 等 AI 公司,亚马逊、微软等云计算公司以及众多想训练自家大模型的科技公司,对 H100 GPU 的需求量巨大。据估算,当时 H100 的缺口高达 43 万张。
随着AI的热潮来袭,售罄的不只英伟达,还有与高性能AI芯片相匹配的HBM。在今年2月,SK海力士管理层表示,虽然计划在 2024 年让 HBM 的产能实现翻番,但该年(2024年)的生产配额已经全部售罄,公司已开始积极筹备 2025 年的订单。其销售和营销副总裁也表示,海力士提前预见了 HBM 内存的高需求,已提前做好提高产能的准备,以满足市场需求并保护其领先地位。
到了5月份,SK海力士CEO 在新闻发布会上又宣布按量产计划 2025 年生产的 HBM 产品也基本售罄。
今年3月份,美光CEO Sanjay Mehrotra 在财报电话会议上表示,2024 年美光的 HBM 产能已销售一空。这主要是因为人工智能服务器的需求推动了 HBM 的快速增长,使得市场对 HBM 的需求极为旺盛。当时,Sanjay Mehrotra 提到 2025 年的绝大多数 HBM 产能也已被预订。到了6月,美光科技再次表示2024 - 2025 年的 HBM 内存芯片已全部售出。
如此火热的需求背后,有一家公司在默默收钱——台积电。
毫不夸张地说,台积电以一己之力卡着AI芯片领导者英伟达、博通以及AMD的AI芯片产能脖子,控制着全球几乎所有的AI芯片产能。
凭借领先业界的2.5D以及3D chiplet先进封装,台积电吃下市场几乎所有5nm及以下制程高端芯片封装订单。并且由于先进封装产能远无法满足需求,英伟达GPU长期以来供不应求。
台积电产能持续吃紧。法人预期,截至今年底,保守估计台积电3纳米月产能至少达8万片,后续进一步扩增到10万片;未来也会在美国与日本厂区另各建置每月1.5万片3纳米产能,等于未来3纳米制程在海内外厂区月产能合计将达13万片左右。有机构预测,台积电目前3nm制程产能利用率已达110%。
台积电今日公布了第三季度财报,第三季度台积电合并营收 7596.9 亿元新台币,同比增长 39.0%,环比增长 12.8%;第三季度净利润 3252.6 亿元新台币,同比增长 54.2%,环比增长 31.2%。
台积电第三季度毛利率为 57.8%,营业利益率为 47.5%,税后纯益率则为 42.8%。
第三季度,3 纳米制程出货占台积公司 2024 年晶圆销售金额的 20%,5 纳米制程出货占全季晶圆销售金额的 32%;7 纳米制程出货则占全季晶圆销售金额的 17%。总体而言,先进制程(包含 7 纳米及更先进制程)的营收达到全季晶圆销售金额的 69%。
台积电可以说赚得盆满钵满。
02
AI的泡沫会否再次上演?
现在英伟达市值已经涨到了3.39万亿,台积电最近市值也触及万亿美元。
英伟达的可怕之处在于,在不到两年的时间里上涨了近 1,000%,这意味着 2022 年底的 10,000 美元投资今天将价值近 100,000 美元。在股价的步步推高下,不少人都在担心:“明年的AI,还火吗?”
日前,一则有关“2美元/小时出租H100:GPU泡沫破灭前夜”的报道引发国内市场高度关注。相关文章指出:英伟达H100 GPU在2023年3月上市之后,因需求激增供不应求,其租赁价格从最初的每小时4.7美元一度飙升至每小时8美元以上。但今年以来,H100开始“供过于求”,每小时租赁价格降至2美元左右。
AI的投机泡沫会否再次上演?这个问题牵动着每一位AI投资者的神经。这个问题的回答可以结合不同预测机构、大厂和市场需求来看。
机构方面,还是处于看好的状态,看好的时期是在今明两年。超大规模企业的资本支出最终将达到峰值,最早可能在明年。
花旗:算力需求仍然庞大
华尔街金融巨头花旗集团的最新预测数据,到2025年,美国四家最大规模科技巨头的数据中心相关资本支出预计将同比增长至少40%。相关的庞大资本支出基本上与AI挂钩,这代表花旗认为ChatGPT等AI应用的算力需求仍然庞大。
花旗分析师团队在一份投资者报告中表示:“我们预计,AI GPU以及人工智能网络的增长机遇正在从数据中心内部的单个服务器系统之间连接扩展到通过DCI连接多个旗舰型数据中心的大型人工智能算力平台。”该分析师团队由华尔街明星分析师阿提夫·马利克(Atif Malik)所领导。
高盛:明年大型科技公司继续投入大笔资金
高盛(Goldman Sachs)分析师在10月10日的报告中写道:“虽然这些股票(即人工智能基础设施相关股票,如Arm、台积电)相对于历史而言似乎相对昂贵,但对人工智能的需求可能会导致大型科技股在该领域的资本支出上超过投资者和分析师目前的预期。”
谷歌、微软、亚马逊和Meta都表示,到明年,它们将继续在人工智能基础设施上投入大笔资金,这将造福以英伟达为首的人工智能硬件公司。高盛称,总体而言,大型科技公司将在2024年和2025年分别花费2150亿美元和2500亿美元用于人工智能资本支出。
摩根大通(JPMorgan):预期2025下半年获利将趋于稳定/上升
摩根大通分析师哈兰苏尔(Harlan Sur)预计,2024年半导体行业收入将增长6%至8%。他表示:“我们仍看好半导体和半导体设备类股,因为我们认为股市应会继续走高,预期2025年下半年供需将改善,且2025年下半年获利将趋于稳定/上升。”
大厂方面,美光、SK海力士、英伟达对于明年的AI需求持乐观状态。
美光预期乐观
9月26日,美光美股盘后发布截至今年8月29日的2024财年第四财季报告,整体表现远超市场预期。其收入达到77.5亿美元,高于分析师预期的76.5亿美元,同比增长近93%,创下了十年来最大的涨幅。
对于下一季度的营收预测,美光也超出了华尔街的预期,给出了约为87亿美元的数字,同比增长超过一倍,高于分析师预期的82.1亿美元。
SK海力士:加大AI需求投资,继续扩产
SK 海力士还在积极扩展。SK 集团强调:“随着AI时代的来临,预计未来两到三年内,在HBM等与AI生态系统紧密相关的业务领域,集团将进行历史性的大规模投资。”
为了满足快速增长的人工智能开发需求,SK 海力士计划斥资约 146 亿美元在韩国构建新的存储芯片产能。其韩国清州的 M15X 晶圆厂预计将在 2025 年 11 月完工,随着新工厂的投产,公司的 HBM 产能预计将得到显著提升。
另外,SK 海力士已开始量产全球首款12层HBM3E产品,容量为36GB,这是迄今为止现有HBM的最大容量。与上一代相比,这款新品中的单一DRAM芯片薄40%,维持同等整体厚度的同时,容量却提高了50%。这款产品将于年内供货。
市场需求
DIGITIMES Research 的一份报告,预计到 2024 年,能够开发和运行 ChatGPT 级生成式 AI 的高端 AI 服务器出货量仅占所有服务器的 3.9%。分析师认为这个出货量根本无法满足云服务提供商的需求。
汤之上隆也认为:“到目前为止,英伟达的GPU 狂热还只是刚刚开始。全面的生成式人工智能热潮即将到来。”
他撰文计算到,2022年高端 AI 服务器出货量为3.4万台,因此只能构建一套 ChatGPT 级AI系统(这正是 ChatGPT)。次年,即2023年,高端AI服务器出货量达到 20 万台,因此可以构建6 到 7 ChatGPT级AI系统。预计今年,有可能构建18至19个 ChatGPT级AI系统。这个出货量,对于美国的足云服务提供商来说是不满意的。
黄仁勋这位英伟达“掌舵人”也在日前现身说法。在接受Altimeter Capital采访时他强调,对英伟达的持续看涨与互联网泡沫顶峰时期围绕思科的狂热完全不同。英伟达正在“重塑计算”,未来将是“高度机器学习”的时代。
“摩尔定律已经基本宣告终结”,他表示,为了提供必要的算力以跟上未来计算密集型软件的步伐,未来4~5年内,现有数据中心将需要价值约1万亿美元的GPU来实现升级。
03
结语
明年 AI 还会火吗?
从当下的市场状况分析,数据中心和云服务提供商已将明年的 AI 芯片产能抢购一空,资本投资也有望在明年攀至高峰。
目前来看,形势似乎一片大好。然而,投资放缓的时刻终究会来临,关键在于它何时出现。人工智能软件通常以用户订阅的形式存在,而硬件则为一次性销售。鉴于此,有分析师发出警告,称人工智能芯片股正处于泡沫之中,一旦大型科技公司在人工智能基础设施上的巨额支出减少,泡沫终将破裂。
事实上,科技巨头们最近的收益报告显示,他们在人工智能基础设施上的巨大投入与获得的投资回报之间的差距正在不断扩大,这也考验着华尔街逐渐被消磨的耐心。谷歌、微软和亚马逊的股票在今年夏末都出现了下跌,在这之前,它们的季度财务报告表明,这些企业在人工智能方面的支出高达数十亿美元。
原文标题 : 芯片大厂们:不好意思,明年也已售罄
?最近,芯片大厂频频传出售罄的消息。
芯片出现售罄的情况并不常见,但在一些特定情况下会发生。比如2021年全球芯片缺货潮,在这一年,全球半导体产业面临着严重的芯片短缺问题,多家芯片公司的产品都出现了供应紧张甚至售罄的情况。
与疫情时期的大多数芯片缺货不同,这次是缺的是细分领域的AI芯片。
01
售罄的芯片大厂们
最近,英伟达的 Blackwell GPU 未来12个月的供应量已全部售罄。
据摩根士丹利分析师与英伟达管理层会面后得到的消息,英伟达的传统客户(如亚马逊、戴尔、Google、Meta、微软等)已经购买了英伟达及其合作伙伴台积电在未来几个季度将能够生产的所有 Blackwell GPU。这意味着现在下订单的新买家必须等到明年年底才能收到货。
Blackwell GPU 系列是英伟达在今年3月发布的。Blackwell GPU 采用定制的双光罩极限 4NP TSMC 工艺制造,GPU 芯片通过 10TBps 芯片到芯片链路连接到单个统一的 GPU,拥有 2080 亿个晶体管。这比 Hopper 系列的 800 亿个有所增加,并包括第二代变压器引擎和新的 4 位浮点 AI 推理功能。
8 月,Nvidia 首席财务官Colette Kress在公司 2024 年第三季度财报电话会议上告诉分析师,公司预计 2024 年最后一个季度将实现“数十亿美元的 Blackwell 收入”。Blackwell GPU的售罄能够一定程度上反映出AI的持续热度。
前不久,富士康母公司鸿海精密还宣布正在墨西哥打造全球最大的英伟达GB200芯片制造工厂,以应对AI市场对Blackwell芯片的火爆需求。鸿海董事长刘扬伟表示,市场对Blackwell芯片的需求达到“疯狂程度”。计划到2025年产能达到20000台英伟达NVL72机柜。
这并非英伟达第一次售罄。
英伟达上一次售罄是去年的H100 GPU。当时自 ChatGPT 引发生成式 AI 热潮后,擅长训练大模型的英伟达 H100 GPU 需求大增。2023 年 4 月开始,GPU 市场供应变得紧张,到 8 月左右,英伟达 H100 GPU 出现大量短缺,即使当时立即订购,也要等到 2024 年第一季度甚至第二季度才能用上。
OpenAI、Meta 等 AI 公司,亚马逊、微软等云计算公司以及众多想训练自家大模型的科技公司,对 H100 GPU 的需求量巨大。据估算,当时 H100 的缺口高达 43 万张。
随着AI的热潮来袭,售罄的不只英伟达,还有与高性能AI芯片相匹配的HBM。在今年2月,SK海力士管理层表示,虽然计划在 2024 年让 HBM 的产能实现翻番,但该年(2024年)的生产配额已经全部售罄,公司已开始积极筹备 2025 年的订单。其销售和营销副总裁也表示,海力士提前预见了 HBM 内存的高需求,已提前做好提高产能的准备,以满足市场需求并保护其领先地位。
到了5月份,SK海力士CEO 在新闻发布会上又宣布按量产计划 2025 年生产的 HBM 产品也基本售罄。
今年3月份,美光CEO Sanjay Mehrotra 在财报电话会议上表示,2024 年美光的 HBM 产能已销售一空。这主要是因为人工智能服务器的需求推动了 HBM 的快速增长,使得市场对 HBM 的需求极为旺盛。当时,Sanjay Mehrotra 提到 2025 年的绝大多数 HBM 产能也已被预订。到了6月,美光科技再次表示2024 - 2025 年的 HBM 内存芯片已全部售出。
如此火热的需求背后,有一家公司在默默收钱——台积电。
毫不夸张地说,台积电以一己之力卡着AI芯片领导者英伟达、博通以及AMD的AI芯片产能脖子,控制着全球几乎所有的AI芯片产能。
凭借领先业界的2.5D以及3D chiplet先进封装,台积电吃下市场几乎所有5nm及以下制程高端芯片封装订单。并且由于先进封装产能远无法满足需求,英伟达GPU长期以来供不应求。
台积电产能持续吃紧。法人预期,截至今年底,保守估计台积电3纳米月产能至少达8万片,后续进一步扩增到10万片;未来也会在美国与日本厂区另各建置每月1.5万片3纳米产能,等于未来3纳米制程在海内外厂区月产能合计将达13万片左右。有机构预测,台积电目前3nm制程产能利用率已达110%。
台积电今日公布了第三季度财报,第三季度台积电合并营收 7596.9 亿元新台币,同比增长 39.0%,环比增长 12.8%;第三季度净利润 3252.6 亿元新台币,同比增长 54.2%,环比增长 31.2%。
台积电第三季度毛利率为 57.8%,营业利益率为 47.5%,税后纯益率则为 42.8%。
第三季度,3 纳米制程出货占台积公司 2024 年晶圆销售金额的 20%,5 纳米制程出货占全季晶圆销售金额的 32%;7 纳米制程出货则占全季晶圆销售金额的 17%。总体而言,先进制程(包含 7 纳米及更先进制程)的营收达到全季晶圆销售金额的 69%。
台积电可以说赚得盆满钵满。
02
AI的泡沫会否再次上演?
现在英伟达市值已经涨到了3.39万亿,台积电最近市值也触及万亿美元。
英伟达的可怕之处在于,在不到两年的时间里上涨了近 1,000%,这意味着 2022 年底的 10,000 美元投资今天将价值近 100,000 美元。在股价的步步推高下,不少人都在担心:“明年的AI,还火吗?”
日前,一则有关“2美元/小时出租H100:GPU泡沫破灭前夜”的报道引发国内市场高度关注。相关文章指出:英伟达H100 GPU在2023年3月上市之后,因需求激增供不应求,其租赁价格从最初的每小时4.7美元一度飙升至每小时8美元以上。但今年以来,H100开始“供过于求”,每小时租赁价格降至2美元左右。
AI的投机泡沫会否再次上演?这个问题牵动着每一位AI投资者的神经。这个问题的回答可以结合不同预测机构、大厂和市场需求来看。
机构方面,还是处于看好的状态,看好的时期是在今明两年。超大规模企业的资本支出最终将达到峰值,最早可能在明年。
花旗:算力需求仍然庞大
华尔街金融巨头花旗集团的最新预测数据,到2025年,美国四家最大规模科技巨头的数据中心相关资本支出预计将同比增长至少40%。相关的庞大资本支出基本上与AI挂钩,这代表花旗认为ChatGPT等AI应用的算力需求仍然庞大。
花旗分析师团队在一份投资者报告中表示:“我们预计,AI GPU以及人工智能网络的增长机遇正在从数据中心内部的单个服务器系统之间连接扩展到通过DCI连接多个旗舰型数据中心的大型人工智能算力平台。”该分析师团队由华尔街明星分析师阿提夫·马利克(Atif Malik)所领导。
高盛:明年大型科技公司继续投入大笔资金
高盛(Goldman Sachs)分析师在10月10日的报告中写道:“虽然这些股票(即人工智能基础设施相关股票,如Arm、台积电)相对于历史而言似乎相对昂贵,但对人工智能的需求可能会导致大型科技股在该领域的资本支出上超过投资者和分析师目前的预期。”
谷歌、微软、亚马逊和Meta都表示,到明年,它们将继续在人工智能基础设施上投入大笔资金,这将造福以英伟达为首的人工智能硬件公司。高盛称,总体而言,大型科技公司将在2024年和2025年分别花费2150亿美元和2500亿美元用于人工智能资本支出。
摩根大通(JPMorgan):预期2025下半年获利将趋于稳定/上升
摩根大通分析师哈兰苏尔(Harlan Sur)预计,2024年半导体行业收入将增长6%至8%。他表示:“我们仍看好半导体和半导体设备类股,因为我们认为股市应会继续走高,预期2025年下半年供需将改善,且2025年下半年获利将趋于稳定/上升。”
大厂方面,美光、SK海力士、英伟达对于明年的AI需求持乐观状态。
美光预期乐观
9月26日,美光美股盘后发布截至今年8月29日的2024财年第四财季报告,整体表现远超市场预期。其收入达到77.5亿美元,高于分析师预期的76.5亿美元,同比增长近93%,创下了十年来最大的涨幅。
对于下一季度的营收预测,美光也超出了华尔街的预期,给出了约为87亿美元的数字,同比增长超过一倍,高于分析师预期的82.1亿美元。
SK海力士:加大AI需求投资,继续扩产
SK 海力士还在积极扩展。SK 集团强调:“随着AI时代的来临,预计未来两到三年内,在HBM等与AI生态系统紧密相关的业务领域,集团将进行历史性的大规模投资。”
为了满足快速增长的人工智能开发需求,SK 海力士计划斥资约 146 亿美元在韩国构建新的存储芯片产能。其韩国清州的 M15X 晶圆厂预计将在 2025 年 11 月完工,随着新工厂的投产,公司的 HBM 产能预计将得到显著提升。
另外,SK 海力士已开始量产全球首款12层HBM3E产品,容量为36GB,这是迄今为止现有HBM的最大容量。与上一代相比,这款新品中的单一DRAM芯片薄40%,维持同等整体厚度的同时,容量却提高了50%。这款产品将于年内供货。
市场需求
DIGITIMES Research 的一份报告,预计到 2024 年,能够开发和运行 ChatGPT 级生成式 AI 的高端 AI 服务器出货量仅占所有服务器的 3.9%。分析师认为这个出货量根本无法满足云服务提供商的需求。
汤之上隆也认为:“到目前为止,英伟达的GPU 狂热还只是刚刚开始。全面的生成式人工智能热潮即将到来。”
他撰文计算到,2022年高端 AI 服务器出货量为3.4万台,因此只能构建一套 ChatGPT 级AI系统(这正是 ChatGPT)。次年,即2023年,高端AI服务器出货量达到 20 万台,因此可以构建6 到 7 ChatGPT级AI系统。预计今年,有可能构建18至19个 ChatGPT级AI系统。这个出货量,对于美国的足云服务提供商来说是不满意的。
黄仁勋这位英伟达“掌舵人”也在日前现身说法。在接受Altimeter Capital采访时他强调,对英伟达的持续看涨与互联网泡沫顶峰时期围绕思科的狂热完全不同。英伟达正在“重塑计算”,未来将是“高度机器学习”的时代。
“摩尔定律已经基本宣告终结”,他表示,为了提供必要的算力以跟上未来计算密集型软件的步伐,未来4~5年内,现有数据中心将需要价值约1万亿美元的GPU来实现升级。
03
结语
明年 AI 还会火吗?
从当下的市场状况分析,数据中心和云服务提供商已将明年的 AI 芯片产能抢购一空,资本投资也有望在明年攀至高峰。
目前来看,形势似乎一片大好。然而,投资放缓的时刻终究会来临,关键在于它何时出现。人工智能软件通常以用户订阅的形式存在,而硬件则为一次性销售。鉴于此,有分析师发出警告,称人工智能芯片股正处于泡沫之中,一旦大型科技公司在人工智能基础设施上的巨额支出减少,泡沫终将破裂。
事实上,科技巨头们最近的收益报告显示,他们在人工智能基础设施上的巨大投入与获得的投资回报之间的差距正在不断扩大,这也考验着华尔街逐渐被消磨的耐心。谷歌、微软和亚马逊的股票在今年夏末都出现了下跌,在这之前,它们的季度财务报告表明,这些企业在人工智能方面的支出高达数十亿美元。
原文标题 : 芯片大厂们:不好意思,明年也已售罄