英伟达市值超3.6万亿,巨头开囤GPU

智车科技

2天前

英伟达超越苹果成为全球最值钱的公司,而市场依旧对英伟达保持乐观。...年关将至,巨头们开始展示自己的AI肌肉,试图在年底给投资者们一点甜头。

图片

英伟达超越苹果成为全球最值钱的公司,而市场依旧对英伟达保持乐观。

与此同时,美国科技公司的服务器集群频频曝光。年关将至,巨头们开始展示自己的AI肌肉,试图在年底给投资者们一点甜头。

就在埃隆·马斯克xAI集群首次曝光后,小扎也迫不及待在Meta的业绩发布会上表示,Llama 4背后服务器集群的实力“比我见过的任何报道中其他人正在做的(规模)要大”。这番言论无疑是对埃隆·马斯克“地表最强的AI集群”的正面回应。

在科技巨头们开启算力竞赛时代,英伟达的GPU成为巨头们的“粮草”。本文就来看看英伟达的大客户们AI之战的囤粮情况。

01

巨头血拼H100

“前”地表最强——xAI

2023年7月14日,马斯克在个人推特账号宣布新公司定名为xAI,并于同日举行Twitter空间会议。新成立的xAI公司会与Twitter和特斯拉紧密合作 ,其中一个目标是打造能进行高阶逻辑推理的人工智能模型,并超越市面上其他模型。

四个月后,xAI宣布推出Grok,称此模型“最大限度地造福全人类,并将是任何人的强大的研究助理。”

2024年9月xAI推出Colossus 100k H100 训练集群。马斯克在 X 上称,它是“世界上最强大的人工智能训练系统。此外,它的规模将在几个月内翻一番,达到 200k(50k H200x)。”

2024年10月,埃隆·马斯克的新项目 Colossus AI超级计算机第一次被详细介绍。一则视频展示了其包含10万台GPU集群的内部结构。Colossus 的基本构建模块是 Supermicro 液冷机架。它由 8 台 4U 服务器组成,每台服务器配备 8 个 NVIDIA H100,每台机架总共有 64 个 GPU。8 台这样的 GPU 服务器加上一台Supermicro 冷却液分配单元 (CDU)和相关硬件构成了一个 GPU 计算机架。每个HGX H100之间都夹有1U歧管,为服务器提供所需的液体冷却。每个机架底部还有另一个Supermicro 4U单元,配备的是冗余泵系统和机架监控系统。

Meta:购买35万个H100

正如前文所说,在Colossus AI计算机视频流出后,埃隆·马斯克的“死对头”扎克伯格在Meta的业绩发布会上表示自己家的GPU比目前公开的数量都多。

年初,扎克伯格在Instagram上发表文章称,计划在今年年底前向芯片设计商英伟达购买35万个H100 GPU芯片。Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”

半导体英特尔三星存储芯片英伟达

英伟达超越苹果成为全球最值钱的公司,而市场依旧对英伟达保持乐观。...年关将至,巨头们开始展示自己的AI肌肉,试图在年底给投资者们一点甜头。

图片

英伟达超越苹果成为全球最值钱的公司,而市场依旧对英伟达保持乐观。

与此同时,美国科技公司的服务器集群频频曝光。年关将至,巨头们开始展示自己的AI肌肉,试图在年底给投资者们一点甜头。

就在埃隆·马斯克xAI集群首次曝光后,小扎也迫不及待在Meta的业绩发布会上表示,Llama 4背后服务器集群的实力“比我见过的任何报道中其他人正在做的(规模)要大”。这番言论无疑是对埃隆·马斯克“地表最强的AI集群”的正面回应。

在科技巨头们开启算力竞赛时代,英伟达的GPU成为巨头们的“粮草”。本文就来看看英伟达的大客户们AI之战的囤粮情况。

01

巨头血拼H100

“前”地表最强——xAI

2023年7月14日,马斯克在个人推特账号宣布新公司定名为xAI,并于同日举行Twitter空间会议。新成立的xAI公司会与Twitter和特斯拉紧密合作 ,其中一个目标是打造能进行高阶逻辑推理的人工智能模型,并超越市面上其他模型。

四个月后,xAI宣布推出Grok,称此模型“最大限度地造福全人类,并将是任何人的强大的研究助理。”

2024年9月xAI推出Colossus 100k H100 训练集群。马斯克在 X 上称,它是“世界上最强大的人工智能训练系统。此外,它的规模将在几个月内翻一番,达到 200k(50k H200x)。”

2024年10月,埃隆·马斯克的新项目 Colossus AI超级计算机第一次被详细介绍。一则视频展示了其包含10万台GPU集群的内部结构。Colossus 的基本构建模块是 Supermicro 液冷机架。它由 8 台 4U 服务器组成,每台服务器配备 8 个 NVIDIA H100,每台机架总共有 64 个 GPU。8 台这样的 GPU 服务器加上一台Supermicro 冷却液分配单元 (CDU)和相关硬件构成了一个 GPU 计算机架。每个HGX H100之间都夹有1U歧管,为服务器提供所需的液体冷却。每个机架底部还有另一个Supermicro 4U单元,配备的是冗余泵系统和机架监控系统。

Meta:购买35万个H100

正如前文所说,在Colossus AI计算机视频流出后,埃隆·马斯克的“死对头”扎克伯格在Meta的业绩发布会上表示自己家的GPU比目前公开的数量都多。

年初,扎克伯格在Instagram上发表文章称,计划在今年年底前向芯片设计商英伟达购买35万个H100 GPU芯片。Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”

半导体英特尔三星存储芯片英伟达

展开
打开“财经头条”阅读更多精彩资讯
最新评论

参与讨论

APP内打开