自DeepSeek爆火以来,大洋彼岸的英伟达就被推上了风口浪尖。毕竟,DeepSeek最大的卖点就是一个词——便宜,在与GPT-4性能相近的情况下,大幅降低了训练和推理成本。
同时,其坚定开源的态度也迥异于部分海外大模型厂商,最后,出色的中文处理能力,一次又一次给用户带来惊喜。
但对AI教父黄仁勋来说,AI可以不好用,可以技术迭代得慢,但绝不能便宜(训练成本低),否则,在AI还没遍地开花之前,各家企业先冲着降本去了,作为“卖铲人”的英伟达,还怎么狂揽钞票?
这种担心自然反映到了股价上。
美东时间1月27日,英伟达股价一度暴跌17%,市值一夜蒸发超6000亿美元。
最值得玩味的是,英伟达方面,尤其是黄仁勋,始终“一声不吭”,有的人认为黄仁勋“也懵了”,有的人认为英伟达在“憋大招”,还有的人认为新的技术潮流下,英伟达也无法逆势而为。
此后,在高度沉默中,英伟达股价震荡回升,目前已经收复了大部分失地。
那么DeepSeek对英伟达到底有没有冲击呢?
这个问题得分两层看。
第一层,DeepSeek事实上并没有摆脱对英伟达的依赖。据《DeepSeek-V3技术报告》官方给出的是2048张英伟达H800芯片和1万张A100显卡。不管DeepSeek用的是新卡老卡,总归是用的英伟达产品,至于说支持华为昇腾的显卡,那只是可以部署调用,训练才是大头。
图片来源:《DeepSeek-V3技术报告》
从这个角度看,似乎DeepSeek对英伟达还是利好。
之所以会重创英伟达股价,还是第二层。
第二层,就得说到英伟达的挤牙膏式创新与暴利了。需求饱和的商品,如果出现“降本增效”方面的重大创新,那么对上游无疑是巨大打击。譬如有人发现了大幅减少肥料用量的种植方法,那对肥料厂商无疑是重大打击。
但按理说,AI远未到全面普及和实用的阶段,所以训练AI的算力需求只会越来越大。所以无论大模型领域有何创新,对英伟达这种硬件厂商,都应该是中性偏正面的消息。所以英伟达受影响,不仅在于短期、潜在的“需求”收缩,更在于英伟达自身的业绩虚火。
英伟达业绩虚火,并不是说其业绩本身有什么问题,而在于其产品定价模式上,采取高举高打的策略。最直观的一点,英伟达最近毛利率稳定在75%,净利率在50%上下浮动。这样的盈利能力,哪怕对高技术制造业来说,也是相当高的。
英伟达这个卖铲人赚得盆满钵满,自然就意味着下游的大模型厂商被吸血。
过去,在OpenAI的带动下,卷算力成了大模型领域的“政治正确”。哪怕当前不需要,也会考虑留足冗余。
但DeepSeek的横空出世,提醒了整个行业,当前已有的数据集和算力,其潜力并没有得到充分释放。而这种“提醒”,为全行业提供了新的选项,提高了其他大模型厂商在英伟达面前的议价能力。
哪怕需要更多的训练来发布新产品,也可以选择进一步优化已有模型,而非单纯堆算力。
那么,面对此情此景,黄仁勋就“束手无策”,等着一众客户来砍一刀吗?
当然不会,黄仁勋选择在合适的时机(英伟达股价基本回到冲击前),在合适场合,DDN的新品发布活动上,为英伟达辩白。
合适的时机:如果股价刚有波动,就立马“澄清”,容易引发更大的质疑。
图片来源:对谈截图
合适的场合:并非在某次媒体专访中,单独把DeepSeek拿来说事,而是在合作伙伴的新品发布活动上,以一种较轻松的态度将信息传递出去,借此显示英伟达成竹在胸。
2月20日,黄仁勋与其合作伙伴DDN存储的首席执行官亚历克斯·布扎里(Alex Bouzari)的对谈视频发布,黄仁勋在视频中回应称,投资人误读了DeepSeek异军突起的影响。
此次对谈,黄仁勋从三方面回应了市场的质疑:
第一点,即是大模型对英伟达产品生态的高依赖。他表示,“我们拥有所有必要的开源模型和开源工具包,如Nvidia的Nemo,Nvidia的Nims,以及像infinia这样的数据智能层……因此,它将成为所有这些AI助理的拓展。”
简单说,就是除了显卡,英伟达也做大模型,同时还为大模型的开发者提供工具,软硬件一体。
第二点,AI效果的改善,将带来更多的计算需求。“我认为市场对R 1的反应是,‘AI已经完成了,它从天而降。我们不再需要进行任何计算了。’情况恰恰相反,,因为深度观察所做的是让每个人注意到,有机会让模型比我们想象的更高效。因此它正在扩张,加速AI的采用。”
第三点,通用大模型并不是AI的尽头,“专属助理”才是市场更需要的。他指出“预训练是因为我们想要奠定基础,以便进行第二部分,即后训练”。他强调,后训练将持续发挥重要作用,因为这个阶段是“学习解决问题”的过程。此外,黄仁勋提到第三扩展定律,即在回答问题之前,推理得越多,效果就越好。他强调,“推理本身是一个运算密集的过程”。
这里需要解释下,打个比方,大模型就像学生,预训练就是学校教育,经过预训练的通用大模型就像大学毕业生,学了很多知识,但博而不精,对场景化的知识更是一无所知。
所以,就需要“后训练”,类似企业的岗前培训,了解每个社区/企业/个人的特异化需求,并针对性的给出回答或解决方案。
预训练完全由大模型厂商完成,后训练则需要大模型用户深度参与。
直接点说,黄仁勋的意思是,预训练只能让大模型通用、能用,但想好用,还得“后训练”,那就还得乖乖堆算力,这不就又回到了英伟达这里。
黄仁勋针对DeepSeek“姗姗来迟”的回应,市场会不会买账呢?很难说,毕竟,无论黄仁勋怎么画饼,都改变不了一个显而易见的事实:昂贵的英伟达显卡会倒逼大模型厂商寻找替代方案。
你认可黄仁勋的回应吗?欢迎在评论区留言交流~
自DeepSeek爆火以来,大洋彼岸的英伟达就被推上了风口浪尖。毕竟,DeepSeek最大的卖点就是一个词——便宜,在与GPT-4性能相近的情况下,大幅降低了训练和推理成本。
同时,其坚定开源的态度也迥异于部分海外大模型厂商,最后,出色的中文处理能力,一次又一次给用户带来惊喜。
但对AI教父黄仁勋来说,AI可以不好用,可以技术迭代得慢,但绝不能便宜(训练成本低),否则,在AI还没遍地开花之前,各家企业先冲着降本去了,作为“卖铲人”的英伟达,还怎么狂揽钞票?
这种担心自然反映到了股价上。
美东时间1月27日,英伟达股价一度暴跌17%,市值一夜蒸发超6000亿美元。
最值得玩味的是,英伟达方面,尤其是黄仁勋,始终“一声不吭”,有的人认为黄仁勋“也懵了”,有的人认为英伟达在“憋大招”,还有的人认为新的技术潮流下,英伟达也无法逆势而为。
此后,在高度沉默中,英伟达股价震荡回升,目前已经收复了大部分失地。
那么DeepSeek对英伟达到底有没有冲击呢?
这个问题得分两层看。
第一层,DeepSeek事实上并没有摆脱对英伟达的依赖。据《DeepSeek-V3技术报告》官方给出的是2048张英伟达H800芯片和1万张A100显卡。不管DeepSeek用的是新卡老卡,总归是用的英伟达产品,至于说支持华为昇腾的显卡,那只是可以部署调用,训练才是大头。
图片来源:《DeepSeek-V3技术报告》
从这个角度看,似乎DeepSeek对英伟达还是利好。
之所以会重创英伟达股价,还是第二层。
第二层,就得说到英伟达的挤牙膏式创新与暴利了。需求饱和的商品,如果出现“降本增效”方面的重大创新,那么对上游无疑是巨大打击。譬如有人发现了大幅减少肥料用量的种植方法,那对肥料厂商无疑是重大打击。
但按理说,AI远未到全面普及和实用的阶段,所以训练AI的算力需求只会越来越大。所以无论大模型领域有何创新,对英伟达这种硬件厂商,都应该是中性偏正面的消息。所以英伟达受影响,不仅在于短期、潜在的“需求”收缩,更在于英伟达自身的业绩虚火。
英伟达业绩虚火,并不是说其业绩本身有什么问题,而在于其产品定价模式上,采取高举高打的策略。最直观的一点,英伟达最近毛利率稳定在75%,净利率在50%上下浮动。这样的盈利能力,哪怕对高技术制造业来说,也是相当高的。
英伟达这个卖铲人赚得盆满钵满,自然就意味着下游的大模型厂商被吸血。
过去,在OpenAI的带动下,卷算力成了大模型领域的“政治正确”。哪怕当前不需要,也会考虑留足冗余。
但DeepSeek的横空出世,提醒了整个行业,当前已有的数据集和算力,其潜力并没有得到充分释放。而这种“提醒”,为全行业提供了新的选项,提高了其他大模型厂商在英伟达面前的议价能力。
哪怕需要更多的训练来发布新产品,也可以选择进一步优化已有模型,而非单纯堆算力。
那么,面对此情此景,黄仁勋就“束手无策”,等着一众客户来砍一刀吗?
当然不会,黄仁勋选择在合适的时机(英伟达股价基本回到冲击前),在合适场合,DDN的新品发布活动上,为英伟达辩白。
合适的时机:如果股价刚有波动,就立马“澄清”,容易引发更大的质疑。
图片来源:对谈截图
合适的场合:并非在某次媒体专访中,单独把DeepSeek拿来说事,而是在合作伙伴的新品发布活动上,以一种较轻松的态度将信息传递出去,借此显示英伟达成竹在胸。
2月20日,黄仁勋与其合作伙伴DDN存储的首席执行官亚历克斯·布扎里(Alex Bouzari)的对谈视频发布,黄仁勋在视频中回应称,投资人误读了DeepSeek异军突起的影响。
此次对谈,黄仁勋从三方面回应了市场的质疑:
第一点,即是大模型对英伟达产品生态的高依赖。他表示,“我们拥有所有必要的开源模型和开源工具包,如Nvidia的Nemo,Nvidia的Nims,以及像infinia这样的数据智能层……因此,它将成为所有这些AI助理的拓展。”
简单说,就是除了显卡,英伟达也做大模型,同时还为大模型的开发者提供工具,软硬件一体。
第二点,AI效果的改善,将带来更多的计算需求。“我认为市场对R 1的反应是,‘AI已经完成了,它从天而降。我们不再需要进行任何计算了。’情况恰恰相反,,因为深度观察所做的是让每个人注意到,有机会让模型比我们想象的更高效。因此它正在扩张,加速AI的采用。”
第三点,通用大模型并不是AI的尽头,“专属助理”才是市场更需要的。他指出“预训练是因为我们想要奠定基础,以便进行第二部分,即后训练”。他强调,后训练将持续发挥重要作用,因为这个阶段是“学习解决问题”的过程。此外,黄仁勋提到第三扩展定律,即在回答问题之前,推理得越多,效果就越好。他强调,“推理本身是一个运算密集的过程”。
这里需要解释下,打个比方,大模型就像学生,预训练就是学校教育,经过预训练的通用大模型就像大学毕业生,学了很多知识,但博而不精,对场景化的知识更是一无所知。
所以,就需要“后训练”,类似企业的岗前培训,了解每个社区/企业/个人的特异化需求,并针对性的给出回答或解决方案。
预训练完全由大模型厂商完成,后训练则需要大模型用户深度参与。
直接点说,黄仁勋的意思是,预训练只能让大模型通用、能用,但想好用,还得“后训练”,那就还得乖乖堆算力,这不就又回到了英伟达这里。
黄仁勋针对DeepSeek“姗姗来迟”的回应,市场会不会买账呢?很难说,毕竟,无论黄仁勋怎么画饼,都改变不了一个显而易见的事实:昂贵的英伟达显卡会倒逼大模型厂商寻找替代方案。
你认可黄仁勋的回应吗?欢迎在评论区留言交流~