英伟达GTC 2025盛赞完DeepSeek,黄仁勋就发新模型要抢客户!黄仁勋:新推理模型大幅超越DeepSeek

从揭晓新AI处理器致敬女天文学家,到发布首款开源机器人模型,再到盛赞DeepSeek并强调不会冲击自家芯片需求,最后又发布一款新推理模型号称可以秒杀DeepSeek;这构成了今天黄仁勋在GTC大会主题演讲的几个精彩时刻。

还是那身黑色皮衣,黄仁勋走上GTC舞台,宣布自己依然不会使用提词器,甚至笔记都没有准备。激情即兴是他的演讲标志风格,拿着幻灯片遥控器就可以一路说下去。

今天在加利福尼亚州圣何塞举办的GTC 2025大会上,英伟达CEO黄仁勋向全球展示了他们在人工智能(AI)领域的最新技术突破。从宣布下一代GPU架构到将AI带入商用,宣布快餐巨头Taco Bell的合作,英伟达不仅巩固了其在AI计算领域的领导地位,还将其技术触角延伸至零售服务业。

这是英伟达在疫情之后第二次在圣何塞举办GTC大会。本次大会吸引了约2.5万名与会者,包括微软、谷歌、Waymo和福特等行业巨头,共同探讨AI硬件的未来应用。

早上八点SAP体育场外就排起了队,只为了尽早入场现场聆听黄仁勋的主题演讲,因为体育馆场内座位有限,排在后面的只能在外面看大屏幕。黄仁勋开玩笑称,自己需要更大的会场。

为什么GTC大会如此吸引关注?作为AI时代的引擎提供商,英伟达在短短两年就成为了半导体巨无霸,甚至一度市值超过苹果,成为了全球市值最高企业。不夸张地说,整个科技行业都在密切关注英伟达的每一次发布会,关注着新一代处理器,因为这直接关系到未来几年的AI算力。

那么今天的GTC 2025,黄仁勋宣布了哪些重磅产品与消息?

新处理器致敬女天文学家

如外界预期,黄仁勋在主题演讲中发布了全新AI处理器“Vera Rubin”,以美国女天文学家维拉·鲁宾(1928-2016)命名。这款芯片整合了英伟达首款定制CPU “Vera”和全新设计的GPU,标志着英伟达在处理器设计上的重大突破。这款处理器预计于2026年下半年出货。

Vera CPU基于英伟达自研的Olympus核心架构,此前英伟达多依赖Arm的现成设计(如Cortex系列)。定制化设计让Vera在性能上比Grace Blackwell芯片中的CPU快约两倍,具体表现为更高的每时钟周期指令数(IPC)和更低的功耗。

英伟达表示,这款全新处理器将采用台积电的3nm工艺制造,晶体管密度较5nm工艺提升约2.5倍,达到每平方毫米约1.5亿个晶体管。这种工艺进步显著提升了计算效率,尤其适合AI推理任务的高并行需求。

Rubin GPU技术上由两个独立芯片组成,通过英伟达的NV-HBI(High Bandwidth Interface)技术以超高带宽互联,工作时表现为单一逻辑单元。其核心规格包括支持高达288GB的HBM3e内存(高带宽内存第三代增强版),带宽达每秒5TB,比Blackwell的HBM3内存(141GB,带宽4TB/s)提升显著。

在推理任务中,Rubin可实现50 petaflops的性能(每秒5?10??次浮点运算),是当前Blackwell芯片(20 petaflops)的两倍多。这一提升得益于其新增的Tensor Core单元,专为矩阵运算优化,加速深度学习模型的推理和训练。

Rubin的目标客户包括亚马逊和微软等云服务商和AI研究机构。其高内存容量和计算能力特别适合运行大型语言模型(如Llama 3或Grok),这些模型通常需要数百GB内存来存储权重和中间结果。英伟达还展示了Rubin支持的新软件工具包Dynamo,可动态优化多GPU协同工作,进一步提升性能。

除了Rubin之后,黄仁勋还宣布英伟达计划在2027年下半年推出”Rubin Ultra”,将四个GPU芯片集成于单一封装,性能高达100 petaflops。

Rubin Ultra采用名为NVLink 5.0的下一代互联技术,芯片间带宽预计达每秒10TB,比NVLink 4.0(600GB/s)提升一个数量级。这种设计允许将多个Rubin Ultra组合成超级计算集群,如Vera Rubin NVL144机架(含144个GPU),为超大规模AI训练提供支持。

Rubin Ultra的每个GPU核心预计包含超过200亿个晶体管,采用2nm工艺制造,功耗控制在约800W以内(相比Blackwell单芯片700W)。其内存支持升级至HBM4,提供高达576GB容量,带宽预计达每秒8TB/s。这种配置使其能处理复杂的生成式AI任务,如实时视频生成或多模态模型推理。

虽然Rubin两款处理器堪称怪兽级别,但市场需要等到明后年才能部署。英伟达计划今年下半年推出当前Blackwell系列的增强版产品——Blackwell Ultra。

Blackwell Ultra提供多种配置,包括:

– 单芯片版本(B300):20 petaflops性能,288GB HBM3e内存;

– 双芯片版本(GB300):搭配Arm CPU,功耗约1kW;

– 机架版本:含72个Blackwell芯片,适用于数据中心。

Blackwell Ultra的亮点是内存升级(从192GB增至288GB)和更高的token生成速率。英伟达称,其每秒可生成更多AI输出(如文本或图像),适合时间敏感的应用。云服务商可利用其提供高级AI服务,潜在收入可能是2023年Hopper芯片的50倍。

此外,黄仁勋还透露,英伟达计划在2028年将推出以物理学家理查德·费曼(Richard Feynman)命名的Feynman GPU。Feynman将延续Vera CPU设计,但架构细节未公开。预计其将采用1.5nm工艺,性能可能突破200 petaflops,目标是支持下一代AI代理模型,如具备推理能力的自主系统。

黄仁勋强调,英伟达已从两年一次的架构更新转向每年更新发布的节奏,以应对AI需求的“超加速”增长。自2022年底ChatGPT发布以来,英伟达销售额激增六倍,其GPU占据AI训练市场超过八成的市场份额。

上月底发布的第四季度财报显示,英伟达当季收入达到393亿美元,环比增长12%,同比增长78%。全年收入为1305亿美元,同比增长114%。其中数据中心收入为356亿美元,占总收入的91%,较上一季度增长16%,同比增长93%。这一增长不仅来自Hopper GPU的持续销售,还包括Blackwell芯片的初步贡献。

首款开源人形机器人模型

黄仁勋还在主题演讲中,正式发布了NVIDIA Isaac GR00T N1,宣布“机器人的时代已经到来”,这是全球首款开源的人形机器人基础模型。这是英伟达“Project GR00T”项目的最新成果,基于其在2024年GTC大会上首次推出的机器人研究项目。

N1代表“第一代”,是英伟达专为加速人形机器人开发设计的通用AI模型。与传统机器人依赖特定任务编程不同,GROOT N1是一个“通才模型”(generalist model),能够处理多种任务并适应不同的人形机器人形态。

该模型使用真实数据和合成数据(synthetic data)混合训练,其中合成数据由英伟达的Omniverse平台生成。这种方法大幅降低了现实世界数据采集的成本和时间。GROOT N1以开源形式发布,开发者可通过Hugging Face和GitHub下载其训练数据和任务评估场景。这种开放性旨在推动全球机器人社区的协作创新。

黄仁勋在主题演讲中现场演示展示了GROOT N1的商用实力:

1X NEO Gamma:1X公司的NEO Gamma人形机器人使用GROOT N1的后期训练策略(post-trained policy),展示了自主整理家居的能力。1X CEO Bernt B

ørnich称:“GROOT N1在机器人推理和技能上的突破,让我们仅用少量数据就实现了全面部署。”

迪士尼BDX机器人:两台受《星球大战》启发的BDX机器人(昵称“Green”和“Orange”)在台上跟随黄仁勋移动,并对他的指令(如“现在不是吃饭时间”)做出点头回应,展现了自然语言理解和动作协调能力。

黄仁勋在演讲中指出,GROOT N1的发布不仅是技术突破,也是对未来机器人产业的战略布局。他预测,人形机器人市场在未来十年可能达到380亿美元,尤其在工业、制造和服务领域。他表示:“GROOT N1和新的数据生成框架将开启AI时代的新前沿。”

AI点餐带入连锁餐厅

在此次大会上,黄仁勋还宣布了英伟达与全球餐饮巨头百胜餐饮(Yum! Brands)的战略合作,百胜旗下的墨西哥风味餐厅Taco Bell将率先引入AI优化得来速服务(Drive Thru,不下车语音点餐)。

目前,数百家Taco Bell餐厅已使用英伟达提供的语音AI系统接受订单。百胜餐饮计划从2025年第二季度起,将该技术推广至约500家餐厅,包括必胜客、肯德基和Habit Burger and Grill。

英伟达为Taco Bell定制了基于Transformer架构的语音识别模型,运行于边缘设备(如Nvidia Jetson平台)。该系统支持实时语音转文本(ASR)和自然语言处理(NLP),延迟低至200毫秒。

百胜餐饮高管介绍了英伟达技术如何给自己服务带来提升:AI将升级为视觉+语音系统,利用摄像头和英伟达GPU分析排队车辆数量。例如,当检测到五辆车排队时,AI可建议快速出餐的选项(如Taco而非复杂的Burrito),缩短平均等待时间(目标从180秒降至120秒)。英伟达的推理加速技术(如TensorRT)将支持这些实时决策。

英伟达并不是最先尝试将AI带入快餐行业的巨头。早在2021年,IBM就和麦当劳合作,在100多家餐厅测试AI语音点餐,但使用体验还存在诸多问题,经常会有听错点餐的情况,准确率只有80%左右,双方已经在2024年结束了测试合作。

与百胜餐饮合作是英伟达将AI带入快餐行业服务的第一步,他们显然也吸取了IBM的测试经验。英伟达零售业务发展总监安德鲁·孙指出,AI需兼顾速度与质量,避免给用户带来偏差,成为社交网络笑柄。百胜餐饮高管强调,员工和顾客的信任至关重要:“通用大模型不够好,我们需要定制化解决方案。”例如,Taco Bell的AI需理解品牌文化,而非机械执行标准流程。

对DeepSeek赞不绝口

值得一提的是,黄仁勋在主题演讲中,对来自中国的AI公司DeepSeek赞不绝口,给予了极高的评价,多次强调DeepSeek不会给英伟达带来冲击。黄仁勋在演讲中称赞DeepSeek的R1模型为“卓越的创新”(excellent innovation)和“世界级的开源推理模型”(world-class open-source reasoning model)。

今年1月DeepSeek发布R1模型之后,以极低的训练成本提供了媲美甚至优于OpenAI的性能,震撼了整个美国AI行业,甚至一度导致芯片行业股价大跌。因为如果DeepSeek得以普及,AI行业就不一定需要疯狂军备竞赛囤积英伟达的AI处理器了。

黄仁勋特别反驳了市场早前的恐慌,即DeepSeek的高效模型会降低对英伟达芯片的需求。黄仁勋提到,DeepSeek R1发布后(2025年1月),市场曾误认为AI硬件需求会减少,导致英伟达市值一度暴跌6000亿美元。他对此解释称,“市场认为’AI完成了’,我们不再需要更多计算资源。这种想法完全错误,恰恰相反。”

他强调,DeepSeek R1代表的“推理型AI”(reasoning AI)同样需要对很高的计算能力。他解释说,与传统观念认为AI仅需预训练后即可直接推理不同,推理型模型需要大量后期训练和实时算力支持。他表示:“推理是一个相当耗费计算资源的过程。像DeepSeek这样的模型可能需要比传统模型多100倍的计算能力,未来的推理模型需求还会更高。”

他指出,DeepSeek的成功表明高效模型与强大算力的结合是未来趋势,而英伟达的芯片(如Blackwell Ultra)正是为此定制的。他还幽默地称:“DeepSeek点燃了全球热情,这对我们是好消息。”英伟达已与包括Meta、谷歌和亚马逊在内的客户加大投资,确保其芯片满足日益增长的AI基础设施需求。

他指出,R1的发布不仅没有削弱英伟达的市场地位,反而推动了全球对AI的热情。“几乎每个AI开发者都在使用R1,这表明其影响力正在扩大AI的采用范围。”

黄仁勋因此透露,英伟达已经将DeepSeek R1作为新品基准测试的一部分。例如,他提到Blackwell Ultra芯片在设计时优化了推理任务,能更高效地运行R1这类模型。他具体指出:“Blackwell Ultra的Tensor Core经过调整,支持高密度矩阵运算,每秒token生成率显著提升,非常适合推理型AI。”

面对DeepSeek引发的竞争压力,黄仁勋淡化了对英伟达的威胁。他在演讲中说:“DeepSeek展示了模型可以更高效,但这并不意味着硬件需求减少。相反,它让所有人意识到,高效模型需要更强的计算支持。”

新推理模型秒杀DeepSeek

盛赞完DeepSeek,黄仁勋又宣布推出了一款基于Llama的新推理模型——Nvidia Llama Nemotron Reasoning。他将这一模型描述为“一个任何人都能运行的令人难以置信的新模型”,并强调其在企业AI应用中的潜力。这一发布标志着英伟达在AI模型开发领域的进一步扩展,从硬件供应商向软件与模型生态的全面参与者转型。

黄仁勋特别强调了Nvidia Llama Nemotron Reasoning在准确性和速度上的卓越表现,声称其“大幅超越”(beats substantially)中国AI公司DeepSeek的R1模型。

Nvidia Llama Nemotron Reasoning是英伟达Nemotron模型家族的新成员。Nemotron系列最初设计用于增强AI代理的能力,尽管“AI代理”这一概念在行业中仍未完全明确定义。通常,AI代理被理解为能够自主执行任务、推理并与环境交互的智能系统,例如客服机器人或自动化助手。黄仁勋在演讲中并未详细解释“AI代理”的具体含义,但暗示Nemotron Reasoning将为企业提供更强大的推理能力,支持复杂决策和任务处理。

该模型基于Meta开源的Llama架构,但经过英伟达的深度定制和优化。Llama作为一个高效、开源的大语言模型基础,近年来被广泛用于学术和商业领域,而英伟达通过其算力优势和软件生态(如TensorRT和Dynamo)对Llama进行了性能提升,使其适配企业级应用。

Llama Nemotron家族模型将与DeepSeek竞争,为高级代理提供企业就绪的AI推理模型。顾名思义,Llama Nemotron基于Meta的开源Llama模型。英伟达通过算法修剪了模型,以优化计算需求,同时保持准确性。

英伟达还应用了复杂的后期训练技术,使用合成数据进行训练。训练过程涉及36万个H100推理小时和4.5万个小时的人工标注,以增强推理能力。据英伟达称,所有这些训练造就了在数学、工具调用、指令遵循和对话任务等关键基准测试中具有卓越推理能力的模型。

来源:新浪网

文章来源于网络。发布者:火星财经,转载请注明出处:https://www.sengcheng.com/article/40334.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
火星财经的头像火星财经
上一篇 2025年3月19日 上午11:00
下一篇 2025年3月19日 上午11:00

相关推荐

  • 以色列和阿根廷为何跟着美“退群” 效仿美国策略

    以色列和阿根廷为何跟着美退群!美国带头退出多个国际组织,阿根廷和以色列紧随其后。这一系列动作引发人们对于这些国际组织未来作用的质疑。中国等发展中国家有望在这些组织中发挥更大作用。 2月5日,阿根廷总统发言人曼努埃尔·阿多尼宣布,总统米莱已下令退出世界卫生组织。阿根廷认为世卫组织干涉其主权和健康事务,并且双方存在深刻分歧。阿多尼表示,尽管世卫组织在阿根廷开展工…

    2025年2月7日
    12800
  • 确诊渐冻症后容貌巨变女生求助蔡磊 抗争之路艰难前行

    1月18日,26岁的湖南渐冻症患者静雯发布视频向蔡磊求助。她表示自己曾被蔡磊鼓励要抗冻到底,但如今病情发展迅速,身体状况越来越差,已经感到难以坚持。从确诊到现在,她的生活发生了巨大变化,原本美好的时光仿佛还在昨天,现在却因病痛长期卧床。她在视频中提到,自己已无法正常说话,视频中的声音是由他人代录。 确诊渐冻症一年以来,静雯的容貌发生了巨变,连吞咽都变得非常困…

    2025年1月18日
    15900
  • 百度联网搜索MCP开放调用,全球首个电商交易MCP、搜索MCP等MCP server!李彦宏:这是我们25年的搜索积累

    新浪科技讯 4月25日上午消息,今日举办的Create开发者大会上,百度创始人李彦宏宣布,为帮助开发者积极全面拥抱MCP,百度发布了全球首个电商交易MCP、搜索MCP等MCP server,供开发者调用。 据介绍,百度优化了文心基础大模型,提升了模型在使用MCP server时的任务规划和调度能力;百度智能云千帆大模型平台已率先全面兼容MCP,不仅提供大量第…

    2025年4月25日
    13800
  • 德国前总统霍斯特·克勒去世 享年79岁

    当地时间2月1日,德国前总统霍斯特·克勒去世。克勒出生于1943年2月22日,是德国政治家和经济学家。克勒曾于2004年7月1日至2010年5月31日担任德国联邦总统。 责任编辑:张小花 TT1000

    2025年2月1日
    20800
  • 女生花一个月工资给继父送礼物答谢 感恩继父的无私付出

    我妈妈19岁时嫁给了我爸爸。那时,周围的人都不看好他们的婚姻。我爸爸身材魁梧,英俊潇洒,性格踏实勤奋。而我妈妈是家中的小女儿,外公外婆原本期待会生个儿子,结果生下来是个女孩,全家人都感到失望,甚至对我妈妈有些不满。因此,我妈妈从小经历了饥饱交替的生活,还要做很多繁重的工作,身材非常矮小瘦弱,身高不足一米五,体重勉强达到70斤。 我看过妈妈结婚时的照片,她瘦得…

    2025年1月27日
    14400

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信