查看原文
其他

黄仁勋发布全新最强GPU,专为大模型打造,微软谷歌Meta排队预定

Founder Park Founder Park 2023-07-24

黄仁勋一个人,讲了两个小时。

你可以用一些不那么合适的词来形容他的状态。

激情四射,如沐春风,只有买不到没有卖不掉,刚刚多了 70 亿美金净资产,the man who owns the AI era......都是不太严肃的形容词,但 whatever。

他在台北,你可能已经听说了,两天前他在台北大学毕业典礼上的演讲在圈内刷屏。

「快跑,别用走的!」他告诉应届生们,「今年毕业是最好的一年。」

应届生可能很难分享他的喜悦。

这是一年一度的台北 Computex 大会,计算的世界,黄仁勋的主场。

他狂飙中文,对着给他往舞台上递卡的白人助手说中文,说了三四遍后恍然大悟,「Oh, Jennie doesn't speak Chinese.」

哄堂大笑,喜悦共享了。

他发布了全新的最强 GPU,瞄准下一代 AI 产品。外媒的评价是「强到荒谬」(ridiculous supercomputer)。

小甜点

这就是游戏的未来

发布会一开始,黄仁勋就发布了用于游戏的 AI 模型渲染工具 ACE(Avatar Cloud Engine)。

这就是游戏的未来!」黄仁勋激动地说。

他展示了一段 demo,在一个 Cyberpunk 风格的酒馆里,玩家可以与 AI NPC 自由对话。


玩家说话时会有录音提示,NPC 可以很快地作出回应。据黄仁勋表示,只需要为 NPC 写好设定,不需要写脚本,就可以建立一个性格鲜明的 AI NPC。

ACE 是一个自定义 AI 模型的工坊服务(foundry service)。NPC 通过自然语言交互,具有「智能化表现」,这能大大改善玩家的游戏体验。开发者可以使用 ACE for Games 来搭建、部署定制的语音、对话和动画 AI 模型,进行中间件、工具和游戏的开发。

ACE 整个套件包括三部分:

  • NeMo 工具,用于部署大模型并过滤不适当的对话;

  • Riva 语音转文字和文字转语音组件;

  • Omniverse Audio2Face,用于将语音转换为匹配的角色表情。

ACE 来源于英伟达和创业公司 Convai 的合作。

这是 Convai 公司的产品演示视频。

新超算

主打一个大模型的「大」

黄仁勋带来了今天最重磅的发布,新款超级 GPU DGX GH200

这款超算针对 LLM、推荐系统和数据分析工作复杂的大模型开发,通过 NVLink 互连技术和 NVLink Switch System,让 256 个 GH200 超级芯片相连,作为一整个 GPU 运行。英伟达上一代系统通过 NVLink 只能连接 8 块芯片。

「这是一个 GPU,」黄仁勋说。

DGX GH200 架构相比上一代将 NVLink 带宽提升了 48 倍以上,在单个 GPU 上通过简单编程,就能够提供大型 AI 超级计算机的能力。

它提供了 1 exaFLOP 的性能,所有芯片共享 144TB 内存。对比 2020 年发布的 DGX A100,内存扩大近 500 倍。

黄仁勋透露,目前 Google Cloud、Meta 和微软已经排队预定了 DGX GH200,用于生成式 AI 相关业务。英伟达还计划将新品设计作为蓝图提供给云服务和其他大企业。


据英伟达官方透露,DGX GH200 将于今年年底上市Grace Hopper 超级芯片已经全线投入生产。

同时,英伟达还在使用 DGX GH200 打造一台更大的超级计算机,NVIDIA Helios,将搭配 4 个 DGX GH200 系统,通过 NV 自家的 Quantum-2 InfiniBand 网络互连,就是说 1024 个 Grace Hopper 超级芯片,小学乘法。今年年底发售。


干销售

还是那句老话:越买越赚

黄仁勋一如既往,现场干起了销售。他至少重复了 5 遍:「The more you buy, the more you save.

对比 CPU。

1000 万美元的成本,960 个 CPU 的数据中心,11GWh 功率,能处理 1x LLM 的数据量。

用他们的 GPU 呢,还是 1000 万美金,48 个 GPU 的数据中心,3.2GWh 功耗,44x LLM 的处理效率。

如果你就要达到 11GWh 的功耗,那么花 3400 万美金,172 个 GPU 的服务器,可以处理 150x LLM。

或者你只需要处理 1x LLM 的数据量,那么 40 万美金,2 块 GPU,0.13GWh。

几张 PPT 他切过来切过去,反复对比。

「That's right, the more you buy, the more you save. That's NVIDIA.」

黄氏销售的秘诀:小学乘法。

H100 也在台上。老黄摆出来一台 H100,说这是现在世界上最贵的计算机,20 万美元,第一个搭载 Transformer Engine 的计算机。

60 磅重(约 54 斤),他说他举得动,但考虑还要继续演讲,算了。


软硬一体

服务到位

据黄仁勋透露,全球有 4 万家大公司和 15000 家初创公司使用 NV 的技术,仅去年一年,CUDA 软件的下载量就达到 2500 万次,有的选的都选了 NV。

除了游戏产品和超算,黄仁勋还发布了一系列 AI 相关的产品和服务。

他展示了一系列生成式 AI 的应用,包括一首音乐,输入文本(歌词)就能生成一段曲子。他还兴奋地在现场玩起卡拉 OK。

一个用于创建加速服务器的模块化参考架构 NVIDIA MGX,制造商可以用它快速、经济地打造 100 多种不同的服务器配置,满足各种需求。

Grace Hopper 利用 GenAI,可以将 2D 视频通话转换为 3D 视频,次时代视频通话体验。


英伟达与软银合作,在日本建立分布式数据中心网络。

专用于提高以太网 AI 云性能和效率的网络平台 NVIDIA Spectrum-X,相比传统以太网结构,AI 性能和电源效率提高 1.7 倍。

英伟达还与微软 Windows 合作,在 PC 上开发适配 AI 的工具、框架和驱动程序,简化开发者开发和部署 AI 产品。当然是针对 RTX GPU 的 PC。


这是黄仁勋和英伟达的,不知道第多少次高光时刻,但它肯定不是最后一次。

此时此刻的英伟达,市值接近 1 万亿美元,过去五个月增长近 3 倍。

沃顿商学院教授 Jeremy Siegel 接受《财富》采访称,英伟达匹配它过去几天夸张的股价飙涨,它是一家「真正的好公司」,「没人能预测它可能涨到多高」。

「太多了,」黄仁勋在发布会最后说,「我知道太多了。」

(It's too much, I know it's too much.)






关注 Founder Park,我们将持续推出更全面更深度的大模型相关讨论与报道。

Founder Park 正在搭建大模型相关话题的交流社群,群内聚集着致力于在大模型相关领域创业的创业者、产品经理、研发工程师、对大模型技术和场景应用开发进展感兴趣的学者及投资人。

在这里,你肯定可以获得大模型相关领域的最新动态资讯、或许可以进行高质量的行业对话交流,还可能连接更多有价值的行业认知。

如果你关注大模型领域,欢迎扫码加入我们的大模型交流群,来一起探讨大模型时代的共识和认知,跟上大模型时代的这股浪潮。



没时间看直播,可以扫码关注我们的播客



更多阅读

微软个人助理来了!Copilot是最好的AI产品形态,插件将成为新的平台模式

最好的回应,孙燕姿为人机之争画上句号

Stability.AI创始人万字访谈:数据不要全球化,五大巨头谁能赢得AI大战?

微软CEO纳德拉访谈:OpenAI合作,谷歌搜索竞争,世界需要10亿开发者

最豪华AI创业访谈:DeepMind创始人如何做个人助理,AI不止是效率革命

OpenAI发布炸裂研究:让AI解释AI黑箱,人类无法理解,语言无法描述

AI 教父 Hinton & MIT 万字访谈: 人类可能只是 AI 演化过程中的一个过渡阶段


转载原创文章请添加微信:geekparker


Founder Park 正在招募新的 AGI 观察者

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存