Featured image of post Nvidia CEO 黄仁勋宣布新的 AI 芯片:‘我们需要更大的 GPU’

Nvidia CEO 黄仁勋宣布新的 AI 芯片:‘我们需要更大的 GPU’

前天,英伟达宣布了新一代的人工智能芯片以及用于运行人工智能模型的软件

周一,英伟达宣布了新一代的人工智能芯片以及用于运行人工智能模型的软件。这个宣布是在英伟达在圣何塞的开发者大会上做出的,此举是英伟达为了巩固其作为 AI 公司首选供应商的地位。

自从 OpenAI 的 ChatGPT 在 2022 年底掀起了 AI 热潮以来,英伟达的股价已经上涨了五倍,总销售额也增长了三倍以上。英伟达的高端服务器 GPU 在训练和部署大型 AI 模型上起着至关重要的作用。例如,微软和 Meta 这样的公司已经花费了数十亿美元购买这些芯片。

新一代的 AI 图形处理器被命名为 Blackwell。第一款 Blackwell 芯片被称为 GB200,将在今年晚些时候发货。英伟达正在用更强大的芯片吸引客户,以推动新的订单。例如,各公司以及软件制造商仍在积极获取当前一代的“Hopper”H100 以及类似的芯片。

“Hopper 很出色,但我们需要更大的 GPU,”英伟达的 CEO 黄仁勋在周一的公司开发者大会上说。

周一,英伟达的股价在盘后交易中下跌了超过 1%。

该公司还推出了一款名为 NIM 的盈利软件,这将使部署 AI 变得更容易,这给了客户更多坚持使用英伟达芯片而非选择激增的竞争对手的理由。

Nvidia 的高层管理人员表示,该公司正逐渐从一家传统的芯片供应商转变为一个平台提供商,像 Microsoft 或 Apple 一样,其他公司可以在其上开发软件。

“Blackwell 并不是一个芯片,而是一个平台的名字。”老黄说。

“我们能销售的商业产品是 GPU,而软件则是为了帮助人们以不同的方式使用 GPU。”Nvidia 的企业副总裁 Manuvir Das 在一次采访中说。“我们确实还在做这件事,但真正改变的是,我们现在已经发展出了自己的商业软件业务。”

Das 表示,Nvidia 的新软件将使得在任何 Nvidia 的 GPU 上运行程序变得更加容易,甚至包括那些可能更适合部署而不是构建 AI 的旧版 GPU。

“如果你是一名开发人员,有一个你希望别人采纳的有趣模型,只要你把它放进 NIM,我们就会确保它能在我们所有的 GPU 上运行,这样你就可以接触到更多的人。”Das 说。

Nvidia 每两年更新一次其 GPU 架构,大幅度提升性能。去年发布的许多 AI 模型都是在该公司的 Hopper 架构上进行训练的——这是像 H100 这样的芯片所使用的架构,它在 2022 年公布。

Nvidia 表示,基于 Blackwell 的处理器,如 GB200,将为 AI 公司提供巨大的性能提升,AI 性能将从 H100 的 4 petaflops 提升到 20 petaflops。更强大的处理能力将让 AI 公司能训练出更大、更复杂的模型。

该芯片包含了一个 Nvidia 称之为“专门用于运行基于 Transformer 的 AI”的 Transformer 引擎,这是支持 ChatGPT 的核心技术之一。

Blackwell GPU 的体积很大,它将两个单独制造的芯片合并为一个由 TSMC 所制造的芯片。它也将作为一个名为 GB200 NVLink 2 的完整服务器提供,该服务器集成了 72 个 Blackwell GPU 和其他 Nvidia 部件,用于训练 AI 模型。

Amazon、Google、Microsoft 和 Oracle 将通过云服务提供 GB200。GB200 将两个 B200 Blackwell 图形处理器与一个基于 Arm 的 Grace 中央处理器配对。Nvidia 表示,亚马逊网络服务将搭建一个由 20,000 块 GB200 芯片组成的服务器集群。

Nvidia 表示,该系统能运行参数达到 27 万亿的模型。这比即使是最大的模型,如 GPT-4,据报道有 1.7 万亿参数的模型大得多。许多人工智能研究者相信,拥有更多参数和数据的更大模型可能释放出新的能力。

Nvidia 没有提供新的 GB200 或其使用的系统的成本。据分析师估计,Nvidia 基于 Hopper 的 H100 的成本在每片芯片之间为 25,000 美元和 40,000 美元,整个系统的成本高达 200,000 美元。

Nvidia 推理微服务

Nvidia 还宣布添加一个名为 NIM 的新产品,这代表 Nvidia 推理微服务,加入其 Nvidia 企业软件订阅服务。

NIM 的出现让利用较旧的 Nvidia GPU 进行 AI 软件运行或推理更为便捷,使得企业能够继续使用他们已经拥有的数以亿计的 Nvidia GPU。相较于训练新的 AI 模型,推理过程的计算能力需求较低。NIM 使得希望运行自己的 AI 模型的公司无需从如 OpenAI 这样的公司那里购买 AI 服务。

Nvidia 的策略是鼓励购买基于 Nvidia 服务器的客户,去注册 Nvidia 企业版服务,每年每个 GPU 的许可费为 4500 美元。

Nvidia 将与如 Microsoft 或 Hugging Face 这样的 AI 公司合作,保证他们的 AI 模型能适配所有兼容的 Nvidia 芯片。随后,开发者能够使用 NIM,无需经过复杂的配置过程,就可以在自己的服务器或基于云的 Nvidia 服务器上高效运行模型。

“在我的代码中,我会替换掉调用 OpenAI 的那一行代码,改为指向我从 Nvidia 获取的 NIM。”Das 说。

Nvidia 也表示,这款软件将有助于在配有 GPU 的笔记本电脑上运行 AI,而非仅限于云服务器。

GPT先锋,引领未来
Built with Hugo
Theme Stack designed by Jimmy