Nvidia 首席执行官黄仁勋宣布“Hopper”GPU 可用性,大型 AI 语言模型的云服务

2023-05-07 0 283

Nvidia 首席执行官黄仁勋宣布“Hopper”GPU 可用性,大型 AI 语言模型的云服务

Nvidia 首席执行官黄仁勋周二在公司的秋季 GTC 会议上宣布公司的“Hopper”图形处理单元 (GPU) 正在量产,下个月将开始在戴尔、惠普和思科系统等合作伙伴的系统中发货 . Huang 宣布,搭载 GPU 的 Nvidia 系统将于明年第一季度上市。

Hopper芯片,也被称为“H100”,针对数据中心的任务,例如人工智能。 Nvidia 表示,H100 可以“显着”降低部署 AI 程序的成本。 例如,之前的顶级 GPU A100 的 320 个工作量仅需 64 个 H100 芯片即可完成,这将只需要服务器计算机数量的五分之一,并将能源使用减少 3.5 次。

Hopper 于 3 月由 Nvidia 首次亮相。 该公司本月在机器学习任务的 MLPerf 套件中展示了该芯片的一些基准分数。

此外:NVIDIA 推出了 Hopper,这是一种将数据中心转变为 AI 工厂的新硬件架构

除了 Hopper 的可用性,Huang 还讨论了一种新的“即服务”云产品,即 Nvidia NeMo LLM,用于“大型语言模型”,使客户能够轻松部署超大型自然语言处理模型,例如 OpenAI 的 GPT-3 和 Megatron-Turing NLG 530B,英伟达与微软合作开发的语言模型。

此外:Neural Magic 的稀疏性、Nvidia 的 Hopper 和阿里巴巴的网络在最新的 MLPerf AI 基准测试中名列前茅

NeMo 服务从下个月开始以“抢先体验”的方式提供,以预训练的方式提供 GPT-3 和其他模型,并且可以由开发人员使用 Nvidia 称为“即时学习”的方法进行调整,Nvidia 从 谷歌科学家去年推出的技术。

NeMo 的一个版本将专门用于大型语言模型的生物医学用途,例如药物发现,称为 NVIDIA BioNeMo 服务。

在关于该公告的新闻发布会上,ZDNet 询问 Nvidia 的加速计算负责人 Ian Buck,该公司将设立什么护栏来防止滥用在 AI 伦理文献中有详细记录的大型语言模型。

“是的,问得好,这项服务将从下个月开始进入 EA [早期访问],它直接面向企业,我们实际上这样做是为了与不同的企业、不同的公司合作,以开发他们的工作流程,”说 降压。

添加巴克,

显然,他们会与 Nvidia 一起做任何事情,并且每个用户都会申请访问该服务,因此,我们将更多地了解他们正在做的事情,而不是通用的开放产品 方式。 同样,我们正努力专注于为企业带来大型语言模型,这就是我们的客户进入市场。

ZDNet 随后向 Buck 指出,大型语言模型文献中的滥用包括训练数据中嵌入的偏见,不一定是恶意使用。

“你的观点是,如果对企业合作伙伴的访问受限,就不会出现培训材料和输出产品中存在偏见等记录在案的滥用行为吗?”

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 Nvidia 首席执行官黄仁勋宣布“Hopper”GPU 可用性,大型 AI 语言模型的云服务 https://www.7claw.com/56031.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务