慧与周二在 HPE Discover 上宣布,用于大型语言模型的新型超级计算云服务 GreenLake 将于 2023 年底或 2024 年初在美国推出。 GreenLake for LLM 将允许企业训练、调整和部署每个企业私有的大规模人工智能。
GreenLake for LLM 将在美国发布后向欧洲客户开放,预计发布时间为 2024 年初。
HPE 与人工智能软件初创公司 Aleph Alpha 合作
HPC 和 AI 业务集团及惠普实验室执行副总裁兼总经理 Justin Hotard 在一次虚拟演示中表示:“人工智能正处于拐点,在 HPE,我们看到各种客户开始利用生成式人工智能的需求。” 。
GreenLake for LLM 运行在 AI 原生架构上,涵盖数百或数千个 CPU 或 GPU,具体取决于工作负载。 HPE 表示,一种人工智能原生架构产品的灵活性使其比并行运行多个工作负载的通用云选项更加高效。 GreenLake for LLM 是与德国人工智能初创公司 Aleph Alpha 合作创建的,该公司提供了名为 Luminous 的预训练法学硕士。 Luminous 法学硕士可以使用英语、法语、德语、意大利语和西班牙语进行工作,并可以使用文本和图像进行预测。
此次合作是双向的,Aleph Alpha 首先使用 HPE 基础设施来培训 Luminous。
Aleph Alpha 创始人兼首席执行官 Jonas Andrulis 在一份新闻稿中表示:“通过使用慧与的超级计算机和人工智能软件,我们高效、快速地训练了 Luminous。” “我们很荣幸成为 HPE GreenLake 大型语言模型的启动合作伙伴,我们期待扩大与 HPE 的合作,将 Luminous 扩展到云端,并将其作为服务提供给我们的最终客户,为新的应用程序提供支持。 商业和研究计划。”
最初的发布将包括一组用于再培训或微调的开源和专有模型。 未来,慧与预计将提供专门用于气候建模、医疗保健、金融、制造和运输等相关任务的人工智能。
目前,面向法学硕士的 GreenLake 将成为 HPE 整体人工智能软件堆栈的一部分,其中包括 Luminous 模型、机器学习开发、数据管理和开发程序以及 Cray 编程环境。
HPE 的 Cray XD 超级计算机可实现企业 AI 性能
GreenLake for LLM 在 HPE 的 Cray XD 超级计算机和 NVIDIA H100 GPU 上运行。 超级计算机和 HPE Cray 编程环境允许开发人员在高性能计算和人工智能应用程序上执行数据分析、自然语言任务和其他工作,而无需运行自己的硬件,这可能成本高昂,并且需要超级计算特定的专业知识。
霍塔德在演讲中指出,人工智能的大规模企业生产需要大量的性能资源、技术人员以及安全和信任。
从可再生能源中获取更多电力
通过使用托管设施,HPE 的目标是使用 100% 可再生能源为其超级计算提供动力。 HPE 正在与北美的计算中心专家 QScale 合作,专门为此目的进行设计。
“在我们所有的云部署中,目标是为我们的客户提供 100% 碳中和的产品,”霍塔德说。 “液体冷却的好处之一是您实际上可以回收废水、热水并重复利用。 我们在其他超级计算机安装中也拥有这种技术,并且我们也在云部署中利用了这种专业知识。”
法学硕士 HPE GreenLake 的替代方案
其他用于运行 LLM 的基于云的服务包括 NVIDIA 的 NeMo(目前处于抢先体验阶段)、Amazon Bedrock 和 Oracle 云基础设施。
Hotard 在演讲中指出,HPE GreenLake 将是对 AWS 和谷歌云平台等大型云服务的补充,而不是替代。
“我们可以并且打算与公共云集成。 我们将此视为免费产品; 我们不认为这是竞争对手,”他说。