人工智能硬件之争一直在分阶段进行。 三年前,Habana Labs、Graphcore 和 Cerebras Systems 等芯片初创公司凭借专为深度学习设计的特殊半导体吸引了人们的关注。
然后,这些供应商开始销售整个系统,而像 SambaNova Systems 这样的新来者就是从这个前提开始的。
现在,行动正在进入一个新阶段,供应商正在与云运营商合作,挑战 Nvidia 作为云 AI 首选供应商的根深蒂固的地位。
Cerebras 周四宣布与云运营商 Cirrascale 建立合作伙伴关系,允许用户租用在 Cirrascale 云数据中心运行的 Cerebras CS-2 AI 机器的容量。
此举可能会扩大 Cerebras 机器的使用范围,该机器的价格远远超出一些研究人员的预算。
Cerebras 首席执行官安德鲁·费尔德曼 (Andrew Feldman) 在本周于 AI 硬件峰会上举行的新闻发布会上说:“我认为,平心而论,对我们的打击之一是它的价格很高,因为这台机器要花费数百万美元。” 硅谷的计算机历史博物馆。
Feldman 指出,Cerebras 已经为 CS-2 的销售提供了各种租赁和融资计划。
“我们允许您短期或长期订阅该机器,”他说。 “这是将其提升到一个新水平的努力。”
两家公司表示,该服务立即可用。 该服务使用专用 CS-2,最少使用一周,每周收费 60,000 美元,或每月 180,000 美元或每年 165 万美元。
根据 Cirrascale 的说法,月费率相当于每小时 246.58 美元,而年费率相当于每小时 188.36 美元。
更多详细信息,请访问 Cirrascale 网站。
CS-2 是 Cerebras 计算机系统的第二个版本,于今年早些时候推出,是一台冰箱大小的机器,具有特殊的冷却系统,运行其世界上最大的芯片 Wafer Scale Engine 的第二个版本。 该机器还可以耦合到一个特殊的路由引擎 SwarmX 和一个特殊的内存存储 MemoryX。
该机器专为机器学习训练而设计,这是人工智能中计算最密集的部分。
该公司云服务首席执行官 PJ Go 在同一次新闻发布会上表示,对于 Cirrascale 而言,其优势在于为培训深度学习形式的 AI 带来“可用的最强大的构建块”。
使用相当于设备机架的单个 CS-2 机器,将大大避免使用来自 Nvidia 的许多 GPU 集群的复杂性。 此类集群通常需要数据中心在机器之间具有特殊的高容量、低延迟链路。
“这是一个比数万个 GPU 更容易编程的单一设备,”Go 说。
“我们的一位客户目前正在使用 GPU,但他们无法获得所需的准确性,”Go 补充道。
“他们对试用 CS-2 感到非常、非常兴奋,因为他们可以非常、非常快地发现他们是否能够获得所需的精度。”
“关于我们行业的一个鲜为人知的事实是,很少有人能够真正构建大型 GPU 集群,这是多么罕见,”费尔德曼说。
他表示,这些技能“可能存在于世界上几十个组织中”。 “为了通过基于云的基础架构提供这种性能 […],这显然是扩大我们影响范围的选择。”
“这是一项让你在世界一流设施的专业云中使用机器工作的努力,有一群训练有素的人,他们正在构建服务和产品,让用户更容易上手并解决问题 ,”费尔德曼说。
Feldman 表示,Cerebras 没有修改任何固件或软件代码以使 CS-2 在 Cirrascale 的数据中心运行。 “Cirrascale 云软件实现了平稳无缝的集成,”Cerebras 在后续电子邮件中告诉 ZDNet。
Cerebras 告诉 ZDNet,目前的合作伙伴关系不包括 SwarmX 路由器和 MemoryX 内存存储计算机。
当被问及合作伙伴关系的财务条款时,例如 Cerebras 是将机器直接出售给 Cirrascale 还是租赁它们或分享收入,Cerebras 拒绝具体说明财务条款。 首席执行官费尔德曼确实在书面交流中向 ZDNet 指出,Cerebras 作为一家公司是“有创造力的”。