5月21日 消息:Ampere 和高通并不是最明显的合作伙伴。毕竟,它们都提供用于运行数据中心服务器的基于 Arm 架构的芯片(尽管高通最大的市场仍然是移动领域)。但正如两家公司宣布的那样,它们现在正在联手推出一款专注于人工智能的服务器,该服务器使用了 Ampere 的 CPU 和高通的 Cloud AI100Ultra AI 推理芯片来运行模型 —— 而不是进行训练。
与其他芯片制造商一样,Ampere 也希望从人工智能热潮中获利。然而,该公司的重点一直是快速和高效的服务器芯片,因此虽然它可以利用 Arm IP 向其芯片添加一些这些功能,但这并不一定是其核心竞争力。这就是为什么 Ampere 决定与高通合作(以及与 SuperMicro 合作整合这两个解决方案),Arm 首席技术官 Jeff Wittich 告诉我。
“这里的想法是,虽然我可以向您展示 Ampere CPU 在仅使用 CPU 运行 AI 推理时的出色性能,但如果您想扩展到更大的模型 —— 比如多达数千亿参数的模型 —— 就像所有其他工作负载一样,AI 并非一刀切”,Wittich 告诉 TechCrunch。“我们一直在与高通就此解决方案进行合作,将我们的超高效 Ampere CPU 与您正在与推理一起运行的许多通用相结合,然后使用他们真的高效的卡,我们已经有了一个服务器级的解决方案。”
至于与高通合作,Wittich 表示,Ampere 希望提供最佳解决方案。
“我们与高通在这里进行了真正良好的合作”,他说。“这是我们一直在努力的事情之一,我认为我们有很多非常相似的兴趣,这就是为什么我认为这真的很具吸引力。他们正在构建市场上许多不同部分的真正高效的解决方案。我们正在构建服务器 CPU 方面真正高效的解决方案。”
高通合作是 Ampere 每年路线图更新的一部分。新路线图的一部分是新的256核 AmpereOne 芯片,采用现代3纳米工艺构建。这些新芯片还没有完全普及,但 Wittich 表示它们已经在工厂准备就绪,今年晚些时候应该会推出。
除了额外的核心,这一代新的 AmpereOne 芯片的显著特点是12通道 DDR5RAM,这使 Ampere 的数据中心客户能够根据自己的需求更好地调整用户的内存访问。
这里的销售策略不仅仅是性能,而是在数据中心中运行这些芯片的功耗和成本。特别是在涉及 AI 推理时,Ampere 喜欢将其性能与 Nvidia 的 A10GPU 进行比较。
值得注意的是,Ampere 并没有在这些新芯片的推出中终止其现有芯片。Wittich 强调,即使是这些较老的芯片仍然有很多用例。
Ampere 今天还宣布了另一项合作伙伴关系。该公司正在与 NETINT 合作,构建一种将 Ampere CPU 与 NETINT 视频处理芯片配对的联合解决方案。这款新服务器能够同时并行转码360个直播视频频道,并同时使用 OpenAI 的 Whisper 语转文字模型为40个流创建字幕。