“对于许多人工智能应用程序来说,GPU 的计算能力过剩,消耗的电力和资金远远超过所需”:AmpereComputing 计划如何驾驭人工智能浪潮

AmpereComputing是一家初创公司,通过挑战AMDNvidia英特尔等科技巨头的主导地位,在科技行业掀起了波澜。随着人工智能的兴起,对计算能力的需求猛增,能源成本和电网需求也随之猛增。Ampere 旨在通过低功耗、高性能解决方案来解决这个问题。

尽管处于劣势,Ampere 的产品已被全球几乎所有主要超大规模企业采用。它的 CPU 多次突破了扩展壁垒,并且该公司计划继续以传统架构无法实现的方式进行扩展。我们采访了 Ampere 首席产品官 Jeff Wittich,了解了他公司的成功和未来计划。

有时我觉得像安培计算这样的挑战者初创公司陷入进退两难的境地。一方面,有 AMD、Nvidia 和英特尔等价值数十亿美元的公司,另一方面,微软、谷歌和亚马逊等超大规模企业也有自己的产品。成为恐龙土地上的小哺乳动物感觉如何?

对于 Ampere 来说,这确实是一个激动人心的时刻。我们可能只有六岁,但正如我们在创办公司时所预测的那样,对新的云计算解决方案的需求从未如此强烈。这个行业不需要更多的恐龙——它需要一些新的东西。 

云的需求已经改变。当今互联世界所需的计算能力远远超出任何人的想象,并且只会随着人工智能的兴起而增长。与此同时,能源成本飙升,全球电网供不应求,新数据中心的建设因多种原因而停止。这些因素的结合为 Ampere 创造了绝佳的机会,可以提供大型传统厂商尚未提供的急需的低功耗、高性能解决方案。 

由于我们有能力提供这一服务,我们发展迅速,并已被世界各地几乎所有大型超大规模企业采用。我们还看到企业中的采用率有所增加,因为公司希望充分利用现有的数据中心足迹。我们看到对 Ampere 产品的需求不断增加,这让我们相信业界看到了我们的价值。 

多年来,Ampere 一直是服务器 CPU 市场高核心数领域的领导者。然而其他公司——AMD 和英特尔——已经迎头赶上。考虑到永恒的物理定律,您预计什么时候会遇到物理核心的碰壁?您打算如何突破它?

正如您提到的,过去几年来,Ampere 一直是高核心数、密集和高效计算领域的领导者。早些时候,我们确定了云增长将出现的关键挑战,并且今天我们正在使用我们的 Ampere CPU 解决这些具体挑战。我们的 Ampere CPU 非常适合各种类型和各种工作负载的云用例。

我们现在已经多次突破扩展壁垒,首先达到 128 个核心,现在达到 192 个核心。像这样的创新需要一种打破传统限制的新方法。Ampere 的新 CPU 设计方法(从微架构到功能集)将使我们能够以传统架构无法做到的方式继续扩展。 

另一个迫在眉睫的威胁是 RISC-V 的崛起,中国对微架构的重视。您对此有何个人看法?Ampere 有一天会加入 RISC 团队吗?

Ampere 的核心战略是开发可持续的处理器,为当今和未来的计算提供动力。我们将使用最好的可用技术来构建我们的 CPU,以提供领先的性能、效率和可扩展性,只要我们的客户可以轻松使用这些技术来运行所需的操作系统、基础设施软件和用户应用程序。 

关于《安培一号》的后续行动,您能告诉我们什么吗?它会遵循与Altra > One相同的轨迹吗?更多核心?相同频率,每个核心有更多二级缓存?它会被称为 Ampere 2 并且仍然是单线程吗?

在接下来的几年里,我们将继续专注于发布更高效、提供更多核心数量、以及更多内存带宽和 IO 功能的 CPU。这将为我们提供越来越多的吞吐量来处理日益重要的工作负载(例如人工智能推理),同时独特地满足云提供商和用户的可持续发展目标。 

我们的产品还将继续专注于为云用户提供可预测的性能,消除嘈杂的邻居问题,并允许提供商以高利用率运行 Ampere CPU。我们将推出更多功能,为云提供商提供更大程度的灵活性,以满足不同的客户应用程序需求。这些对于现在和未来的云原生工作负载性能至关重要。 

鉴于安培计算的重点方法,您能否向我们简要描述一下您的普通客户以及他们通常处理什么类型的工作负载?

由于我们的 CPU 是通用的,因此它们可服务于广泛的应用。我们从头开始将 CPU 构建为云原生处理器,因此它们在几乎所有云工作负载中都表现良好 – AI 推理、Web 服务、数据库和视频处理只是其中的几个例子。在许多情况下,我们可以用传统 x86 处理器一半的功率为这些工作负载提供 2 倍的性能。 

在客户方面,我们正在与美国、欧洲和中国几乎所有大型超大规模企业合作。例如,在美国,您可以在 Oracle Cloud、Google Cloud、Microsoft Azure 等平台上找到 Ampere 实例。Ampere CPU 也可在欧洲各地的各种云提供商处购买。 

除了大型云提供商之外,我们还看到我们向 HPE 和 Supermicro 等 OEM 提供的产品在企业中具有很大的吸引力。这主要是由于这些公司通过部署 Ampere 服务器可以提高效率和机架密度。企业希望节省电力,并且不想额外建设非核心业务的数据中心。 

随着人工智能的兴起,曾经“简单”的设备变得越来越智能,导致超本地区域对云计算的需求更大。这些边缘部署具有严格的空间和功耗要求,并且由于 Ampere 能够在低功耗范围内提供如此多的内核,因此我们也看到了对这些工作负载的大量需求。 

人工智能已成为今年半导体行业及其他行业的主要话题。您认为这种情况到 2024 年会发生变化吗?您如何看待这个市场?

我们坚信人工智能将继续成为讨论的主要话题。但我们确实认为谈话将会发生转变——而且这种转变已经开始了。 

到 2024 年,许多致力于人工智能解决方案的公司将从神经网络的初始训练转向部署神经网络,也称为人工智能推理。由于 AI 推理可能需要比训练多 10 倍的总计算能力,因此大规模部署 AI 的能力将变得越来越重要。实现这一所需的规模将受到性能、成本和可用性的限制,因此组织在进入下一阶段时将寻找 GPU 的替代品。CPU,特别是像 Ampere 提供的低功耗、高性能 CPU,将成为越来越有吸引力的选择,因为它们能够更高效、更具成本效益地执行人工智能推理模型。GPU 对于人工智能的某些方面仍然很重要,但我们预计炒作将会开始平息。 

其次,在人工智能的背景下,可持续性和能源效率明年将变得更加重要。如今,数据中心常常难以满足其能源需求。到 2024 年,人工智能使用量的增加将导致对计算能力的需求更大,而对于某些人工智能工作负载,可能需要高达 20 倍的计算能力。正因为如此,可持续性和效率将成为扩张的挑战。数据中心运营商将在新的一年中高度重视效率,以避免损害增长。

Ampere 如何利用其产品抓住这一新的人工智能市场机遇?

对于许多人工智能应用程序来说,GPU 的计算能力过剩,消耗的电力和资金远远超过所需。对于大多数推理来说尤其如此,尤其是在将 AI 工作负载与数据库或 Web 服务等其他工作负载结合运行时。在这些情况下,用 CPU 替换 GPU 可以节省功耗、空间和成本。 

我们已经看到这种情况在现实世界的工作负载中得到实现,并且使用 Ampere 处理器的好处是巨大的。例如,如果您在我们的 128 核 Altra CPU 上运行流行的生成式 AI 模型 Whisper,而在 Nvidia 的 A10 GPU 卡上运行,则每次推理消耗的功率会减少 3.6 倍。与 Nvidia Tesla T4 卡相比,我们的消耗量减少了 5.6 倍。 

正因为如此,我们看到人工智能推理对 Ampere 处理器的需求大幅增加,我们预计这将成为我们产品的巨大市场。就在几周前,欧洲领先的云提供商之一 Scaleway 宣布即将全面推出由 Ampere 提供支持的新型 AI 推理实例。此外,在过去六个月中,我们的人工智能软件库的使用量增加了七倍。所有这些都表明我们的产品作为人工智能推理的高性能、低功耗替代品越来越多地被采用。

来源

https://www.techradar.com/pro/for-many-ai-applications-gpus-are-compute-overkill-consuming-much-more-power-and-money-than-needed-how-ampere-computing-plans-to-ride-the-ai-wave


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *