编者按:本文来自微信公众号 半导体产业纵横(ID:ICVIEWS),创业邦经授权转载。
随着 OpenAI 和 Meta 等科技巨头大量采购图形处理器(GPU)来驱动人工智能模型,GPU 的获取难度日益增大。在芯片持续短缺的形势下,一批初创公司开始通过出租芯片来增加人们获得这些备受青睐的人工智能芯片的机会。
GPU 租赁市场是 GPU 即服务这一现有小众行业的一部分,芯片所有者借助在线市场,通过云在固定时间段向客户出售计算能力。通常,公司会选择亚马逊网络服务、微软 Azure 和 Google Cloud 等主要云服务提供商,它们占据了全球云计算市场 63% 的份额,在其内部部署的数据中心运行人工智能工作负载。
然而,GPU 即服务提供了一种更为分散的方式。该领域的提供商与全球的数据中心和 GPU 所有者合作,在客户有需求时将芯片集群出租给他们。新泽西理工学院数据科学研究所主任大卫・贝德(David Bader)表示,租用计算机能力能让预算有限的组织,如初创企业和学术机构,为特定项目获得高性能的 GPU。
“GPU as a service 极大地平衡了人工智能和高性能计算领域的竞争环境,” 贝德说,“企业如今可以按需获取 GPU 计算能力,无需在快速贬值和易过时的硬件上进行大量前期投资。”
尽管 GPU 的供应链限制开始有所缓解,但租赁市场仍在增长。Grand View Research 的数据显示,随着对高级数据分析(如运行机器学习算法)需求的增加,预计到 2030 年,2023 年价值 37.9 亿美元的 GPU 即服务市场将以每年 21.5% 的速度增长,达到 122.6 亿美元。
自 2022 年 11 月 ChatGPT 问世以来,一些 GPU 租赁领域的初创公司发现需求急剧上升,因为企业需要计算能力来构建人工智能。
Vast.ai 创始人兼首席执行官杰克・卡内尔(Jake Cannell)表示,在生成式人工智能受到热捧之前,他的公司主要客户是加密货币矿工。如今,在 Vast.ai 的 GPU 租赁服务中,超过一半的项目与人工智能相关。卡内尔称,客户包括人工智能企业家、初创公司和学者,他们使用 OpenAI 的 GPT 等基础模型构建自定义大型语言模型,并将大型语言模型(LLM)应用于人工智能图像生成器 Stable Diffusion 等人工智能相关工作负载。据卡内尔介绍,ChatGPT 的发布,加上主要云提供商的高需求和 GPU 短缺,促使更多客户寻找替代方案,这在一定程度上加速了 Vast.ai 的 GPU 租赁需求。这位执行官说:“现在产量已经跟上,情况可能有所缓解,但需求似乎依旧很高且在不断增长。”
Vast.ai 成立于 2017 年,它将英伟达和 AMD 的 GPU 集群所有者与寻求租用计算能力的组织联系起来。据卡内尔称,截至 10 月底,市场提供 109 个 GPU 集群,包括英伟达备受欢迎的 H100 芯片,这些集群位于数据中心,部分分布在美国、欧洲、亚洲和澳大利亚的数据库中。
Vast.ai 通过提供不同容量、速度和系统要求的 GPU 集群,旨在让租户能够自由选择特定项目所需的 GPU,并根据需求灵活地扩展或缩小规模。例如,开发人工智能聊天机器人的客户最初可能租用 100 个 GPU 来训练模型,后续可以通过租用数千个 GPU 来提升计算能力。该公司称,在产品开发的不同阶段能灵活获取不同数量的计算能力,这使得 GPU 租赁比购买芯片更具吸引力。
“只有当对 GPU 存在更可预测且长期稳定的需求时,购买才是有意义的,” 卡内尔说。
虽然像 Vast.ai 这类在 ChatGPT 发布前就已成立的初创公司发现市场对其服务的兴趣有所增加,但在聊天机器人发布后,也有新的初创公司涌现,以利用日益增长的 GPU 租赁市场。
Foundry 是一家专为人工智能工作负载打造的 GPU 市场,据其首席执行官贾里德・昆西・戴维斯(Jared Quincy Davis)称,自 8 月份推出云平台以来,已经吸引了 “数十家” 客户,并且能够通过利用现有芯片的闲置算力大幅降低计算成本。
这家初创公司今年 3 月从红杉资本和光速创投等投资者那里筹集了 8000 万美元,通过公司自有的计算集群以及从数据中心合作伙伴处获得的 “未充分利用的集群” 来出租 GPU。
Foundry 的客户包括技术、电信、媒体和保健行业的公司,基金会和学术实验室也在使用其服务。常见的应用场景包括对模型(如 Meta 的 Llama)进行微调以呈现所需特性、从零开始构建神经网络以及执行情绪分析(一种用于分析文本情绪倾向的深度学习技术)。Foundry 甚至允许客户租用 GPU 来预测蛋白质序列用于药物研发、训练模型翻译稀有语言,以及构建无需人工干预就能控制网站的人工智能代理。
“许多以前只有 OpenAI 和 DeepMind 这类实验室才能进行的前沿开发,现在其他人也能做到了,因为 Foundry 让 GPU 计算更易获取且成本更低,” 戴维斯表示,他曾在 Google DeepMind 担任工程师。
一些组织已经从 GPU 租用中获益。新泽西理工学院的教授贝德说,他看到自己所在的大学通过 GPU 租赁为研发等 “关键活动” 释放资源。他认为,GPU 租赁模式非常适合有 “临时性” 或 “季节性计算需求” 的项目,并且 “省去了成本高昂的硬件管理和维护负担”。贝德还表示,他看到小企业通过与大学合作,获得了与大企业相同的 GPU 能力。
“我亲眼见证了无数初创公司从中受益,” 贝德说,“他们不再需要投入数百万美元的前期资金来购买专用硬件。相反,他们可以使用租来的 GPU 制作原型、测试和迭代算法,确保资金用于开发而非基础设施。”
不过,贝德指出,租用 GPU 与购买 GPU 相比存在一些利弊。
共享基础设施的性能可能不稳定,一旦出现服务中断,可能会减慢人工智能模型训练等任务的执行速度。尽管前期成本能得到节省,但租用 GPU 的费用可能会很高。贝德表示,在云和公司之间传输数据的成本可能会 “快速攀升”,对于需要实时处理的工作负载,不断遭遇延迟问题的客户最终可能花费比购买 GPU 更多的费用。对于有严格安全和合规要求的公司来说,缺乏对基础设施的控制也可能是个 “问题”。
GPU 租赁市场的未来或许还取决于芯片行业的发展。毕竟,据贝德称,像亚马逊网络服务这样的主要云提供商预计会继续拓展业务范围,可能会吞并一些小公司,这在短期内可能会使价格降低,但从长远来看会限制消费者的选择。此外,供应链延迟可能会让云巨头更难获得 GPU。
尽管存在这些担忧,初创公司仍然坚信,随着人工智能的持续发展,未来几年市场对它们的服务仍有需求。Vast.ai 将继续优化其 GPU 匹配服务,并更多地直接参与大型语言模型推理等应用场景,特别是针对人工智能代理。Foundry 计划发布更多功能,提升平台的可用性,使其对构建先进模型的人工智能开发人员更有帮助。
Vast.ai 首席执行官卡内尔说:“英伟达目前仍是行业领导者,我认为这种情况不会在短期内改变,但竞争愈发激烈了。”
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。