Hugging Face宣布与谷歌云建立新的战略合作伙伴关系,以帮助企业利用开放模型构建自己的AI。Hugging Face的Jeff Boudier表示,谷歌在开放AI领域做出了重要贡献,从最初的Transformer到Gemma模型,此次合作将使在谷歌云上构建AI变得更加容易。谷歌云产品管理高级总监Ryan J. Salva指出,Hugging Face已推动全球公司访问和使用超过200万个开放模型,谷歌云贡献了超过1000个模型,双方将共同使谷歌云成为构建开放模型的最佳平台。
谷歌云客户已在多个领先AI服务中使用Hugging Face的开放模型。在Vertex AI中,最受欢迎的开放模型可通过Model Garden在几次点击内部署。需要更多控制AI基础设施的客户可以在GKE AI/ML中找到类似模型库,或使用Hugging Face维护的预配置环境。客户还可以通过Cloud Run GPUs运行AI推理工作负载,实现无服务器开放模型部署。双方合作旨在构建无缝体验,充分利用每个服务的独特功能,为客户提供选择。
过去三年,谷歌云客户对Hugging Face的使用增长了10倍,目前每月模型下载量达数十PB,请求量达数十亿次。为确保谷歌云客户在使用Hugging Face模型和数据集时有最佳体验,双方正在合作创建一个CDN网关,该网关基于Hugging Face Xet优化存储和数据传输技术,以及谷歌云的高级存储和网络能力。这个CDN网关将直接在谷歌云上缓存Hugging Face模型和数据集,显著减少下载时间,并增强谷歌云客户的模型供应链稳健性。无论使用Vertex、GKE、Cloud Run还是在Compute Engine的虚拟机中构建自己的堆栈,用户都将受益于更快的首次令牌时间和简化的模型治理。
Hugging Face的Inference Endpoints是只需几次点击即可从模型部署的最简单方式。通过这次深化合作,Hugging Face将把谷歌云的独特能力和成本效益带给其客户,从Inference Endpoints开始。预计将有更多新实例可用,价格也会下降。双方将确保产品和工程合作的所有成果易于Hugging Face上的1000万AI构建者使用。从模型页面部署到Vertex Model Garden或GKE只需几个步骤。