Hugging Face与谷歌云深化合作,推动开放AI模型构建

2 天前·来源:Hugging Face Blog
Hugging Face谷歌云开放模型AI合作云计算

Hugging Face宣布与谷歌云建立新的战略合作伙伴关系,旨在帮助企业利用开放模型构建自己的AI。双方将共同优化谷歌云平台上的模型部署和下载体验,包括创建CDN网关以加速模型访问。此次合作还将为Hugging Face用户提供更多谷歌云实例和成本效益。

Hugging Face宣布与谷歌云建立新的战略合作伙伴关系,以帮助企业利用开放模型构建自己的AI。Hugging Face的Jeff Boudier表示,谷歌在开放AI领域做出了重要贡献,从最初的Transformer到Gemma模型,此次合作将使在谷歌云上构建AI变得更加容易。谷歌云产品管理高级总监Ryan J. Salva指出,Hugging Face已推动全球公司访问和使用超过200万个开放模型,谷歌云贡献了超过1000个模型,双方将共同使谷歌云成为构建开放模型的最佳平台。

谷歌云客户已在多个领先AI服务中使用Hugging Face的开放模型。在Vertex AI中,最受欢迎的开放模型可通过Model Garden在几次点击内部署。需要更多控制AI基础设施的客户可以在GKE AI/ML中找到类似模型库,或使用Hugging Face维护的预配置环境。客户还可以通过Cloud Run GPUs运行AI推理工作负载,实现无服务器开放模型部署。双方合作旨在构建无缝体验,充分利用每个服务的独特功能,为客户提供选择。

过去三年,谷歌云客户对Hugging Face的使用增长了10倍,目前每月模型下载量达数十PB,请求量达数十亿次。为确保谷歌云客户在使用Hugging Face模型和数据集时有最佳体验,双方正在合作创建一个CDN网关,该网关基于Hugging Face Xet优化存储和数据传输技术,以及谷歌云的高级存储和网络能力。这个CDN网关将直接在谷歌云上缓存Hugging Face模型和数据集,显著减少下载时间,并增强谷歌云客户的模型供应链稳健性。无论使用Vertex、GKE、Cloud Run还是在Compute Engine的虚拟机中构建自己的堆栈,用户都将受益于更快的首次令牌时间和简化的模型治理。

Hugging Face的Inference Endpoints是只需几次点击即可从模型部署的最简单方式。通过这次深化合作,Hugging Face将把谷歌云的独特能力和成本效益带给其客户,从Inference Endpoints开始。预计将有更多新实例可用,价格也会下降。双方将确保产品和工程合作的所有成果易于Hugging Face上的1000万AI构建者使用。从模型页面部署到Vertex Model Garden或GKE只需几个步骤。

背景阅读

Hugging Face是一个领先的AI社区和平台,专注于开放模型和数据集,提供超过200万个模型供开发者访问和使用,推动AI民主化。谷歌云是谷歌的云计算服务,提供包括Vertex AI、GKE和Cloud Run在内的AI和机器学习工具,支持企业构建和部署AI应用。开放模型在AI领域日益重要,允许企业定制和优化AI解决方案,而无需依赖专有技术。近年来,云服务商与AI平台合作成为趋势,旨在简化模型部署、提高性能并降低成本,加速AI技术的普及和应用。此次合作反映了行业对开放AI生态系统的支持,以及通过云基础设施优化AI工作流程的需求。

评论 (0)

登录后参与评论

加载评论中...