OVHcloud成为Hugging Face推理服务提供商

2 天前·来源:Hugging Face Blog
Hugging Face推理服务AI模型开源模型云服务

OVHcloud正式成为Hugging Face Hub支持的推理服务提供商。该服务提供对GPT-OSS、Qwen3、DeepSeek R1和Llama等开源模型的访问。OVHcloud AI端点提供完全托管的无服务器推理服务,起价为每百万token 0.04欧元。

OVHcloud现已正式成为Hugging Face Hub支持的推理服务提供商。这一合作扩展了Hugging Face生态系统,用户可以直接在模型页面上使用OVHcloud的无服务器推理服务。推理提供商已集成到Hugging Face的客户端SDK中,支持JavaScript和Python。

通过这一集成,用户可以更便捷地访问GPT-OSS、Qwen3、DeepSeek R1和Llama等开源模型。用户可以在Hugging Face上浏览OVHcloud的组织页面,并尝试支持的热门模型。

OVHcloud AI端点是一项完全托管的无服务器服务,通过简单的API调用提供对前沿AI模型的访问。该服务采用按token付费的定价模式,起价为每百万token 0.04欧元。服务运行于欧洲数据中心的安全基础设施上,确保数据主权和低延迟。

该平台支持结构化输出、函数调用以及文本和图像处理的多模态功能等高级特性。OVHcloud的推理基础设施专为生产环境设计,首个token响应时间低于200毫秒,适用于交互式应用和智能体工作流。服务支持文本生成和嵌入模型。

背景阅读

Hugging Face是一个专注于自然语言处理的开源社区和平台,提供模型托管、数据集分享和推理服务。其Hub平台汇集了数十万个预训练模型,涵盖文本生成、图像处理、语音识别等多个AI领域。推理服务提供商是Hugging Face生态系统的重要组成部分,允许用户通过第三方基础设施运行模型,而无需自行部署。近年来,随着大语言模型的普及,对高效、低成本推理服务的需求日益增长。多家云服务商已加入Hugging Face的推理提供商网络,包括AWS、Google Cloud和Azure等。OVHcloud是欧洲领先的云服务提供商,此次合作旨在为欧洲用户提供本地化的AI模型推理服务,满足数据主权和低延迟需求。开源模型如GPT-OSS、Qwen3和Llama在开发者社区中广泛使用,但部署和推理成本仍是挑战,托管服务有助于降低使用门槛。

评论 (0)

登录后参与评论

加载评论中...