OVHcloud现已正式成为Hugging Face Hub支持的推理服务提供商。这一合作扩展了Hugging Face生态系统,用户可以直接在模型页面上使用OVHcloud的无服务器推理服务。推理提供商已集成到Hugging Face的客户端SDK中,支持JavaScript和Python。
通过这一集成,用户可以更便捷地访问GPT-OSS、Qwen3、DeepSeek R1和Llama等开源模型。用户可以在Hugging Face上浏览OVHcloud的组织页面,并尝试支持的热门模型。
OVHcloud AI端点是一项完全托管的无服务器服务,通过简单的API调用提供对前沿AI模型的访问。该服务采用按token付费的定价模式,起价为每百万token 0.04欧元。服务运行于欧洲数据中心的安全基础设施上,确保数据主权和低延迟。
该平台支持结构化输出、函数调用以及文本和图像处理的多模态功能等高级特性。OVHcloud的推理基础设施专为生产环境设计,首个token响应时间低于200毫秒,适用于交互式应用和智能体工作流。服务支持文本生成和嵌入模型。