Featherless AI 成为 Hugging Face Hub 推理服务提供商

1 天前·来源:Hugging Face Blog
Hugging FaceFeatherless AIAI推理无服务器计算开源模型

Featherless AI 已加入 Hugging Face Hub 作为推理服务提供商。该提供商支持多种文本和对话模型,包括 DeepSeek、Meta 和 Google 的最新开源模型。用户可通过网站界面或客户端 SDK 轻松使用 Featherless AI 进行无服务器推理。

Featherless AI 现已成为 Hugging Face Hub 支持的推理服务提供商。Featherless AI 加入了这个不断增长的生态系统,直接在 Hub 的模型页面上增强了无服务器推理的广度和能力。推理服务提供商也无缝集成到客户端 SDK(包括 JS 和 Python)中,使用户能够轻松使用各种模型。Featherless AI 支持多种文本和对话模型,包括来自 DeepSeek、Meta、Google 和 Qwen 的最新开源模型。Featherless AI 是一个无服务器 AI 推理提供商,具有独特的模型加载和 GPU 编排能力,为用户提供大量可用模型。提供商通常提供低成本访问有限模型集,或提供无限模型范围但用户需管理服务器和运营成本。Featherless 结合了两者的优势,提供无与伦比的模型范围和多样性,同时采用无服务器定价。在网站用户界面中,用户可以在账户设置中设置已注册提供商的 API 密钥,并按偏好排序提供商。这适用于模型页面中的小部件和代码片段。调用推理服务提供商时有两种模式:自定义密钥(调用直接到推理提供商,使用自己的 API 密钥)和通过 HF 路由(无需提供商令牌,费用直接应用到 HF 账户)。模型页面展示第三方推理提供商(与当前模型兼容的提供商,按用户偏好排序)。从客户端 SDK 中,例如使用 Python 的 huggingface_hub,用户可以通过 Featherless AI 作为推理提供商使用模型,如 DeepSeek-R1。

背景阅读

Hugging Face Hub 是一个流行的平台,用于托管和共享机器学习模型,特别是自然语言处理模型。它提供了模型库、数据集和社区功能,使开发者能够轻松访问和部署 AI 模型。推理服务提供商是 Hugging Face Hub 生态系统的一部分,允许用户通过第三方服务运行模型推理,而无需自行管理基础设施。无服务器推理是一种云计算模式,用户无需预置或管理服务器,按使用量付费,提高了灵活性和成本效益。Featherless AI 作为新兴的 AI 推理提供商,专注于提供广泛的模型支持,包括来自多家公司的开源模型,如 DeepSeek、Meta 和 Google。这反映了 AI 行业向更开放和协作的生态系统发展的趋势,其中模型部署和推理服务变得更加多样化和可访问。

评论 (0)

登录后参与评论

加载评论中...