Featherless AI 现已成为 Hugging Face Hub 支持的推理服务提供商。Featherless AI 加入了这个不断增长的生态系统,直接在 Hub 的模型页面上增强了无服务器推理的广度和能力。推理服务提供商也无缝集成到客户端 SDK(包括 JS 和 Python)中,使用户能够轻松使用各种模型。Featherless AI 支持多种文本和对话模型,包括来自 DeepSeek、Meta、Google 和 Qwen 的最新开源模型。Featherless AI 是一个无服务器 AI 推理提供商,具有独特的模型加载和 GPU 编排能力,为用户提供大量可用模型。提供商通常提供低成本访问有限模型集,或提供无限模型范围但用户需管理服务器和运营成本。Featherless 结合了两者的优势,提供无与伦比的模型范围和多样性,同时采用无服务器定价。在网站用户界面中,用户可以在账户设置中设置已注册提供商的 API 密钥,并按偏好排序提供商。这适用于模型页面中的小部件和代码片段。调用推理服务提供商时有两种模式:自定义密钥(调用直接到推理提供商,使用自己的 API 密钥)和通过 HF 路由(无需提供商令牌,费用直接应用到 HF 账户)。模型页面展示第三方推理提供商(与当前模型兼容的提供商,按用户偏好排序)。从客户端 SDK 中,例如使用 Python 的 huggingface_hub,用户可以通过 Featherless AI 作为推理提供商使用模型,如 DeepSeek-R1。