Anthropic 打击第三方工具滥用 Claude 模型行为

2026/1/13·来源:VentureBeat
AnthropicClaudeAI模型第三方工具编码代理

Anthropic 已实施新的技术防护措施,阻止第三方应用伪装成官方 Claude Code 客户端以获取更优惠的定价和限制。这一举措影响了开源编码代理 OpenCode 等工具的用户工作流。同时,Anthropic 也限制了竞争对手如 xAI 通过集成开发环境 Cursor 使用其 AI 模型来训练竞争系统。

Anthropic 已确认实施严格的新技术防护措施,以防止第三方应用伪装其官方编码客户端 Claude Code,从而访问底层 Claude AI 模型以获取更优惠的定价和限制。这一举措已干扰了流行开源编码代理 OpenCode 用户的工作流。同时,Anthropic 还限制了竞争对手实验室(包括 xAI 通过集成开发环境 Cursor)使用其 AI 模型来训练与 Claude Code 竞争的系统。

Anthropic 的 Claude Code 技术团队成员 Thariq Shihipar 在周五澄清了前一项行动。他在社交网络 X(前身为 Twitter)上表示,公司已“加强了对伪装 Claude Code 工具的防护措施”。他承认该部署产生了意外的附带损害,指出一些用户账户因触发滥用过滤器而被自动封禁,公司目前正在撤销这一错误。然而,对第三方集成的阻止本身似乎是故意的。这一举措针对的是工具——通过 OAuth 驱动用户基于网络的 Claude 账户以实现自动化工作流的软件包装器。这有效地切断了固定费率消费者 Claude Pro/Max 计划与外部编码环境之间的联系。

工具充当订阅(设计用于人类聊天)和自动化工作流之间的桥梁。像 OpenCode 这样的工具通过伪装客户端身份工作,发送头部信息使 Anthropic 服务器相信请求来自其自己的官方命令行界面工具。Shihipar 引用技术不稳定性作为阻止的主要原因,指出未经授权的工具引入了 Anthropic 无法正确诊断的错误和使用模式。当像 Cursor(在某些配置下)或 OpenCode 这样的第三方包装器遇到错误时,用户通常归咎于模型,从而降低对平台的信任。

然而,开发者社区指出了限制 Cursor 和类似工具背后更简单的经济现实:成本。在昨天开始的 Hacker News 广泛讨论中,用户围绕自助餐类比达成共识:Anthropic 通过其消费者订阅(Max 每月 200 美元)提供无限量自助餐,但通过其官方工具 Claude Code 限制消费速度。第三方工具移除了这些速度限制。在 OpenCode 内运行的自主代理可以执行高强度循环——如编码、测试和修复错误,这在计量计划上将是成本高昂的。Hacker News 用户 dfabulich 指出:“在一个月的 Claude Code 使用中,很容易使用如此多的 LLM 令牌,如果通过 API 支付,成本将超过 1,000 美元。”通过阻止这些工具,Anthropic 正在迫使高容量自动化转向两条授权路径:商业 API(计量、按令牌定价,捕获代理循环的真实成本)和 Claude Code(Anthropic 的托管环境,公司控制速率限制和执行沙箱)。

用户的反应迅速且大多负面。流行 Ruby on Rails 开源 Web 开发框架的创建者、丹麦程序员 David Heinemeier Hansson 在 X 上发帖写道:“这似乎非常敌视客户。”然而,其他人对 Anthropic 表示更多同情。

背景阅读

Anthropic 是一家专注于 AI 安全的公司,开发了 Claude 系列 AI 模型,与 OpenAI 的 GPT 系列竞争。Claude Code 是 Anthropic 的官方编码工具,基于 Claude 模型,旨在辅助编程任务。在 AI 领域,第三方工具和集成是常见现象,开发者常利用 API 或伪装客户端来扩展功能或降低成本。然而,这可能导致技术不稳定、滥用和经济损失,促使公司实施防护措施。类似地,其他 AI 公司如 OpenAI 也曾限制第三方工具滥用其模型,以保护平台完整性和商业模式。背景还包括 AI 模型定价策略的演变,从固定订阅到计量 API,反映了行业在平衡用户需求与可持续性方面的挑战。

评论 (0)

登录后参与评论

加载评论中...