Anthropic 的开源标准 Model Context Protocol (MCP) 于 2024 年底发布,允许用户以结构化、可靠的格式将 AI 模型及其代理连接到外部工具。它是 Anthropic 热门 AI 代理编程工具 Claude Code 的引擎,使其能够立即访问网络浏览和文件创建等功能。但存在一个问题:Claude Code 通常需要为每个可用工具“阅读”说明书,无论是否立即需要,这占用了可用上下文,否则可用于用户提示或代理响应中的更多信息。直到昨晚,Claude Code 团队发布了一个更新,从根本上改变了这一情况。该功能名为 MCP Tool Search,为 AI 工具引入了“懒加载”,允许代理仅在必要时动态获取工具定义。这是一个转变,使 AI 代理从蛮力架构转向类似现代软件工程的东西。根据早期数据,它有效解决了可能抑制生态系统的“臃肿”问题。要理解 Tool Search 的重要性,必须了解先前系统的摩擦。Model Context Protocol (MCP) 由 Anthropic 于 2024 年发布为开源标准,旨在成为连接 AI 模型到数据源和工具的通用标准,涵盖从 GitHub 仓库到本地文件系统的一切。然而,随着生态系统增长,“启动税”也随之增加。Anthropic 技术团队成员 Thariq Shihipar 在公告中强调了问题的规模。他写道:“我们发现 MCP 服务器可能有多达 50 多个工具。用户记录了设置,其中 7 个以上服务器消耗了 67,000 多个令牌。”实际上,这意味着使用强大工具集的开发人员可能在输入提示的第一个字符之前就牺牲了 33% 或更多的可用上下文窗口限制(200,000 个令牌),正如 AI 通讯作者 Aakash Gupta 在 X 上的帖子中指出的。模型实际上是在“阅读”数百页可能在该会话中从未使用的工具技术文档。社区分析提供了更鲜明的例子。Gupta 进一步指出,单个 Docker MCP 服务器仅定义其 135 个工具就可能消耗 125,000 个令牌。他写道:“旧约束迫使残酷的权衡。要么将 MCP 服务器限制在 2-3 个核心工具,要么接受一半的上下文预算在开始工作前消失。”Anthropic 推出的解决方案——Shihipar 称之为“GitHub 上最受欢迎的功能之一”——在其克制中显得优雅。Claude Code 现在监控上下文使用情况,而不是预加载每个定义。根据发布说明,系统自动检测工具描述何时会消耗超过可用上下文的 10%。当超过该阈值时,系统切换策略。它加载轻量级搜索索引,而不是将原始文档转储到提示中。当用户请求特定操作时,例如创建文件,系统查询索引以找到相关工具,然后仅加载该工具的文档。这类似于现代软件中的延迟加载,其中资源仅在需要时获取。Shihipar 表示,该功能已对所有 Claude Code 用户默认启用。早期测试表明,上下文使用量减少了高达 90%,具体取决于工具集。例如,一个具有 135 个工具的 Docker 服务器现在可能仅消耗 12,500 个令牌用于索引,而不是 125,000 个令牌用于完整文档。这释放了上下文用于实际工作,如代码生成或分析。该更新是 Claude Code 持续改进的一部分,旨在增强 AI 代理的实用性和可扩展性。