Anthropic发布了Claude的三个新功能,让AI能够同时管理成百上千个工具!目前AI工具调用存在一个问题:工具越多,消耗的token就越多。比如接入5个常见服务(GitHub、Slack、Sentry等),光是加载工具定义就要消耗5.5万个token,对话还没开始,上下文就已经塞满了。而且工具一多,AI就容易选错工具或者填错参数,比如遇到名字相似的工具时,比如notification-send-user和notification-send-channel,就容易懵。为了解决这些问题,Anthropic推出了三个新功能:一、Tool Search Tool(工具搜索工具)不再一次性加载所有工具定义,而是让Claude按需查找。传统方式下,接入50多个MCP工具,需要提前加载约7.2万token的工具定义。而使用Tool Search Tool后,初始只加载500个token,只有当Claude真正需要某个工具时,才会搜索并加载相关定义(通常3-5个工具,约3000token)。总消耗从7.7万token降到8700token,节省了85%的上下文空间。在内部测试中,这个功能还显著提升了准确率。Opus 4的准确率从49%提升到74%,Opus 4.5从79.5%提升到88.1%。二、Programmatic Tool Calling(程序化工具调用)让Claude通过代码而不是自然语言来调用工具,减少中间结果对上下文的污染。举个例子,假设要检查"哪些团队成员超出了Q3差旅预算"。传统方式下,Claude需要:- 获取20个团队成员信息- 为每人调用工具获取Q3费用记录(20次工具调用,每次返回50-100条明细)- 获取预算限额- 所有这些数据(2000多条费用记录,约50KB)都进入Claude的上下文- Claude手动求和、比对预算而使用Programmatic Tool Calling后,Claude直接写一段Python脚本,在代码执行环境中完成所有操作。脚本可以并行调用工具、处理数据、筛选结果,最后只把超出预算的2-3个人的信息返回给Claude。2000多条明细记录不会进入Claude的上下文,消耗从200KB降到1KB。实测数据显示,复杂研究任务的token消耗从43588降到27297,减少了37%。同时准确率也有提升,知识检索任务从25.6%提升到28.5%。三、Tool Use Examples(工具使用示例)JSON Schema可以定义工具的结构,但无法表达使用习惯,比如日期格式该用"2024-11-06"还是"Nov 6, 2024"?ID是UUID格式还是"USR-12345"格式。Tool Use Examples让开发者直接在工具定义中提供样例调用,向Claude展示具体的使用模式。从样例中,Claude可以学到日期格式惯例、ID命名规则、哪些可选参数需要一起填写等信息。内部测试显示,这个功能让复杂参数处理的准确率从72%提升到90%。这三个功能可以单独使用,也可以组合使用,比如Anthropic新推出的Excel插件Claude for Excel就用Programmatic Tool Calling处理几千行的电子表格,避免上下文过载。目前这些功能处于beta阶段,需要在API调用时添加beta header才能使用。
