Anthropic官宣PTC突破,中国开发者一年前就实现了

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
Anthropic官宣PTC突破,中国开发者一年前就实现了
7728点击    2025-12-05 14:48

2025年11月24日,Anthropic正式发布了Programmatic Tool Calling (PTC)特性,允许Claude通过代码而非单次API调用来编排工具执行。


这一创新被认为是Agent开发的重要突破,能够显著降低token消耗、减少延迟并提升准确性。


然而,Minion框架的创建者最近分享了一个有趣的事实:Minion从一开始就采用了这种架构理念


Anthropic官宣PTC突破,中国开发者一年前就实现了


代码链接:https://github.com/femto/minion


在PTC概念被正式提出之前,minion已经在生产环境中证明了这种方法的价值。


PTC解决了什么问题?


Anthropic在博文中指出了传统Tool Calling的两个核心问题:


1. Context污染问题


传统方式中,每次工具调用的结果都会返回到LLM的context中。例如分析一个10MB的日志文件时,整个文件内容会进入context window,即使LLM只需要错误频率的摘要。


2. 推理开销与手动综合


每次工具调用都需要一次完整的模型推理。LLM必须「眼球式」地解析数据、提取相关信息、推理片段如何组合,然后决定下一步——这个过程既缓慢又容易出错。


Minion的解决方案


天然的PTC架构


Minion框架从设计之初就采用了一种根本不同的架构:LLM专注于规划和决策,具体执行交给代码环境


Anthropic官宣PTC突破,中国开发者一年前就实现了




这正是PTC想要实现的效果,但minion将其作为基础架构而非可选特性。


实际案例对比


Anthropic博文中的预算合规检查示例。


任务:找出Q3差旅超预算的团队成员


传统Tool Calling方式:


  • 获取团队成员 → 20人
  • 为每人获取Q3费用 → 20次工具调用,每次返回50-100条费用明细
  • 获取各级别预算限额
  • 所有数据进入context:2000+条费用记录(50KB+)
  • LLM手动汇总每人费用、查找预算、比较超支情况


使用PTC后:


  • Claude写一段Python脚本编排整个流程
  • 脚本在Code Execution环境运行
  • LLM只看到最终结果:2-3个超支人员


在Minion中,这种模式是默认行为,llm会生成代码:


# Minion中的实现(伪代码)
async def check_budget_compliance():
    # LLM生成的计划代码
    team = await get_team_members("engineering")
    # 并行获取所有数据
    levels = list(set(m["level"] for m in team))
    budgets = {
        level: await get_budget_by_level(level)
        for level in levels
    }
    # 数据处理在本地完成
    exceeded = []
    for member in team:
        expenses = await get_expenses(member["id"], "Q3")
        total = sum(e["amount"] for e in expenses)
        budget = budgets[member["level"]]
        if total > budget["travel_limit"]:
            exceeded.append({
                "name": member["name"],
                "spent": total,
                "limit": budget["travel_limit"]
            })
    return exceeded  # 只返回关键结果


关键区别在于,Minion是框架的核心设计,所有复杂任务都这样处理;


PTC需要显式启用,存在多重架构限制:


  • 必须显式标记哪些工具允许programmatic调用(allowed_callers配置)
  • 运行在受限的Claude容器环境中,无法自由安装任意包
  • 文件需要通过额外的Files API上传(单文件最大500MB限制)
  • 工具必须在容器4.5分钟不活动超时前返回结果
  • Web工具、MCP工具无法通过programmatic方式调用


Minion的优势


更进一步


Minion不仅实现了PTC的核心理念,还提供了更多优势:


完整的Python生态系统


Minion中的代码执行环境拥有完整的Python生态访问权:


# Minion可以直接使用任何Python库
import pandas as pd
import numpy as np
from sklearn.cluster import KMeans
# 强大的数据处理
df = pd.DataFrame(expense_data)
analysis = df.groupby('category').agg({
    'amount': ['sum', 'mean', 'std'],
    'count': 'size'
})
# 复杂的数据科学任务
model = KMeans(n_clusters=3)
clusters = model.fit_predict(spending_patterns)


状态管理和持久化


Minion天然支持复杂的状态管理:


class BudgetAnalyzer:
    def __init__(self):
        self.cache = {}
        self.history = []
    async def analyze_department(self, dept):
        # 状态在整个分析过程中保持
        if dept in self.cache:
            return self.cache[dept]
        result = await self._deep_analysis(dept)
        self.cache[dept] = result
        self.history.append(result)
        return result


错误处理和重试逻辑


在代码中显式处理各种边界情况:



async def robust_fetch(user_id, max_retries=3):
    for attempt in range(max_retries):
        try:
            return await get_expenses(user_id, "Q3")
        except RateLimitError:
            await asyncio.sleep(2 ** attempt)
        except DataNotFoundError:
            return []  # 合理的默认值
    raise Exception(f"Failed after {max_retries} attempts")


并行和异步操作


充分利用Python的异步能力:


# 高效的并行处理
async def analyze_all_departments():
    departments = ["eng", "sales", "marketing", "ops"]
    # 同时分析所有部门
    results = await asyncio.gather(*[
        analyze_department(dept)
        for dept in departments
    ])
    # 整合分析结果
    return consolidate_results(results)


性能数据对比


根据Anthropic的内部测试,PTC带来了显著改进:


  • Token节省:复杂研究任务从43,588降至27,297 tokens(减少37%)
  • 延迟降低:消除了多次模型推理往返
  • 准确率提升
  • 内部知识检索:25.6% → 28.5%
  • GIA基准测试:46.5% → 51.2%


在minion的生产使用中,能观察到类似甚至更好的指标,因为:


  1. 更少的模型调用:LLM只在规划阶段和最终总结时参与
  2. 更高效的资源利用:本地数据处理不消耗API tokens
  3. 更可预测的性能:代码执行路径明确,减少了LLM的不确定性


架构哲学


谁应该做什么?


Minion的设计基于一个核心信念:


LLM擅长理解、规划和推理;Python擅长执行、处理和转换。


这种职责分离带来了清晰的架构:


用户请求
    ↓
[LLM:理解意图,制定计划]
    ↓
[生成Python代码]
    ↓
[代码执行环境:调用工具、处理数据、控制流程]
    ↓
[返回结构化结果]
    ↓
[LLM:解读结果,生成用户友好的响应]


这不仅仅是优化,而是一种架构级别的重新思考


Tool Search Tool


Minion的动态工具发现


Anthropic的另一个新特性是Tool Search Tool,解决大型工具库的context消耗问题。Minion在这方面也有相应的机制:


分层工具暴露


# Minion的工具分层策略
class MinionToolRegistry:
    def __init__(self):
        self.core_tools = []      # 始终加载
        self.domain_tools = {}    # 按需加载
        self.rare_tools = {}      # 搜索发现
    def get_tools_for_task(self, task_description):
        # 智能工具选择
        tools = self.core_tools.copy()
        # 基于任务描述添加相关工具
        if "database" in task_description:
            tools.extend(self.domain_tools["database"])
        if "visualization" in task_description:
            tools.extend(self.domain_tools["plotting"])
        return tools


向量搜索工具发现


# 使用embedding的工具搜索
from sentence_transformers import SentenceTransformer
class SemanticToolSearch:
    def __init__(self, tool_descriptions):
        self.model = SentenceTransformer('all-MiniLM-L6-v2')
        self.tool_embeddings = self.model.encode(tool_descriptions)
    def find_tools(self, query, top_k=5):
        query_embedding = self.model.encode([query])
        similarities = cosine_similarity(query_embedding, self.tool_embeddings)
        return self.get_top_tools(similarities, top_k)


实际应用


Minion在生产环境


Minion框架已经在多个实际场景中证明了这种架构的价值:


案例1:大规模数据分析


金融科技公司使用minion分析数百万条交易记录,寻找异常模式:


async def detect_anomalies():
    # LLM规划:需要获取数据、清洗、特征工程、异常检测
    # 执行代码直接处理大数据集
    transactions = await fetch_all_transactions(start_date, end_date)
    # 1M+ records, 但不进入LLM context
    df = pd.DataFrame(transactions)
    df = clean_data(df)
    features = engineer_features(df)
    # 使用机器学习检测异常
    anomalies = detect_with_isolation_forest(features)
    # 只返回异常摘要给LLM
    return {
        "total_transactions": len(df),
        "anomalies_found": len(anomalies),
        "top_anomalies": anomalies.head(10).to_dict()
    }


结果


  • 处理100万条记录
  • LLM仅消耗~5K tokens(传统方式需要500K+)
  • 端到端延迟:30秒(vs 传统方式的5分钟+)


案例2:多源数据整合


SaaS公司使用minion整合来自多个API的客户数据:


async def comprehensive_customer_analysis(customer_id):
    # 并行获取所有数据源
    crm_data, support_tickets, usage_logs, billing_history = await asyncio.gather(
        fetch_crm_data(customer_id),
        fetch_support_tickets(customer_id),
        fetch_usage_logs(customer_id),
        fetch_billing_history(customer_id)
    )
    # 本地数据融合和分析
    customer_profile = {
        "health_score": calculate_health_score(...),
        "churn_risk": predict_churn_risk(...),
        "upsell_opportunities": identify_opportunities(...),
        "support_sentiment": analyze_ticket_sentiment(support_tickets)
    }
    return customer_profile


案例3:自动化工作流


DevOps团队使用minion自动化复杂的部署流程:


async def deploy_with_validation():
    # 多步骤工作流,每步都有条件逻辑
    # 1. 运行测试
    test_results = await run_test_suite()
    if test_results.failed > 0:
        return {"status": "blocked", "reason": "tests failed"}
    # 2. 构建和推送镜像
    image = await build_docker_image()
    await push_to_registry(image)
    # 3. 金丝雀部署
    canary = await deploy_canary(image, percentage=10)
    await asyncio.sleep(300)  # 监控5分钟
    metrics = await get_canary_metrics(canary)
    if metrics.error_rate > 0.01:
        await rollback_canary(canary)
        return {"status": "rolled_back", "metrics": metrics}
    # 4. 完整部署
    await deploy_full(image)
    return {"status": "success", "image": image.tag}


超越PTC


Minion的未来方向


虽然PTC是一个重要的进步,但minion的架构设计让我们能够探索更多可能性:


混合推理模式


在一个会话中智能切换:


# 简单任务:直接工具调用
if task.complexity < THRESHOLD:
    result = await simple_tool_call(task)
# 复杂任务:生成编排代码
else:
    orchestration_code = await llm.generate_code(task)
    result = await execute_code(orchestration_code)


增量计算和缓存


智能重用中间结果:


# 记忆化的数据获取
@lru_cache(maxsize=1000)
async def cached_get_user_data(user_id):
    return await fetch_user_data(user_id)
# 增量更新而非全量重算
async def update_analysis(new_data):
    previous_state = load_checkpoint()
    delta = compute_delta(previous_state, new_data)
    updated_state = apply_delta(previous_state, delta)
    return updated_state


多模型协作


不同模型处理不同阶段:


# 规划用强模型
plan = await claude_opus.create_plan(user_request)
# 代码生成用专门模型
code = await codegen_model.generate(plan)
# 执行和监控
result = await execute_with_monitoring(code)
# 用户交互用快速模型
response = await claude_haiku.format_response(result)


开源的力量


社区驱动的创新


Minion作为开源项目(300+ GitHub stars),其发展得益于社区的贡献和反馈。这种开放性带来了:


  1. 快速迭代:社区发现问题和用例,推动快速改进
  2. 多样化应用:用户在我们未曾想象的场景中使用minion


相比之下,PTC虽然强大,但:


  • 需要显式配置(allowed_callersdefer_loading等)
  • 依赖特定的API版本和beta功能
  • 与Claude的生态系统紧密耦合


Minion的设计原则是provider-agnostic——你可以用任何LLM后端(Claude, GPT-4, 开源模型),架构优势依然存在。


技术细节


实现对比


深入比较实现细节。


PTC的实现方式


# Anthropic的PTC需要特定配置
{
    "tools": [
        {
            "type": "code_execution_20250825",
            "name": "code_execution"
        },
        {
            "name": "get_team_members",
            "allowed_callers": ["code_execution_20250825"],
            ...
        }
    ]
}
# Claude生成工具调用
{
    "type": "server_tool_use",
    "id": "srvtoolu_abc",
    "name": "code_execution",
    "input": {
        "code": "team = get_team_members('engineering')\\\\\\\\n..."
    }
}


Minion的实现方式


# Minion的工具定义是标准Python
class MinionTools:
    @tool
    async def get_team_members(self, department: str):
        """Get all members of a department"""
        return await self.db.query(...)
    @tool
    async def get_expenses(self, user_id: str, quarter: str):
        """Get expense records"""
        return await self.expenses_api.fetch(...)
# LLM生成的是完整的Python函数
async def analyze_budget():
    # 直接调用工具函数
    team = await tools.get_team_members("engineering")
    # 完整的Python语言能力
    expenses_by_user = {
        member.id: await tools.get_expenses(member.id, "Q3")
        for member in team
    }
    # 任意复杂度的数据处理
    analysis = perform_complex_analysis(expenses_by_user)
    return analysis


关键区别:


  • PTC:工具调用通过特殊的API机制,有caller/callee关系
  • Minion:工具就是普通的Python async函数,LLM生成标准代码


为什么这个架构如此重要?


随着AI Agent向生产环境发展,业界面临的核心挑战是:


规模处理百万级数据,不能全塞进context


可靠性生产系统需要确定性的错误处理


成本token消耗直接影响商业可行性


性能用户体验需要亚秒级响应


传统的单次工具调用模式在这些维度上都遇到瓶颈。代码编排模式(无论是PTC还是minion)提供了突破:


传统模式:LLM <-> Tool <-> LLM <-> Tool <-> LLM
          (慢)   (贵)   (脆弱)
编排模式:LLM -> [Code: Tool+Tool+Tool+Processing] -> LLM
          (快)   (省)   (可靠)


经过验证的架构:PTC的发布证明了架构选择的正确性——这不是投机性的设计,而是行业领先者独立得出的结论。


先发优势:在PTC成为官方特性之前,minion已经在生产环境积累了经验和最佳实践。


更广泛的适用性:


  • 支持多种LLM后端(Claude, GPT-4, 开源模型);
  • 灵活的部署选项(云端、本地、混合);
  • 丰富的Python生态系统集成。


社区和生态:300+stars代表的不仅是认可,还有潜在的用户基础和贡献者社区。


结论


架构的必然收敛


Anthropic推出PTC不是偶然——这是agent架构演进的必然方向。当你需要构建能处理复杂任务、大规模数据、多步骤流程的生产级agent时,你会自然而然地得出这样的结论:


LLM应该专注于它擅长的(理解和规划),让代码处理它擅长的(执行和转换)。


Minion从一开始就拥抱了这个理念,并将继续推动这个方向:


  • ✅ 今天:完整的PTC式架构,生产环境验证
  • 🚀 明天:更智能的工具发现、更高效的状态管理
  • 🌟 未来:混合推理、增量计算、多模型协作


作者信息


郑炳南,毕业于复旦大学物理系。拥有20多年软件开发经验,具有丰富的传统软件开发以及人工智能开发经验,是开源社区的活跃贡献者,参与贡献metagpt、huggingface项目smolagents、mem0、crystal等项目,为ICLR 2025 oral paper《AFlow: Automating Agentic Workflow Generation》的作者之一。


Anthropic官宣PTC突破,中国开发者一年前就实现了


参考资料:


https://github.com/femto/minion


https://github.com/femto/minion/blob/main/docs/advanced_tool_use.md


文章来自于微信公众号 “新智元”,作者 “新智元”

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

4
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI