AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜
7288点击    2026-02-08 12:01

用Claude Code写代码的人,终于不用每次开新会话都从头解释项目背景了。


顶GitHub开源热榜的一款持久化记忆系统Claude-Mem,直击AI编程助手最致命的痛点:跨会话失忆。


AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜


Claude-Mem本身100%免费,还能帮你省token钱。


它通过”三层渐进式披露”的检索架构,常规使用下能节省90% Token,测试阶段的“无尽模式”更是能把Token消耗砍掉95%,工具调用次数上限直接拉高20倍。


给Claude Code装上”长期记忆”


传统AI编程助手有个绕不开的问题,每次新会话都是一张白纸。


昨天刚聊完的架构设计、上周敲定的编码规范、刚刚那些踩过的坑,AI统统不记得。开发者只能一遍遍重复解释,时间和Token都在这种“复读”中白白流失。


Claude-Mem的解法是在本地环境搭建一套完整的记忆系统。


它采用事件驱动架构,通过五个生命周期钩子(SessionStart、UserPromptSubmit、PostToolUse、Stop、SessionEnd)在后台静默运行。


每当Claude Code执行文件读写、代码编辑、命令执行这类工具调用,系统都会自动把这些操作捕获下来,存成“观察记录”。


AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜


存储方案走的是混合路线:SQLite配合FTS5负责全文检索,Chroma向量数据库则用来做语义搜索。


所有数据都躺在用户本地的目录里,隐私方面不用担心。


会话结束时系统会调用Claude Agent SDK,把整个会话期间那些冗长的原始工具使用记录,压缩成结构化的精炼摘要。


包含调查内容、学习成果、已完成工作、后续步骤这几个关键模块。


下次开新会话时,系统自动查库、检索、注入上下文,无缝衔接上回的工作。


三层检索省下10倍Token


Claude-Mem最大的亮点是一套“渐进式披露”检索工作流。


传统记忆系统做法把所有历史记录一股脑塞进上下文窗口,简单粗暴但极其烧钱。


Claude-Mem反其道而行,把检索拆成三层:


第一层是索引层,用search工具拉一个只包含ID、标题和类型的紧凑列表,每条结果大约只吃50到100个Token;


第二层是时间线层,用timeline工具获取某条感兴趣记录前后的时序上下文;


第三层才是完整细节,用get_observations根据筛选出的具体ID批量获取详情,单条成本在500到1000 Token之间。


AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜


这套分层策略作用下,一个原本需要20000 Token才能完整加载的上下文,经过筛选后可能只需要3000 Token就能拿到所有必要信息,而且相关度是100%。


处于测试阶段的无尽模式(Endless Mode)则更激进,它把工具输出实时压缩成大约500 Token的观察记录,Token节省率直接拉到95%。


由于上下文窗口占用率大幅下降,工具调用次数上限也跟着水涨船高,提升了约20倍,处理那些又长又复杂的任务也不用担心不够用了。


两条命令完成安装


功能之外,Claude-Mem在用户体验上也下了功夫。


它内置了mem-search技能,支持自然语言查询项目历史。想知道“上周修复了哪些bug”直接问就行。


系统还提供了一个本地Web界面,可以实时查看记忆流、会话摘要,也能在稳定版和Beta版之间切换配置。


隐私控制方面,用户可以用标签阻止敏感信息被记录,新版本还引入了双标签系统,控制粒度更细。


安装流程走的是Claude Code插件市场,两条命令加一次重启就能搞定,不需要折腾复杂的环境配置。


AI编程节省95% token,工具调用上限狂飙20倍,开源记忆系统登顶GitHub热榜


GitHub


https://github.com/thedotmack/claude-mem


文章来自于微信公众号 “量子位”,作者: “梦晨”

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0