什么是 Agent Memory?探索 AI 如何理解并记住你的话
记忆并非理所当然,理解 AI 时代的记忆记忆是我们日常生活中不可或缺的一部分。从小到大,我们积累的经验和知识形成了对世界的认知框架。人类的记忆帮助我们在面对未知时作出反应,记住重要的事情,避免重复犯错。但是,如果我们只将 记忆 理解为人类自然存在的生理过程,那么在面对人工智能(AI)时代的 Agent Memory 时,可能会产生误解。 在 AI 的世界里,记忆并不像人类那样自然而然地存在。这也是为什么我们需要从一个全新的角度,去理解和探索 Agent Memory —— 它不仅仅是记住过去的互动,而是让机器能够像人类一样,通过记忆优化每次决策的能力。 通过这篇文章,我将带你走进 Agent Memory 的世界,解答这个关键问题: Agent Memory 是什么?为什么它对智能代理至关重要? 什么是 Agent Memory?Agent Memory 是人工智能代理(AI Agent)中的“记忆系统”,它是人类设计的存储、更新/遗忘和检索机制。它使得 AI...
Agent 记忆检索策略:怎样学会想起?
TL;DRLLM Agent 的记忆系统关键不在“能记多少”,而在“能否精准想起”。本文总结了 三类触发机制 与 六种检索策略,构成了一个从“何时想起”到“如何检索”的完整框架: 🧠 触发机制(When to Recall) 规则触发 —— 窗口容量不足时检索历史 反思触发 —— 模型自觉遗忘时主动检索 事件触发 —— 特定情境或失败日志触发回忆 🔍 检索策略(How to Retrieve) 语义相似检索 混合检索 图式检索 元数据过滤 重排 反思式检索 这些策略共同构成了 RAG(Retrieval-Augmented Generation) 的多种实现形态,从简单的语义召回到带有反思与路由能力的自适应检索。记忆不是仓库,而是过滤器——检索策略定义了 Agent 的注意力边界,也塑造了它的“思考深度”。 前言LLM Agent 记忆系统的挑战不在“能存多少”,而在“能否精准想起”。AutoGPT 曾经尝试将所有任务摘要向量化存入 Pinecone,但检索常常召回“语义相似但任务无关”的记录。Voyager 在 Minecraft...
把 MCP 放回它该在的位置
前阵子有朋友问我: “Agent 和 MCP 到底有什么区别啊?” 我当时愣了一下。 这问题乍听很简单,甚至让人觉得是不是在“混淆概念”。 但转念一想,没错啊。对于刚入行的人来说,各种 buzzword 像弹幕一样飞来,Agent、MCP、RAG、LangChain……乍一看都差不多,背后却完全不是一回事。 我决定写下这篇文章。 不是为了定义概念,而是想把它们放回该在的位置。这样以后遇到选择,就不会懵逼。 Agent 是人,MCP 是语言如果把 Agent 比作一个人: 眼睛耳朵是 感知(输入) 大脑是 认知与推理(记忆、判断) 决定去做什么是 决策 动手去做是 执行 事后总结经验是 反馈 而 MCP 呢? 它不是另一个“大脑”,而是这人和外部世界说话时,用的通用语言。 Agent 想用锤子、笔记本、数据库……如果没有通用语言,就只能每次“手舞足蹈”解释一遍。但有了 MCP,像插 USB 一样——对接标准统一了,沟通就不再痛苦。 三种方式接工具作为开发者,我自己踩过的坑大概分三种: 直连...
2025/09 Review
鸟站在枝头宁静安详,不是因为它知道树枝不会断,而是因为它知道自己有翅膀。
Agent 记忆写入策略:如何决定“记什么”?
在上一篇文章里,我聊过 Agent 记忆的五层模型。那篇文章更多是框架视角:我们需要区分短期记忆、长期记忆、情景记忆、语义记忆、技能记忆等等。但是,当真正开始在工程里落地的时候,很多人会遇到一个更具体的问题: Agent 每天都在接收大量输入,但不可能把所有内容都存下来。那,究竟应该“记什么”? 这个问题听起来简单,背后却很关键。因为一旦写入策略没设计好,要么记忆库很快“垃圾堆积”,要么遗漏了用户真正关心的事实。今天就来聊聊 记忆写入策略。 TL;DR多轮对话 Agent 不可能“什么都记”,关键是设计写入策略。本文总结了三种常用方法,并给出 LangGraph + 向量库的代码示例: LLM 打分(重要性):让大模型自己评估一条信息对未来是否重要,重要才写入。 相似度检测(新颖性):用 embedding 检查新信息是否与已有记忆相似,避免重复存储。 计数与蒸馏(高频性):对重复出现的信息进行计数,达到阈值后用 LLM 总结为一条稳定事实。 这三种策略往往要混合使用,才能既不遗漏关键信息,也避免记忆库膨胀。 策略一:LLM...
Agent 记忆五层模型与工程落地
对话式大模型 Agent 的「记忆」问题,本质就是:如何让机器像人一样,不只是即时回答,而是能记住过去、理解现在、影响未来。过去两年,学术界和工业界已经逐渐形成一个共识:记忆需要分层,不同层次解决不同问题。下面我用一个五层模型,带你快速建立完整认知。 TL;DRAgent Memory 的五层模型,就像人类大脑的结构化记忆系统。 工作记忆负责即时 情景记忆负责事件 语义记忆负责知识 程序性记忆负责技能 外部持久记忆负责归档 业界工程实践已经逐步达成共识:分层 + 策略化 + 可控。这是未来对话式 Agent 真正“有记忆力”的基础。 1. 工作记忆(Working Memory) 定义:Agent 当前正在处理的上下文,类似人类的「短时记忆」。 特点:存活时间短、容量有限,常常就是一段对话上下文窗口。 类比:你在和朋友聊天时,能记住刚才说的两三句话。 实现方式: LLM prompt 窗口(context window) Scratchpad 技巧(中间步骤写出来) 代表案例:LangChain 的 ConversationBuffer、ChatGPT...
🌅 22 个顶级 Agent 工作流框架整理
最近在做一个新的独立开发产品,核心功能里涉及到 多智能体协作。在调研阶段,我发现相关框架和工具特别多:有的强调团队角色分工,有的走可视化无代码路线,还有的专注研究“涌现行为”。于是我干脆整理了一份 Agent 框架全景图,按时间和特点做了分类。如果要做 B2B/B2C 的 Agent 产品,可以判断该走 可视化无代码(Flowise、n8n)、多角色分工(Meta-GPT、ChatDev)、还是 通用框架(AutoGen、Agno、CrewAI)路线。结合框架生态热度(Star 数、厂商背景)做市场判断,避免选型踩坑。 AgentUniverse(2023,开源 1.6k⭐):支持多智能体协作,具备完整的规划、工具使用和内存管理能力,部署以本地为主,角色定义包括 PEER、DOE 等。Agentverse(2023,开源 4.7k⭐):聚焦多智能体协同与涌现行为,角色涵盖专家、决策者等,采用基于阶段的控制流架构,支持跨平台部署。Agno(2024,开源 32.5k⭐):轻量级多模态智能体框架,支持 “团队模式” 的多智能体协作,采用混合流(数据 +...
从 Claude Code 学的 6 个设计铁律(含 prompts/tool 清单)
TL;DRClaude Code 之所以“顺滑”,核心不是模型,而是架构和设计哲学。 6 条可以直接迁移到你自己 Agent 的铁律: 保持单一主循环 —— 一条主 loop,最多一条分支,调试优先。 小模型,大闭环 —— 80% 的读/扫/总结都交给小模型,关键时刻才用大模型。 上下文文件(claude.md) —— 用一个 context 文件固化团队约定与偏好。 LLM Search 胜于 RAG —— 用 ripgrep/jq/find + LLM,而不是复杂的向量检索。 分层工具设计 —— 高频动作单独做工具,低频留给 Bash,高层工具保证 determinism。 显式 To-Do 清单 —— 让模型自己维护待办,防止长会话跑偏。 一、保持单一主循环我看到很多人做 Agent 时,喜欢搞多智能体、复杂 orchestrator。结果是:看 demo 很炫,真要调试时一团糟。Claude Code 完全反其道而行之:一条主循环,最多一条分支。 它的策略是:如果遇到复杂任务,就 spawn...
2025/08 Review
早早交付,经常交付
构建 Agent 中的方法论陷阱
看似聪明的 Agent 方法论,可能是陷阱。少即是多。