可进化 Agent 系统:从 Hermes Agent 看经验闭环如何落到架构里
设计可进化的 Agent 系统,关键不是把所有历史塞进上下文,也不是一上来就微调模型,而是给经验安排去处:哪些成为用户画像,哪些进入任务记录,哪些沉淀成技能,哪些需要时间关系图,哪些必须经过审核,哪些稳定到值得进入模型权重。
posts
content volume
62
篇可浏览文章
设计可进化的 Agent 系统,关键不是把所有历史塞进上下文,也不是一上来就微调模型,而是给经验安排去处:哪些成为用户画像,哪些进入任务记录,哪些沉淀成技能,哪些需要时间关系图,哪些必须经过审核,哪些稳定到值得进入模型权重。
当 AI 从聊天工具走向 Copilot 和 Agent,真正卡住交付质量的,往往不是模型本身,而是缺少一套能重复、能维护、也能沉淀经验的执行路径。本文从 Agent Skills 的定义、工作机制、与 MCP 的关系以及落地方式出发,解释为什么 Skill 正在变成 Agent 系统里的能力封装层。
这篇文章从 Karpathy 对 Vibe Coding 的原始定义出发,结合 Addy Osmani 对 AI-Assisted Engineering 的区分、Claude Code 的 agentic coding 形态,以及 Stanford AI Index 2026 的数据,讨论 AI 编程为什么把工程重点从亲手实现推向定义约束、验证结果和承担后果。
AI 确实提升了知识工作的产出速度,但它并没有自动换来更多自由时间。真正被改写的不是效率本身,而是组织如何重新定义工作量、竞争基准与个人价值。
大多数人使用 LLM 与文档交互的方式是 RAG:每次查询时从头检索、拼凑答案,没有任何东西被真正"建立起来"。LLM Wiki 提出了一种完全不同的思路:让 LLM 持续维护一个结构化 wiki,把知识积累成可复合的持久工件,并利用 LLM 把维护成本压到接近零。