
  <rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
      <title>Yuga Sun 的博客</title>
      <link>https://yugasun.com/post</link>
      <description>全栈工程师 yugasun 的个人博客</description>
      <language>zh-CN</language>
      <managingEditor>yuga.sun.bj@gmail.com (yugasun)</managingEditor>
      <webMaster>yuga.sun.bj@gmail.com (yugasun)</webMaster>
      <lastBuildDate>Thu, 09 Apr 2026 10:00:00 GMT</lastBuildDate>
      <atom:link href="https://yugasun.com/tags/知识管理/feed.xml" rel="self" type="application/rss+xml"/>
      
  <item>
    <guid>https://yugasun.com/post/llm-wiki-architecture</guid>
    <title>LLM Wiki：超越 RAG 的持久化知识积累范式</title>
    <link>https://yugasun.com/post/llm-wiki-architecture</link>
    <description>大多数人使用 LLM 与文档交互的方式是 RAG：每次查询时从头检索、拼凑答案，没有任何东西被真正&quot;建立起来&quot;。LLM Wiki 提出了一种完全不同的思路：让 LLM 持续维护一个结构化 wiki，把知识积累成可复合的持久工件，并利用 LLM 把维护成本压到接近零。</description>
    <pubDate>Thu, 09 Apr 2026 10:00:00 GMT</pubDate>
    <author>yuga.sun.bj@gmail.com (yugasun)</author>
    <category>LLM</category><category>RAG</category><category>知识管理</category><category>AI Agent</category>
  </item>

    </channel>
  </rss>
