yugasun

llm

  • Published on
    大多数人使用 LLM 与文档交互的方式是 RAG:每次查询时从头检索、拼凑答案,没有任何东西被真正"建立起来"。LLM Wiki 提出了一种完全不同的思路:让 LLM 持续维护一个结构化 wiki,把知识积累成可复合的持久工件,并利用 LLM 把维护成本压到接近零。
  • Published on
    MCP 被反复类比为 AI 世界的 USB-C,但真正值得关注的不是这个比喻本身,而是它试图解决一个更现实的问题:当 AI Agent、AI IDE 和企业系统开始同时接入越来越多工具、数据源和上下文时,如何把这些连接关系从一次性集成变成可组合、可迁移、可治理的协议层。