AI知识库悖论:越好用就越难用

未来的哇咔咔、崔妮蒂4 分钟阅读

封面图

写作背景:2026 年 4 月,Andrej Karpathy 发布了 LLM Wiki 方案,用 AI Agent 自动把零散资料"编译"成结构化的 Markdown 知识库,社区中很多人都跟随搭建了自己的"第二大脑"。我也在这类工具上折腾了一通,最后还是回归了最老土的方式:手动分类、收藏、二次处理。

Karpathy 的方案

Andrej Karpathy 的核心思路:别折腾向量数据库和 RAG 管道了,让 AI Agent 像人类一样通过"写笔记"来获得记忆。

具体做法是三层架构:原始资料层(不可变的素材)、Wiki 层(AI 写,人读)、以及一层 schema 约束。整个知识库就是一个 git 仓库里的 Markdown 文件,版本历史、协作、检索都有了。

这个方案踩中了三个技术爆发点:长上下文的普及(AI 能一次读完整个 Wiki)、RAG 幻觉的幻灭(向量搜索经常货不对板)、以及 Claude Code 等 Agent 的成熟(维护 Wiki 终于不用靠人力了)。

社区反应可以预料——所有人都想用 Agent 构建自己的全能分身。个人 CRM、第二大脑、代码库活文档,三大方向同时爆发。一句话总结当时的狂热:Karpathy 给了大家一种"低成本、高回报"的方案,回归 Markdown,让 Agent 像人类一样通过写笔记来获得真正的记忆。

我也入了坑。但做着做着,感觉越来越不对。

目的模糊症

收藏?整理?检索?消化?还是让知识成为自己的一部分、变成自己的常识?这五件事完全不同,但我在把它们混为一谈。

收藏是最容易的。看到一篇好文章,丢进收藏夹,觉得"我以后会看的"。整理也不难,分门别类,贴上标签,建好目录。检索是技术活,搞个向量数据库,做个相似度搜索。但消化?那是脑子的事,不是硬盘的事。

大脑本身包含了"存储"和"内存"的逻辑。存储是硬盘,内存是处理器——知识库解决的是存储问题,但真正的学习发生在"内存"里:思考、质疑、连接、应用、犯错、修正。这个过程没有任何工具能替我完成。

知识库难做的根源在这里。人和工具的边界,在AI时代,格外的模糊。

工具越好用,我越脆弱

知识库工具越好用,我越不需要自己消化信息。Agent 自动帮我整理了,AI 自动帮我总结了,我只需要"读"——甚至连读都不用,直接问 Agent 就行。

这有什么问题?这剥夺了我消化的压力,让我失去了学习的动力。

用机器代替所有体力劳动,肌肉会萎缩。用工具代替所有脑力劳动,思维能力也会萎缩。工具替我做了越多,我自己就越不需要做,我自己越不需要做,我就越依赖工具。循环下去,工具越来越好,我自己越来越弱。

有人会说:工具解放了时间,可以去做更重要的事。

但我观察到的现实是:我省下来的时间只是去消费更多内容——收藏更多文章,整理更多资料,然后继续让工具"消化"。这不算自我进化,这算自我外包。

还有一个更深层的问题。我好像在执着于用知识库"复制自己"——把所有的想法、偏好、决策记录下来,让 AI 变成一个数字分身。本质上是在回避"我是有限生命体"这个事实。但我是生物,我的意义感来自于体验、感受、犯错、成长——这些发生在原子的世界里,不是在比特和向量空间里。

一个完美的数字分身不等于我活着,它只是我的一张高精度照片。

8分自己,2分工具

自我进化是阅读、思考、写作、实践、跟人讨论、犯错、修正。这些事很慢,很笨,很不"高效"。但它们是真正的学习——知识经过我自己的脑子,变成我自己的常识。

工具进化是优化知识库的结构、升级 Agent 的 prompt、调整检索策略。这些事有价值,但优化的是容器,不是内容。

8:2 是一个方向性的判断:主要精力放在自我进化上,工具只是辅助。当在工具上花的时间超过了内容本身,就需要停下来想一想了。

技术层面也需要区分对待。大部头的书籍,信息密度高、结构完整,还是适合用 RAG 做精确检索。碎片化的文章、句子、灵感,适合用 Karpathy 的 Wiki 方法——让 Agent 帮忙整理成结构化的笔记。但两种方案都只是"存储"层面的优化,解决不了"消化"的问题。

消化,只能靠自己,但这是个好事儿啊。

结语

Karpathy 的 LLM Wiki 是一个优秀的方案,但工具越好用,越要警惕自己是否在用工具替代思考。

知识库不是第二大脑,大脑也不需要第二个辅助外挂,它需要的是自我强化。

80% 的精力用来思考、实践、犯错、成长。20% 的精力用来优化工具,别搞反了。