▎ 从 “稍后读” 到 “终身维基” :专为重度阅读者打造的个人知识内化方案
🔗 永久链接 | 更新日志 | 知乎专栏 | Newsletter
🖥 下载地址
Onedrive@世纪互联 | 夸克网盘 | 百度网盘 | Box.net | 更多版本
🔎 什么是 Andrej Karpathy LLM Wiki 方案
一种将个人知识重构成 AI 高效索引与理解的 “结构化 Markdown 外部记忆” 方案 👉 项目地址
📝 为什么简悦要支持此方案
它比 RAG 方案 更简洁,比 AI 浏览器方案 更强大,这套框架的 👉 具体使用方案
💡 1.5.1 版功能
同步助手(主窗体) → 导出 → Karpathy LLM Wiki(LLM RAG)方案,三个设置项:
📕 导出位置(配合 Karpathy LLM Wiki 理念的话,一般是在 raw/ 目录,如不设置此目录会自动导出到本地快照的目录
output/ )📗 最大行数(LLM 在读取文本文件时,因为上下文的限制,所以需要设置一个最大行数,这样方便 LLM)
📘 导出时可选
全文 或 标注▎ 本次推送是针对 同步助手 1.5.1 版的功能,关于【Andrej Karpathy LLM Wiki 方案】我会再推送一篇
🖥 推荐使用环境
Trae + MiniMax-M2.7(其实更推荐 Codex )
📚 简悦 Andrej Karpathy LLM Wiki 使用方法
为方便快速上手,内置了一些 Demo 数据(来自通过简悦生成的 276 篇文章,分为 47 个文件)
0️⃣ 需配置 本地知识库
1️⃣ 打开 simpread-karpathy-llm-wiki-compiler 并下载
2️⃣ 执行
startup.md 完成全部初始化设置3️⃣ 提问
/ask 请以 OpenAI 为关键字,生成一份以时间线为主的简报,并按照 /report 的格式给出答案。🎁 未完待续(心急此方案用户专享)
repo: simpread-karpathy-llm-wiki-compiler 是我专门为此方案开发的一整套解决方案,深度整合简悦的本地快照系统,接下来会详细说明。