▎ 将你的稍后读真正的用于 LLM 的数据来源。
🔗 教程 | 永久链接 | 知乎
⚠️ LLM 的问题
1️⃣ 在没有答案的情况下提供虚假信息。
2️⃣ 当用户需要特定的当前响应时,提供过时或通用的信息。
3️⃣ 从非权威来源创建响应。
4️⃣ 由于术语混淆,不同的培训来源使用相同的术语来谈论不同的事情,因此会产生不准确的响应。
而 RAG(检索增强生成)方式是解决这些问题的一种方法,它会重定向 LLM,从而从权威的、预先确定的知识来源中检索相关信息。
🤖 什么是 RAG
全称 Retrieval Augmented Generation ,中文称作「检索增强生成」,是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。
▎ 上述内容部分摘选自 https://aws.amazon.com/cn/what-is/retrieval-augmented-generation/ 如果对这方面感兴趣的话,可以直接在此链接查看。
📚 前置知识
下面的内容将会涉及到简悦的一个专门用于导出 RAG 的插件:导出简悦知识库(用于 RAG 打造个人专属 AI 知识库)。
👉 /posts/618
❓ 能做什么
导出 RAG 数据插件可以将你的稍后读通过既定的查询规则,合并导出(支持标注或全文),然后被可以支持嵌入语言模型的 AI 工具转换并将其存储在向量数据库中,最终被 LLM 读取并作为知识库进行检索。
📌 支持此插件的的 LLM 工具
只要是支持 RAG 方案的工具均可以使用此插件,以下是简悦列举的一些典型工具:(每个链接都有详细教程说明)
📕 Google NotebookLM
📗 腾讯 IMA
📘 Cherry Studio
🔗 关联
阅读助手 4.0 版
🔎 引申
点击 #OpenAI 查看更多