简悦的发布通道,简悦 - 让你瞬间进入沉浸式阅读的 Chrome 扩展,还原阅读的本质,提升你的阅读体验。地址 https://simpread.pro 讨论群地址 https://t.me/simpreadgroup
▎ 将简悦的稍后读功能接入 MCP 服务。
🔗 永久链接 | 教程 | 知乎 | 语雀 | Newsletter
✨ 能做什么
通过此工具可以将你的
simpread_config.json
(以及本地快照)接入到任意大语言模型(LLMs),并内置了一些现成的工具方便您与稍后读内容进行交互。📝 使用前提
1️⃣ 此项目基于 MCP 开发,安装 Node.js 运行环境后才能使用。
2️⃣ 由于需要访问您本地的
simpread_config.json
文件,因此需要安装并配置同步助手功能,该功能为高级账户专属,如有需要 请升级。3️⃣ 需要配置同步助手的自动同步与本地快照功能,配置方法 请看此教程。
🏆 推荐客户端与 LLM 组合
在开发此工具期间,我们测试了多种支持 MCP 的客户端和大语言模型,目前效果最佳的组合为:ChatWise + Doubao 1.5 pro 256k(火山引擎)
📥 下载与配置
GitHub | 语雀
⚙️ 功能(工具)
📊 获取阅读简报
get_daily
输入指令如
今日阅读回顾
,支持的关键词包括: 今日
昨日
本周
上周
🏷 标签检索
search_tag
输入指令如
请检索标签 AI战争 的内容
,系统将生成相应简报。 当前标签检索采用模糊匹配方式,例如:aaa 会匹配
aaa
aaa/bbb
等包含 aaa
关键字的标签。🔍 内容检索
search_content
输入指令如
请检索包含 英伟达 的内容
,系统将生成简报,检索范围包括: 标题
描述
标签
标注的备注
标注的文本内容
标注的标签
⚡️ 环境变量配置
1️⃣
SEARCH_SNAPSHOT
控制上述功能是否包含本地快照内容,默认不包含,启用后,检索结果将包含本地快照,可获得更精准的答案(但会相应增加 Tokens 消耗)。
👉 详细说明
2️⃣
PROMPT
自定义 LLM 的返回内容格式,默认会根据您的提问直接回答,同时系统也提供了默认回复模板。
👉 详细说明
🎁 彩蛋(预告)
五一期间宅家「玩简悦」,我会在小长假期间推送关于简悦的一些新插件与AI 联动的新玩法。
📚 引申
点击 #OpenAI 查看更多
▎ 内置最新 GPT 4.1 系列模型的阅读助手现已发布
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0 · 3.3.0 4.0.0 & 4.0.1
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🤖 内置 GPT 4.1 模型系列
包括:
gpt-4.1-mini
gpt-4.1-nano
和 gpt-4.1
🚫 已移除部分被 GPT 淘汰的旧模型
包括:
gpt-3.5-turbo
gpt-4o-mini
gpt-4o
gpt-4
gpt-4-turbo
和 gpt-4-32k
当选择这些旧模型时,阅读助手会自动转换为对应的
4.1
系列模型💡 小提示
1️⃣ 如何使用任意 GPT 模型
如需使用
GPT 4.5
模型,请选择【自定义模型】选项,然后输入 gpt-4.5-preview
即可。2️⃣ 如何使用 DeepSeek R1 模型
操作方式同上,只需将模型名称改为
deepseek-reasoner
即可。📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
聊聊我经常使用的免费 LLM 模型
点击 #OpenAI 查看更多内容
▎ 分享我经常使用的 LLMs
🔗 永久链接 | GitHub | 语雀 | Newsletter
📝 写在前面
简悦的很多功能都接入了 AI,例如:阅读助手、全文翻译、划词翻译,甚至 专门用于导出简悦稍后读内容以用于 RAG 的插件。
接下来聊聊我经常使用的模型。
💻 SiliconFlow
1️⃣
Qwen/Qwen2.5-7B-Instruct
首选模型,来自阿里的非推理型模型,具有小巧、简单、快速的特点。
2️⃣
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
推理模型,速度相对较慢,作为对
Qwen/Qwen2.5-7B-Instruct
的补充。当我使用全文翻译的
左右栏 + 一次性全文翻译
功能时就会选用此模型,它能将英文内容更符合中文语义地转换为中文。3️⃣
THUDM/glm-4-9b-chat
来自智谱的 AI 模型,支持 128K 上下文,因此在处理超长文章时我会使用此模型。
例如在使用 RAG 方案时,由于输入给 LLM 的内容通常很大,这时就会考虑使用此模型。
🌐 OpenRouter
1️⃣
deepseek/deepseek-chat-v3-0324:free
由于 SiliconFlow 不免费支持 DeepSeek v3-0324 版本,我改用 OpenRouter 提供的免费方案。
虽然主要对标
Qwen/Qwen2.5-7B-Instruct
但从我的使用体验来看,两者差异并不明显。2️⃣ 其他备选
使用 OpenRouter 的优势是可以经常体验较新的 LLM 模型,如:
📗 Google Gemini 2.5 Pro Experimental
📘 Meta Llama 4
📙 NVIDIA Llama 3.3
🌋 火山引擎
1️⃣
doubao-1-5-pro-256k-250115
来自字节跳动的大模型,支持 256K 上下文的对话模型,使用体验良好,特别是与简悦 MCP + ChatWise 搭配使用时效果最佳。
虽然是收费模型,但火山引擎提供了充足的免费额度,完全能满足日常使用需求。
🔗 关联
📖 阅读助手
🌐 全文翻译
🔤 划词翻译
🔎 延伸阅读
点击 #OpenAI 查看更多
▎ 将你的稍后读真正的用于 LLM 的数据来源。
🔗 永久链接 | 教程 | 知乎 | Newsletter
⚠️ LLM 的问题
1️⃣ 在没有答案的情况下提供虚假信息。
2️⃣ 当用户需要特定的当前响应时,提供过时或通用的信息。
3️⃣ 从非权威来源创建响应。
4️⃣ 由于术语混淆,不同的培训来源使用相同的术语来谈论不同的事情,因此会产生不准确的响应。
而 RAG(检索增强生成)方式是解决这些问题的一种方法,它会重定向 LLM,从而从权威的、预先确定的知识来源中检索相关信息。
🤖 什么是 RAG
全称 Retrieval Augmented Generation ,中文称作「检索增强生成」,是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。
▎ 上述内容部分摘选自 https://aws.amazon.com/cn/what-is/retrieval-augmented-generation/ 如果对这方面感兴趣的话,可以直接在此链接查看。
📚 前置知识
下面的内容将会涉及到简悦的一个专门用于导出 RAG 的插件:导出简悦知识库(用于 RAG 打造个人专属 AI 知识库)。
👉 /posts/618
❓ 能做什么
导出 RAG 数据插件可以将你的稍后读通过既定的查询规则,合并导出(支持标注或全文),然后被可以支持嵌入语言模型的 AI 工具转换并将其存储在向量数据库中,最终被 LLM 读取并作为知识库进行检索。
📌 支持此插件的的 LLM 工具
只要是支持 RAG 方案的工具均可以使用此插件,以下是简悦列举的一些典型工具:(每个链接都有详细教程说明)
📕 Google NotebookLM
📗 腾讯 IMA
📘 Cherry Studio
🔗 关联
阅读助手 4.0 版
🔎 引申
点击 #OpenAI 查看更多
▎ 用于 RAG 打造个人专属 AI 知识库
🔗 永久链接 | 教程 | 语雀 | 知乎 | Newsletter
📥 下载地址
https://simpread.ksria.cn/plugins/details/zOzpvOzM4a
❓ 能做什么
将你感兴趣的内容(标注或全文) 汇与一处并导出到本地,支持 Google NotebookLM · 腾讯 IMA · Cherry Studio 或【任意 LLM 服务】,零代码打造你的专属个人知识库(RAG)。
📝 如何使用
1️⃣ 搜索你的稍后读(支持多种检索方案,如标题、标签等)
2️⃣ 得到检索列表(可点击查看列表中的稍后读的详细内容)
3️⃣ 合并(支持合并后的预览)
4️⃣ 导出,支持:导出 HTML 到本地 · 导出 Markdown 到本地 · 导入到 Obsidian · 通过同步助手导出 Markdown 到本地 · 通过 PDF 高级打印方案导出到本地
⚙️ 定制化
导出内容,支持:标注或本地快照(需配置 本地快照 功能)
📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔗 关联
阅读助手 4.0 版
🔎 引申
点击 #OpenAI 查看更多
▎ 全面接入到你的稍后读与阅读模式的 AI 4.0 来啦~
🔗 永久链接 | 教程 | 语雀 | 知乎 | Newsletter
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0 · 3.3.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🎉 庆祝
下载量超 100K+ 😄
▎ 重点功能介绍
🤖 AI 关联稍后读
简悦会将当前文章提取并浓缩为若干组关键词,借助 AI 匹配到相关的稍后读内容。
此功能可直接使用,同时也支持一些定制化选项,满足个性化需求。
❓ AI 问问
在浮动标注栏中显示阅读助手的图标,点击后即可将标注或选中的内容发送给阅读助手,助手会提供类似维基百科的解释,帮助更好地理解内容。
📚 AI 阅读回顾
使用后会根据时间范围(今日 / 昨日 / 24 小时 / 本周 / 上周)的内容生成简报,帮助快速归纳总结关键信息。
🗣 与你的稍后读对话
在此场景下,可以对 AI 提问,提问范围包含了你的全部稍后读(含标注),整个过程类似将稍后读和标注形成一个知识库,类似 RAG 方式。
💡 使用提示
如果无法使用 OpenAI 的话,首选 SiliconFlow(支持 DeepSeek),未注册用户,建议使用 此链接 注册,即可获取 2000 万 Tokens)
🎁 彩蛋:支持任意结构的 API 地址
API 可以跟 OpenAI 不一致,支持三种方式:
1️⃣ 主域名方式 e.g.
api.siliconflow.cn
2️⃣ 全 URL 方式 e.g.
https://openrouter.ai/api
3️⃣ 非 OpenAI 结构,需要使用
#
强制使用 e.g. https://openrouter.ai/api/v1#
📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 全面接入稍后读与阅读模式的 AI 功能现已上线!
📢 注意事项
社区预览版已废弃,阅读助手 4.0.0 正式版已经发布~
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
▎ 重点功能介绍
🤖 AI 关联稍后读
简悦会将当前文章提取并浓缩为若干组关键词,借助 OpenAI 匹配到相关的稍后读内容。
此功能可直接使用,同时也支持一些定制化选项,满足个性化需求。
❓ AI 问问
在浮动标注栏中显示阅读助手的图标,点击后即可将标注或选中的内容发送给阅读助手,助手会提供类似维基百科的解释,帮助更好地理解内容。
📚 AI 阅读回顾
使用后会根据时间范围(今日 / 昨日 / 24 小时 / 本周 / 上周)的内容生成简报,帮助快速归纳总结关键信息。
💡 使用提示
上述功能较为消耗 Token,因此建议选择更经济的 GPT-4o Mini 或 DeepSeek 模型进行使用。
如果无法使用 OpenAI 的话,首选 DeepSeek(未注册用户,建议使用 此链接 注册,即可获取 2000 万 Tokens)
📢 「放假」通知
1月3日开始因为出门旅游,所以通知频道暂停推送,但 Telegram 群 / 兑换码兑换 / Issues(以及各种可以找到的)渠道均正常,只是回复会比往日慢。
1月22日后恢复 😄
🔎 引申
点击 #OpenAI 查看更多
▎ 支持自定义模型的 3.3 版来啦~
🔗 教程 | 竹白 | QQ 频道
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
📦 3.3.0 版功能
🚀 自定义模型
支持自定义 API 并内置了 GPT · DeepSeek 后又增加了 自定义模型
🔧 能做什么?
支持 SiliconFlow 的任意模型( SiliconFlow 基于优秀的开源基础模型,集合顶尖大模型的一站式云服务平台),操作实例
不得不说:支持的模型真是的超级多啊 😂 围观地址(甚至有很多都可以免费使用)
📥 注册链接 (可获取 2000 万 Tokens)
注意:简悦与 SiliconFlow 无任何关系。如果你有更好的推荐,也欢迎告诉我哦!😄
📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 接入新模型 DeepSeek 让价格进一步📉📉📉 的 3.2 版本来啦~
🔗 教程 | 知乎 | 竹白
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
▎ 以下是 3.2.0 的功能说明
1️⃣ 🤖 接入新模型 DeepSeek
2️⃣ 🚀 优化内部逻辑
🔧 无法使用 OpenAI?
除了 DeepSeek,你还可以试试 CloseAI!优点是完全兼容 OpenAI,速度飞快,而且最低只需充值 1 元即可体验。
📥 注册链接
注意:简悦与 CloseAI 无任何关系,之所以推荐是因为它简单好用。如果你有更好的推荐,也欢迎告诉我哦!😄
🎉 彩蛋
3.2.0 版还有一个重要目的:为【阅读助手 4】做准备!🚀
4.0 将是一款更强大的阅读助手,得益于 GPT 4o mini 和 DeepSeek 的接入,能够大幅降低 OpenAI 的调用费用📉📉📉
基于此,可以实现更多功能,进一步提升阅读体验!
4.0 全部功能已经完成,择日发布~
📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 接入 GPT-4 Turbo 支持 128,000 tokens 无需分段理解超长文章。
🔗 教程 | 知乎 | 竹白 | QQ 频道 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
▎ 以下是 3.1.1 的功能说明
✨ 插件端接入了 GPT 4 Turbo
选择 GPT-4 Turbo 后,可直接分析超长文章,因为支持 128,000 Tokens,所以一般来说文章长度不会超过这个值。
🖥 后端服务接入
gpt-3.5-turbo-1106
gpt-4-1106-preview
同样将
GPT-4 Turbo
模型内置到后端。📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 支持第三方 API 的功能来啦,无法使用 OpenAI API 走起~
🔗 教程 | 知乎 | 竹白 | QQ 频道 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🎉 庆祝
下载量超 63k 😄
▎ 以下是 3.1.0 的功能说明
✨ 接入了 GPT 4
是的,3.1.0 版刚刚加入了 GPT-4(因为
GPT-4
刚刚才可以不用等待列表 😂🖥 支持接入第三方 API
可以接入第三方 API 了,如果你没办法使用 OpenAI API 服务的话,请使用任意第三方的 API 服务均可。
📖 注意
1️⃣ 请填入主域名 e.g.
api.openai-xxx.com
2️⃣ 此服务与 OpenAI 100% 兼容(一般都没问题)📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 玩转 Prompt
🔗 教程 | 知乎 | 竹白 | QQ 频道 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
📗 前情回顾
阅读助手 3.0 接入了 GPT 3.5 16k 模型,因此直接一步到位的解决了长文分段的问题。虽然阅读助手 2.x 也解决了这个问题,但总不如直接不需要分段来的爽。
同时也产生了新的用法:精读超长文章,细节 👉 请看这里。
接下来继续介绍下 3.0 另外一个玩法:Prompt
💡 Prompt
这是阅读助手 3.0 推出的新功能。跟所有 AI 类工具的 Prompt 一样,你可以使用简悦官方或制作属于自己的 Prompt(并支持提交给简悦官方)
🔌 功能
1️⃣ 浏览官方 Prompt 库
2️⃣ 添加 Prompt
3️⃣ 管理 Prompt
4️⃣ 删除 Prompt
🔎 能做什么
利用这些专门给长文章「解构」的 Prompt 可以让阅读助手帮你从不同维度( Prompt )解读任意超长文章,比如:
1️⃣ 将文章拆分为若干子主题
2️⃣ 围绕当前文章,讨论其中问题的潜在解决方案和观点
3️⃣ 用列表整理五个基于本文的要点
具体例子可以看《解读马云的非公开会议》 即刻 · 推文
📖 注意
1️⃣ 此功能为高级账户权限,如有需要 请升级为高级账户。
2️⃣ 简悦并不提供 OpenAI Token,请自行准备。
3️⃣ 标注、词条模式、问答模式 等均不会消耗过多的 Token。
📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 接入了 GPT 3.5 16k 之后...
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
▎ 以下是 3.0.0 的功能说明
✨ 接入了 GPT 3.5 16k
OpenAI 在昨日发布了最新的超长文本模型(16k 上下文意味着该模型现在可以在单个请求中支持约 20 页文本)
所以基于全文的阅读助手可玩性大大增加了太多,所以原本还要再捂一捂的 3.0 版就发布了 😂
💰 加量「不加价」
简悦接入的 GPT 3.5 16k 并不是简单粗暴的直接使用 16k 模型(毕竟比较贵不是~
而是根据 OpenAI 提供的精准 Token 计算工具(内置在后端)来判定是否需要使用 16k 模型。
新版费用调整后,因为原本的 GPT 3.5 降价了,所以经过一天的测试,整体价格反而是更便宜了 📉 😄
📰 精读超长文章
简悦并不是简单粗暴的内置 GPT 3.5 16k,而是增加了一个新的「命令」:精读。
使用此命令后,专门针对「太长没时间不看」的朋友解决一个痛点:阅读助手可将超长文章分段落精读给你。
除此之外,无论什么样的语言(如:英文 / 日文)均以中文形式「告诉你」,也算是一个变相帮你阅读外文资讯的一个方案。
关于这两个功能,可以看下 👉 B站视频(欢迎三连)
📖 注意
1️⃣ 此功能为高级账户权限,如有需要 请升级为高级账户。
2️⃣ 简悦并不提供 OpenAI Token,请自行准备。
3️⃣ 标注、词条模式、问答模式 等均不会消耗过多的 Token。
📈 安装与升级
没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。
已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
🔎 引申
点击 #OpenAI 查看更多
▎ 无论再长文章也会精准自动分段以及瞬间返回每段的归纳总结,即:更快更省钱模式。(更精准的将正文转换为 Token 并且自动均分段落)
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
▎ 以下是 2.5.0 的功能说明
1️⃣ 当首次分析全文时是否逐段返回总结
在 2.4.1 自动分段的基础上增加了这个选项,当开启后:首次分析并且使用文章的前三个预设时会进行逐段返回文章的总结。
2.4.1 使用特定的预设才能,现在将这个功能扩充到文章的前三个预设上。
2️⃣ 更精准的将正文转换为 Token 并且分段
因为 OpenAI 有字数限制( 最多 4096 Token),所以当长文章时,会自动分段分析。
2.3.0 版 → 重构了首次分析长文时的逻辑,比之前的版本每次提问都会快至少一倍以上。(注意:此方式首次分析分段内容的长文会稍慢,此过程仅限首次使用)
2.5.0 版 → 使用了更加精准的文本长度转换 Token 功能,使长文的段落划分更精准。
简单的说,现在是越来越省钱了。
如果配合【当首次分析全文时逐段返回总结】,只要不是 OpenAI 服务器出现问题,无论再长文章也会瞬间自动分段以及每段的归纳总结。
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。
▎连续发布多个版本,做个简单的汇总说明。
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 知乎视频 | B 站视频
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🔎 能做什么
OpenAI 只有放到相关语境中才能深刻体会到它的强大。所以当把 ChatGPT 内置到简悦中能做什么?
问:当 OpenAI 可以理解全文(标注)后能做什么?
答:帮我生成一份阅读笔记。
问:什么是 Zettelkasten 笔记法
答:直接给出词条。
问:英文太长怎么办?
答:可以使用 自动分段 或者 主题模式 ,将长文分解并返回重点摘录分析。
👉 更多玩法 & 推特汇总
🧮 阅读助手各个功能的 Token 消耗
一般来说,一个汉字 ≈ 2 Token,一个标点/英文单词 ≈ 1个 Token
• 全文扫描(以及自动分段)★★★ ( 段落的多少决定 Tokens 的消耗,但要携带大量内容,所以是消耗 Token 最多的方案,注意:2.3.0 版 仅扫描全文一次)
• 主题模式 ★★☆ (因为要携带主题内容)
• 标注相关 ★★ (具体要看标注量的多少)
• 任意内容 ★☆ (视提问内容的多少,不会消耗太多)
• 词条模式 ★ (相当于翻译类的消耗量)
📖 注意
1️⃣ 此功能为高级账户权限,如有需要 请升级为高级账户。
2️⃣ 简悦并不提供 OpenAI Token,请自行准备。
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。
▎ 将长文自动划分段落并对描述分段内容的分析见解。
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
▎ 以下是 2.4.1 增加的重要场景:【自动分段】
当遇到长文时,可以使用此功能自动分割为若干段落,然后会自动返回每段的大纲(非简单摘要,而是重点内容的分析见解),目前应用的模块:
1️⃣ 文章模式下一个新的命令:【自动分段扫描并返回段落归纳总结本文】( 演示视频 )
2️⃣ 主题模式:自动分段功能(此方式仅仅是分段,并不会返回每段的分析见解,演示视频 )
📚 适合场景
比较长的英文文章,不确定是否有可读必要的话,可以使用此方式来让阅读助手帮你阅读。
最近知道了 https://www.buzzing.cc 后就开始在它上面浏览感兴趣的资讯,而这个功能恰恰拯救了我时间不多的「难题」。 😂
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。
▎主题模式:实现超长文章的提问秒回机制(专治超长文章全文理解分析慢的问题)
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
📺 视频(一个例子)
利用主题功能在 这篇长文 中通过划分不同的主题进行提问实现: OpenAI 的秒回(且基于当前文章的长文机制下)。
知乎视频 | B站
✴️ 起因
因为 GPT 3.5 的限制导致,最多能传 4096 个 Token(一个汉字约等于2个 Token),所以当遇到超长文章的时候会将这篇文章分段进行理解分析。( 2.3.0 版优化了这一个过程,使之只做一次全文扫描),虽然在一定程度上解决了这个问题,但如果分段太多也会比较慢。
💡 解决方案
通过框选或划选任意内容形成一个【提问主题】,每次在提问时都会以这个主题为参考基准,因此解决了:
• 可以不使用分段扫描的方式对全文进行扫描。
• 超长文章一般都会有大量的段落来辅助用户阅读,所以需要划取这些段落一来可以解决这个问题,二来也可以有针对性的提问,这样的回复速度最快。
📚 主题模式
在对话场景中选择:【主题模式】即可开启此功能,功能:
1️⃣ 框选添加:通过框选的方式添加,可反复多次添加。
2️⃣ 划选添加:通过鼠标拖拽后的内容添加,可反复多次添加。
3️⃣ 预览编辑:为了方便分辨不同的主题,可以通过预览的方式查看,同时也支持编辑。
4️⃣ 删除
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。
▎优化长文理解逻辑,比之前的版本每次提问都会至少快一倍以上。
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B 站视频
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🔖 2.3.0 版本新功能说明
•
Important
重构了首次分析长文时的逻辑,比之前的版本每次提问都会快至少一倍以上。(此过程仅限首次使用,配合 Stream 模式,体验无等待反馈效果 )•
Add
划选模式,包括:理解任意内容 · 翻译为英文 · 翻译为中文。( 视频效果 )•
Optimize
场景选择框为浮动方案 &【框选/划选】后的内容也加入到对话中,让对话 Thread 更合理。💡 能做什么
理解
全文
或 标注
,你可以在此基础上对阅读助手提任何问题:• 生成一份阅读笔记。
• 遇到不理解的词汇,直接使用词条模式,返回解释。(省去了打开 Google 检索的步骤)
• 请用 Zettelkasten 笔记法为我的标注做一份笔记吧。
更多高级玩法 👉 /posts/545
🤖 支持多种场景
1️⃣ 预设模式 → 内置了一些现成的「命令」,点击后直接发给 OpenAI
2️⃣ 提问模式 → 可选
全文
或 标注
进行提问3️⃣ 问答模式 → 类似于内置 ChatGPT 聊天,可以发送任何内容的问题
4️⃣ 词条模式 → 直接输入词条,返回词条解释
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。
▎流式回复,让你感觉更丝滑的 2.2.0 版发布啦 🎉
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B 站视频
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🔖 2.2.0 版本新功能说明
•
Add
流式回复(OpenAI API stream mode 方案,视频效果)•
Fix
历史记录关闭后仍可以记录的错误💡 能做什么
理解
全文
或 标注
,你可以在此基础上对阅读助手提任何问题:• 生成一份阅读笔记。
• 遇到不理解的词汇,直接使用词条模式,返回解释。(省去了打开 Google 检索的步骤)
• 请用 Zettelkasten 笔记法为我的标注做一份笔记吧。
更多高级玩法 👉 /posts/545
🤖 支持多种场景
1️⃣ 预设模式 → 内置了一些现成的「命令」,点击后直接发给 OpenAI
2️⃣ 提问模式 → 可选
全文
或 标注
进行提问3️⃣ 问答模式 → 类似于内置 ChatGPT 聊天,可以发送任何内容的问题
4️⃣ 词条模式 → 直接输入词条,返回词条解释
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。
▎ 可以理解当前文章 / 标注的内容,你可以提任何问题,并以对话(聊天形式)展示。
🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B 站视频
💡 各版本说明
1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0
📥 下载地址
https://simpread.ksria.cn/plugins/details/Mv55R9uIOF
🔖 2.1.0 版本新功能说明
• 暗色模式 & 自动暗色模式
• 支持
Ctrl + Enter
发送• 历史记录(开启后,每次的会话内容都会被保存)
• 工具栏,包括:复制 / 编辑 / 以 Markdown 形式显示(鼠标移上时显示)
💡 能做什么
理解
全文
或 标注
,你可以在此基础上对阅读助手提任何问题:• 生成一份阅读笔记。
• 遇到不理解的词汇,直接使用词条模式,返回解释。(省去了打开 Google 检索的步骤)
• 请用 Zettelkasten 笔记法为我的标注做一份笔记吧。
更多高级玩法 👉 /posts/545
🤖 支持多种场景
1️⃣ 预设模式 → 内置了一些现成的「命令」,点击后直接发给 OpenAI
2️⃣ 提问模式 → 可选
全文
或 标注
进行提问3️⃣ 问答模式 → 类似于内置 ChatGPT 聊天,可以发送任何内容的问题
4️⃣ 词条模式 → 直接输入词条,返回词条解释
📈 安装与升级
1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。
2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。
3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里。
🔎 关联
查看 #OpenAI 或 此链接 得到更多简悦联动方案。