简悦的发布通道,简悦 - 让你瞬间进入沉浸式阅读的 Chrome 扩展,还原阅读的本质,提升你的阅读体验。地址 https://simpread.pro 讨论群地址 https://t.me/simpreadgroup
简悦 MCP 助手

▎ 将简悦的稍后读功能接入 MCP 服务。

🔗 永久链接 | 教程 | 知乎 | 语雀 | Newsletter

能做什么

通过此工具可以将你的 simpread_config.json(以及本地快照)接入到任意大语言模型(LLMs),并内置了一些现成的工具方便您与稍后读内容进行交互。

📝 使用前提

1️⃣ 此项目基于 MCP 开发,安装 Node.js 运行环境后才能使用。

2️⃣ 由于需要访问您本地的 simpread_config.json 文件,因此需要安装并配置同步助手功能,该功能为高级账户专属,如有需要 请升级

3️⃣ 需要配置同步助手的自动同步与本地快照功能,配置方法 请看此教程

🏆 推荐客户端与 LLM 组合

在开发此工具期间,我们测试了多种支持 MCP 的客户端和大语言模型,目前效果最佳的组合为:ChatWise + Doubao 1.5 pro 256k(火山引擎)

📥 下载与配置

GitHub | 语雀

⚙️ 功能(工具)

📊 获取阅读简报 get_daily

输入指令如 今日阅读回顾 ,支持的关键词包括: 今日 昨日 本周 上周

🏷 标签检索 search_tag

输入指令如 请检索标签 AI战争 的内容 ,系统将生成相应简报。

当前标签检索采用模糊匹配方式,例如:aaa 会匹配 aaa aaa/bbb 等包含 aaa 关键字的标签。

🔍 内容检索 search_content

输入指令如 请检索包含 英伟达 的内容 ,系统将生成简报,检索范围包括: 标题 描述 标签 标注的备注 标注的文本内容 标注的标签

⚡️ 环境变量配置

1️⃣ SEARCH_SNAPSHOT

控制上述功能是否包含本地快照内容,默认不包含,启用后,检索结果将包含本地快照,可获得更精准的答案(但会相应增加 Tokens 消耗)。

👉 详细说明

2️⃣ PROMPT

自定义 LLM 的返回内容格式,默认会根据您的提问直接回答,同时系统也提供了默认回复模板。

👉 详细说明

🎁 彩蛋(预告)

五一期间宅家「玩简悦」,我会在小长假期间推送关于简悦的一些新插件与AI 联动的新玩法。

📚 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 4.0.2 版

▎ 内置最新 GPT 4.1 系列模型的阅读助手现已发布

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0 · 3.3.0 4.0.0 & 4.0.1

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🤖 内置 GPT 4.1 模型系列

包括: gpt-4.1-mini gpt-4.1-nanogpt-4.1

🚫 已移除部分被 GPT 淘汰的旧模型

包括: gpt-3.5-turbo gpt-4o-mini gpt-4o gpt-4 gpt-4-turbogpt-4-32k

当选择这些旧模型时,阅读助手会自动转换为对应的 4.1 系列模型

💡 小提示

1️⃣ 如何使用任意 GPT 模型

如需使用 GPT 4.5 模型,请选择【自定义模型】选项,然后输入 gpt-4.5-preview 即可。

2️⃣ 如何使用 DeepSeek R1 模型

操作方式同上,只需将模型名称改为 deepseek-reasoner 即可。

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

聊聊我经常使用的免费 LLM 模型

点击 #OpenAI 查看更多内容

聊聊我经常使用的免费 LLM 模型

▎ 分享我经常使用的 LLMs

🔗 永久链接 | GitHub | 语雀 | Newsletter

📝 写在前面

简悦的很多功能都接入了 AI,例如:阅读助手全文翻译、划词翻译,甚至 专门用于导出简悦稍后读内容以用于 RAG 的插件

接下来聊聊我经常使用的模型。

💻 SiliconFlow

1️⃣ Qwen/Qwen2.5-7B-Instruct

首选模型,来自阿里的非推理型模型,具有小巧、简单、快速的特点。

2️⃣ deepseek-ai/DeepSeek-R1-Distill-Qwen-7B

推理模型,速度相对较慢,作为对 Qwen/Qwen2.5-7B-Instruct 的补充。

当我使用全文翻译的 左右栏 + 一次性全文翻译 功能时就会选用此模型,它能将英文内容更符合中文语义地转换为中文。

3️⃣ THUDM/glm-4-9b-chat

来自智谱的 AI 模型,支持 128K 上下文,因此在处理超长文章时我会使用此模型。

例如在使用 RAG 方案时,由于输入给 LLM 的内容通常很大,这时就会考虑使用此模型。

🌐 OpenRouter

1️⃣ deepseek/deepseek-chat-v3-0324:free

由于 SiliconFlow 不免费支持 DeepSeek v3-0324 版本,我改用 OpenRouter 提供的免费方案。

虽然主要对标 Qwen/Qwen2.5-7B-Instruct 但从我的使用体验来看,两者差异并不明显。

2️⃣ 其他备选

使用 OpenRouter 的优势是可以经常体验较新的 LLM 模型,如:

📗 Google Gemini 2.5 Pro Experimental

📘 Meta Llama 4

📙 NVIDIA Llama 3.3

🌋 火山引擎

1️⃣ doubao-1-5-pro-256k-250115

来自字节跳动的大模型,支持 256K 上下文的对话模型,使用体验良好,特别是与简悦 MCP + ChatWise 搭配使用时效果最佳。

虽然是收费模型,但火山引擎提供了充足的免费额度,完全能满足日常使用需求。

🔗 关联

📖 阅读助手

🌐 全文翻译

🔤 划词翻译

🔎 延伸阅读

点击 #OpenAI 查看更多

将你的稍后读用于 LLM 的数据来源(RAG),利用简悦插件 · 导出简悦知识库零代码打造你的个人专属 AI 资料库

▎ 将你的稍后读真正的用于 LLM 的数据来源。

🔗 永久链接 | 教程 | 知乎 | Newsletter

⚠️ LLM 的问题

1️⃣ 在没有答案的情况下提供虚假信息。

2️⃣ 当用户需要特定的当前响应时,提供过时或通用的信息。

3️⃣ 从非权威来源创建响应。

4️⃣ 由于术语混淆,不同的培训来源使用相同的术语来谈论不同的事情,因此会产生不准确的响应。

而 RAG(检索增强生成)方式是解决这些问题的一种方法,它会重定向 LLM,从而从权威的、预先确定的知识来源中检索相关信息。

🤖 什么是 RAG

全称 Retrieval Augmented Generation ,中文称作「检索增强生成」,是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。

▎ 上述内容部分摘选自 https://aws.amazon.com/cn/what-is/retrieval-augmented-generation/ 如果对这方面感兴趣的话,可以直接在此链接查看。

📚 前置知识

下面的内容将会涉及到简悦的一个专门用于导出 RAG 的插件:导出简悦知识库(用于 RAG 打造个人专属 AI 知识库)。

👉 /posts/618

能做什么

导出 RAG 数据插件可以将你的稍后读通过既定的查询规则,合并导出(支持标注或全文),然后被可以支持嵌入语言模型的 AI 工具转换并将其存储在向量数据库中,最终被 LLM 读取并作为知识库进行检索。

📌 支持此插件的的 LLM 工具

只要是支持 RAG 方案的工具均可以使用此插件,以下是简悦列举的一些典型工具:(每个链接都有详细教程说明)

📕 Google NotebookLM

📗 腾讯 IMA

📘 Cherry Studio

🔗 关联

阅读助手 4.0 版

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 导出简悦知识库

▎ 用于 RAG 打造个人专属 AI 知识库

🔗 永久链接 | 教程 | 语雀 | 知乎 | Newsletter

📥 下载地址

https://simpread.ksria.cn/plugins/details/zOzpvOzM4a

能做什么

将你感兴趣的内容(标注或全文) 汇与一处并导出到本地,支持 Google NotebookLM · 腾讯 IMA · Cherry Studio 或【任意 LLM 服务】,零代码打造你的专属个人知识库(RAG)。

📝 如何使用

1️⃣ 搜索你的稍后读(支持多种检索方案,如标题、标签等)

2️⃣ 得到检索列表(可点击查看列表中的稍后读的详细内容)

3️⃣ 合并(支持合并后的预览)

4️⃣ 导出,支持:导出 HTML 到本地 · 导出 Markdown 到本地 · 导入到 Obsidian · 通过同步助手导出 Markdown 到本地 · 通过 PDF 高级打印方案导出到本地

⚙️ 定制化

导出内容,支持:标注或本地快照(需配置 本地快照 功能)

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔗 关联

阅读助手 4.0 版

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 4.0 版

▎ 全面接入到你的稍后读与阅读模式的 AI 4.0 来啦~

🔗 永久链接 | 教程 | 语雀 | 知乎 | Newsletter

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0 · 3.3.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🎉 庆祝

下载量超 100K+ 😄

▎ 重点功能介绍

🤖 AI 关联稍后读

简悦会将当前文章提取并浓缩为若干组关键词,借助 AI 匹配到相关的稍后读内容。

此功能可直接使用,同时也支持一些定制化选项,满足个性化需求。

AI 问问

在浮动标注栏中显示阅读助手的图标,点击后即可将标注或选中的内容发送给阅读助手,助手会提供类似维基百科的解释,帮助更好地理解内容。

📚 AI 阅读回顾

使用后会根据时间范围(今日 / 昨日 / 24 小时 / 本周 / 上周)的内容生成简报,帮助快速归纳总结关键信息。

🗣 与你的稍后读对话

在此场景下,可以对 AI 提问,提问范围包含了你的全部稍后读(含标注),整个过程类似将稍后读和标注形成一个知识库,类似 RAG 方式。

💡 使用提示

如果无法使用 OpenAI 的话,首选 SiliconFlow(支持 DeepSeek),未注册用户,建议使用 此链接 注册,即可获取 2000 万 Tokens)

🎁 彩蛋:支持任意结构的 API 地址

API 可以跟 OpenAI 不一致,支持三种方式:

1️⃣ 主域名方式 e.g. api.siliconflow.cn

2️⃣ 全 URL 方式 e.g. https://openrouter.ai/api

3️⃣OpenAI 结构,需要使用 # 强制使用 e.g. https://openrouter.ai/api/v1#

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 4.0 社区预览版

▎ 全面接入稍后读与阅读模式的 AI 功能现已上线!

📢 注意事项

社区预览版已废弃,阅读助手 4.0.0 正式版已经发布~

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

▎ 重点功能介绍

🤖 AI 关联稍后读

简悦会将当前文章提取并浓缩为若干组关键词,借助 OpenAI 匹配到相关的稍后读内容。

此功能可直接使用,同时也支持一些定制化选项,满足个性化需求。

AI 问问

在浮动标注栏中显示阅读助手的图标,点击后即可将标注或选中的内容发送给阅读助手,助手会提供类似维基百科的解释,帮助更好地理解内容。

📚 AI 阅读回顾

使用后会根据时间范围(今日 / 昨日 / 24 小时 / 本周 / 上周)的内容生成简报,帮助快速归纳总结关键信息。

💡 使用提示

上述功能较为消耗 Token,因此建议选择更经济的 GPT-4o Mini 或 DeepSeek 模型进行使用。

如果无法使用 OpenAI 的话,首选 DeepSeek(未注册用户,建议使用 此链接 注册,即可获取 2000 万 Tokens)

📢 「放假」通知

1月3日开始因为出门旅游,所以通知频道暂停推送,但 Telegram 群 / 兑换码兑换 / Issues(以及各种可以找到的)渠道均正常,只是回复会比往日慢。

1月22日后恢复 😄

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 3.3.0 版

▎ 支持自定义模型的 3.3 版来啦~

🔗 教程 | 竹白 | QQ 频道

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

📦 3.3.0 版功能

🚀 自定义模型

支持自定义 API 并内置了 GPT · DeepSeek 后又增加了 自定义模型

🔧 能做什么?

支持 SiliconFlow 的任意模型( SiliconFlow 基于优秀的开源基础模型,集合顶尖大模型的一站式云服务平台),操作实例

不得不说:支持的模型真是的超级多啊 😂 围观地址(甚至有很多都可以免费使用)

📥 注册链接 (可获取 2000 万 Tokens)

注意:简悦与 SiliconFlow 无任何关系。如果你有更好的推荐,也欢迎告诉我哦!😄

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 3.2.0 版

▎ 接入新模型 DeepSeek 让价格进一步📉📉📉 的 3.2 版本来啦~

🔗 教程 | 知乎 | 竹白

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

▎ 以下是 3.2.0 的功能说明

1️⃣ 🤖 接入新模型 DeepSeek

2️⃣ 🚀 优化内部逻辑

🔧 无法使用 OpenAI

除了 DeepSeek,你还可以试试 CloseAI!优点是完全兼容 OpenAI,速度飞快,而且最低只需充值 1 元即可体验。

📥 注册链接

注意:简悦与 CloseAI 无任何关系,之所以推荐是因为它简单好用。如果你有更好的推荐,也欢迎告诉我哦!😄

🎉 彩蛋

3.2.0 版还有一个重要目的:为【阅读助手 4】做准备!🚀

4.0 将是一款更强大的阅读助手,得益于 GPT 4o mini 和 DeepSeek 的接入,能够大幅降低 OpenAI 的调用费用📉📉📉

基于此,可以实现更多功能,进一步提升阅读体验!

4.0 全部功能已经完成,择日发布~

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 3.1.1 版

▎ 接入 GPT-4 Turbo 支持 128,000 tokens 无需分段理解超长文章。

🔗 教程 | 知乎 | 竹白 | QQ 频道 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

▎ 以下是 3.1.1 的功能说明

插件端接入了 GPT 4 Turbo

选择 GPT-4 Turbo 后,可直接分析超长文章,因为支持 128,000 Tokens,所以一般来说文章长度不会超过这个值。

🖥 后端服务接入 gpt-3.5-turbo-1106 gpt-4-1106-preview

同样将 GPT-4 Turbo 模型内置到后端。

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 3.1.0 版

▎ 支持第三方 API 的功能来啦,无法使用 OpenAI API 走起~

🔗 教程 | 知乎 | 竹白 | QQ 频道 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🎉 庆祝

下载量超 63k 😄

▎ 以下是 3.1.0 的功能说明

接入了 GPT 4

是的,3.1.0 版刚刚加入了 GPT-4(因为 GPT-4 刚刚才可以不用等待列表 😂

🖥 支持接入第三方 API

可以接入第三方 API 了,如果你没办法使用 OpenAI API 服务的话,请使用任意第三方的 API 服务均可。

📖 注意

1️⃣ 请填入主域名 e.g. api.openai-xxx.com

2️⃣ 此服务与 OpenAI 100% 兼容(一般都没问题)

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 3.0.0 版(二)

▎ 玩转 Prompt

🔗 教程 | 知乎 | 竹白 | QQ 频道 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

📗 前情回顾

阅读助手 3.0 接入了 GPT 3.5 16k 模型,因此直接一步到位的解决了长文分段的问题。虽然阅读助手 2.x 也解决了这个问题,但总不如直接不需要分段来的爽。

同时也产生了新的用法:精读超长文章,细节 👉 请看这里

接下来继续介绍下 3.0 另外一个玩法:Prompt

💡 Prompt

这是阅读助手 3.0 推出的新功能。跟所有 AI 类工具的 Prompt 一样,你可以使用简悦官方或制作属于自己的 Prompt(并支持提交给简悦官方)

🔌 功能

1️⃣ 浏览官方 Prompt 库

2️⃣ 添加 Prompt

3️⃣ 管理 Prompt

4️⃣ 删除 Prompt

🔎 能做什么

利用这些专门给长文章「解构」的 Prompt 可以让阅读助手帮你从不同维度( Prompt )解读任意超长文章,比如:

1️⃣ 将文章拆分为若干子主题

2️⃣ 围绕当前文章,讨论其中问题的潜在解决方案和观点

3️⃣ 用列表整理五个基于本文的要点

具体例子可以看《解读马云的非公开会议》 即刻 · 推文

📖 注意

1️⃣ 此功能为高级账户权限,如有需要 请升级为高级账户。

2️⃣ 简悦并不提供 OpenAI Token,请自行准备。

3️⃣ 标注、词条模式、问答模式 等均不会消耗过多的 Token。

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 3.0.0 版(一)

▎ 接入了 GPT 3.5 16k 之后...

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

▎ 以下是 3.0.0 的功能说明

接入了 GPT 3.5 16k

OpenAI 在昨日发布了最新的超长文本模型(16k 上下文意味着该模型现在可以在单个请求中支持约 20 页文本)

所以基于全文的阅读助手可玩性大大增加了太多,所以原本还要再捂一捂的 3.0 版就发布了 😂

💰 加量「不加价」

简悦接入的 GPT 3.5 16k 并不是简单粗暴的直接使用 16k 模型(毕竟比较贵不是~

而是根据 OpenAI 提供的精准 Token 计算工具(内置在后端)来判定是否需要使用 16k 模型。

新版费用调整后,因为原本的 GPT 3.5 降价了,所以经过一天的测试,整体价格反而是更便宜了 📉 😄

📰 精读超长文章

简悦并不是简单粗暴的内置 GPT 3.5 16k,而是增加了一个新的「命令」:精读。

使用此命令后,专门针对「太长没时间不看」的朋友解决一个痛点:阅读助手可将超长文章分段落精读给你。

除此之外,无论什么样的语言(如:英文 / 日文)均以中文形式「告诉你」,也算是一个变相帮你阅读外文资讯的一个方案。

关于这两个功能,可以看下 👉 B站视频(欢迎三连)

📖 注意

1️⃣ 此功能为高级账户权限,如有需要 请升级为高级账户。

2️⃣ 简悦并不提供 OpenAI Token,请自行准备。

3️⃣ 标注、词条模式、问答模式 等均不会消耗过多的 Token。

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

点击 #OpenAI 查看更多

简悦插件 · 阅读助手 2.5.0 版

▎ 无论再长文章也会精准自动分段以及瞬间返回每段的归纳总结,即:更快更省钱模式。(更精准的将正文转换为 Token 并且自动均分段落)

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

▎ 以下是 2.5.0 的功能说明

1️⃣ 当首次分析全文时是否逐段返回总结

在 2.4.1 自动分段的基础上增加了这个选项,当开启后:首次分析并且使用文章的前三个预设时会进行逐段返回文章的总结。

2.4.1 使用特定的预设才能,现在将这个功能扩充到文章的前三个预设上。

2️⃣ 更精准的将正文转换为 Token 并且分段

因为 OpenAI 有字数限制( 最多 4096 Token),所以当长文章时,会自动分段分析。

2.3.0 版 → 重构了首次分析长文时的逻辑,比之前的版本每次提问都会快至少一倍以上。(注意:此方式首次分析分段内容的长文会稍慢,此过程仅限首次使用)

2.5.0 版 → 使用了更加精准的文本长度转换 Token 功能,使长文的段落划分更精准。

简单的说,现在是越来越省钱了。

如果配合【当首次分析全文时逐段返回总结】,只要不是 OpenAI 服务器出现问题,无论再长文章也会瞬间自动分段以及每段的归纳总结。

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

简悦插件 · 阅读助手之汇总

▎连续发布多个版本,做个简单的汇总说明。

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 知乎视频 | B 站视频

💡
各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🔎 能做什么

OpenAI 只有放到相关语境中才能深刻体会到它的强大。所以当把 ChatGPT 内置到简悦中能做什么?

问:当 OpenAI 可以理解全文(标注)后能做什么?
答:帮我生成一份阅读笔记。

问:什么是 Zettelkasten 笔记法
答:直接给出词条。

问:英文太长怎么办?
答:可以使用 自动分段 或者 主题模式 ,将长文分解并返回重点摘录分析。

👉 更多玩法 & 推特汇总

🧮 阅读助手各个功能的 Token 消耗

一般来说,一个汉字 ≈ 2 Token,一个标点/英文单词 ≈ 1个 Token

• 全文扫描(以及自动分段)★★★ ( 段落的多少决定 Tokens 的消耗,但要携带大量内容,所以是消耗 Token 最多的方案,注意:2.3.0 版 仅扫描全文一次)

• 主题模式 ★★☆ (因为要携带主题内容)

• 标注相关 ★★ (具体要看标注量的多少)

• 任意内容 ★☆ (视提问内容的多少,不会消耗太多)

• 词条模式 ★ (相当于翻译类的消耗量)

📖 注意

1️⃣ 此功能为高级账户权限,如有需要 请升级为高级账户。

2️⃣ 简悦并不提供 OpenAI Token,请自行准备。

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

简悦插件 · 阅读助手 2.4.1 版

▎ 将长文自动划分段落并对描述分段内容的分析见解。

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

▎ 以下是 2.4.1 增加的重要场景:【自动分段】

当遇到长文时,可以使用此功能自动分割为若干段落,然后会自动返回每段的大纲(非简单摘要,而是重点内容的分析见解),目前应用的模块:

1️⃣ 文章模式下一个新的命令:【自动分段扫描并返回段落归纳总结本文】( 演示视频

2️⃣ 主题模式:自动分段功能(此方式仅仅是分段,并不会返回每段的分析见解,演示视频

📚 适合场景

比较长的英文文章,不确定是否有可读必要的话,可以使用此方式来让阅读助手帮你阅读。

最近知道了 https://www.buzzing.cc 后就开始在它上面浏览感兴趣的资讯,而这个功能恰恰拯救了我时间不多的「难题」。 😂

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

简悦插件 · 阅读助手 2.4.0 版

▎主题模式:实现超长文章的提问秒回机制(专治超长文章全文理解分析慢的问题)

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B站

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

📺 视频(一个例子)

利用主题功能在 这篇长文 中通过划分不同的主题进行提问实现: OpenAI 的秒回(且基于当前文章的长文机制下)。

知乎视频 | B站

✴️ 起因

因为 GPT 3.5 的限制导致,最多能传 4096 个 Token(一个汉字约等于2个 Token),所以当遇到超长文章的时候会将这篇文章分段进行理解分析。( 2.3.0 版优化了这一个过程,使之只做一次全文扫描),虽然在一定程度上解决了这个问题,但如果分段太多也会比较慢。

💡 解决方案

通过框选或划选任意内容形成一个【提问主题】,每次在提问时都会以这个主题为参考基准,因此解决了:

• 可以不使用分段扫描的方式对全文进行扫描。

• 超长文章一般都会有大量的段落来辅助用户阅读,所以需要划取这些段落一来可以解决这个问题,二来也可以有针对性的提问,这样的回复速度最快。

📚 主题模式

在对话场景中选择:【主题模式】即可开启此功能,功能:

1️⃣ 框选添加:通过框选的方式添加,可反复多次添加。

2️⃣ 划选添加:通过鼠标拖拽后的内容添加,可反复多次添加。

3️⃣ 预览编辑:为了方便分辨不同的主题,可以通过预览的方式查看,同时也支持编辑。

4️⃣ 删除

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

简悦插件 · 阅读助手 2.3.0 版

▎优化长文理解逻辑,比之前的版本每次提问都会至少快一倍以上。

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B 站视频

💡
各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🔖 2.3.0 版本新功能说明

Important 重构了首次分析长文时的逻辑,比之前的版本每次提问都会快至少一倍以上。(此过程仅限首次使用,配合 Stream 模式,体验无等待反馈效果

Add 划选模式,包括:理解任意内容 · 翻译为英文 · 翻译为中文。( 视频效果

Optimize 场景选择框为浮动方案 &【框选/划选】后的内容也加入到对话中,让对话 Thread 更合理。

💡 能做什么

理解 全文标注 ,你可以在此基础上对阅读助手提任何问题:

• 生成一份阅读笔记。

• 遇到不理解的词汇,直接使用词条模式,返回解释。(省去了打开 Google 检索的步骤)

• 请用 Zettelkasten 笔记法为我的标注做一份笔记吧。

更多高级玩法 👉 /posts/545

🤖 支持多种场景

1️⃣ 预设模式 → 内置了一些现成的「命令」,点击后直接发给 OpenAI

2️⃣ 提问模式 → 可选 全文标注 进行提问

3️⃣ 问答模式 → 类似于内置 ChatGPT 聊天,可以发送任何内容的问题

4️⃣ 词条模式 → 直接输入词条,返回词条解释

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

简悦插件 · 阅读助手 2.2.0 版

▎流式回复,让你感觉更丝滑的 2.2.0 版发布啦 🎉

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B 站视频

💡
各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🔖 2.2.0 版本新功能说明

Add 流式回复(OpenAI API stream mode 方案,视频效果

Fix 历史记录关闭后仍可以记录的错误

💡 能做什么

理解 全文标注 ,你可以在此基础上对阅读助手提任何问题:

• 生成一份阅读笔记。

• 遇到不理解的词汇,直接使用词条模式,返回解释。(省去了打开 Google 检索的步骤)

• 请用 Zettelkasten 笔记法为我的标注做一份笔记吧。

更多高级玩法 👉 /posts/545

🤖 支持多种场景

1️⃣ 预设模式 → 内置了一些现成的「命令」,点击后直接发给 OpenAI

2️⃣ 提问模式 → 可选 全文标注 进行提问

3️⃣ 问答模式 → 类似于内置 ChatGPT 聊天,可以发送任何内容的问题

4️⃣ 词条模式 → 直接输入词条,返回词条解释

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

简悦插件 · 阅读助手 2.1.0 版

▎ 可以理解当前文章 / 标注的内容,你可以提任何问题,并以对话(聊天形式)展示。

🔗 教程 | 知乎 | 竹白 | 即刻 | 推特 | 简悦社群 | 知乎视频 | B 站视频

💡
各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🔖 2.1.0 版本新功能说明

• 暗色模式 & 自动暗色模式

• 支持 Ctrl + Enter 发送

• 历史记录(开启后,每次的会话内容都会被保存)

• 工具栏,包括:复制 / 编辑 / 以 Markdown 形式显示(鼠标移上时显示)

💡 能做什么

理解 全文标注 ,你可以在此基础上对阅读助手提任何问题:

• 生成一份阅读笔记。

• 遇到不理解的词汇,直接使用词条模式,返回解释。(省去了打开 Google 检索的步骤)

• 请用 Zettelkasten 笔记法为我的标注做一份笔记吧。

更多高级玩法 👉 /posts/545

🤖 支持多种场景

1️⃣ 预设模式 → 内置了一些现成的「命令」,点击后直接发给 OpenAI

2️⃣ 提问模式 → 可选 全文标注 进行提问

3️⃣ 问答模式 → 类似于内置 ChatGPT 聊天,可以发送任何内容的问题

4️⃣ 词条模式 → 直接输入词条,返回词条解释

📈 安装与升级

1️⃣ 没有【使用同步助手 · 自动同步】的话,可通过上面的链接安装。

2️⃣ 已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

3️⃣ 如果已安装上述插件,需要使用 插件管理器升级的话 请看这里

🔎 关联

查看 #OpenAI此链接 得到更多简悦联动方案。

 
 
Back to Top