简悦的发布通道,简悦 - 让你瞬间进入沉浸式阅读的 Chrome 扩展,还原阅读的本质,提升你的阅读体验。地址 https://simpread.pro 讨论群地址 https://t.me/simpreadgroup
五一宅家玩简悦 · 第一期 - 精选近期已发布但未正式通告的插件

▎ 五一特辑预计 2 ~ 3 期 😄

🔗永久链接 | 知乎 | Newsletter

✍️ Live Editor 2.0

https://simpread.ksria.cn/plugins/details/y8Mai5IBwN

拖了好久的 2.0 版终于发布了 😅 2.0 版重新为大家带来了【富文本编辑】。

1.x 版本因为与标注功能冲突,所以下线了此功能,2.0 版我重写了富文本编辑功能,支持:粗体 / 斜体 / 下划线 / 删除线 / 引用 / 代码块 / H1 ~ H3 / 清除样式

注意:跟已成熟的第三方 Library 在易用性上有些区别,简单使用完全没问题 😄

🔗 关联标注

https://simpread.ksria.cn/plugins/details/spyfPXfEmr

顾名思义,通过此插件可以查找任意标注与你的稍后读相似的标注,核心功能:

1️⃣ 语句相似性匹配(基于文本特征)

2️⃣ AI语义检索匹配

3️⃣ 智能推荐关联标注内容

🗺 标注地图

https://simpread.ksria.cn/plugins/details/Yo9v5ubTrO

此插件结合了多个用户的建议形成的(包括我自己),针对多标注场景下的浏览痛点,功能包括:

1️⃣ 全标注内容集中展示

2️⃣ 快速定位到任意标注

3️⃣ 文档模式(类似 WorkFlowy ) 和 大纲模式(类似 Obsidian )

📤 导入到 WorkFlowy

https://simpread.ksria.cn/plugins/details/5rAnvS0kR6

不出意外的话,这应该是「内测」最长的一个插件了 😅 2022年7月份开始,历经20个月迭代优化。

我是 WorkFlowy 的重度用户,但 WorkFlowy 没有持导入功能的 API,所以为了更好的将简悦 → WorkFlowy ,我(主要仍是来自用户的催更 😂)开发了此插件。

即便在经常使用 Obsidian 和 Notion 的当下,有些很重要的标注内容,我也会通过此插件导入到 WorkFlowy 方便梳理,功能包括:

1️⃣ 突破原生导入限制

2️⃣ 无缝衔接简悦标注系统

简悦 MCP 助手

▎ 将简悦的稍后读功能接入 MCP 服务。

🔗 永久链接 | 教程 | 知乎 | 语雀 | Newsletter

能做什么

通过此工具可以将你的 simpread_config.json(以及本地快照)接入到任意大语言模型(LLMs),并内置了一些现成的工具方便您与稍后读内容进行交互。

📝 使用前提

1️⃣ 此项目基于 MCP 开发,安装 Node.js 运行环境后才能使用。

2️⃣ 由于需要访问您本地的 simpread_config.json 文件,因此需要安装并配置同步助手功能,该功能为高级账户专属,如有需要 请升级

3️⃣ 需要配置同步助手的自动同步与本地快照功能,配置方法 请看此教程

🏆 推荐客户端与 LLM 组合

在开发此工具期间,我们测试了多种支持 MCP 的客户端和大语言模型,目前效果最佳的组合为:ChatWise + Doubao 1.5 pro 256k(火山引擎)

📥 下载与配置

GitHub | 语雀

⚙️ 功能(工具)

📊 获取阅读简报 get_daily

输入指令如 今日阅读回顾 ,支持的关键词包括: 今日 昨日 本周 上周

🏷 标签检索 search_tag

输入指令如 请检索标签 AI战争 的内容 ,系统将生成相应简报。

当前标签检索采用模糊匹配方式,例如:aaa 会匹配 aaa aaa/bbb 等包含 aaa 关键字的标签。

🔍 内容检索 search_content

输入指令如 请检索包含 英伟达 的内容 ,系统将生成简报,检索范围包括: 标题 描述 标签 标注的备注 标注的文本内容 标注的标签

⚡️ 环境变量配置

1️⃣ SEARCH_SNAPSHOT

控制上述功能是否包含本地快照内容,默认不包含,启用后,检索结果将包含本地快照,可获得更精准的答案(但会相应增加 Tokens 消耗)。

👉 详细说明

2️⃣ PROMPT

自定义 LLM 的返回内容格式,默认会根据您的提问直接回答,同时系统也提供了默认回复模板。

👉 详细说明

🎁 彩蛋(预告)

五一期间宅家「玩简悦」,我会在小长假期间推送关于简悦的一些新插件与AI 联动的新玩法。

📚 引申

点击 #OpenAI 查看更多

聊聊利用简悦阅读英文资讯的几种常见方式

▎ 由于全文翻译与划词翻译现已支持与阅读助手相同的 GPT 4.1 系列模型及自定义 API,因此可以使用一些支持超长上下文且免费的大语言模型(LLM)来更好地支持英文阅读。

📋 前提回顾

全文翻译和划词翻译已支持 👉 自定义 API 和模型

🔌 利用简悦插件阅读英文资讯

👉 详细说明

我阅读英文内容的主要目的是查看资讯(英文类技术文档除外),所以大部分情况下无需逐句翻译,只需了解感兴趣文章的大致内容即可。

所以我更习惯使用:全文翻译的左右栏 + 一次性返回全部翻译 + 自定义 Prompt 方案,告诉 LLM 不要逐字逐句的翻译,而是将全文按照中文语境和逻辑理解后的中文理解。

🎓 利用简悦的沉浸式阅读环境学习英语

👉 详细说明

简悦的沉浸式阅读非常适合专注学习,如果希望通过简悦学习英语单词(如四六级词汇),可以试试简悦用户开发的一款 Chrome 浏览器扩展 LingKuma。

在简悦阅读模式下,LingKuma 可以自动高亮生词(例如导入四六级词汇表),点击即可查看 AI 提供的释义和讲解。

🚀 其他实用功能

👁‍🗨 仿生阅读(Bionic Reading):高亮单词前 40% 的字母,加速阅读,强化视觉记忆。

📏 阅读标尺(Reading Ruler):鼠标跟随高亮尺子,提升专注力。

🎬 YouTube 字幕处理:AI 自动添加标点,显示完整句子,支持使用 ASD 键控制字幕播放,方便练习听力。

📋 剪贴板监听:可高亮浏览器外的文本!(例如:配合 Luna Translator 监听游戏,实现跨软件高亮)。

🔊 文字转语音(TTS)支持:集成 MiniMax TTS,提供 200 多种音色,并支持声音克隆。

🤝 简悦「搭子」

简悦支持任意第三方浏览器扩展,如沉浸式翻译等。首先对原文进行翻译,然后右键 → 鼠标划取任意区域生成阅读模式,这样双语内容也会一同生成阅读模式,之后就可以在简悦中阅读。

同时,这种方式可以完美地将双语内容导入到 Obsidian、Notion 等简悦插件支持的笔记应用中。

🔎 关联

查看更多 #英语学习 得到更多相关信息

利用全文翻译与划词翻译让你更好的阅读英文资讯

▎ 全文翻译与划词翻译功能现已支持与阅读助手相同的 GPT 4.1 系列模型及自定义 API

🔗 永久链接 | 知乎 | Newsletter

📥 全文翻译 3.0.1 & 3.0.2

https://simpread.ksria.cn/plugins/details/Y7JxbP7B4H

📥 划词翻译 2.2.1 & 2.2.2

https://simpread.ksria.cn/plugins/details/ohnTKVHz4a

🔄 更新说明

1️⃣ 新增对任意API结构的支持(API结构可与OpenAI不同,但返回数据结构需与OpenAI保持一致)

2️⃣ 更新至最新的GPT 4.1系列模型,包括: gpt-4.1-mini gpt-4.1-nano gpt-4.1

3️⃣ 去掉了已被 GPT 淘汰的 gpt-3.5-turbo gpt-4o-mini

📚 如何利用这两个简悦插件阅读英文资讯

▎ 除了安装上面提到的两个插件外,我还安装了 英文阅读版面辅助增强 插件,仅需要下面几个设置

🛠 英文阅读版面辅助增强

1️⃣ 启用白名单功能(仅在指定域名下生效)

2️⃣ 字体选择【非衬线字体(加强版)】

3️⃣ 字号设置为【适合英文阅读(较大字体和字间距)】

🌐 全文翻译

1️⃣ 开启白名单功能

2️⃣ 启用段落翻译

3️⃣ 启用左右栏对照翻译模式

4️⃣ 开启一次性翻译功能

✏️ 划词翻译

1️⃣ 采用【鼠标点击触发翻译】

2️⃣ 在浮动标注栏显示翻译图标

3️⃣ 关闭生词本功能

🔎 关联

查看更多 #英语学习 得到更多相关信息

简悦插件 · 阅读助手 4.0.2 版

▎ 内置最新 GPT 4.1 系列模型的阅读助手现已发布

💡 各版本说明

1.0.0 · 1.1.0 · 1.2.0 · 2.0.0 · 2.1.0 · 2.2.0 · 2.3.0 · 2.4.0 · 2.4.1 · 2.5.0 · 3.0.0 · 3.1.0 · 3.2.0 · 3.3.0 4.0.0 & 4.0.1

📥 下载地址

https://simpread.ksria.cn/plugins/details/Mv55R9uIOF

🤖 内置 GPT 4.1 模型系列

包括: gpt-4.1-mini gpt-4.1-nanogpt-4.1

🚫 已移除部分被 GPT 淘汰的旧模型

包括: gpt-3.5-turbo gpt-4o-mini gpt-4o gpt-4 gpt-4-turbogpt-4-32k

当选择这些旧模型时,阅读助手会自动转换为对应的 4.1 系列模型

💡 小提示

1️⃣ 如何使用任意 GPT 模型

如需使用 GPT 4.5 模型,请选择【自定义模型】选项,然后输入 gpt-4.5-preview 即可。

2️⃣ 如何使用 DeepSeek R1 模型

操作方式同上,只需将模型名称改为 deepseek-reasoner 即可。

📈 安装与升级

没有【使用同步助手 · 自动同步】的话,可通过 此链接 安装。

已经【使用同步助手 · 自动同步】的话,请使用 插件管理器 安装。

🔎 引申

聊聊我经常使用的免费 LLM 模型

点击 #OpenAI 查看更多内容

聊聊我经常使用的免费 LLM 模型

▎ 分享我经常使用的 LLMs

🔗 永久链接 | GitHub | 语雀 | Newsletter

📝 写在前面

简悦的很多功能都接入了 AI,例如:阅读助手全文翻译、划词翻译,甚至 专门用于导出简悦稍后读内容以用于 RAG 的插件

接下来聊聊我经常使用的模型。

💻 SiliconFlow

1️⃣ Qwen/Qwen2.5-7B-Instruct

首选模型,来自阿里的非推理型模型,具有小巧、简单、快速的特点。

2️⃣ deepseek-ai/DeepSeek-R1-Distill-Qwen-7B

推理模型,速度相对较慢,作为对 Qwen/Qwen2.5-7B-Instruct 的补充。

当我使用全文翻译的 左右栏 + 一次性全文翻译 功能时就会选用此模型,它能将英文内容更符合中文语义地转换为中文。

3️⃣ THUDM/glm-4-9b-chat

来自智谱的 AI 模型,支持 128K 上下文,因此在处理超长文章时我会使用此模型。

例如在使用 RAG 方案时,由于输入给 LLM 的内容通常很大,这时就会考虑使用此模型。

🌐 OpenRouter

1️⃣ deepseek/deepseek-chat-v3-0324:free

由于 SiliconFlow 不免费支持 DeepSeek v3-0324 版本,我改用 OpenRouter 提供的免费方案。

虽然主要对标 Qwen/Qwen2.5-7B-Instruct 但从我的使用体验来看,两者差异并不明显。

2️⃣ 其他备选

使用 OpenRouter 的优势是可以经常体验较新的 LLM 模型,如:

📗 Google Gemini 2.5 Pro Experimental

📘 Meta Llama 4

📙 NVIDIA Llama 3.3

🌋 火山引擎

1️⃣ doubao-1-5-pro-256k-250115

来自字节跳动的大模型,支持 256K 上下文的对话模型,使用体验良好,特别是与简悦 MCP + ChatWise 搭配使用时效果最佳。

虽然是收费模型,但火山引擎提供了充足的免费额度,完全能满足日常使用需求。

🔗 关联

📖 阅读助手

🌐 全文翻译

🔤 划词翻译

🔎 延伸阅读

点击 #OpenAI 查看更多

Back to Top