▎ 分享我经常使用的 LLMs
🔗 GitHub | 语雀 | 永久链接
📝 写在前面
简悦的很多功能都接入了 AI,例如:阅读助手、全文翻译、划词翻译,甚至 专门用于导出简悦稍后读内容以用于 RAG 的插件。
接下来聊聊我经常使用的模型。
💻 SiliconFlow
1️⃣
Qwen/Qwen2.5-7B-Instruct
首选模型,来自阿里的非推理型模型,具有小巧、简单、快速的特点。
2️⃣
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
推理模型,速度相对较慢,作为对
Qwen/Qwen2.5-7B-Instruct
的补充。当我使用全文翻译的
左右栏 + 一次性全文翻译
功能时就会选用此模型,它能将英文内容更符合中文语义地转换为中文。3️⃣
THUDM/glm-4-9b-chat
来自智谱的 AI 模型,支持 128K 上下文,因此在处理超长文章时我会使用此模型。
例如在使用 RAG 方案时,由于输入给 LLM 的内容通常很大,这时就会考虑使用此模型。
🌐 OpenRouter
1️⃣
deepseek/deepseek-chat-v3-0324:free
由于 SiliconFlow 不免费支持 DeepSeek v3-0324 版本,我改用 OpenRouter 提供的免费方案。
虽然主要对标
Qwen/Qwen2.5-7B-Instruct
但从我的使用体验来看,两者差异并不明显。2️⃣ 其他备选
使用 OpenRouter 的优势是可以经常体验较新的 LLM 模型,如:
📗 Google Gemini 2.5 Pro Experimental
📘 Meta Llama 4
📙 NVIDIA Llama 3.3
🌋 火山引擎
1️⃣
doubao-1-5-pro-256k-250115
来自字节跳动的大模型,支持 256K 上下文的对话模型,使用体验良好,特别是与简悦 MCP + ChatWise 搭配使用时效果最佳。
虽然是收费模型,但火山引擎提供了充足的免费额度,完全能满足日常使用需求。
🔗 关联
📖 阅读助手
🌐 全文翻译
🔤 划词翻译
🔎 延伸阅读
点击 #OpenAI 或 这里 查看更多