我想我是有什么病的,暂且叫间歇性信息饥渴症吧。
发作时会疯狂订阅 RSS 源、关注 Medium 博主、加入 Reddit 版块......
后遗症是一段时间后就会积累很多待读文章或帖子,多到不敢打开这些网站。
当鼓足勇气打开这些网站后,通常我会快速浏览,遇到感兴趣的内容再细读,但这存在两个问题:
为了解决这两个问题,我开发了 Summa 插件,旨在帮助用户(我自己)快速浏览大量文章。
Summa 是一款 Chrome 扩展,利用 AI 对网页内容进行总结。无论是博客文章还是论坛帖子,只需点击扩展图标,即可获得当前页面核心内容,包括摘要、主要内容和关键结论。
总结微信公众号文章
总结 Hacker News 长贴
总结 Medium 博客文章
![]() | 1 9420JackT 282 天前 https://telegraph-image-92x.pages.devundefined |
![]() | 2 9420JackT 282 天前 |
![]() | 3 1Z3KYa0qBLvei98o 282 天前 deepseek 花这么点钱就能训练出 4o 一样的模型, 我不知道老美是傻还是技术不行, 还是国内太内卷了. |
![]() | 4 lasuar 282 天前 没有一个 key 是免费的。。 |
![]() | 5 34433kp58111R75i 282 天前 ![]() 很不错的项目~ |
![]() | 6 GG668v26Fd55CP5W 282 天前 via iPhone 有一个刚需,把 V2EX 收藏的帖子总结并汇总成电子书。已经收藏了接近 1500 多个了,从来没看过。 |
![]() | 7 GG668v26Fd55CP5W 282 天前 via iPhone 还有 GitHub 的 star ,很多只是躺在那里,一个个点进页面还是不方便,希望可以批量处理。 |
8 silvon OP |
9 silvon OP ![]() @DamonXPlus 感谢认可。虽然大部分代码是用 Cursor 写的,但其实我自己也没少费脑筋,中间还走了不少弯路。尤其是在前期选择如何提取页面正文时,踩了不少坑。一开始尝试用 firecrawl ,但这个框架会把页面中的其他内容也抓取下来,比如导航栏、侧边栏之类的。后来尝试自己写代码从页面提取正文,但发现只能适配少数网站,实用性很差。最后偶然发现了 Mozilla 的 readability 库,这个库专门用来从网页中提取主要的可读内容,过滤掉广告、导航和其他无关元素,正好符合需求。 |
10 ColoThor 281 天前 支持 firefox 吗 |
12 Ma4cus 281 天前 想问下开发 chrome 插件有什么脚手架吗? |
13 Ma4cus 281 天前 ![]() 提个建议,回答改成流式输出的,不然回答完成前要等待好久 |
14 silvon OP @Ma4cus 我是基于 https://github.com/lxieyang/chrome-extension-boilerplate-react 这个 chrome 插件模板开发的,该模板搭建好了 React + Webpack 的开发脚手架。 也有使用 React + Vite 的开发脚手架,比如这个项目: https://github.com/Jonghakseo/chrome-extension-boilerplate-react-vite 。 人气高(start 2.7k ),且更新频繁很活跃。 |
16 gzcrtw 280 天前 能不能加个自定义 endpoint 的功能 |
17 silvon OP @gzcrtw 模型提供商中的 OpenAI Like 确实支持自定义 endpoint ,但目前界面上未显示 API 地址输入框,这是一个 bug 。目前修复代码已经提交到 https://github.com/silvonli/Summa.git ,你可以选择自行打包插件进行加载,或者等待我提交到 Chrome 商店。不过,具体审核通过的时间暂时无法确定。 |
![]() | 18 ahtian928 280 天前 ![]() 感谢分享 用 deepseek 的 API 也可以 |
![]() | 19 laox0 279 天前 使用其他 API 没问题,但使用本地 Ollama 调用 DeepSeekV2 模型,会报 [总结时发生错误: Failed after 3 attempts. Last error: Internal Server Error] 我的 ollama 功能是正常的,是不是我的模型 ID 填写的有误:我填写的是 [deepseek-v2] |
20 silvon OP @laox0 DeepSeek V2 的模型 ID 应该是类似 "deepseek-v2:16b" 或 "deepseek-v2:236b" 这样的格式。可以通过运行 ollama list 命令看看本地有哪些模型以及对应的 ID 。比如,如果你已经下载了 deepseek-v2:16b ,模型 ID 就是 "deepseek-v2:16b"。 不过我这边没法跑 Ollama ,所以可能不完全准确,具体还得你自己确认下~ |
![]() | 21 laox0 279 天前 @silvon #20 ollama list 命令返回的内容是: NAME ID SIZE MODIFIED deepseek-v2:latest 7c8c332f2df7 8.9 GB 10 minutes ago 模型 ID 改为"deepseek-v2:16b" 或 "deepseek-v2:236b"之后,报错现象变为立马报错,并提示 [总结时发生错误: Not Found] 如果用"deepseek-v2",至少还会转圈加载,提示总结完成,然后才报错 |
22 silvon OP @laox0 从 ollama list 的返回来看,模型 ID 好像是 "deepseek-v2:latest 7c8c332f2df7",看起来 Ollama 可能有自己的一套本地命名规则。你可以试试用 "deepseek-v2:latest 7c8c332f2df7" 或者 "deepseek-v2:latest" 作为模型 ID ,看看能不能行~ |
![]() | 23 Is0 247 天前 可以支持硅基流动的 api 吗,其他几个国内不是很稳定 |
24 silvon OP @Is0 我正在增加对硅基流动、TogetherAI 和 Hyperbolic 的支持。不过,在测试过程中,我发现硅基流动在调用 DeepSeek R1 和 DeepSeek V3 时速度较慢,不清楚具体原因。此外,TogetherAI 和 Hyperbolic 的响应速度也不算快。 |
26 silvon OP ![]() @Is0 LLM 服务商现在支持硅基流动,代码已经推到 https://github.com/silvonli/Summa.git 。另外,还加了多个总结切换的功能。先测试两天,没问题的话就提交到 Chrome 商店! |