
RT ,小弟英语水平半吊子,如果有这个神器就可以事半功倍。
1 wheat0r 2024-02-29 19:00:25 +08:00 先用 deepl 凑合一下 |
2 UXha45veSNpWCwZR 2024-02-29 19:03:29 +08:00 via iPhone 谷歌不是直接可以翻译整页吗?难道他翻译得不够好? |
3 zapper 2024-02-29 19:04:49 +08:00 |
4 iceAD 2024-02-29 19:06:41 +08:00 |
5 robotcator 2024-02-29 19:08:04 +08:00 monica 可以看看 |
6 yoyoluck 2024-02-29 19:08:46 +08:00 有个叫 沉浸式翻译 的挺好用的 https://immersivetranslate.com/ |
7 |
8 SeleiXi 2024-02-29 20:25:54 +08:00 via Android sider |
9 Yzh361 2024-02-29 22:06:24 +08:00 via Android 自动翻译网页这么简单的事情…不是早就实现了嘛 |
10 m1nm13 2024-02-29 22:28:46 +08:00 楼上说的沉浸式翻译的确可以,就是用 OPENAI API 的价格,太美丽了。。。根本顶不住 所以我想问问有没有支持本地 ollama 之类的模型的翻译插件 我找了半天,愣是没找到一个 |
11 icaolei 2024-02-29 22:31:46 +08:00 沉浸式翻译之前爆出“假开源”事件,参见: 10k+ star 的项目也搞假开源 t/961178 沉浸式翻译这事,多说几句 t/962364 推荐一个开源实现: https://github.com/fishjar/kiss-translator 已上架 Chrome Edge 商店,另外还有油猴脚本可选,作者也在 V 站:@fishjar |
13 icaolei 2024-02-29 22:34:00 +08:00 @m1nm13 #10 https://github.com/fishjar/kiss-translator 这个开源的网页翻译插件支持自定义翻译接口,可能可以满足你的需求。 |
15 e1d4py0KiD6KgqkQ 2024-02-29 22:53:16 +08:00 via Android 网页漫画图片翻译的有没有 |
20 qhx1018 2024-03-01 00:32:47 +08:00 DeepL |
22 lovestudykid 2024-03-01 01:19:24 +08:00 @m1nm13 #10 一般的翻译,用 3.5 的 api 就够了,价格不会太贵 |
23 gitreny 2024-03-01 08:41:21 +08:00 为什么不试试沉浸式翻译呢 |
24 sola97 2024-03-01 09:10:33 +08:00 @m1nm13 ollama 支持 openapi 方式调用了,在沉浸式翻译里只要把 key 设置为 ollama ,自定义模型名称就能跑 |
25 unco020511 2024-03-01 10:00:24 +08:00 沉浸式翻译 |
26 stanjia 2024-03-01 13:34:16 +08:00 推荐楼主用 [https://sider.ai/] 安好后会在网页有悬浮图标,点 [翻译] 会翻译当前网页。 如果对你有帮助请给我点 [] |
27 Chance19 2024-03-01 13:35:47 +08:00 via Android @sola97 具体怎么设置知道么,比如我的 ollama 地址是 192.168.1.11,模型 llama2:7b ,我该怎么设置才能让沉浸翻译工作 |
28 m1nm13 2024-03-01 15:47:03 +08:00 |
29 m1nm13 2024-03-01 15:54:15 +08:00 @m1nm13 #28 即使我关了 edge://flags/#block-insecure-private-network-requests 也没有效果,依旧 403 |
30 sola97 2024-03-01 18:16:09 +08:00 via Android @m1nm13 启动 ollama 的时候,需要配置环境变量 OLLAMA_ORIGINS=*,我是在 systemctl 里加的 官方文档: https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama |
31 sola97 2024-03-01 18:18:15 +08:00 via Android @Chance19 具体可以看这个 issue https://github.com/ollama/ollama/issues/2308 |
33 m1nm13 2024-03-01 21:44:39 +08:00 |
34 Chance19 2024-03-02 08:42:30 +08:00 via Android 我就是直接在环境变量里面加上 ORIGINS 的这个变量解决,但是自建模型翻译质量太低,提示词设定你们怎么搞的 |
37 unclemcz 2024-03-02 21:32:01 +08:00 via Android 同求一个 ollama 支持的模型,我在用 qwen ,翻译质量很一般。 |
38 sola97 2024-03-04 10:11:16 +08:00 @unclemcz 我用 2080ti 22g 跑了一个 sus-chat 的 34b 模型( q3-K-S 版本大概 16G ),在沉浸式翻译中比 qwen 的 14b 要稳定效果好 我是下载的 guff 然后用 ollama create 自己构建的 |
40 sola97 2024-04-14 14:16:50 +08:00 @unclemcz #39 我现在改成白嫖了,算了下送的 token 等效于我拿显卡本地跑半个月 https://platform.lingyiwanwu.com/docs |