
1 icinessz 2025 年 10 月 10 日 qwen3:4b-instruct-2507-q4_K_M 本地这种小模型都行 |
2 anghunk 2025 年 10 月 10 日 我一直在用硅基的 THUDM/glm-4-9b-chat 翻译 |
3 wangxiao20170401 2025 年 10 月 10 日 via Android 换成国内的,用起来确实舒服多了,速度很快 |
4 cokyhe 2025 年 10 月 10 日 求问:deepseek 有专门翻译接口吗?提问翻译的时候,怎么能仅仅返回翻译结果? |
6 ruanimal 2025 年 10 月 11 日 感觉纯翻译,豆包的效果就很好了 |
7 razertory 2025 年 10 月 11 日 纯翻译,自己一个人用可以虑上量化模型平台,比如 Groq 或者 Cerebras 。速度又快免费额度又大 |
8 izToDo 2025 年 10 月 11 日 现在在用免费的 GLM-4.5-Flash ,速度还可以,翻译质量还可以。 |
9 midraos 2025 年 10 月 11 日 我用的 openai api ,累计充了 100 刀,现在每天送 1M 的 GPT-5 的额度和 10M 的 GPT-5-mini 的额度,用于翻译绰绰有余 |
10 xyfan 2025 年 10 月 11 日 我用在 zotero 中做翻译,由于 PDF 中时常有有行号、乱码、跨页等问题,使用 deepseek 效果比谷歌翻译等传统翻译效果好很多,就是速度稍慢。 |
11 wonderfulcxm 2025 年 10 月 11 日 可以的,接入沉浸式翻译一直开着,每个月不到 3 块 |
12 lin41411 2025 年 10 月 11 日 |
13 Selune 2025 年 10 月 11 日 用的腾讯混元的 Hunyuan-MT-7B 在线,质量还行 |
14 SeaSaltPepper 2025 年 10 月 11 日 常年多个模型同时翻译对比,主流模型翻译质量都大差不差,同时使用多个模型基本都能得到最合适的翻译。DeepSeek ,K2, GLM4.5 Air ,Qwen 选一个比较快的就行。 |
15 chunhuitrue 2025 年 10 月 11 日 你用的什么翻译工具?浏览器的插件?求推荐。 |
16 YanSeven OP @chunhuitrue 虽然沉浸式翻译暴雷了,但是目前体验最佳的感觉还是沉浸式翻译。 日常网页翻译也还较为流畅。 然后 pdf ,epub 等文档翻译也优于传统翻译工具,我也已经翻译了好几本书了 但是,还是要注意,它确实爆过雷,泄露用户数据了。 |
17 PositionZero 2025 年 10 月 12 日 via Android DeepSeek 官方 API 太慢了。楼上说的 Groq 或者 Cerebras 就不错,速度( TPS )能到 DeepSeek 的几十倍。 |
18 wshjdx 2025 年 10 月 12 日 via Android 我用在 freshrss 中翻译标题,充值了 100 ,每月用量一块多钱,确实绰绰有余 |
20 Zy143L 2025 年 10 月 12 日 那你纯浪费了..V3 没必要 翻译也用不着 R 系推理 找个小模型 qwen 的或者豆包的 lite 模型都能很好解决 |
21 chunhuitrue 2025 年 10 月 13 日 @SGL 还好,我没用过这个。我一直都没用过翻译软件,最多就是 mac 自带的选择一段话-->翻译(贼烂)。豆包浏览器插件试过,觉得不好用。卸载了。 目前还在用 mac 自带...所以打算找个合适的。那看来还真没有。 |
22 chspy 2025 年 10 月 13 日 我一直用 ppio ,这个国内国外都有,我用着挺稳定的,可以用 WF34BQ |
23 andykuen959595 2025 年 10 月 13 日 我用的有道,送了 100 元,还没用完 |
24 hanguofu 2025 年 10 月 14 日 via Android 听说中文翻译效果最好的是阿里巴巴的 qwen3-flash-translator |
25 odyssuse 2025 年 10 月 14 日 你们都是怎么使用的,用 api 接入,自己的 app 么? |