
目前想要批量翻译 5000 个文件到 10 国语言 请问用哪个平台跟大模型比较推荐,谢谢!
目前用 deepseek r1 ,但好慢跟幻翻译
1 tho Jun 6, 2025 via iPhone 单纯翻译,肯定 deepl 最快最方便,不用等过程 |
2 hammy Jun 6, 2025 其实也不需要非要 ai 把,传统的神经网络翻译 mt 就可以了 |
3 misaka19000 Jun 6, 2025 gpt 就可以,或者 Gemini |
4 liu731 PRO o4-mini 就行 |
5 neteroster Jun 6, 2025 Gemini 2.5 Flash (思考关闭), DeepSeek V3 0324 |
6 mumbler Jun 6, 2025 我们的经验是,gemma3 翻译最好,4B 可用最快,12B 更高质量,27B 与 12B 差距不大 |
7 msg7086 Jun 7, 2025 Gemini 2.5 Pro 和 Claude 都是第一梯队。用不起的话 Gemini 2.5 Flash 也还可以。 |
8 yinmin Jun 7, 2025 via iPhone deepseek 是思考模型不适合翻译,翻译要用 deepseek v3 |
9 yinmin Jun 7, 2025 via iPhone deepseek r1 是思考模型不适合翻译,翻译要用 deepseek v3 |
10 msg7086 Jun 7, 2025 @yinmin 我是长期在用 ds v3 的,翻译准确度来说我觉得还是堪忧,翻译过程中各种省略内容,一篇文章翻完就剩半篇的量了。遣词造句比其他模型强,大概是用了很多中文语料,但是如果希望准确翻译的话我觉得不太行。 |
11 littlemis OP 谢谢大佬们! 我使用 o4-mini 、gemma3 、Gemini 2.5 Pro 来测试 |
13 V2yr Jun 7, 2025 via iPhone 坐等更新测评 |
14 sickoo Jun 7, 2025 gemini 2.5 Pro 稳稳的 T0 ,或者可以用字节飞书内置的翻译 |
15 littlemis OP ollama 的本地 llm 测试结果都非常差 只有用云端 api 的版本好,目前用 gpt4.1 效果跟 cp 值还算不错 |
16 unclemcz Jun 8, 2025 via Android 本地模型的话 qwen3:14b 以上就挺不错了,如果觉得速度慢就关闭思考模式,nothink 模式速度有巨大提升。ds-r1 用来做翻译不适合,思考太多,加料太多,太自以为是了。 如果文档不敏感,那就直接用 api 吧,质量速度都有保证。 |
17 bbsingao Jun 12, 2025 现在正在用 qwen3:32B api,nothink 模式,不过看网页感觉和 7B 也没啥区别。 也许长文本会有差距吧。 |