请问速度跟翻译准确度都不错的大模型推荐 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
littlemis

请问速度跟翻译准确度都不错的大模型推荐

  •  
  •   littlemis Jun 6, 2025 2273 views
    This topic created in 324 days ago, the information mentioned may be changed or developed.

    目前想要批量翻译 5000 个文件到 10 国语言 请问用哪个平台跟大模型比较推荐,谢谢!

    目前用 deepseek r1 ,但好慢跟幻翻译

    17 replies    2025-06-12 14:53:15 +08:00
    tho
        1
    tho  
       Jun 6, 2025 via iPhone
    单纯翻译,肯定 deepl 最快最方便,不用等过程
    hammy
        2
    hammy  
       Jun 6, 2025
    其实也不需要非要 ai 把,传统的神经网络翻译 mt 就可以了
    misaka19000
        3
    misaka19000  
       Jun 6, 2025
    gpt 就可以,或者 Gemini
    liu731
        4
    liu731  
    PRO
       Jun 6, 2025
    o4-mini 就行
    neteroster
        5
    neteroster  
       Jun 6, 2025
    Gemini 2.5 Flash (思考关闭), DeepSeek V3 0324
    mumbler
        6
    mumbler  
       Jun 6, 2025
    我们的经验是,gemma3 翻译最好,4B 可用最快,12B 更高质量,27B 与 12B 差距不大
    msg7086
        7
    msg7086  
       Jun 7, 2025
    Gemini 2.5 Pro 和 Claude 都是第一梯队。用不起的话 Gemini 2.5 Flash 也还可以。
    yinmin
        8
    yinmin  
       Jun 7, 2025 via iPhone
    deepseek 是思考模型不适合翻译,翻译要用 deepseek v3
    yinmin
        9
    yinmin  
       Jun 7, 2025 via iPhone
    deepseek r1 是思考模型不适合翻译,翻译要用 deepseek v3
    msg7086
        10
    msg7086  
       Jun 7, 2025
    @yinmin 我是长期在用 ds v3 的,翻译准确度来说我觉得还是堪忧,翻译过程中各种省略内容,一篇文章翻完就剩半篇的量了。遣词造句比其他模型强,大概是用了很多中文语料,但是如果希望准确翻译的话我觉得不太行。
    littlemis
        11
    littlemis  
    OP
       Jun 7, 2025
    谢谢大佬们! 我使用 o4-mini 、gemma3 、Gemini 2.5 Pro 来测试
    idblife
        12
    idblife  
       Jun 7, 2025 via iPhone
    @littlemis
    期待测试结果
    V2yr
        13
    V2yr  
       Jun 7, 2025 via iPhone
    坐等更新测评
    sickoo
        14
    sickoo  
       Jun 7, 2025
    gemini 2.5 Pro 稳稳的 T0 ,或者可以用字节飞书内置的翻译
    littlemis
        15
    littlemis  
    OP
       Jun 7, 2025
    ollama 的本地 llm 测试结果都非常差
    只有用云端 api 的版本好,目前用 gpt4.1 效果跟 cp 值还算不错
    unclemcz
        16
    unclemcz  
       Jun 8, 2025 via Android
    本地模型的话 qwen3:14b 以上就挺不错了,如果觉得速度慢就关闭思考模式,nothink 模式速度有巨大提升。ds-r1 用来做翻译不适合,思考太多,加料太多,太自以为是了。
    如果文档不敏感,那就直接用 api 吧,质量速度都有保证。
    bbsingao
        17
    bbsingao  
       Jun 12, 2025
    现在正在用 qwen3:32B api,nothink 模式,不过看网页感觉和 7B 也没啥区别。 也许长文本会有差距吧。
    About     Help     Advertise     Blog     API     FAQ     Solana     6080 Online   Highest 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 88ms UTC 02:29 PVG 10:29 LAX 19:29 JFK 22:29
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86