现在还有人需要“翻译 API 服务”吗? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
这是一个专门讨论 idea 的地方。

每个人的时间,资源是有限的,有的时候你或许能够想到很多 idea,但是由于现实的限制,却并不是所有的 idea 都能够成为现实。

那这个时候,不妨可以把那些 idea 分享出来,启发别人。
vagranth
V2EX    奇思妙想

现在还有人需要“翻译 API 服务”吗?

  •  
  •   vagranth 251 天前 4443 次点击
    这是一个创建于 251 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我知道现在各种免费的工具已经很好用了,像“沉浸式翻译”这种插件,直接看外文网页时已经不存在任何问题。

    但不知道是不是还有人需要翻译 API 服务,并且愿意为此付费的。

    我前几天写了一个自己用,只是一个简单库,还没封装成独立应用。

    其实本质就是简单把 LLM 接口包一下就行,不算难,只是依赖外部 LLM 服务。

    所以就算收费也不会太高,而且是一次性的。

    不知道这样的产品有没有需求。

    31 条回复    2025-04-07 09:52:14 +08:00
    OHYOLO
        1
    OHYOLO  
       251 天前 via iPhone
    一次性?而且沉浸式不就可以自定义 llm 吗
    linwuhi
        2
    linwuhi  
       251 天前
    开源吧
    mumbler
        3
    mumbler  
       251 天前
    LLM 服务是别人提供的,相当于你破解了,拿出来收费,为什么不直接跟硅基流动,火山引擎买 LLM API 呢,明码实价,你这个也许明天就不能用了
    vagranth
        4
    vagranth  
    OP
       251 天前
    @mumbler LLM API 都是公开的,不算破解。
    vagranth
        5
    vagranth  
    OP
       251 天前
    @OHYOLO 沉浸式翻译是插件,是在网页上给人用的。
    我说的是 API 服务,是把“翻译”功能做成了 API 给机器用的。
    vagranth
        6
    vagranth  
    OP
       251 天前
    @linwuhi 失业了,即使是再简单的东西,也不想开源了。
    mumbler
        8
    mumbler  
       251 天前
    @vagranth #4 谁的 LLM API 是公开的,有文档吗,QPM 限制吗,有鉴权吗
    vagranth
        9
    vagranth  
    OP
       251 天前
    @mumbler 呃,可能你对这些不了解?
    我自建的 ollama ,大概也就几条命令就能跑起来。
    然后就可以用 openai 接口去连,甚至 tool 也能跑。
    文档在 openai 或者 ollama 官网都有,无需鉴权。
    mumbler
        10
    mumbler  
       251 天前
    @vagranth #9 你自建的 Ollama ,那算力谁提供呢,你提供?还是用户本地部署
    vagranth
        11
    vagranth  
    OP
       251 天前
    @mumbler 用户本地部署
    xuld
        12
    xuld  
       251 天前
    如果是卖 api ,那就只能卖给程序员。
    如果你说你前几天写了一个自己用,意思是:写几天就搞定了。
    那请问程序员为什么不自己花几天时间搞定,而要买你的东西。

    这就好比让钢琴家花钱听别人弹钢琴,你觉得可能有人付费吗
    shewhen
        13
    shewhen  
       251 天前
    @vagranth #7 本地的 OLLMA 性能不强,翻译准确性不如直接复制出来找 gpt 了。。
    maymay5
        14
    maymay5  
       251 天前   2
    门槛太低,这个你即便是开源出来,用的人也不会多,收费那就更加没人了,To C 干不过 Pot 、Bob 这类,To B 他们可能不会去选择通用翻译,而是买有道这些大厂的专门用于垂直领域的专用翻译 API ,因为 To B 不需要通用,LLM 特点就是通用~
    clf
        15
    clf  
       251 天前
    门槛太低了。我对接 10 个翻译 api 也才 1 天不到的时间,甚至有些是从复杂网页提取翻译结果都不用多久。
    hammy
        16
    hammy  
       251 天前
    我觉得不太需要。
    不懂技术的不知道什么是 api
    懂技术的自己可以搞定 api
    位于中间的这群人,有 gt4t 这种产品存在许多年了
    sagaxu
        17
    sagaxu  
       251 天前
    腾讯阿里等都有免费 API ,简单聚合一下足够用了,哪用得着买服务
    M9l7chlLGv
        18
    M9l7chlLGv  
       251 天前
    我之前也写过一个类似项目(开源免费):
    t/1068946
    https://github.com/moeru-ai/arpk
    vagranth
        19
    vagranth  
    OP
       251 天前 via Android
    你们说的对,看来确实没什么需求
    lloovve
        20
    lloovve  
       251 天前 via iPhone
    包装 api 没用。有能力的都自己集成别的 api 了,如果你面对用户,可以封装成特殊场景 app
    vagranth
        21
    vagranth  
    OP
       251 天前 via Android
    @M9l7chlLGv 早知道有这个我就懒得自己写了
    vagranth
        22
    vagranth  
    OP
       251 天前 via Android
    @shewhen 说实话,准确性倒是超乎想象。我用的 gemma3 12b
    neteroster
        23
    neteroster  
       251 天前 via Android   1
    这种不是很多,就算细分领域都一大堆了,比如日语游戏小说翻译:

    https://github.com/NEKOparapa/AiNiee
    https://github.com/neavo/LinguaGacha

    还有提高翻译质量的译前自动术语表生成

    https://github.com/neavo/KeywordGacha

    更便捷的 gui 参数设置和 llama.cpp 启动器

    https://github.com/PiDanShouRouZhouXD/Sakura_Launcher_GUI

    甚至社区算力共享:
    https://github.com/1PercentSync/sakura-share
    NoOneNoBody
        24
    NoOneNoBody  
       251 天前
    大部分非游戏用户只是核显,跑本地大模型你会遇到一大堆用户投诉,是不是把市场想得太美好了?
    june4
        25
    june4  
       251 天前
    12b 本地 cpu 跑速度非常感人,正常人都会用 api 。gpu 又不是每个人都有。
    cwcc
        26
    cwcc  
       251 天前
    AI 翻译有道德限制,有时候带有一些特殊的词会导致 AI 断言。
    vagranth
        27
    vagranth  
    OP
       251 天前 via Android
    @june4 现在 gpu 普及率这么低?
    xhawk
        28
    xhawk  
       248 天前
    有的, 前 2 天针对这个问题, 我的确还真的搜索过解决方案. 而且也稍微对比过. 目前我有个需求的确是需要翻译的 api 的. 我对比过阿里云, 腾讯云的翻译 api, 都不能满足我的需求. 有 2 点: 1. 没法针对我涉及的行业做翻译. 2. 每次翻译的数量级太少了. 只能 500 条左右. 事实上, 我有一个 pdf, 一次要 18000 多行要做翻译, 所以, 我需要超级快的给我返回.
    vagranth
        29
    vagranth  
    OP
       247 天前 via Android
    @xhawk 那么这种方案也不适合,速度不可能满足你的需求。但针对行业的专业词汇说不定可以有特殊处理。
    xiaoheicat
        30
    xiaoheicat  
       244 天前 via iPhone
    并发怎么样?大文本支持多大长度?大模型处理这种大并发翻译场景还是不适合!
    vagranth
        31
    vagranth  
    OP
       241 天前
    @xiaoheicat 自建服务,并发完全受限于自己的服务器的能力。

    超长文本肯定是要拆分的,段落拆分要根据 llm 的上下文窗口来动态判断。算法倒是现成的,做在 sdk 或服务里面都可以。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2611 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 27ms UTC 15:23 PVG 23:23 LAX 07:23 JFK 10:23
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86