玩 SillyTavern 的时候突发奇想:能不能让模型自己翻译自己?
看了下好像没人做,于是就写了: https://github.com/moeru-ai/arpk
本地搭建好 Ollama,通过 node.js npx 运行 ARPK 服务端:
ARPK_MODEL="llama3.1" npx arpk
它通过 DeepLX 相同的端口和 API 提供服务,所以应该能兼容任何支持 DeepLX 的应用
await fetch('http://127.0.0.1:1188/translate', { body: JSON.stringify({ source_lang: 'JA', target_lang: 'ZH', text: '雨の季がぎ 澄み渡る空を 眺めて独り想フ' }), method: 'POST' }).then(res => res.json()) // { // alternates: [], // code: 200, // data: '雨季过后,晴朗的天空下我独自遐思。', // id: 1519129853500, // method: 'ARPK', // source_lang: 'JA', // target_lang: 'ZH' // }
Docker 镜像还没写,以后会有。
![]() | 1 zagfai 2024-08-30 11:33:00 +08:00 翻译效果有限吧 |
![]() | 2 M9l7chlLGv OP @zagfai 有优化空间,可以更换模型或者自定义 prompt 以尝试得到更好的结果 |
![]() | 3 zagfai 2024-08-30 11:43:25 +08:00 主要是本地,硬件有限 |
![]() | 4 M9l7chlLGv OP @zagfai 这就没办法了,我也不想这个项目太复杂,所以只依赖了 ollama 的 js 库 不需要本地翻译的话 DeepLX 会更方便 |