玩 SillyTavern 的时候突发奇想:能不能让模型自己翻译自己?
看了下好像没人做,于是就写了: https://github.com/moeru-ai/arpk
本地搭建好 Ollama,通过 node.js npx 运行 ARPK 服务端:
ARPK_MODEL="llama3.1" npx arpk
它通过 DeepLX 相同的端口和 API 提供服务,所以应该能兼容任何支持 DeepLX 的应用
await fetch('http://127.0.0.1:1188/translate', {
body: JSON.stringify({
source_lang: 'JA',
target_lang: 'ZH',
text: '雨の季節が過ぎ 澄み渡る空を 眺めて独り想フ'
}),
method: 'POST'
}).then(res => res.json())
// {
// alternates: [],
// code: 200,
// data: '雨季过后,晴朗的天空下我独自遐思。',
// id: 1519129853500,
// method: 'ARPK',
// source_lang: 'JA',
// target_lang: 'ZH'
// }
Docker 镜像还没写,以后会有。
1
zagfai 70 天前
翻译效果有限吧
|
2
M9l7chlLGv OP @zagfai 有优化空间,可以更换模型或者自定义 prompt 以尝试得到更好的结果
|
3
zagfai 69 天前
主要是本地,硬件有限
|
4
M9l7chlLGv OP @zagfai 这就没办法了,我也不想这个项目太复杂,所以只依赖了 ollama 的 js 库
不需要本地翻译的话 DeepLX 会更方便 |