1
6a82aa9bfe 9 小时 58 分钟前 via Android
现在都大模型翻译了吧,让 deepseek 给你翻一下
|
2
dadadidada OP @6a82aa9bfe 嗯,deepseek 倒是可以,就是相应有点儿慢,而且还会提示请稍后再试。
|
![]() |
4
kangkag0231 8 小时 8 分钟前
我用浏览器的插件,配置的国内的翻译服务,感觉用起来还可以,速度还是比较快的。
插件用的是沉浸式翻译,配置的 siliconflow 的翻译服务。模型自己选择速度尚可的就行。 |
![]() |
5
ThomasChan 8 小时 7 分钟前
我在浏览器里用 Monica
|
![]() |
6
hammy 7 小时 48 分钟前
插件类的话 bob ,pot 这种
浏览器的话就 沉浸式翻译 需要调用多引擎就 LanguageX 桌面端就 GT4T AI 的话 豆包 也可以,退而求其次字节还有个火山翻译 传统的就 DeepL 或者 Google 韩语的话 papago |
![]() |
7
ferock 7 小时 47 分钟前
|