RT ,小弟英语水平半吊子,如果有这个神器就可以事半功倍。
![]() |
1
wheat0r 2024-02-29 19:00:25 +08:00
先用 deepl 凑合一下
|
![]() |
2
UXha45veSNpWCwZR 2024-02-29 19:03:29 +08:00 via iPhone
谷歌不是直接可以翻译整页吗?难道他翻译得不够好?
|
![]() |
3
zapper 2024-02-29 19:04:49 +08:00
|
4
iceAD 2024-02-29 19:06:41 +08:00 ![]() |
5
robotcator 2024-02-29 19:08:04 +08:00
monica 可以看看
|
![]() |
6
yoyoluck 2024-02-29 19:08:46 +08:00 ![]() 有个叫 沉浸式翻译 的挺好用的
https://immersivetranslate.com/ |
![]() |
7
haoyu7 2024-02-29 20:05:54 +08:00
沉浸式翻译超棒
|
![]() |
8
SeleiXi 2024-02-29 20:25:54 +08:00 via Android
sider
|
![]() |
9
Yzh361 2024-02-29 22:06:24 +08:00 via Android
自动翻译网页这么简单的事情…不是早就实现了嘛
|
10
m1nm13 2024-02-29 22:28:46 +08:00
楼上说的沉浸式翻译的确可以,就是用 OPENAI API 的价格,太美丽了。。。根本顶不住
所以我想问问有没有支持本地 ollama 之类的模型的翻译插件 我找了半天,愣是没找到一个 |
![]() |
11
icaolei 2024-02-29 22:31:46 +08:00
沉浸式翻译之前爆出“假开源”事件,参见:
10k+ star 的项目也搞假开源 https://www.v2ex.com/t/961178 沉浸式翻译这事,多说几句 https://www.v2ex.com/t/962364 推荐一个开源实现: https://github.com/fishjar/kiss-translator 已上架 Chrome Edge 商店,另外还有油猴脚本可选,作者也在 V 站:@fishjar |
![]() |
13
icaolei 2024-02-29 22:34:00 +08:00
@m1nm13 #10 https://github.com/fishjar/kiss-translator 这个开源的网页翻译插件支持自定义翻译接口,可能可以满足你的需求。
|
15
e1d4py0KiD6KgqkQ 2024-02-29 22:53:16 +08:00 via Android
网页漫画图片翻译的有没有
|
![]() |
20
qhx1018 2024-03-01 00:32:47 +08:00
DeepL
|
22
lovestudykid 2024-03-01 01:19:24 +08:00
@m1nm13 #10 一般的翻译,用 3.5 的 api 就够了,价格不会太贵
|
![]() |
23
gitreny 2024-03-01 08:41:21 +08:00
为什么不试试沉浸式翻译呢
|
![]() |
24
sola97 2024-03-01 09:10:33 +08:00
@m1nm13 ollama 支持 openapi 方式调用了,在沉浸式翻译里只要把 key 设置为 ollama ,自定义模型名称就能跑
|
![]() |
25
unco020511 2024-03-01 10:00:24 +08:00
沉浸式翻译
|
![]() |
26
stanjia 2024-03-01 13:34:16 +08:00
推荐楼主用 [https://sider.ai/] 安好后会在网页有悬浮图标,点 [翻译] 会翻译当前网页。
如果对你有帮助请给我点 [♥️] |
27
Chance19 2024-03-01 13:35:47 +08:00 via Android
@sola97 具体怎么设置知道么,比如我的 ollama 地址是 192.168.1.11,模型 llama2:7b ,我该怎么设置才能让沉浸翻译工作
|
28
m1nm13 2024-03-01 15:47:03 +08:00
|
29
m1nm13 2024-03-01 15:54:15 +08:00
@m1nm13 #28 即使我关了 edge://flags/#block-insecure-private-network-requests 也没有效果,依旧 403
|
![]() |
30
sola97 2024-03-01 18:16:09 +08:00 via Android
@m1nm13 启动 ollama 的时候,需要配置环境变量 OLLAMA_ORIGINS=*,我是在 systemctl 里加的
官方文档: https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama |
![]() |
31
sola97 2024-03-01 18:18:15 +08:00 via Android
@Chance19 具体可以看这个 issue https://github.com/ollama/ollama/issues/2308
|
33
m1nm13 2024-03-01 21:44:39 +08:00
|
34
Chance19 2024-03-02 08:42:30 +08:00 via Android
我就是直接在环境变量里面加上 ORIGINS 的这个变量解决,但是自建模型翻译质量太低,提示词设定你们怎么搞的
|
![]() |
37
unclemcz 2024-03-02 21:32:01 +08:00 via Android
同求一个 ollama 支持的模型,我在用 qwen ,翻译质量很一般。
|
![]() |
38
sola97 2024-03-04 10:11:16 +08:00
@unclemcz 我用 2080ti 22g 跑了一个 sus-chat 的 34b 模型( q3-K-S 版本大概 16G ),在沉浸式翻译中比 qwen 的 14b 要稳定效果好
我是下载的 guff 然后用 ollama create 自己构建的 |
![]() |
40
sola97 334 天前
@unclemcz #39 我现在改成白嫖了,算了下送的 token 等效于我拿显卡本地跑半个月 https://platform.lingyiwanwu.com/docs
|