https://github.com/sk1418/link2jsonrpc
aria2c
下载命令, 这已经挺方便了. 但是每条命令都会新启动一个 aria2c 进程, 无法利用当前的 aria2c daemon.这个脚本就是解决上述不便, 当 aria2c 命令被 copy 到剪贴板后, 运行脚本, 通过 aria2c 的 jsonrpc,自动在远程 aria2 server 或者现有进程进行下载, 如果有 web 前端, 也可监控.
不知道是不是有更省事的办法, 就摸鱼写了几行脚本干这个事.
1
ilolita 2019-12-11 09:13:31 +08:00 via iPhone
其实已经有了 aria2 的浏览器扩展
|
2
julyclyde 2019-12-11 14:11:46 +08:00
所以,为什么要用 docker 呢?这不是脱裤放屁么
|
5
ragnaroks 2019-12-11 15:56:49 +08:00
油猴脚本,本地(或其它)的 aria2c 以守护模式运行监听,油猴脚本可以直接读取网页数据然后 xmlRequest 到任意远端,实现直接在网盘里面点下载,自动发送到 aria2c
我已经实现了一个油猴脚本,但是里面的配置(url/token)是写死的,不能分享 |
6
ragnaroks 2019-12-11 15:57:46 +08:00
另外借楼问下,油猴有没有办法在 http 网页链接 wss,我这边 chrome 不允许链接
|
8
KentY OP @julyclyde 现在的 raspberry pi 4 的 cpu, ram, io 都已经挺强了. docker 在上面应用我觉得不应该用"脱不脱裤子放屁"来比较了. 我现在的 pi 上跑 7 个 containers(nextcloud, traefik, aria2, samba...), 配置都是 docker / docker-compose, 这样, 就是那个小卡崩了, 或者升级 pi 的系统, 所有的 effort 就是安装一个 docker, 所有服务马上就如初运行. 而且如你说的, 如果某个应用更新了, 比如 aria2 或者 nextcloud, 只需修改 docker 的配置就好. 当然数据迁移 required anyway. 如果新出了 pi5 比如, 也是如此, 一次配置随时可以用.
我觉得像 nas, pi 这种个人应用服务器, docker 是一个非常好的手段. 当然 docker 的作用不仅限于此, 我的常用电脑上也跑好几个 containers, 那些平时工作, 开发情景就不赘述了. |