用 VPS 搭了个 BT 下载,文件服务用 File Browser ,Nginx 反代,配置如下: location /file { client_max_body_size 0; proxy_pass http://127.0.0.1:8081; proxy_set_header Host $proxy_host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; }
现在的问题是如果我打包下载文件夹为 zip/tar,那么下载到 700 多 M 的时候就断掉链接了,也无法续传,只能重下,重下几百 M 了又给我自动重下,如果下载单个 1G 以上的文件就没问题。
不太懂这方面的东西,但会不会和内存大小有关?我内存只有 1G ,没有 swap ,buff/cache 一栏为 760M ,也符合打包下载时断掉链接的大小。
我试过不用反代,直接设置 File Browser 证书来下载也是一样的,但不用安全连接直接 http 又没有这个问题,可以下载,速度还比反代或者设置证书快。
老哥们救救我把,有些文件夹全是几十 M 的小文件,一个一个下要累死啊。