1
uxstone Jan 1, 2017
找个能支持断点续传的就行了吧
|
2
Delbert Jan 1, 2017 via Android
sftp/ftp
|
3
ARhen Jan 1, 2017 via Android
当初觉得飞秋不更新,顺手找了下,内网通,你看下?
|
4
Laynooor Jan 1, 2017
开个共享文件夹传,千兆局域网 10 分钟内搞定
|
5
terence4444 Jan 1, 2017
filezilla server & filezilla client
|
6
BSD Jan 1, 2017
hfs.exe
|
7
orzfly Jan 1, 2017
必须是 Dukto! http://www.msec.it/blog/?page_id=11
|
8
murmur Jan 1, 2017
如果是一个网段的 qq 都可以到满速
|
9
HFX3389 Jan 1, 2017 我也推荐 Dukto !我的 Windows , Linux , Android , iOS 都是用 Dukto 传文件的
|
10
sgissb1 Jan 1, 2017
50g 的文件就尽量不要通过类 im 和 im 传输了,开个 ftp 服务端即可。但要开 serv-u 或者 filezilla 之类的,业余的 ftp 服务端程序对大文件支持有严重问题
|
11
billlee Jan 1, 2017
共享文件夹 /NFS
|
12
shoaly Jan 1, 2017
50 个 g 用 winrar 之类的拆分成 20 个 2.5g... 然后一个一个传
|
13
P99LrYZVkZkg Jan 1, 2017
resilio sync
|
15
itfanr Jan 1, 2017 via Android
samba 共享
|
18
maskerTUI Jan 1, 2017
@Delbert 局域网不要用 sftp ,因为 sftp 是 ftp 的加密版本,会对数据进行加密再传输,速度比 ftp 会慢很多很多,我之前就用两台服务器直连进行数据对拷, ftp 可以达到 110m/s , sftp 只能到 35m/s 的样子。
|
20
ZRS Jan 1, 2017
resilio sync
|
22
kikyous Jan 1, 2017 via Android
resilio sync
|
23
mingyun Jan 1, 2017
50G 的文件。。。
|
24
geyee Jan 2, 2017
unc 文件共享(目录磁盘映射)+fastcopy
|
25
geyee Jan 2, 2017 everything 开 http 或 ftp 服务+idm
|
26
wspsxing Jan 2, 2017
ftp/http/smb 均可。
|
27
ipwx Jan 2, 2017
线路质量没问题的话用这种杂牌协议传一点意义都没有。 nginx 命令行直接临时开个服务器,对面 wget ,妥妥的跑满千兆网络。
|
29
QAPTEAWH Jan 2, 2017
更大的话可以拆硬盘跑过去拷...
|
30
also24 Jan 2, 2017
家里内网 Windows PC 默认全盘 SMB 开放, SMB 不适用的时候就 hfs
日用 rMBP 开着 nginx ,需要啥就扔进去 最近用 resilio sync 感觉也挺不错的,不过暂时没找到方便的管理方式 |
31
October15 Jan 2, 2017 via Android
如果条件允许且不远, 50G 的东西,移动硬盘可能是最快的
|
32
RqPS6rhmP3Nyn3Tm Jan 2, 2017 via iPhone
@maskerTUI 你说的……是 FTPS 吧, SFTP 是基于 ssh 的
|
33
midasplus Jan 2, 2017 via Android
resilio sync +1
|
34
genesislive Jan 2, 2017
Dukto +1
|
35
maskerTUI Jan 2, 2017 via Android
@hadoop 只要是有涉及到加密过程的数据传输,速度肯定不如透明的 ftp ,数据小的时候还好,传 20 多 T 的数据时,时间差距就很明显了。
|
37
skydiver Jan 2, 2017 via Android
rsync 吧…之前传的估计只错了一部分,用 rsync 很快就能修复
|
38
bao3 Jan 2, 2017 via Android
开源的 syncthing
不开源的 resilio sync 推荐后者,两个我都用,在高负载时后者有优势。 |
40
pagxir Jan 2, 2017 via Android
@maskerTUI 就目前来说,国内网络传输瓶颈不在 CPU ,而是 io 。所以根本就没必要纠结加密问题。再不济也是会跑满百 m 。不行的话,基本上是设置问题。你观测下传输双方的 CPU 占用率就知道。当然了,不排除有蹩脚的加密算法实现导致的问题。
说开共享快的,肯定是没做过对比的人 |
41
Delbert Jan 2, 2017 via Android
@maskerTUI ftp 要安装工具啊,服务端要安装 vsftp ,客户端要 yum install ftp ,局域网要先从外网下载 rpm 包的……
|
42
fhefh Jan 2, 2017
dukto
|
43
macroideal Jan 2, 2017 via iPhone
ipmsg
|
44
lavender1991 Jan 2, 2017
resilio sync +1
|
45
hadoop Jan 2, 2017
@pagxir 我的意思是,一般 linux 服务器上肯定有 ssh , scp 命令的不用装其他软件。 ftp 还可能要额外装。 scp -c arcfour 会降低加密解密的算法强度,降低 cpu 使用。基本上稍微强点的 cpu 用 arcfour 算法都能够跑满千兆带宽(你要说万兆的话,我没环境没测过。。。)。
而 scp 默认的配置速度低的原因也是加密解密强度高,单核 cpu 利用率 100%了,跟不上网络的带宽 |
46
Cbdy Jan 2, 2017 via Android
python3 -m http.server
如果装 py 了的话可以临时起一个文件服务器 |
47
yidinghe Jan 2, 2017 via Android
别折腾软件了,这么大的文件只能用移动硬盘拷
|
48
razios Jan 2, 2017
NAS
|
49
canfoderiskii Jan 2, 2017 via Android
先换成万兆网络,千兆网太慢
|
50
hadoop Jan 2, 2017 via Android
|
51
lovedebug Jan 2, 2017
记得以前有 飞鸽 这个软件可以用
|
52
Tink PRO qq 啊!局域网满速
|
53
phrack Jan 2, 2017 via Android
一般直接 scp ,挺好使,但是 50g 的文件是真没传过
|
54
samueldeng Jan 2, 2017
@hadoop 为什么我在双核 e5 vm 上跑 sftp 从来没有 cpu 100%过?而且千兆重来也跑不满。。。
|
55
zhuziyi Jan 2, 2017
win 上最简单的方法,包含搜索,可以试试 everything
|
56
leyle Jan 2, 2017
python / everything 起 http 服务这些,如果是小文件还行, 50G 文件,直接会让你的文件所在机器死掉。
|
58
z742364692 Jan 2, 2017 via Android
zip 存储分包
|
59
hadoop Jan 2, 2017 via Android
@samueldeng cpu io 必有一个是瓶颈
|
60
Aalen Jan 2, 2017
darkhttpd
|
61
deepjia Jan 2, 2017
|