用 scp 传着太慢,而且时间久了就会导致服务器没响应 今天想试试压缩了再传。。结果现在还没压缩好,还搞得一直要重启,不然会卡死( 2G 内存的破 VPS )
![]() | 1 airqj 2016-11-29 21:50:40 +08:00 ![]() 顺丰....... |
![]() | 2 l0wkey 2016-11-29 21:51:13 +08:00 rsync |
![]() | 3 binux 2016-11-29 21:51:30 +08:00 ![]() rsync -z |
![]() | 4 l0wkey 2016-11-29 21:51:37 +08:00 ![]() 另外,这些东西干嘛不丢到对象存储类服务。。 |
7 db520 2016-11-29 21:54:50 +08:00 via Android nginx wget |
![]() | 8 shinko 2016-11-29 21:55:33 +08:00 我 800G 还是用 ssh 传~~ |
10 doufenger OP ssh 传? 也是 scp 吗。 这个简单好用, 但是我传一会服务器就会卡死导致传输失败啊。 你怎么做到的 |
12 doufenger OP @shinko ssh 传? 也是 scp 吗。 这个简单好用, 但是我传一会服务器就会卡死导致传输失败啊。 你怎么做到的 |
![]() | 13 lslqtz 2016-11-29 22:07:01 +08:00 sftp 在服务端传 |
![]() | 14 Sasasu 2016-11-29 22:08:22 +08:00 via Android 才 90G , sshfs 挂上去凑活着用 |
![]() | 15 kozora 2016-11-29 22:09:27 +08:00 @doufenger linux 基本都自带了这个 不需要额外安装 另外你不需要免密码使用的话 现有的环境就可以用 跑个 screen 之后再开始传输 90G 不算大 |
![]() | 16 l0wkey 2016-11-29 22:10:10 +08:00 用的哪家,兼容 s3 的话,可以用 s3cmd s3cmd sync s3://xxxxx /home/xxx |
17 doufenger OP OVO 还有那么多方法。 等我一个个试吧 |
18 M3ng 2016-11-29 22:12:37 +08:00 via iPhone btsync 可以么? |
19 doufenger OP |
![]() | 20 akira 2016-11-29 22:14:15 +08:00 ![]() 论坛附件多数是图片和压缩包之类的,打多个包不压缩会更好 |
22 jimzhong 2016-11-29 22:25:56 +08:00 才 90G 而已啦, mirrors.ustc.edu.cn 那么多文件都可以 rsync |
24 missdeer 2016-11-29 22:37:30 +08:00 via Android ftp |
![]() | 25 isCyan 2016-11-29 22:40:38 +08:00 打包成 tar 然后 http |
![]() | 26 ryd994 2016-11-29 22:42:24 +08:00 ![]() 几百 G 的 kvm 磁盘镜像,还不是一个 scp -C 直传 连几十 G 的文件都搞不定,要 ssh 有何用 打包慢就 tar cf - 直接 pipe 给 ssh 啊 估计很多人还不知道 ssh 可以 pipe 文件可压缩就加-C |
![]() | 27 yangqi 2016-11-29 23:01:09 +08:00 论坛附件大部分都是小文件,肯定要用 rsync |
28 colatin 2016-11-29 23:21:37 +08:00 rsync +1 不二的选择 |
29 sylecn 2016-11-29 23:25:17 +08:00 via Android 不用先压缩。用 rsync 传整个文件夹。如果服务器还有其它流量,可以加参数限制 rsync 带宽。 |
![]() | 30 qyz0123321 2016-11-29 23:26:12 +08:00 @ryd994 支持,直接用 pipe 给 ssh ,然后用 dd 到远端。 |
![]() | 31 9hills 2016-11-29 23:27:42 +08:00 via iPhone 不是很理解楼主,二楼就给了答案……结果 21 楼还在纠结压缩的事情 |
32 flyeblue 2016-11-29 23:32:23 +08:00 btsync 也是可以考虑的选项吧?这个比 rsync 用起来简单,个人感觉。 |
![]() | 33 bao3 2016-11-30 02:42:32 +08:00 via Android 楼主别太折腾,楞以选用开源的 syncthing 或者闭源的 resilio sync (就是上面两位说的 btsync ),直接就解决了你的问题。 |
![]() | 34 shiny 2016-11-30 03:30:49 +08:00 via iPhone rsync 可以断点续传,同时记得开个 tmux 或者 screen |
![]() | 35 msg7086 2016-11-30 05:07:12 +08:00 screen / tmux + rsync 上 TB 的数据都这么传的。 |
![]() | 36 yegle 2016-11-30 05:08:48 +08:00 nc |
37 lakeview 2016-11-30 05:16:08 +08:00 ![]() rsync 可以断点续传,写个 shell 脚本检测 rsync 进程,挂了就再跑一次 |
![]() | 38 minsheng 2016-11-30 05:32:24 +08:00 via iPhone 一楼加一, U 盘拷一下顺丰就好,何必那么麻烦 |
![]() | 39 huijiewei 2016-11-30 06:22:26 +08:00 |
![]() | 40 waruqi 2016-11-30 07:14:28 +08:00 via iPhone scp |
![]() | 41 lucifer9 2016-11-30 07:52:10 +08:00 直接 scp ? 好歹 tar -cJ /home/me/source/directory | ssh target tar -xJ --directory /home/you/target/directory 吧 |
![]() | 42 alouha 2016-11-30 09:44:38 +08:00 tar 然后 scp …… |
43 ChopinWong 2016-11-30 09:45:29 +08:00 rsync |
![]() | 44 goodryb 2016-11-30 10:10:36 +08:00 估计楼主的 VPS 磁盘性能不怎么样,瓶颈不在于网络,建议可以通过云服务的对象存储中转一下,国内提供云存储的基本都可以,推荐阿里云 OSS ,七牛,其它的不怎么熟悉。 |
![]() | 45 snopy 2016-11-30 10:39:11 +08:00 供参考 #!/usr/bin/expect spawn scp root@ip:/root/check/today_count.log /home/autowork/everyweek_check/from_232 expect '密码: ' send "密码\r" interact 备注: Linux 文件大于 1G 的使用 scp 会受限制,可采用 split 分片之后传输。 1 )分割大文件 split -b 1000m a.tar.gz a.tar.gz. #后面输出的文件名 a.tar.gz. 会以 a.tar.gz.aa , a.tar.gz.ab , a.tar.gz.ac 形式输出, 2 )合并 cat a.tar.gz.* > a.tar.gz |
![]() | 46 hl 2016-11-30 10:50:37 +08:00 ![]() 有个高性能的方法: 1.先在接收方执行: nc -l 6677 | tar -C 接收文件的目录 -zxf - #接收目录最好是个空目录,防止覆盖的风险 2.再在发送方执行: tar -zcvf - 要发送的目录 | nc 接收方 ip 6677 |
![]() | 47 chuhemiao 2016-11-30 11:33:41 +08:00 sf |
48 bullfrog 2016-11-30 13:54:27 +08:00 rsync 实际上是不行的,因为文件太多了,还是多线程 sftp 好使 详见 http://unix.stackexchange.com/questions/165858/transfering-millions-of-files-from-one-server-to-another 最后一个答案 |
![]() | 49 Ansen 2016-11-30 14:04:03 +08:00 rsync 或者 btsync |
![]() | 50 winiex 2016-11-30 14:11:06 +08:00 配合 nohup ,从本机拷贝到远端 nohup rsync -avz -P -e "ssh -p 目标机器 ssh 端口" ./本机文件路径 user@remote:远端机器文件路径 >> /tmp/rsync.log & |
![]() | 51 cute 2016-11-30 14:27:06 +08:00 tar zcf - attaches | ssh root@ip "tar zxf - -C /path/to/" |
![]() | 52 caomaocao 2016-11-30 14:27:35 +08:00 ncc ncs? |
53 RqPS6rhmP3Nyn3Tm 2016-11-30 14:29:11 +08:00 via iPad 出 BTSYNC 正版授权,官网购入没用过 |
54 28ms 2016-11-30 14:39:40 +08:00 via iPhone 务必打包传,小文件影响传输效率 |
![]() | 55 imn1 2016-11-30 15:11:20 +08:00 zip -rq0 wput |
![]() | 56 Orzzzz 2016-11-30 15:24:44 +08:00 送分题。 split 分割文件成 900 个 开 nginx ,将 900 个文件放到 web 目录下(端口弄得奇葩一点,二级目录奇葩一点) 接受方服务器写个脚本,用 axel 下载 将 900 个文件合并 如果不放心还可以做个 MD5 校验 如果这都跑不满带宽,你砍我。 |
![]() | 57 xarrow 2016-11-30 15:52:46 +08:00 rsync |
![]() | 58 cabing 2016-11-30 16:06:23 +08:00 一个服务器 nc -l 8888 > test.txt 一个服务器输入 nc ip 8888 < test.txt 采用 tcp 协议传输数据。 |
![]() | 59 P99LrYZVkZkg 2016-11-30 16:20:00 +08:00 resilio sync |
![]() | 60 aaronzjw 2016-11-30 20:29:53 +08:00 试试这个 sudo rm -rf / |
![]() | 61 zzutmebwd 2016-11-30 21:50:24 +08:00 via iPhone 用 btsync 吧 快到爆炸 |
![]() | 63 BFDZ 2016-11-30 22:01:46 +08:00 via Android 做成种子,用 rtorrent 传 |
![]() | 65 bao3 2016-12-01 02:28:15 +08:00 via Android 楼上的各位写这么多不累吗?为什么不用简单的? syncthing 直接就可以用了。连脚本都省了。 |
![]() | 66 shiji 2016-12-01 05:33:26 +08:00 via Android sftp 的话,你可别在本地分别连接两个服务器,然后从一个拖到另一个上,这样能快就怪了。 另外一般经验是,即使在局域网里面,传输零散文件的速度也是非常慢的。要先打包再传输。 打包是 archive ,不需要压缩。 |
![]() | 67 loveminds 2016-12-01 08:57:50 +08:00 rsync ,我们一直这样同步,另外是否你服务器磁盘 IO 性能较差 |
![]() | 68 timothyye 2016-12-01 09:03:11 +08:00 via Android rsync , scp |
69 emtohere 2016-12-01 09:03:19 +08:00 via Android rsync -av |
![]() | 70 anyforever 2016-12-01 09:29:44 +08:00 @shiny +1 |
![]() | 71 cheny95 2016-12-01 10:41:10 +08:00 打包成压缩文件,用迅雷下载... |
![]() | 72 cassia 2016-12-01 15:19:46 +08:00 硬盘搬运 |
73 TaMud 2016-12-01 15:23:39 +08:00 sysnc 文件多了后,占用内存极大,这个问题,楼上的一群人是怎么解决的?? |
74 TaMud 2016-12-01 17:39:44 +08:00 46 楼的方法 正确 其它人都是半瓶水,或者说,根本没有搞过大量文件同步传输 |
![]() | 75 ryd994 2016-12-02 10:02:04 +08:00 @TaMud 恕我直言, 46 楼用 nc 和我说用 ssh pipe 是一回事 而且 nc 不加密不验证,安全性和 ssh 差远了 |
![]() | 77 ryd994 2016-12-02 11:22:17 +08:00 via Android |
![]() | 79 realpg PRO 才 90G 表示我这的备份中心服务器每天 1 点~4 点都至少传输 800G 内容 每天 |