LinuxSir.cn,穿越时空的Linuxsir!

 找回密码
 注册
搜索
热搜: shell linux mysql
查看: 849|回复: 7

wget 继载的问题...2097150K(你们到底有没有用wget超过这个大小的呢???)

[复制链接]
发表于 2005-10-21 20:55:04 | 显示全部楼层 |阅读模式
wget -c -t 0 http://192.168.1.4/Track%20No01.iso -b


这样下载,当我把wget 的进程kill掉后再运行一下如上命令仍然可以
接着原来文件的大小下载...


而当用wget的这台电脑死机过后
我再运行如上命令发全

ps aux | grep wget

不会出现,当然文件的大小也不会继续奕大...

请问是否在运行wget的电脑重启后-c 继传功能就会失效呢?


[root@shlinux other]# tail -f wget-log.25
--20:49:48--  http://192.168.1.4/Track%20No01.iso
           => `Track No01.iso'
Connecting to 192.168.1.253:3128... connected.
Proxy request sent, awaiting response... 206 Partial Content
Length: 401,330,176 (-1,746,153,471 to go) [text/plain]

         [ skipping 2097150K ]
2097150K ,


这么大的文件不会就此从头再来吧...

会不会是因为我用了代理呢
[root@shlinux other]# cat ~/.wgetrc
http_proxy = 192.168.1.253:3128

今天发现又是以2097150K后停止!!!

# wget -V
GNU Wget 1.9.1
 楼主| 发表于 2005-10-22 17:58:16 | 显示全部楼层
顶一下吧,本来网络就慢,忆经down 2G多三次了...我郁闷啊....


谢谢,兄弟们啰..
回复 支持 反对

使用道具 举报

发表于 2005-10-22 22:06:18 | 显示全部楼层
非常遗憾,wget不能支持大于2G的文件。
由于一些原因,很多软件处理大于2G的文件时会出错。wget就是其中一个。
你可以试试用crul

curl -C - http://192.168.1.4/Track%20No01.iso
注意大小写,curl中-C(大写)表示续传。后面是偏移量,-表示自动。
回复 支持 反对

使用道具 举报

 楼主| 发表于 2005-11-4 19:18:58 | 显示全部楼层
在此說明一下:

我的確有用wget下載超過2G或更大的文件,本?硪呀睾脠D的.

不過,被我弄?G了.

所以會不會是apache的問題呢?
回复 支持 反对

使用道具 举报

发表于 2005-11-4 19:25:53 | 显示全部楼层
版本问题吧,wget支持2G以上文件是从1.10开始的。
回复 支持 反对

使用道具 举报

发表于 2005-11-4 21:59:44 | 显示全部楼层
ext2分区格式的问题?

只用过lftp下过大于2G的。。
回复 支持 反对

使用道具 举报

发表于 2005-11-4 22:02:20 | 显示全部楼层
GNU Wget 1.9.1
回复 支持 反对

使用道具 举报

 楼主| 发表于 2005-11-5 17:26:45 | 显示全部楼层
我的未成功下载版本的确是1.9.1
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表