1
binux 2012-08-20 19:47:40 +08:00 1
wget
|
2
013231 2012-08-20 19:52:54 +08:00 1
wget全站抓取或自己寫爬蟲吧. wget可以設置間隔, 爬蟲自然也可以.
地址導入wget就可以, -i(--input-file)參數. |
3
Air_Mu OP 谢二位,我去研究一下wget
|
5
hu437 2012-08-22 17:11:40 +08:00
java程序员表示使用JSOUP这个库,写一个几十行的小程序,让计算机慢慢爬了
|
6
paloalto 2012-08-22 17:27:00 +08:00
前段时间也想批量下一个网站的图片 http://v2ex.com/t/42469#reply18 一开始是先写一个Python脚本去自动抓取,后来发现firefox里的downthemall插件可以批量下载文件名有一定规律的图片,于是就直接用插件下了。一共下了5500多张。
不过看楼主的需求,我的那个情况似乎不太适合你,还是自己写脚本吧。 |
7
csx163 2012-08-22 18:40:08 +08:00
ACG?求列表~
|
9
aisk 2012-08-22 19:45:41 +08:00
求图库啊
|