最近在学习爬虫,现在想要实现一个功能:爬取链接,如果断网,就将链接保存在本地文件。现在的问题是我不是很清楚这是否可行,如果可行应该捕获的哪一种异常呢? 以下是 sm.ms 的图片外链,但图片好像不能直接显示。
https://i.loli.net/2018/06/19/5b28b479c3591.jpg
https://i.loli.net/2018/06/19/5b28b479bfbc0.jpg
这两张图片是一起的,只是截图截不了所有,所以分开截取了。
1
soho176 2018-06-19 16:13:45 +08:00
fuliba?
|
3
d0m2o08 2018-06-19 16:35:07 +08:00
try:
爬虫(url) except: 记录 url 到本地文件(url) |
5
annielong 2018-06-19 17:58:31 +08:00
干嘛不分开,先把链接保存,然后统一进行下载,还有,loli 的图床联通网络竟然无法访问
|
6
chroming 2018-06-19 19:49:34 +08:00 via Android
你自己电脑上断网打个断点调试不就知道了
|
8
aaronzjw 2018-06-19 20:24:43 +08:00 via iPhone 1
Timeout exception
|
9
Leigg 2018-06-19 22:46:03 +08:00
|
12
SayHeya 2018-06-20 12:50:09 +08:00 via Android
看具体是什么异常,超时还是请求返回有问题
|