1
thedevil5032 2013-05-11 20:35:38 +08:00 1
我只用过 Python3 里面的 urllib.request.urlopen。
下面这段话来自 Python 自己的文档: http://docs.python.org/3/library/urllib.request.html#module-urllib.request In addition, if proxy settings are detected (for example, when a *_proxy environment variable like http_proxy is set), ProxyHandler is default installed and makes sure the requests are handled through the proxy. 我做过一个 PyQt 应用,VocVoc@github。其中用到了 urlopen, 用下来的效果是确实会自动检测代理设置。 当时的情形是这样的: 我处于教育网内利用 IPV6 + GAgent 免费上网(IPV4 要收费), export http_proxy='127.0.0.1:8087',而 VocVoc 用到 urlopen 的功能完全正常(可以联网)。 记得要 export http_proxy 这个变量才能起效哦。 ==== 我不熟悉 Py2 的 http库。。 不过我也在 urllib 和 urllib2 的官方文档里面都搜到关于代理的一段话,和上面的类似,可以自动利用 http_proxy 这个变量。 另外, 建议你的 Readme.md 小题目也按照 md 的格式来。 |
2
scola 2013-05-11 21:14:43 +08:00
lz写这个的需求在哪里呢,我很少要删自己的推,除非误发
|
3
ahxxm OP @thedevil5032 忘记说明了,第4点是win8测试的,vps本身在墙外…
恩我去看看markdown style guide…… |
5
ahxxm OP @thedevil5032 刚拿虚拟机里debian测试,这程序不会调用http_proxy(wget会),api.statues_update()直接timeout了。。
|
6
AstroProfundis 2013-05-12 09:52:59 +08:00
我是来歪楼的...
我自己抓推做备份...完全没有删推的需求... |
7
ahxxm OP @AstroProfundis 蘑菇党你抓谁的推!
|
8
AstroProfundis 2013-05-12 10:45:11 +08:00
@ahxxm 我自己的啊...
|
9
ahxxm OP @AstroProfundis archive不好用吗....
|
10
AstroProfundis 2013-05-12 11:25:51 +08:00
@ahxxm ThinkUp 不光archive了还能有统计... 然后 TweetNest 出来的直接就是一个网页界面,类似archive出来的那种,但感觉要舒服点...(而且archive每次都要下载全部,好麻烦,自己抓可以增量嘛...
|
11
codesaler 2013-05-12 11:58:03 +08:00
楼主写个爬某个帐号的所有发过的图片的下载地址吧
|
13
codesaler 2013-05-14 10:55:36 +08:00
@ahxxm 我最近想做这种,用笨办法,查找页面上的特定域名,然后发出请求,如果有图片就爬来,不过现在遇到的麻烦是没找到合适的方法模拟js操作,可能用调用api方法遍历每个推是更好的解决方案
|
14
ahxxm OP @codesaler 不知道为什么你这两个回复配合头像戳到我笑点……
直接找某个帐号要存档最方便吧,调用api一条条把推文爬下来会不会有点奇怪? 推文存档的js文件里有media_url用来显示官方图床或者什么其他东西,url短链接和expanded_url还原后链接,(也许还得判定一下是不是需要再还原。。) |
17
gzb1985 2013-05-17 17:09:13 +08:00
还有一个删微博的工具: 卧槽!http://wocao123.sinaapp.com
|