V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
dsg001
V2EX  ›  Python

用 requests 替代 scrapy 的下载器,发现速度很慢,求解

  •  
  •   dsg001 · 2017-03-29 17:39:10 +08:00 · 6182 次点击
    这是一个创建于 2795 天前的主题,其中的信息可能已经有所发展或是发生改变。
    class MyDownloaderMiddleware(object):
    
        def process_request(self, request, spider):
            res = requests.get(request.url)
            return HtmlResponse(request.url, body=res.content, encoding='utf-8', request=request)
    

    scrapy 的下载器调教起来不如 requests 方便,所以想用 requests 替代

    15 条回复    2017-05-08 08:36:06 +08:00
    knightdf
        1
    knightdf  
       2017-03-29 17:51:02 +08:00
    因为你这是一个同步操作,用 deferreds
    bazingaterry
        2
    bazingaterry  
       2017-03-29 17:52:20 +08:00 via iPhone
    又想像同步一样逻辑清晰,又想有异步一样的性能,貌似很难调和呢……
    lilydjwg
        3
    lilydjwg  
       2017-03-29 17:54:09 +08:00
    不要用 requests.get !

    用同一个 requests.Session ,你能提速一倍以上!
    dsg001
        4
    dsg001  
    OP
       2017-03-29 18:23:45 +08:00
    @knightdf 能分享个 demo 不,文档啃的太慢
    @bazingaterry 一直没研究锅 twisted
    @lilydjwg 实际代码中用的 requests.Session ,但速度比原生还是差的太多
    bazingaterry
        5
    bazingaterry  
       2017-03-29 19:20:53 +08:00
    @dsg001 twisted 的确有点啰嗦……
    knightdf
        6
    knightdf  
       2017-03-29 19:22:43 +08:00
    @dsg001 参考 scrapy 源码啊。日难看的,不想看第二遍
    dsg001
        7
    dsg001  
    OP
       2017-03-29 20:42:03 +08:00
    @knightdf 找到相关源码了 scrapy/core/downloader/handlers/__init__.py
    @bazingaterry 太别扭了
    onlyice
        8
    onlyice  
       2017-03-29 21:19:55 +08:00 via Android
    Twisted 我硬是没学会。。有一些门槛。。
    dsg001
        9
    dsg001  
    OP
       2017-03-30 10:53:43 +08:00
    @onlyice 面向需求学习 ←_←
    kakadong
        10
    kakadong  
       2017-03-30 14:18:29 +08:00
    你这是在乱搞啊,下载中间件是负责修改每个 request 和 response 的,是不做下载这个动作的!你在里面加一个 requests.get 操作,等于每个网页你都下载了两遍,而且这个 get 操作还是同步的!!
    kakadong
        11
    kakadong  
       2017-03-30 14:43:40 +08:00
    不好意思没认真看,下载了两遍是我说错的,你在 process_request 里返回了 response ,那 scrapy 就不会再去下载这个网页,但这样,并发就完全没有了,跟单线程用 requests 没什么区别
    dsg001
        12
    dsg001  
    OP
       2017-03-30 20:33:43 +08:00
    @kakadong 嗯,所以需要重写下载器,方便 twisted 异步调用
    mathgl
        13
    mathgl  
       2017-03-31 19:51:32 +08:00
    可以考虑使用 treq
    https://github.com/twisted/treq
    Vinkito
        14
    Vinkito  
       2017-05-08 00:48:38 +08:00
    请问楼主找到好的解决方法了么,有没有 demo 提供参考一下。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   918 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 21:02 · PVG 05:02 · LAX 13:02 · JFK 16:02
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.