V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
professorz
V2EX  ›  外包

抓取此网站中的全部数据,需要多少成本

  •  
  •   professorz · 2015-05-29 17:08:31 +08:00 · 643 次点击
    这是一个创建于 3470 天前的主题,其中的信息可能已经有所发展或是发生改变。

    有个项目,需求是抓取http://epub.sipo.gov.cn/ 这个网站的全部公布的信息,根据我的经验,1小时抓取1万条网页,那全站的数据需要2个月不停才能抓完,而且存储这些数据需要很多的存储空间(因为有PDF所以共15T左右),如果租用阿里云服务器进行抓取的话,硬盘价格巨贵。那么问题来了,该项目报价3K。是否合理?

    11 条回复    2015-06-10 00:36:10 +08:00
    publicID001
        1
    publicID001  
       2015-05-29 18:49:31 +08:00
    3K是开发和调试爬虫的费用吧?
    wenxiuzh
        2
    wenxiuzh  
       2015-05-30 00:44:46 +08:00
    坑在验证码上, 如果发现爬虫就会出现验证码,爬虫识别不出验证码内容就卡在那里了,这种情况下1个小时1000条都困难,3k不多
    ansel
        3
    ansel  
       2015-05-30 09:45:50 +08:00
    难道是广州的?最近有在接触这个类似的项目,整个系统也会需要用到你说的爬虫
    david500834
        4
    david500834  
       2015-05-31 09:09:18 +08:00
    3k开什么玩笑......骗大学生呢
    professorz
        5
    professorz  
    OP
       2015-05-31 10:20:43 +08:00
    @publicID001 嗯,说是硬件费用另算
    professorz
        6
    professorz  
    OP
       2015-05-31 10:21:25 +08:00
    @david500834 唔。。也是觉得有点少
    dai269619118
        7
    dai269619118  
       2015-05-31 16:31:07 +08:00
    呵呵 就出3000 硬件也初步了多少钱
    22too
        8
    22too  
       2015-05-31 20:08:17 +08:00
    还不如你知直接打电话给那个公司,让给你拷贝一份算了,这玩意写程序爬到什么时候了,能动嘴就不要写代码
    professorz
        9
    professorz  
    OP
       2015-05-31 20:16:49 +08:00
    @22too 我问过提需求的人,他说买不起,要买得起不会爬的。那是他老东家,政府机构。
    dallaslu
        10
    dallaslu  
       2015-06-02 19:11:03 +08:00
    版权所有:国家知识产权局(未经许可不得复制)
    chinabrowser
        11
    chinabrowser  
       2015-06-10 00:36:10 +08:00 via Android
    反向代理解决问题 需要资源的时候再去抓
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5418 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 34ms · UTC 07:48 · PVG 15:48 · LAX 23:48 · JFK 02:48
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.