V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
llhh
V2EX  ›  问与答

有无爬取整站 url 的工具呢?

  •  
  •   llhh · 2014-10-31 10:20:19 +08:00 · 5281 次点击
    这是一个创建于 3706 天前的主题,其中的信息可能已经有所发展或是发生改变。
    大概几百万页面,只想拿到其url即可。
    想自己写python,试了试,力不从心 囧~

    所以上来问下有无一些现成的工具可以爬。

    谢谢大家!
    10 条回复    2014-10-31 11:33:27 +08:00
    muziyue
        1
    muziyue  
       2014-10-31 10:23:22 +08:00
    老虎sitemap生成器:)
    TONYHEAD
        2
    TONYHEAD  
       2014-10-31 10:24:16 +08:00
    XENU
    llhh
        3
    llhh  
    OP
       2014-10-31 10:29:16 +08:00
    @muziyue
    @TONYHEAD
    这两个工具,3百万页面可以吗?
    muziyue
        4
    muziyue  
       2014-10-31 10:30:26 +08:00
    @llhh 没试过,我现在十万多要跑一个下午……
    iscraft
        5
    iscraft  
       2014-10-31 10:40:17 +08:00
    2楼说的xenu应该是最快的吧
    llhh
        6
    llhh  
    OP
       2014-10-31 10:46:37 +08:00
    @TONYHEAD
    @muziyue
    @iscraft
    我现在用screaming frog seo spider比xenu要强一些。
    可以正则爬取,选择ua,速度……十万的话3个小时,当然要看网站速度嘛。
    jqw1992
        7
    jqw1992  
       2014-10-31 10:50:17 +08:00
    http://www.zhihu.com/question/20788231 这个 chrome就可以了的
    touch
        8
    touch  
       2014-10-31 10:51:16 +08:00
    python scrapy不是很好爬吗
    sohu022
        9
    sohu022  
       2014-10-31 11:18:44 +08:00
    用Scrapy,把规则写好,把response.url保存下来就行了。
    simapple
        10
    simapple  
       2014-10-31 11:33:27 +08:00   ❤️ 1
    https://github.com/simapple/spider 去年早些时候写的,比较烂,希望能对你有帮助
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5506 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 07:01 · PVG 15:01 · LAX 23:01 · JFK 02:01
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.