不考虑被爬网站的各种限制,有什么方法可以加快爬虫的速度? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
mon3

不考虑被爬网站的各种限制,有什么方法可以加快爬虫的速度?

  •  
  •   mon3 Jan 11, 2018 2830 views
    This topic created in 3030 days ago, the information mentioned may be changed or developed.
    只需要页面的 status 状态码,有什么方法可以最大化爬虫的速度。

    单机,CPU AMD 1700 100M 宽带。

    现在用 python 写的,1 小时能爬 30W+的 URL

    还有其他方法可以加快速度?

    其他语言的也可以推荐。
    10 replies    2018-01-12 15:01:42 +08:00
    justfly
        1
    justfly  
       Jan 11, 2018   2
    首先确定 瓶颈 在哪里。

    如果是阻塞的 IO 可以换非阻塞的 IO,便于榨干 CPU. 然后开多个线程并绑定到每个核心上。

    之后看 CPU 和 带宽哪个先成为瓶颈,如果带宽不够用了,考虑只发 HEAD 请求,或者自己实现 HTTP Client 读完头部就关连接。如果 CPU 先成瓶颈那就换语言吧

    代码逻辑上尽量增大并行度。
    fiht
        2
    fiht  
       Jan 11, 2018
    楼上大佬说得对。讲得很全面了。
    还有一点就是做好 DNS 缓存,这个对爬虫性能影响很大。
    akira
        3
    akira  
       Jan 12, 2018
    先粗暴的加机器
    tSQghkfhTtQt9mtd
        4
    tSQghkfhTtQt9mtd  
       Jan 12, 2018 via Android
    @fiht 有点在意 DNS 缓存要怎么做,前几周查了老半天。。(有个 python dns 请求量爆炸,不知道为啥全部都往上游发 dns,本地完全没缓存
    qsnow6
        5
    qsnow6  
       Jan 12, 2018 via iPhone
    scrapy
    mon3
        6
    mon3  
    OP
       Jan 12, 2018
    @qsnow6 没有自己写的快。
    Akkuman
        7
    Akkuman  
       Jan 12, 2018
    @justfly
    > 自己实现 HTTP Client 读完头部就关连接
    请问下这个怎么实现?自己实现 HEAD 请求还是?
    qsnow6
        8
    qsnow6  
       Jan 12, 2018
    @mon3 不知道你怎么写的,scrapy 单进程 7000 page /min 跟玩一样
    justfly
        9
    justfly  
       Jan 12, 2018
    @Akkuman

    这是我的一个脑洞,能用 HEAD 当然优先 HEAD 请求,考虑到很多网站不接受 HEAD 请求,只能 GET,但楼主想要极致速度,就要节省带宽,你就要自己发 GET 请求,读完头部就别再管很大的 body 了。

    这个实现要到直接操作 socket 了。
    Akkuman
        10
    Akkuman  
       Jan 12, 2018
    @justfly 谢谢提示^-^
    About     Help     Advertise     Blog     API     FAQ     Solana     2629 Online   Highest 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 57ms UTC 11:38 PVG 19:38 LAX 04:38 JFK 07:38
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86