RT,不知道我讲明白没,采用 redis 队列,依次读取未来会推送的 url。
但我在扫描某个 url,会触发某种条件,调用以下的代码:
self.crawler.engine.close_spider 在不启用 redis 推送,直接调用的时候,经测试,这个可以结束掉 spider。
但是在我启用了 redis 推送后,一旦触发调用该代码,是否整个 spider 直接结束,其他已经在跑的 url 和新推送的 url,都会不再爬取?
非常期待有经验的大佬给个提示,我这边只想特定条件结束掉单个 url,不影响其他 url 的爬取。
