返回首页 Scrapy 中文指南

通用爬虫(Broad Crawls)

Scrapy 默认对特定爬取进行优化。这些站点一般被一个单独的 Scrapy spider 进行处理, 不过这并不是必须或要求的(例如,也有通用的爬虫能处理任何给定的站点)。

除了这种爬取完某个站点或没有更多请求就停止的”专注的爬虫”,还有一种通用的爬取类型,其能爬取大量(甚至是无限)的网站, 仅仅受限于时间或其他的限制。 这种爬虫叫做”通用爬虫(broad crawls)”,一般用于搜索引擎。

通用爬虫一般有以下通用特性:

  • 其爬取大量(一般来说是无限)的网站而不是特定的一些网站。
  • 其不会将整个网站都爬取完毕,因为这十分不实际(或者说是不可能)完成的。相反,其会限制爬取的时间及数量。
  • 其在逻辑上十分简单(相较于具有很多提取规则的复杂的 spider),数据会在另外的阶段进行后处理(post-processed)
  • 其并行爬取大量网站以避免被某个网站的限制所限制爬取的速度(为表示尊重,每个站点爬取速度很慢但同时爬取很多站点)。

正如上面所述,Scrapy 默认设置是对特定爬虫做了优化,而不是通用爬虫。不过, 鉴于其使用了异步架构,Scrapy 对通用爬虫也十分适用。 本篇文章总结了一些将 Scrapy 作为通用爬虫所需要的技巧, 以及相应针对通用爬虫的 Scrapy 设定的一些建议。

增加并发

并发是指同时处理的 request 的数量。其有全局限制和局部(每个网站)的限制。

Scrapy 默认的全局并发限制对同时爬取大量网站的情况并不适用,因此您需要增加这个值。 增加多少取决于您的爬虫能占用多少 CPU。 一般开始可以设置为 100 。不过最好的方式是做一些测试,获得 Scrapy 进程占取 CPU 与并发数的关系。 为了优化性能,您应该选择一个能使 CPU 占用率在 80%-90% 的并发数。

增加全局并发数

CONCURRENT_REQUESTS = 100

降低 log 级别

当进行通用爬取时,一般您所注意的仅仅是爬取的速率以及遇到的错误。 Scrapy 使用 INFO log 级别来报告这些信息。为了减少 CPU 使用率(及记录 log 存储的要求), 在生产环境中进行通用爬取时您不应该使用 DEBUG log 级别。 不过在开发的时候使用 DEBUG 应该还能接受。

设置 Log 级别:

LOG_LEVEL = 'INFO'

禁止 cookies

除非您 真的 需要,否则请禁止 cookies。在进行通用爬取时 cookies 并不需要, (搜索引擎则忽略 cookies)。禁止 cookies 能减少 CPU 使用率及 Scrapy 爬虫在内存中记录的踪迹,提高性能。

禁止 cookies:

COOKIES_ENABLED = False

禁止重试

对失败的 HTTP 请求进行重试会减慢爬取的效率,尤其是当站点响应很慢(甚至失败)时, 访问这样的站点会造成超时并重试多次。这是不必要的,同时也占用了爬虫爬取其他站点的能力。

禁止重试:

RETRY_ENABLED = False

减小下载超时

如果您对一个非常慢的连接进行爬取(一般对通用爬虫来说并不重要), 减小下载超时能让卡住的连接能被快速的放弃并解放处理其他站点的能力。

减小下载超时:

DOWNLOAD_TIMEOUT = 15

禁止重定向

除非您对跟进重定向感兴趣,否则请考虑关闭重定向。当进行通用爬取时,一般的做法是保存重定向的地址,并在之后的爬取进行解析。这保证了每批爬取的 request 数目在一定的数量,否则重定向循环可能会导致爬虫在某个站点耗费过多资源。

关闭重定向:

REDIRECT_ENABLED = False

启用 “Ajax Crawlable Pages” 爬取

有些站点(基于 2013 年的经验数据,之多有 1%)声明其为 ajax crawlabl。这意味着该网站提供了原本只有 ajax 获取到的数据的纯 HTML 版本。网站通过两种方法声明:

  1. 在 url 中使用#! - 这是默认的方式;
  2. 使用特殊的 meta 标签 - 这在”main”, “index” 页面中使用。

Scrapy 自动解决(1);解决(2)您需要启用 AjaxCrawlMiddleware:

AJAXCRAWL_ENABLED = True

通用爬取经常抓取大量的 “index” 页面; AjaxCrawlMiddleware 能帮助您正确地爬取。 由于有些性能问题,且对于特定爬虫没有什么意义,该中间默认关闭。