更多的例子和模板

这里是另外一个爬虫说明的返回函数和追踪链接,这次爬取的是作者的信息:

    import scrapy

    class AuthorSpider(scrapy.Spider):
         name = 'author'
         start_urls = ['http://quotes.toscrape.com/']

         def parse(self,response):
             #follow links to author pages
             for href in response.css('.author+a::attr(href)'):
                 yield response.follow(href,self.parse_author)

             #follow pagination links
             for href in response.css('li.next a::attr(href)'):
                 yield response.follow(href,self.parse)
         
         def parse_author(self,response):
             def extract_with_css(query):
                 return response.css(query).extract_first().strip()

             yield{
                 'name':extract_with_css('h3.author-title::text'),
                 'birthdate':extract_with_css('.author-born-date::text'),
                 'bio':extract_with_css('.author-description::text'),
             }

此爬虫将会在网站的主页开始爬取,它将会追踪所有到作者页面的链接并对它调用parse_author函数,同时被标记网页的链接也会被调用parse函数,像我们之前所见到的一样。

在这我们传递response.follow作为位置函数参数使得代码更短;当然你也可以使用scrapy.Request

parse_author函数定义了一个帮助函数来从CSS查询中提取和清洗数据信息同时以作者数据信息生成Python字典。

此爬虫演示了另外一个有趣的东西,即使许多语录都是同一个作者,我们不必担心多次访问同一作者的网页。Scrapy过滤器默认过滤在URLs中已访问的链接和相同的请求,避免由于多次访问服务器的问题而造成访问限制。但是这可以在DUPEFILTER_CLASS中被修改配置。

值得高兴的是你现在对Scrapy的追踪链接和回调函数的原理与功能有一定的理解。

作为另一个爬虫例子,它利用追踪链接的原理,查看CrawlSpider的类,对于一个通用的爬行器,它实现了一个小型规则引擎,你可以在它上面编写爬行器。

同时,一个通用的模板是从至少一个网页去创建一个数据项目,来使用传递其它数据的函数。

推荐阅读更多精彩内容