Scrapy实战-爬取豆瓣漫画

背景知识

(一)什么是Scrapy呢?Python上优秀的爬虫框架。什么是爬虫?可以看我的心得感悟,也可以自行谷歌百度。

(二)建议看下初识Scrapy事前准备安装Scrapy。

(三)Selectors根据XPath和CSS表达式从网页中选择数据。XPath和CSS表达式是什么东西,我们不用太过于纠结,只需要知道可以使用它们在网页中选择数据。用法:利用chrome去复制所需数据的位置信息。当然进阶的话可以看这里

右击

拷贝

基本用法与说明:

  • response.selector.xpath('//title/text()')##用xpath选取了title的文字内容
  • response.selector.css('title::text') ##用css选取了title的文字内容
    由于selector.xpath和selector.css使用比较普遍,所以专门定义了xpath和css,所以上面也可以写成:
  • response.xpath('//title/text()')
  • response.css('title::text')
    由于<code>.xpath</code>和<code>.css</code>返回的都是<class 'scrapy.selector.unified.SelectorList'>,因此可以这样写<code>response.css('img').xpath('@src').extract()</code>
  • 提取全部内容: .extract(),获得是一个列表
  • 提取第一个:.extract_first(),获得是一个字符串
  • 选取链接: .response.css('base::attr(href)').response.xpath('//base/@href')

正式开始

1. 新建工程 scrapy startproject tutorial

2. 创建爬虫 scrapy genspider -t basic douban douban.com

上面两步会创建如下的目录结构:

Scrapy目录树

简单说下每一个文件的作用,虽然在初识Scrapy已经说过了。

  1. spiders文件夹存放你的爬虫,
  2. items.py用于定义存放网页数据的item。
  3. middlewares.py是后加的,目前不需要
  4. pipelines.py 用于处理从spiders返回的item,比如说清洗、存储。
  5. settings.py是全局设定,比如说接下来提到的DEFAULT_REQUEST_HEADERA和USER_AGENT都在这里。

3. 修改settings.py

因为Scrapy非常诚实,爬取网页的时候会表明自己是一只爬虫,但是豆瓣不给这些表明身份的爬虫活路。所以我们只能换个身份。

第一步:chrome用快捷键F12打开开发者工具,选择Network一栏,可能需要F5刷新页面:


开发者工具之Network

第二步:在上图红框部分随机选取一个,会出现下图:

浏览器信息

我们主要需要的是里面红框的Request Headers的信息。

第三步:在settings.py中修改DEFAULT_REQUEST_HEADERA和USER_AGENT。

settings.py

里面的USER_AGENT填写浏览器图中的User-Agent对应信息,DEFAULT_REQUEST_HEADERA里的信息根据字典的写法,从浏览器信息图中依次对应对应填上去。
PS:
顺便启用DOWNLOAD_DELAY=3减慢爬取速度,不要给别人的服务器增加太多压力。
此外启用ITEM_PIPELINES = { 'tutorial.pipelines.DoubanPipeline': 300,}用于处理数据

4. 用爬虫的视角看网页,

在命令行中输入scrapy shell https://movie.douban.com/chart 这时候会进入scrapy版的ipython,输入view(response)就可以查看网页。

5. 定义要爬取的内容

在items.py中作如下修改

import scrapy
class DoubanItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field()
    link = scrapy.Field()
    info = scrapy.Field()
    desc = scrapy.Field()

6. 单页逻辑

爬取多个网页前,我们首先得要成功提取一个网页的信息。在spiders/douban.py做如下修改
# -- coding: utf-8 --
import scrapy
from scrapy.http import Request
from ..items import DoubanItem

class DoubanSpider(scrapy.Spider):
    name = "douban"
    allowed_domains = ["douban.com"]
    start_urls = (
        'https://book.douban.com/tag/%E6%BC%AB%E7%94%BB?start=0&type=T',
    )

    def parse(self, response):
        item = DoubanItem()
        for sel in response.css('#subject_list > ul > li > div.info'):
            item['title']= sel.css('h2 > a::text').extract_first()
            item['link'] = sel.css('h2 > a::attr(href)').extract_first()
            item['info'] = sel.css('div.pub::text').extract_first()
            item['desc'] = sel.css('p::text').extract_first()
            yield item

大致的爬虫就完成了。用scrapy crawl douban开始工作。由于scrap构建在python2.7上,所以对中文支持不太好,在命令行中会以unicode编码的方式显示,所以在shell上看到一堆不认识的\xxx也不要太担心。

7.数据储存

为了方便之后调用数据,我们需要用pipelines.py将爬取的数据存储在固定的文件中。可以用json等格式储存,也可以存放在数据库中。网页爬取数据往往不太规范,建议使用mongodb(NoSQL)。

import json
import codecs
Import pymongo #python中用来操作mongodb的库
##存储为json格式
class DoubanPipeline(object):
    def __init__(self):
        self.file = codecs.open('douban_movie.json','wb',encoding='utf-8')

    def process_item(self, item, spider):
        line = json.dumps(dict(item)) + '\n'
        self.file.write(line.decode("unicode_escape"))
        return item

class MongoPipeline(object):

    collection_name = 'douban_cartoon' # mongo的collection相当于sql的table

    def __init__(self, mongo_uri,mongo_db):
        self.mongo_uri = mongo_uri
        self.mongo_db = mongo_db

    ## 配置mongo
    @classmethod
    def from_crawler(cls, crawler):
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI'), #从settings中mongo的uri
            mongo_db=crawler.settings.get('MONGO_DATABASE','douban') #从settings中获取数据库,默认为douban
        )

    # 在spider工作开始前连接mongodb
    def open_spider(self, spider):
        self.client = pymongo.MongoClient(self.mongo_uri)
        self.db = self.client[self.mongo_db]
    ## 在spider工作结束后关闭连接
    def close_spider(self, spider):
        self.client.close()
    ## 在mongodb中插入数据
    def process_item(self, item, spider):
        # for i in item:

        self.db[self.collection_name].insert(dict(item))
        return item

运行后就可以在项目所在目录找到douban_movie.json,mongodb的话需要自己去查询了。

多页逻辑(一)

我们需要在这一页获取下一个的链接,然后重新调用parse函数爬取这个链接。

     def parse(self, response):
        .....
        ## 获取下一个的链接
        href = response.xpath('//*[@id="subject_list"]/div[2]/span[4]/a')
        url = u'https://book.douban.com'+ href.css('a::attr(href)').extract_first()
        yield Request(url, callback=self.parse)

多页逻辑(二)

我们还可以通过Scrapy提供的CrawlSpider完成多页爬取。CrawlSpider比Spider多了一步即设置Rule,具体可以看我的[Scrapy基础之详解Spider]的CrawlSpider。

第一步shell试错

为了确保LinkExtractor能提取到正确的链接,我们需要在shell中进行试验。

scrapy shell https://book.douban.com/tag/漫画
 from scrapy.linkextractors import LinkExtractor ##导入LinkExtractor
 item=LinkExtractor(allow='/tag/漫画',restrict_xpaths=('//*[@id="subject_list"]/div[2]/span/a')).extract_links(response) ##需要反复修改

第二步修改爬虫

修改后的爬虫如下:
# -- coding: utf-8 --
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from tutorial.items import DoubanItem

class ManhuaSpider(CrawlSpider):
    name = 'manhua'
    allowed_domains = ['book.douban.com']
    start_urls = ['https://book.douban.com/tag/漫画']

    rules = (
        Rule(LinkExtractor(allow=r'/tag/漫画',
                           restrict_xpaths=('//*[@id="subject_list"]/div[2]/span/a')),
             callback='parse_item',
             follow=True),
    )

    def parse_item(self, response):
        item = DoubanItem()
        for sel in response.css('#subject_list > ul > li > div.info'):
            item['title']= sel.css('h2 > a::text').extract_first()
            item['link'] = sel.css('h2 > a::attr(href)').extract_first()
            item['info'] = sel.css('div.pub::text').extract_first()
            item['desc'] = sel.css('p::text').extract_first()
            yield item

运行结果和多页逻辑(一)的一致。


进一步,你可以看再识Scrapy-下载豆瓣图书封面,在这个的基础上增加图片下载功能。
如果怕被ban,可以看再识Scrapy-防ban策略


本文参考了Andrew_liuPython爬虫(六)--Scrapy框架学习
scrapy研究探索(二)——爬w3school.com.cn,以及最重要的官方文档。


写在最后:
网络上有那么多的Scrapy的教程,为啥我还要写一个呢?因为我觉得真正学会用自己语言去表达一门技术的时候,才算入门了。
还有写出来的东西才能让别人发现自己的不足,希望各位大大批评指正。
我的源代码托管在GitHub上,有需要的话可以去看

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 151,688评论 1 330
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 64,559评论 1 273
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 101,749评论 0 226
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 42,581评论 0 191
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 50,741评论 3 271
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 39,684评论 1 192
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,122评论 2 292
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 29,847评论 0 182
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,441评论 0 228
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 29,939评论 2 232
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,333评论 1 242
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 27,783评论 2 236
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,275评论 3 220
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,830评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,444评论 0 180
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 34,553评论 2 249
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 34,618评论 2 249

推荐阅读更多精彩内容