Scrapy(python爬虫框架)入门笔记

本文章仅作为个人笔记

Scrpy官网

Scrpy官方文档

Scrpy中文文档

个人ScrapyDemo项目地址

python环境安装
  • win下安装:
    • python:下载python安装包直接安装即可
    • pip: easy_install pip
  • mac下安装:
    • python:mac下自带python2.7
    • pip: easy_install pip
  • centos7下安装:
    • python:centos7下自带python2.7
    • pip: easy_install pip
scrapy 安装
pip install Scrapy
创建项目
scrapy startproject <project_name>
创建爬虫
scrapy genspider <spider_name> <host_name>
在文件夹根目录创建 requirements.txt文件并加入需要的组件,例如:
Scrapy==1.5.0
beautifulsoup4==4.6.0
requests==2.18.4
项目环境搭建
pip install -r requirements.txt
运行单个爬虫
scrapy crawl <spider_name>
运行多个爬虫(Scrapy本身并不支持命令行直接运行多个Spiders,创建一个新的python文件加入如下内容运行此python文件便可)(需按需更改)
# -*- coding: utf-8 -*-
import sys
    from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings
from ScrapyDemo.spiders.news_estadao import EstadaoSpider
from ScrapyDemo.spiders.news_gazetaesportiva import DemoSpider
from ScrapyDemo.spiders.news_megacurioso import MegacuriosoSpider

if sys.getdefaultencoding != 'utf-8':
    reload(sys)
    sys.setdefaultencoding('utf-8')

process = CrawlerProcess(get_project_settings())
process.crawl(EstadaoSpider)
process.crawl(DemoSpider)
process.crawl(MegacuriosoSpider)
process.start()
启用pipelines用于处理结果
  • 打开settings.py文件在ITEM_PIPELINES选项下加入peline并赋值,0-1000,数字越小越优先
输出单个spider运行结果到文件
scrapy crawl demo -o /path/to/demo.json
多个spider的结果混合处理:
  • 上面的运行多个爬虫脚本并不能将多个spider的结果混合处理
  • 因为业务需要,只可退而求其次
    • 思路:借助commands库运行linux命令顺序运行并输出结果到文件,最后读取文件内容解析为对象进行混合处理

    • 代码(需按需更改):

      #!/usr/bin/env python
      # encoding: utf-8
      import commands
      
      def test():
        result = []
        try:
            commands.getoutput("echo '' > /path/to/megacurioso.json") #清空上次运行结果
            commands.getoutput("scrapy crawl demo -o /path/to/demo.json") # 运行结果并输出
            result = json.loads(commands.getoutput("cat /path/to/megacurioso.json")) # 获取运行结果
        except:
            print "Get megacurioso error."
        return result
      
解决结果爬虫信息乱码问题:
  • 在有乱码问题python文件顶部加入如下代码:

    if sys.getdefaultencoding != 'utf-8':
      reload(sys)
      sys.setdefaultencoding('utf-8')
    
爬虫示例,也可以使用文顶给出的github链接
  • item示例(items.py):

    # -*- coding: utf-8 -*-
    
    # Define here the models for your scraped items
    #
    # See documentation in:
    # https://doc.scrapy.org/en/latest/topics/items.html
    
    import scrapy
    
    
    class ScrapydemoItem(scrapy.Item):
        title = scrapy.Field()
        imageUrl = scrapy.Field()
        des = scrapy.Field()
        source = scrapy.Field()
        actionUrl = scrapy.Field()
        contentType = scrapy.Field()
        itemType = scrapy.Field()
        createTime = scrapy.Field()
        country = scrapy.Field()
        headUrl = scrapy.Field()
        pass
    
  • pipelines示例(pipelines.py):

    # -*- coding: utf-8 -*-
    
    # Define your item pipelines here
    #
    # Don't forget to add your pipeline to the ITEM_PIPELINES setting
    # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
    from ScrapyDemo.items import ScrapydemoItem
    import json
    
    
    class ScrapydemoPipeline(object):
        DATA_LIST_NEWS = []
    
        def open_spider(self, spider):
            DATA_LIST_NEWS = []
            print 'Spider start.'
    
        def process_item(self, item, spider):
            if isinstance(item, ScrapydemoItem):
                self.DATA_LIST_NEWS.append(dict(item))
            return item
    
        def close_spider(self, spider):
            print json.dumps(self.DATA_LIST_NEWS)
            print 'Spider end.'
    
  • spider示例(demo.py):

        # -*- coding: utf-8 -*-
        import scrapy
        from ScrapyDemo.items import ScrapydemoItem
    
    
        class DemoSpider(scrapy.Spider):
            name = 'news_gazetaesportiva'
            allowed_domains = ['www.gazetaesportiva.com']
            start_urls = ['https://www.gazetaesportiva.com/noticias/']
            headers = {
                'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
                'accept-language': 'zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7',
                'cache-control': 'max-age=0',
                'upgrade-insecure-requests': '1',
                'User-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36'
            }
    
            def parse(self, response):
                print('Start parse.')
                for element in response.xpath('//article'):
                    title = element.xpath(".//h3[@class='entry-title no-margin']/a/text()").extract_first()
                    imageUrl = [element.xpath(".//img[@class='medias-object wp-post-image']/@src").extract_first()]
                    des = element.xpath(".//div[@class='entry-content space']/text()").extract_first()
                    source = 'gazeta'
                    actionUrl = element.xpath(".//a[@class='blog-image']/@href").extract_first()
                    contentType = ''
                    itemType = ''
                    createTime = element.xpath(".//small[@class='updated']/text()").extract_first()
                    country = 'PZ'
                    headUrl = ''
                    if title is not None and title != "" and actionUrl is not None and actionUrl != "" and imageUrl is not None and imageUrl != "":
                        item = ScrapydemoItem()
                        item['title'] = title
                        item['imageUrl'] = imageUrl
                        item['des'] = des
                        item['source'] = source
                        item['actionUrl'] = actionUrl
                        item['contentType'] = contentType
                        item['itemType'] = itemType
                        item['createTime'] = createTime
                        item['country'] = country
                        item['headUrl'] = headUrl
                        yield item
                print('End parse.')
    
  • 代码个人理解:

    • settings可配置公共配置及配置pipelines对spiders结果进行汇总,例如(后面的数值越大优先级越低,取值0-1000):

      ITEM_PIPELINES = {
          'DemoScrapy.pipelines.ScrapydemoPipeline': 300,
      }
      
    • 配置pipelines后命令行运行spiders是会先运行open_spider方法,然后每个结果解析时运行process_item方法,最后spider结束时运行close_spider方法

    • items文件是用来配置描述结果对象的

    • spiders文件夹里根据命令行创建的spiders文件配置需要抓取的数据的网页及需要伪装的请求头参数等,抓取数据后数据结果进入 parse方法进行解析,可使用xpath进行解析。xpath的具体使用可参考前文给出的链接,个人进行数据抓取前使用chrom定位标签,复制源码后根据规则找到标签位置最后进行规则匹配,因为每次数据规则匹配不可能一次性完成,建议使用debug功能来进行匹配,最后一次性完成规则书写。

  • pycharm下debug spiders:

    • 打开pycharm后如果遇到部分插件无法安装的情况可使用虚拟环境:


      image.png

      image.png

      image.png
    • debug运行scrapy:


      image.png

      image.png

      image.png

      image.png

      image.png

      image.png
      • 运行到断点后右击选择 Evaluate Expresion


        如此便可随意运行代码查看执行结果
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,425评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,058评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,186评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,848评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,249评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,554评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,830评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,536评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,239评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,505评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,004评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,346评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,999评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,060评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,821评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,574评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,480评论 2 267

推荐阅读更多精彩内容