Python 爬虫入门 (三) 初识scrapy框架

参考资料:
Scrapy中文文档 http://scrapy-chs.readthedocs.io/zh_CN/stable/index.html
Scrapy研究探索系列 http://blog.csdn.net/u012150179/article/details/32343635

scrapy使用相较于之前的urllib和requests两个爬虫库的使用还是要复杂很多,感觉一些简单的爬虫直接用requests+BeautifulSoup来的更简单更快,为什么不用urllib?又是decode又是encode的挺麻烦,而requests则简单了许多.而scrapy学会了之后使用起来感觉也比requests简单方便些,难点是对于一些网站反爬虫的解决方案,现在这方面还是学的很差,接下来以一个例子简单了解记录下学习过程,具体scrapy学习还请参考上面给出的参考资料以及Google吧.

1. 创建爬虫项目

scrapy startproject collectips #创建一个爬取http://www.xicidaili.com/nn/上面代理ip的项目

创建项目后会自动生成一个目录,大致如下,其中ips.csv是最后爬取的ip存储的文件,一开始是没有的

├── collectips
 ├── collectips
 │   ├── __init__.py
 │   ├── items.py    #设置要爬取的项目的内容部分
 │   ├── middlewares.py   #中间部件
 │   ├── pipelines.py     #对生成的item进行处理,若不设置,则默认为原网页爬取到的内容
 │   ├── __pycache__
 │   │   ├── __init__.cpython-35.pyc
 │   │   ├── items.cpython-35.pyc
 │   │   └── settings.cpython-35.pyc
 │   ├── settings.py    #每个项目都有这个文件,可对爬虫进行相关设置,如cookies,User-Agent等
 │   └── spiders     #编写爬虫主代码,此文件下可编写多个爬虫
 │       ├── __init__.py
 │       ├── ips.csv  #这是最后生成的文件,创建项目时是没有的
 │       ├── __pycache__
 │       │   ├── __init__.cpython-35.pyc
 │       │   └── xici.cpython-35.pyc
 │       └── xici.py     #编写爬虫代码的文件,非自动生成
 └── scrapy.cfg 

2. 编辑items.py文件,填入想要爬取内容的名称

# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/en/latest/topics/items.html

import scrapy


class CollectipsItem(scrapy.Item):
    IP = scrapy.Field()      #要爬取的代理ip
    PORT = scrapy.Field()  #ip端口
    DNS_POSITION = scrapy.Field()  #服务器地址
    TYPE = scrapy.Field()    #ip类型,http或者https
    SPEED = scrapy.Field()    #ip响应速度
    LAST_CHECK_TIME = scrapy.Field()    #ip最后更新时间

3. 编写主要爬虫

编写爬虫时可使用默认模板来生成爬虫文件,命令行命令为scrapy genspider [options] <name> <domain>

# -*- coding: utf-8 -*-
import scrapy
from collectips.items import CollectipsItem
from scrapy.selector import Selector


class XiciSpider(scrapy.Spider):
    name = "xici"   #爬虫名称
    allowed_domains = ["http://www.xicidaili.com"]  #允许爬取的范围
   
    #重写start_requests()函数,生成多个要爬取的页面
    def start_requests(self):   
        reqs = []
        for i in range(1, 21):
            req = scrapy.Request(
                'http://www.xicidaili.com/nn/{}'.format(i))
            reqs.append(req)

        return reqs
    
    #编写parse()函数对爬取的网页内容进行分析,提取出想要的部分
    def parse(self, response):
        item = CollectipsItem()
        sel = Selector(response)
        #使用xpath选择器来选取我们想要的网页标签内容
        for i in range(2, 102):
            item['IP'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[2]/text()'.format(i)).extract_first()
            item['PORT'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[3]/text()'.format(i)).extract_first()
            item['DNS_POSITION'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[4]/a/text()'.format(i)).extract_first()
            item['TYPE'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[6]/text()'.format(i)).extract_first()
            item['SPEED'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[7]/div/@title'.format(i)).extract_first()
            item['LAST_CHECK_TIME'] = sel.xpath(
                '//*[@id="ip_list"]/tr[{}]/td[10]/text()'.format(i)).extract_first()
            yield item

编写爬虫提取标签时可采用scrapy自带的shell工具进行调试,命令行命令为scrapy shell 'website',若爬取成功,则会返回一个类似ipython的工具,可使用response.headers来查看返回的headers,采用response.xpath('//some/path/title/text()')来调试提取的内容

4. 防止爬虫被ban的一些方法

  1. 更改设置文件settings.py,禁止cookies
  2. 延长爬取间隔时间delay
  3. 使用多个User-Agent
  4. 使用代理ip

5. 使用chrome插件xpath helper快速获取目的内容的标签

使用xpath方法获取目的内容标签时,有点地方浏览器会对源html进行更改,加入一个tbody标签,如果我们使用的xpath标签中含有tbody,将无法获取正确内容,需要手动删除tbody这个标签.
xpath helper能帮助我们快速获得目的内容的标签,方便提取.使用方法为:打开目的网页后,Ctrl+shift+X调出xpath helper的控制台,将鼠标移至任何目的内容位置,按下shift键即可在控制台中查看鼠标所在内容的标签以及其内容.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,117评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,328评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,839评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,007评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,384评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,629评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,880评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,593评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,313评论 1 243
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,575评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,066评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,392评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,052评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,082评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,844评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,662评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,575评论 2 270

推荐阅读更多精彩内容