CrawlSpider

CrawlSpider
1.创建项目
scrapy startproject + 项目名称
2.cd spider
3.scrapy genspider -t ceawl 名称 + 域
scrapy genspider -t crawl qidian qidian.com

1).继承的类
2).rules
     RULE
        linkExtroct
3).不能用parse方法
4).parse_start_url

下载中间件:处于引擎和下载起之间

反爬措施:
1.基于请求头的反爬(合理构建请求头)(请求头参数User-Agent Referer cookie,常见状态码,常见的请求方式)
2.基于cookie的反爬(cookie池,文件存储,数据库存储【需要登录注册信息时候,需要cookie信息才会用到】)
3.基于IP的反爬(代理,代理的原理,代理怎么获取,代理如何检测,代理池)
4.基于动态加载的网页(ajax,js,jq)(seleium、无头,有头浏览器?selenium)
5.关于数据加密?(js,app,web网页)

下载中间件的方法
@classmethod
def from_crawler(cls,crawler)

def process_request(self,request,spider)
所有的request请求在交给下载器之前都会经过这个方法
    # - return None: continue processing this request
    # - or return a Response object
    # - or return a Request object
    # - or raise IgnoreRequest: process_exception() methods of
    #   installed downloader middleware will be called

def process_response(self,request,response,spider)
所有的响应结果会经过这个方法
    # - return a Response object
    # - return a Request object
    # - or raise IgnoreRequest

def process_exception(self,request,exception,spider)
#处理异常错误

中间件:
User-Agent
Cookies
IP
Selenium

激活中间件(settings.py):中间件后面的数值越小,优先级越高
DOWNLOADER_MIDDLEWARES = {
   # 'downloadmiddlerware.middlewares.DownloadmiddlerwareDownloaderMiddleware': 543,
   # 'downloadmiddlerware.middlewares.UserAgentDownloadMiddlerware':543,
     'downloadmiddlerware.middlewares.SeleniumDownloadMiddlerWare':543,
}

下载cookie中间件视为了 在每次发起请求是可以携带多个不同的用户发起请求
setting.py
COOKIE = [
{'cookie1':'xxxxx'},
{'cookie2':'xxxxx'},
{'cookie3':'xxxxx'},
{'cookie4':'xxxxx'}
]

scrapy并不支持动态网页的加载
设置selenium中间件
class SeleniumDownloadXXXXX(object):
#设置浏览器加载
self.drive = webdriver.Chrome(
executable_path=''
)
self.drive.set_page_load_timeout(10)
def process_request(self,request,spider)

关于爬虫的断电爬取:
scrapy crawl 项目名称 -s JOBDIR=crawls/爬虫名称 项目路径
request.queue:保存的请求的任务队列
request.seen:保存的是指纹
spider.status:爬虫运行的状态

scrapy settings.py设置文件(相关参数)

分布式

pip3 install scrapy-redis

修改设置文件
(1)#设置去重组件,使用的是scrapy_redis的去重组件,而不再使用scrapy框架

自己的去重组件了

DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
(2)#设置调度器,使用的是scrapy_redis重写的调度器,而不再使用scrapy框架

自带的调度器了

SCHEDULER = "scrapy_redis.scheduler.Scheduler"
(3)#可以实现断点爬取(请求的记录不会丢失,会存储在redis数据库中,

不会清除redis的任务队列)

SCHEDULER_PERSIST = True

(4)#设置任务队列的模式(三选一)

SpiderPriorityQueue是scrapy_redis默认使用的队列模式

(有自己的优先级)

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderPriorityQueue"

使用了队列的形式,任务先进先出

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderQueue"

采用了栈的形式,任务先进后出

SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderStack"

(5)

实现这个管道,可以将爬虫端获取的item数据,统一保存

在redis数据库中

'scrapy_redis.pipelines.RedisPipeline': 400,

(6)

指定要存储的redis数据库的主机ip

REDIS_HOST = '127.0.0.1'

指定redis数据库主机的端口

REDIS_PORT = 6379

"xcfCrawlSpider:requests":存储的是请求的request对象
"xcfCrawlSpider:items":存储的爬虫端获取的items数据
"xcfCrawlSpider:dupefilter":存储的指纹(为了实现去重)
127.0.0.1:6379> type xcfCrawlSpider:requests
zset
127.0.0.1:6379> type xcfCrawlSpider:items
list
127.0.0.1:6379> type xcfCrawlSpider:dupefilter
set

第一中情况:只设置settings.py文件,并没有实现分布式,知识使用了sctapy_redis的数据存储和去重功能

第二中情况:实现通用爬虫的分布式爬虫
from scrapy_redis.spiders import RedisCrawlSpider

#继承制:RedisCrawlSpider
class MyCrawler(RedisCrawlSpider):
    """Spider that reads urls from redis queue (myspider:start_urls)."""
    name = 'mycrawler_redis'
    allowed_domains = ['dmoz.org']
    #缺少了start_url,多了redis_key:根据redis_key从redis
    #数据库中获取任务
    redis_key = 'mycrawler:start_urls'


启动爬虫:scrapy crawl 爬虫名称

现象:爬虫处于等待状态

需要设置起始任务:
lpush mycrawler:start_urls 目标url

第三中情况:实现scrpy.spider爬虫的分布式爬虫

from scrapy_redis.spiders import RedisSpider

#继承制:RedisSpider
class MyCrawler(RedisSpider):
    """Spider that reads urls from redis queue (myspider:start_urls)."""
    name = 'mycrawler_redis'
    allowed_domains = ['dmoz.org']
    #缺少了start_url,多了redis_key:根据redis_key从redis
    #数据库中获取任务
    redis_key = 'mycrawler:start_urls'


启动爬虫:scrapy crawl 爬虫名称

现象:爬虫处于等待状态

需要设置起始任务:
lpush mycrawler:start_urls 目标url

dmoz.py

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269

推荐阅读更多精彩内容