从零开始实现scrapy爬取智联招聘的岗位信息-3

根据我们对当个招聘岗位的分析,我们发现我们需要爬取的数据主要有八个,分别是:职位月薪、工作地点、发布日期、工作性质、工作经验、最低学历、招聘人数、职位类别。
所以我们首先在Items.py中定义我们要抓取的数据,如下所示:

import scrapy
class NewoneItem(scrapy.Item):
    # define the fields for your item here like:
    #myurl = scrapy.Field()
    salary = scrapy.Field()
    position = scrapy.Field()
    time = scrapy.Field()
    xingzhi = scrapy.Field()
    experience = scrapy.Field()
    education = scrapy.Field()
    number = scrapy.Field()   
    leibie = scrapy.Field()
    #pass

数据类型定义好之后,我们开始编写爬虫的主体部分,打开my_spider.py,其中已经自动为我们生成了不少代码,其中包括def parse(self,response):方法。由于我们要抓取多页页面,因此我们在自定义一个def parse_item(self,response):方法。这样,我们使用def parse_item(self,response):来抓取某一具体页面的内容,然后使用def parse(self,response):方法来循环调用def parse_item(self,response):
(1)首先我们编写def parse_item(self,response):方法:
其中theitem 用来存储抓取的数据并返回,a1定位到了class="terminalpage-left"的div,然后根据我们对网页的分析,提取出具体数据到item中,并存到theitem返回。这里大量用到了xpath,不会的同学可以从这个网站简单学习一下:http://www.w3school.com.cn/xpath/xpath_syntax.asp

 #爬取具体的内容
    def parse_item(self,response):
        theitems =[]
        item = NewoneItem()
        a1 = response.xpath('//div[@class="terminalpage-left"]')
#为了处理掉出现的空格,salary特殊处理
        temp1 = a1.xpath('./ul/li[1]/strong/text()').extract()[0]
        temp2 = ''
        for te in temp1:
            te = te.strip()
            if te!="":
                temp2 = temp2+te
        item['salary'] = temp2
        item['position'] = a1.xpath('./ul/li[2]/strong/a/text()').extract()
        item['time'] = a1.xpath('./ul/li[3]/strong/span/text()').extract()
        item['xingzhi'] = a1.xpath('./ul/li[4]/strong/text()').extract()
        item['experience'] = a1.xpath('./ul/li[5]/strong/text()').extract()
        item['education'] = a1.xpath('./ul/li[6]/strong/text()').extract()
        item['number'] = a1.xpath('./ul/li[7]/strong/text()').extract()
        item['leibie'] = a1.xpath('./ul/li[8]/strong/a/text()').extract()
        theitems.append(item)
        
        return theitems

(2)然后在def parse_item(self,response):循环调用上述方法。需要注意的是,我们需要给出start_urls,链接地址即为搜索结果地址。href中是我们从网页中找到本页所有的工作链接地址。因此我们使用一个for循环来遍历这些地址,使用yield scrapy.Request(he,callback = self.parse_item)打开这个地址,并调用我们编写的self.parse_item方法,提取当前这个岗位的信息,如此循环直到本页面中所有的链接都被爬取过。爬取完当前这一页的内容之后,我们需要转到下一页,我们注意到下一页的链接地址是在页面的下一页按钮中,因此下一页的地址就是thenexthref= response.xpath('//div[@class="newl'+'ist_wrap fl"]/div[@class="pages'+'Down"]/ul/li[@class="pagesDow'+'n-pos"]/a/@href').extract(),大家可以自行尝试分析一下,找到下一页地址后,我们将地址加到start_urls中,这样又可以继续抓取。

# -*- coding: utf-8 -*-
import scrapy
from newone.items import NewoneItem

class MySpiderSpider(scrapy.Spider):
    name = "my_spider"
    allowed_domains = ["zhaopin.com"]
    start_urls = ["https://sou.zhaopin.com/jobs/searchresult.ashx?jl=538&kw=it&sm=0&p=1"]
    
    #得到URL。循环爬取
    def parse(self, response):
            href = response.xpath('//td[@class="zwmc"]/div/a[1]/@href').extract()
            for he in href:
                yield scrapy.Request(he,callback = self.parse_item)
                
            #爬取下一页
            thenexthref= response.xpath('//div[@class="newl'+'ist_wrap fl"]/div[@class="pages'+'Down"]/ul/li[@class="pagesDow'+'n-pos"]/a/@href').extract()
            
            self.start_urls.append(thenexthref)
            if thenexthref:
                thenexthref=thenexthref[0]
                yield scrapy.Request(thenexthref,callback=self.parse)

如果我们需要保存抓取的数据,我们首先要进行相关设置, 在setting.py中将下面的代码取消注释。

# Configure item pipelines
# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
    'newone.pipelines.NewonePipeline': 300,
}

然后在piplines.py中编写保存数据的代码,我们将数据保存为json格式,命名为news,如下所示:

import codecs
import json
import os

class NewonePipeline(object):
    def process_item(self, item, spider):
        base_dir = os.getcwd()
        filename = base_dir + '/news.json'
        with codecs.open(filename, 'a') as f:
            line = json.dumps(dict(item), ensure_ascii=False) + '\n'
            f.write(line)
        return item

做好这些后,我们就可以执行爬虫爬取命令了,在Anaconda Prompt进入你项目的目录,然后执行
scrapy crawl my_spider命令,就可以看到数据的爬取过程,最终数据存到news.json文件中,如下图所示:

333.png

本文参考了lucky_yang_的博客;另外本文代码地址:链接: https://pan.baidu.com/s/1jn1aloADaqoH2Ra5343SHQ 密码: 55bc

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,290评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,399评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,021评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,034评论 0 207
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,412评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,651评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,902评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,605评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,339评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,586评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,076评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,400评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,060评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,851评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,685评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,595评论 2 270

推荐阅读更多精彩内容