爬取基于Ajax技术网页数据

爬取动态网页数据:

1.需求:

爬取什么网站获得什么内容,存储在excel、txt与MySQL数据库中。

2.分析:

  • 分析页面源码,找到需要的数据在哪里

  • 打开目标网站-->输入关键词-->查看源码-->没发现数据信息

  • 打开目标网站-->输入关键词-->按F12-->Network(网络)刷新-->找到带ajax请求字样的url,我们可以发现存在数据开头的json文件,这很可能就是我们所需要的数据信息,右击选择open link in new tab,可以发现其实就是我们所需的内容。

  • 我们在写爬虫的时候需要多页爬取,自动模拟换页操作。首先我们点击下一页,可以看到url没有改变,这也就是Ajax(异步加载)的技术。点击相关数据的json文件,在右侧点击Headers栏,可以发现最底部有Form Data的字样,里面的内容这个是携带的表单数据内容.

图片.png
  • 当我们换页的时候pn则变为2且first变为false,故我们可以通过构造post表单进行爬取。
图片.png

4.页面案例(拉勾网获取职位信息案例):

  from urllib import request,parse
  import json
  import pymysql
  import time

  def lagouspider(url,formdata):
        response_data = loaddata(url,formdata)#发起请求返回响应结果
      data = json.loads(response_data)#json字符串转化为Python数据类型

      if data['success']:
            print('请求成功')
        #拿到职位信息
           postionjobs = data['content']['positionResult']['result']
           for job in postionjobs:
                jobdata = {}
                jobdata['positionName'] = job['positionName']
                jobdata['publishtime'] = job['formatCreateTime']
                jobdata['companyName'] = job['companyShortName']
                jobdata['city'] = job['city']
                jobdata['Zones'] = job['businessZones'][0]
                jobdata['salary'] = job['salary']
                jobdata['workYear'] = job['workYear']
                jobdata['xueli'] = job['education']
                jobdata['positionAdvantage'] = job['positionAdvantage']
                jobdata['fuli'] = ','.join(job['companyLabelList'])
                jobdata['size'] = job['companySize']
                jobdata['industry'] = job['industryField']
                jobdata['rongzi'] = job['financeStage']
                jobdata['Logo'] = job['companyLogo']
                save_data_to_db(jobdata)
        #判断是否需要发起下一次请求
        #取出当前页码
            cur_page = data['content']['pageNo']
            #每页数据
            page_size = data['content']['pageSize']
            #总共多少条数据
            total_count = data['content']['positionResult']['totalCount']
            if cur_page * page_size < total_count:
                   next_page = cur_page+1
                   print('继续发起请求'+str(next_page)+'页')
                   formdata['pn'] = next_page
                   time.sleep(3)
                   lagouspider(url,formdata)
            else:
                  print('请求不成功')
                  time.sleep(10)
                  print('重新发起第'+str(formdata['pn'])+'页请求')
                  lagouspider(url,formdata)


    def loaddata(url,formdata):
        formdata = parse.urlencode(formdata).encode('utf-8')
        req_header = {
            'User-Agent':'Mozilla/5.0 (X11; Ubuntu; Linux x86_64;rv:63.0) Gecko/20100101',
            'Referer':'https://www.lagou.com/jobs/list_c%2B%2B?labelWords=&fromSearch=true&suginput='
        }
        req = request.Request(url,headers=req_header,data=formdata)
        response = request.urlopen(req)
        print(response.status)
        json_str = response.read().decode('utf-8')
        return json_str

    def save_data_to_db(jobdata):
        '''
        存储数据
        :param jobdata:
        :return:
        '''
        sql = '''
        insert into lagou(%s)
        values (%s)
        '''%(','.join(jobdata.keys()),','.join(['%s']*len(jobdata)))
        try:
        # 执行sql
            cursor.execute(sql,list(jobdata.values()))
            db.commit()
        except Exception as err:
            print(err)
    db.rollback()

    if __name__ == '__main__':
        #数据库连接
        db = pymysql.Connect(host='127.0.0.1', port=3306, user='****', \
         password='******', database='infotest', charset='utf8')
        # 获取游标对象
        cursor = db.cursor()

         url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false'
        formdata = {
            'first': 'true',
            'kd': 'c++',
            'pn': '1'
        }
        lagouspider(url,formdata)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,290评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,399评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,021评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,034评论 0 207
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,412评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,651评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,902评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,605评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,339评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,586评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,076评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,400评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,060评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,851评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,685评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,595评论 2 270

推荐阅读更多精彩内容