R爬虫小白实例教程 - 基于rvest包


封面




注:本文主要参照:手把手 | 教你爬下100部电影数据:R语言网页爬取入门指南http://mp.weixin.qq.com/s/mIL-p2q7Jp-dhkXkDIrdHQ


一入爬虫深似海,从此复制是路人。

都说在这一行混,多多少少都要会点爬虫,毕竟自己动手丰衣足食,本文记录小鑫第一次练习爬虫的过程。仅供参考,欢迎各路朋友指点。(E-mail:rockyxin@rockyxin.com

文末有源代码及数据。



准备 | 必要的工具

chrome浏览器+SelectorGadget插件。

用来获得网页中某些部分的相关标签,若不懂HTML和CSS,强烈安利这个插件。懂HTML和CSS的话,略过,用不着我来教了。

安装插件之后,在网页的右上角就会出现图标,在使用的时候单机一下就可以。

点击之后,鼠标移动到网页上就会出现一系列的变化,再单机想要知道标签的地方,比如标题部分:

截图1

可以看到,虽然选中了标题,但同时公司名称和薪资也同样被选中了,想要取消选中公司名称很简单,单机一下公司名称所在的位置就可以了,如下图

截图2

至于不选中薪资,在这里没法做到,不过没关系,在后面可以进行清理。

当然,也可以通过右键查看网页源代码或者右键审查,可以查看标签,这种方式显然需要一点HTML基础。

截图3

至于R的操作环境,推荐使用RStudio,没有原因,它就是非常好……



开始 | 准备爬取

网上有看到爬知乎、爬微博、爬智联招聘、爬拉勾网,各种网站的爬取方式略微不同,小鑫在找了几个招聘的网站之后,发现BOSS直聘的网址比较简单,页面源码也不复杂,因此,就从这里开始。

先加载需要的包:

library(xml2)
library(rvest)



首先,分析网址

小鑫搜索的是深圳的数据分析岗位,网址如下:
https://www.zhipin.com/job_detail/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&scity=101280600&source=2

这里似乎发现不了规律,再点开下一页呢:https://www.zhipin.com/c101280600/h_101280600/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&page=2&ka=page-2

其中个地方引起了我注意:page=2ka=page-2,小鑫试了一下,只要改变这个数字,就能控制翻页,这个网站最多只能显示30页,每页15个。所以,不同页,除了数字不同之外,其他部分都是一模一样的,那就好办了,给出一个变量page,然后用for循环:

site1 <- "https://www.zhipin.com/c101280600/h_101280600/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&page="
site2 <- "&ka=page-"
page <- 1
for(page in 1:30){
  site <- paste(site1,page,site2,page,sep="")
  webpage <- read_html(site)
  循…
  环…
  内…
  容…
  …

}

site1和site2控制着整个网址的固定部分,page控制网址的变动部分,从1循环到30。

循环中的第一个语句,用paste将site1、site2、page连接成一个完整的网址。

第二句:将网页信息保存到webpage这个变量里,以后的所有抓取动作,都是从这个变量里来的。



然后,确定抓取内容

这一步主要是回到网页中来:

截图4

可以发现,在每条招聘信息里,可以爬取这些内容:标题、薪资、公司名、地点、经验要求、学历要求、行业、融资/上市情况、公司规模、关键词、联系人及其岗位。

不同的内容在不同的标签里面,这里仅仅拿部分内容举例说明,其他信息的爬取都是大同小异的,详见附件源码或联系小鑫(E-mail:rockyxin@rockyxin.com

值得一提的是,不同招聘信息的关键词数量不同,所以,我就单独把关键词作为另一项内容保存了起来,用于后面做词云。



OK | 开始爬取

先爬取标题和公司名称,用谷歌浏览器和插件,可得知标题和公司名称所在的标签分别是:.info-primary .name.company-text .name,使用如下语句:

name1 <- html_nodes(webpage,'.info-primary .name')# 抓取标题
name2 <- html_nodes(webpage,'.company-text .name')# 抓取公司名称

查看name1和name2。

截图5

可以看出,已经爬取了正确的信息,只是需要删除那些标签和不需要的内容,接下来的思路就很简单了,使用gsub函数,将不必要的内容替换成空。

比如:< h3 class="name">、< span class="red">、< /span>\n</h3>这些标签。

name1 <- gsub("<h3 class=\"name\">","",name1)
name1 <- gsub(" <span class=\"red\">.*","",name1)
name1 <- gsub("</span>\n</h3>","",name1)
name1 <- gsub("</h3>","",name1)
titlename <- as.data.frame(name1)

name2 <- gsub("<h3 class=\"name\">","",name2)
name2 <- gsub("</h3>","",name2)
companyname <- as.data.frame(name2)

这个时候,再看一下数据内容:

截图6

保存数据:

bossdata <- data.frame(companyname,titlename)
bossdata

可以看出,能完成到这一步,基本上算是完成了90%,后面的思路都是大同小异的,注意变换一下形式就OK了,但是还是有一个小问题,就是剩下的10%。

继续 | 最后一小步

然后就是抓取薪资,这一步也很简单,直接上代码:

# 抓取薪资
salary <- html_nodes(webpage,'.red')
salary <- gsub("<span class=\"red\">","",salary)
salary <- gsub("</span>","",salary)

bossdata <- cbind(bossdata,salary)
bossdata

问题出在了这一步:

# 抓取要求及公司信息
message <- html_nodes(webpage,'p')
message <- message[-1]
message <- gsub("<p>","",message)
message <- gsub("<em class=\"vline\"></em>",",",message)
message <- gsub("</p>","",message)
message <- gsub("<img",",",message)
message
截图7

可以看得出来,问题就在于“地点、工作经验、学历”在同一个位置,“行业、融资/上市情况、公司规模”也在同一个位置,这样的情况下,就不能按照上面的方法来操作了,其实也不难,只要设置一个循环,重点就解决了。

# 先设置三个变量,分别读取message中的不同数据
xx <- c(1:as.numeric(length(message)/3))
yy <- c(1:as.numeric(length(message)/3))
zz <- c(1:as.numeric(length(message)/3))

# xx用来存放message中的地点、经验、学历要求
k1 <- 1
l1 <- 1
for(k1 in seq(1:(length(message)/3))){
  xx[k1] <- message[l1]
  l1 <- k1*3+1
}
xx

# 可以看出xx虽然提取正确了,但是还需要进一步处理
xx <- as.data.frame(xx)
xx <- apply(as.data.frame(xx),1,strsplit,",")
xx <- as.data.frame(xx)
xx[1,]

# 分别提取xx中的地点,经验,学历
place <- t(as.data.frame(xx[1,]))
experience <- t(as.data.frame(xx[2,]))
education <- t(as.data.frame(xx[3,]))

# 合并数据框
bdata <- data.frame(place,experience,education)
names(bdata) = c("place", "experience", "education")
bossdata <- data.frame(bossdata, bdata)
bossdata

后面需要提取行业、融资/上市情况、公司规模等信息,都是采用相同的方法,具体内容,可以查看附件代码。至此,最简单的一个爬虫就写好了。

一般来说,行业、融资/上市情况、公司规模这三个是在一起的,但是有两条信息,只有两个内容,如下图:

截图8
截图9

我的解决方法是:找到相应的位置,然后在那个地方填补一个缺失值NA,比如,在小鑫运行程序的时候,他们处在第一页的第十一和第十五条数据,因此,小鑫使用如下代码:

if(page == 1){
  financing11 <- financing[11,]
  financing15 <- financing[15,]

  financing[11,] <- NA
  financing[15,] <- NA
  companysize[11,] <- financing11
  companysize[15,] <- financing15
}
else {
  print("Hello World")
}

但是这种方法有很大的弊端,小鑫在写这篇文章的时候,这两条信息又跑到了第二页第五条和第十三条。因此,第一行的代码就变成了page == 2,第二三行分别是:financing5 <- financing[5,]
financing13 <- financing[13,]

小鑫在想是不是可以让R自动识别他们的位置,然后填充NA,甚至于在以后出现第三条、第四条类似信息的时候,也能识别出空缺的位置,然后进行自动填补呢?

应该是可以的,不过小鑫现在才疏学浅,还没那个技术。待小鑫技术学成,再奉上文章。

<div align = "right">——2017年5月19日</div>

【END】


源代码及爬取后数据

链接:http://pan.baidu.com/s/1jI5Lmke

密码:0cjv

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,646评论 4 366
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,979评论 1 301
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 110,391评论 0 250
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,356评论 0 215
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,740评论 3 293
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,836评论 1 224
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,022评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,764评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,487评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,728评论 2 252
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,200评论 1 263
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,548评论 3 260
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,217评论 3 241
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,134评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,921评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,919评论 2 283
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,766评论 2 274

推荐阅读更多精彩内容