Web Scraper 获取网页数据,秒杀八爪鱼

Web Scraper 获取网页数据,秒杀八爪鱼

对于文科生来说,系统学习python爬虫的话时间成本太高,有没有简单的爬虫软件呢?

当然有,现在市面上最流行的八爪鱼采集器、后羿采集器等,就是相对简单的爬虫软件。不过,这些都不算最好用,可以爬取的网站有限,而且下载软件和学习软件也很麻烦。

今天,程序猿给大家介绍一款Google浏览器插件——Web Scraper,作为插件的它非常方便使用,爬取的内容质量一点也不输八爪鱼。话不多说,安装插件,一睹为快吧!

演示环境:Win10-64bit,Google Chrome

安装Web Scraper

  1. 进入Chrome 应用商店,选择在线安装;

  2. 如果下载时连接不上,也可以离线安装:

    • 访问 www.gugeapps.net 这个国内浏览器插件网站,搜索 Web Scraper,下载插件压缩包到本地;(也可以公众号后台回复Web Scraper获取安装包)

    • 将安装包解压缩;

    • 打开支持 Chrome协议的浏览器(首选Google 浏览器),网址框输入 chrome://extensions/ ,点击"加载已解压的扩展程序",选择解压的文件夹,将其导入浏览器插件中。

  3. 如果如下显示,即为安装成功。(错误可不用理会)

image.png

Web Scraper的基本原理和python爬虫相似,学会了爬虫,这些也都相应比较熟悉。这次数据猿公布两个案例,一个是爬取拉勾网的职位数据,一个是豆瓣电影评分Top250。前者在没有抓包的情况下不能实现翻页,后者可以通过理解url来来修改start_url以实现翻页。

案例一:爬取拉勾网职位

启动Web Scraper

打开目标网页

最近,正值找实习找工作的关头,数据猿想要知道全国招聘产品策划实习的情况。所以就上了拉勾网,限定检索关键词为产品策划,工作性质为实习。

找到Web Scraper菜单栏

按F12,查看网页代码。如果代码和网页是左右结构,请点击如下图所示的右上角,将左右结构换为上下结构。

image.png

就可以看到Web Scraper菜单栏了!

设置爬取起始网页

创建sitemap
image.png

填写sitemap的名称和start_url,名称可以自己拟定,起始页建议根据检索后结果后的第二页来定。

<pre spellcheck="false" class="md-fences md-end-block ty-contain-cm modeLoaded" lang="python" cid="n45" mdtype="fences" style="box-sizing: border-box; overflow: visible; font-family: var(--monospace); font-size: 0.9em; display: block; break-inside: avoid; text-align: left; white-space: normal; background-image: inherit; background-position: inherit; background-size: inherit; background-repeat: inherit; background-attachment: inherit; background-origin: inherit; background-clip: inherit; background-color: rgb(34, 34, 27); position: relative !important; border: 1px solid rgb(231, 234, 237); border-radius: 3px; padding: 2px 4px 0px; color: rgb(152, 159, 173); width: inherit; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-indent: 0px; text-transform: none; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial;">第2页
https://www.lagou.com/jobs/list_%E4%BA%A7%E5%93%81%E7%AD%96%E5%88%92?px=default&gx=%E5%AE%9E%E4%B9%A0&city=%E5%85%A8%E5%9B%BD&isSchoolJob=1#order
第3页
https://www.lagou.com/jobs/list_%E4%BA%A7%E5%93%81%E7%AD%96%E5%88%92?px=default&gx=%E5%AE%9E%E4%B9%A0&city=%E5%85%A8%E5%9B%BD&isSchoolJob=1#order
</pre>

这里通过观察发现,第2和第3页的网址完全一样,如上代码行所示。所以想要实现翻页效果的话,就需要采用抓包工具,抓取真实的url,这里暂不演示。

添加父级selector

在创建成功sitemap后(其实就类似于一个爬虫项目),添加selector,成为选择器吧,如果吧sitemap理解为第一文件夹,那么selector就是第二级文件,当然,可以是文件夹也可以是文件。

点击圈红的按钮
image.png
设置selector的ID和type

这里我们打算选择这一页的职位名称,然后点击进入职位名称后筛选信息,所以共需要两级selector,父级需要选中这些职位名称,并选中link(链接)以跳转到子级页面。

image.png
选择页面中的内容

按照下图步骤,先选中multiple(因为这里是多选),然后点击select,再点击选中要爬取的名称,注意这里点击两个或者三个名称即可自动识别,然后点击Done selecting,确定选择这些,再点击Data preview预览数据。

image.png

其他不需操作即可完成这个父级selector的爬取。

添加子级selector

打开需要爬取的二级网页。同样在二级页面中,如果新打开了链接,就如上文所示调出Web Scraper,找到创建的sitemap。

image.png
添加新的selector

点击父selector,进入父级selector中(点击selector的任意位置可进入其子级),如法炮制,添加新的selector作为子级selector。

image.png

如上图,数据猿在这里爬取实习薪资,格式是文本,所以type选text,然后不多选。

添加其他selector

这里就不需要进入实习薪资salary的子级了,其他数据和实习薪资salary是同级,所以就在同一级添加其他selector。

image.png

添加步骤和之前的一样,数据猿还选中了公司名称、公司规模、职位诱惑等数据。

image.png

如果需要修改,可以点击selector左侧的edit按钮修改。

开始爬取

直接选择本sitemap菜单栏下的Scrape

image.png

设置爬虫页面间隔时间(单位:毫秒),以免被封IP。不过这里的数据较少,可以设置1000,毫秒。

image.png

然后点击开始爬取。在爬取过程中会弹出新的网页,静待数据爬取即可。

保存所爬数据

点击本sitemap,然后选择导出为csv

image.png

在新的Web Scraper窗口中点击 Download now! 立即下载csv,保存到本地即可打开查看。

image.png

打开csv,发现最后得到的数据还比较整齐,薪资、城市、公司、公司规模可以简单清洗一下放到pandas里面可视化了。

image.png

案例二:豆瓣电影评分top250

找工作太苦逼,赶快刷电影来放松一下。作为电影迷的数据猿,很想知道还有哪些高分电影没有看过。这时候,Web Scraper就是一个非常方便的工具了,毕竟不用麻烦的写代码。

如上面案例,找到目标页面,建立一个sitemap,并且同样是包括一个父selector来获取名称和链接,多个子selector来获取详细的数据。

image.png

具体设置过程不再演示,重点说明一下翻页功能的实现

案例一拉勾网的网页翻页之后网址不变,而豆瓣的网页会随着翻页而变化,而且变化是有规律的,这就给了我们翻页功能的实现提供了便利。

寻找翻页的规律

我们将第2页和第3页的网址列出来找规律(第1页的网址一般没有什么规律,建议从第2页开始找),发现start=后面有规律,都是递增25的。而删掉&后面的网址不影响结果。

<pre mdtype="fences" cid="n179" lang="python" class="md-fences md-end-block ty-contain-cm modeLoaded" spellcheck="false" style="box-sizing: border-box; overflow: visible; font-family: var(--monospace); font-size: 0.9em; display: block; break-inside: avoid; text-align: left; white-space: normal; background-image: inherit; background-position: inherit; background-size: inherit; background-repeat: inherit; background-attachment: inherit; background-origin: inherit; background-clip: inherit; background-color: rgb(34, 34, 27); position: relative !important; border: 1px solid rgb(231, 234, 237); border-radius: 3px; padding: 2px 4px 0px; color: rgb(152, 159, 173); width: inherit; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-indent: 0px; text-transform: none; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial;">第2页
https://movie.douban.com/top250?start=25&filter=
第3页
https://movie.douban.com/top250?start=50&filter=</pre>

所以这时候,Web Scraper就提供了解决方案,将start=后面加个[],数据分别为0-终点数据,间隔为25。

<pre mdtype="fences" cid="n187" lang="python" class="md-fences md-end-block ty-contain-cm modeLoaded" spellcheck="false" style="box-sizing: border-box; overflow: visible; font-family: var(--monospace); font-size: 0.9em; display: block; break-inside: avoid; text-align: left; white-space: normal; background-image: inherit; background-position: inherit; background-size: inherit; background-repeat: inherit; background-attachment: inherit; background-origin: inherit; background-clip: inherit; background-color: rgb(34, 34, 27); position: relative !important; border: 1px solid rgb(231, 234, 237); border-radius: 3px; padding: 2px 4px 0px; color: rgb(152, 159, 173); width: inherit; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-indent: 0px; text-transform: none; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial;">https://movie.douban.com/top250?start=[0-249:25]</pre>

最后,我们还可以保存我们的sitemap到本地。

image.png

下次使用的时候,直接在创建sitemap的窗口选择import,将sitemap代码粘贴进去即可。

image.png

最后获取的数据如下

image.png

小结

Web Scraper对没有python爬虫基础的同学非常友好,简单易上手,可以自定义的采集方式非常便利,极大地减轻了后面数据清洗的压力,同时,作为插件的它很轻便,还完全免费。但不足之处也很明显,抓取网页需要翻页的时候,就要考抓包获取真实网址,但这也是一般采集器的缺陷(要啥自行车)。

如果需要本文演示的sitemap和Web Scraper离线包,请到文科数据员公众号后台回复Web Scraper

参考资料

https://webscraper.io/tutorials

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,444评论 4 365
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,867评论 1 298
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 110,157评论 0 248
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,312评论 0 214
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,673评论 3 289
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,802评论 1 223
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,010评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,743评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,470评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,696评论 2 250
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,187评论 1 262
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,538评论 3 258
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,188评论 3 240
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,127评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,902评论 0 198
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,889评论 2 283
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,741评论 2 274

推荐阅读更多精彩内容