全栈 - 9 实战 爬取豆瓣电影数据

这是全栈数据工程师养成攻略系列教程的第九期:9 实战 爬取豆瓣电影数据。

掌握了爬虫的基本原理和代码实现,现在让我们通过实战项目巩固一下。

确定目标

在写爬虫之前应当想清楚:我需要哪方面的数据?需要包含哪些字段?这些数据需要以何种形式呈现?

很多网站往往都是大家爬取的对象,例如提供住房信息的链家网,提供书评和影评信息的豆瓣网,以及提供餐饮生活娱乐信息的大众点评网。当然,这些网站之所以能很容易地被我们爬取,也是因为它们采取了内容开放的运营态度,没有进行过多的反爬处理。

有一个挺有意思的名词叫做“三月爬虫”,即在三月份左右频繁出现的大量小规模爬虫。这些爬虫从何而来?因为在每年的这个时候,学生们都要做课设项目了,没有数据怎么办?嗯,靠爬!

其实爬虫和反爬虫之间就好比矛与盾的关系,我们可以花更多的心思、时间和成本去爬取数据,数据运营方同样可以花更多的技术、金钱和人力以保护数据。识别代码请求并禁止,我们可以伪装成浏览器;对IP频繁请求采取限制,我们可以使用IP代理池;要求登录并输入复杂的验证码,我们同样可以模拟登录以及想出相应的解决办法。总而言之,没有一定能爬到的数据,也没有一定爬不到的数据,无非是攻守双方的博弈,看谁下的功夫更深、投入成本更多。

当然,之前介绍的都是最基础的爬取方法,所针对的也是采取开放运营态度,或者暂未采取防爬措施的网站。方法虽简单,但依旧足以爬取相当多的网站,至于爬虫的进一步深入研究,则需要花费更多时间去学习,这也是为什么有专业的爬虫工程师这一方向了。

在这次的项目实战中,我们需要获取豆瓣电影上的电影数据,数量自然是越多越好,每条数据应当包含电影名称、导演、演员、类型、片长、语言、上映时间、上映地区、评分等信息,这样在获取数据并存储之后便可进行后续分析和展示。

通用思路

写爬虫时往往会遵循以下通用思路:首先得找到一个汇总页,以链家网为例,可以是首页或搜索页。在汇总页中是一条条房源,以列表形式依次排列,可能一页会安排几十条房源,看完之后可以通过翻页功能跳转至下一页,从而进行对全部房源的浏览;汇总页中的每一个链接都对应一条房源的详情页,点进去即可查看房源的详细信息。这些详情页都是用同样的模版渲染出来的,只不过渲染时使用了不同的数据,因此十分便于批量获取,只要对详情页的页面结构进行分析和提取即可。

当然,以上所提的二层结构是最理想的情况,实际问题中未必能找到这样一个能直接涵盖并通往全部详情页的汇总页,因此三层、四层乃至更复杂的结构也完全可能出现。例如从链家的首页开始,先下钻到城市,再深入到地区,接着按户型进行分类,最后才能找到所对应的房源。其实我们会发现,每一层结构都对应着最终详情页的一个字段,例如房源的城市、地区、户型等信息,多层结构无非只是对二层结构按照若干个字段进行了逐层聚合,所以只要理清楚网站数据的整理结构,接下来的代码工作都是类似的。

寻找链接

回到这次的项目实战上,我们首先访问一下豆瓣电影的首页,https://movie.douban.com/,探探路子,看看该如何去寻找之前提及的汇总页和详情页。

我们首先看到豆瓣提供了一个正在热映模块,展示当前正在上映的一些电影。由于我们希望尽可能多地获取电影数据,当然包括历史电影,所以这块忽略不计。

接下来的页面中有一个按电影分类进行筛选的模块,如下图所示,可以根据热门、最新、经典、可播放等标签显示相应的电影。按热度排序、按时间排序和按评价排序意义不大,希望我们希望获得尽可能多的电影数据全集,对排序则不关心。再往下有个加载更多的按钮,我们会发现每次点击之后,页面上就会出现更多对应类别的电影,说明网页相应地又向服务端请求了更多数据。

所以爬取的基本思路有了,首先获得全部的类别标签,然后针对每个标签不断地请求相应的电影数据,最后从每部电影的详情页获取所需的字段。让我们用Chrome开发者工具来找出应当请求哪些链接,打开开发者工具之后刷新豆瓣电影首页,我们会发现在NetworkXHR中有这么个链接,https://movie.douban.com/j/search_tags?type=movie,从名字上来看似乎是返回电影标签,在浏览器中访问果不其然,得到了以下内容:

{"tags":["热门","最新","经典","可播放","豆瓣高分","冷门佳片","华语","欧美","韩国","日本","动作","喜剧","爱情","科幻","悬疑","恐怖","动画"]}

说明这是一个GET类型的API,返回一个json格式的字符串,如果在Python中加载成字典之后,则包含一个键tags,对应的值是一个列表,里面的每一项都是一个电影标签。

我们还顺便发现了另一个GET类API,https://movie.douban.com/j/search_subjects?type=movie&tag=热门&sort=recommend&page_limit=20&page_start=0,可以根据提供的标签、排序方法、每页数量、每页开始编号等参数返回相应的电影数据,这里是按推荐程度排名,从0号开始,返回热门标签下的20条电影数据。在浏览器中访问以上链接,得到的也是一个json格式字符串,同样转成Python字典再处理即可。如果点击加载更多按钮,会发现网页会继续请求这个API,不同的只是page_start不断增加,通过改变开始编号即可请求到新的数据。

设计下代码实现的过程:针对每个标签,使用以上第二个API不断请求数据,如果请求结果中包含数据,则将page_start增加20再继续,直到返回结果为空,说明这一标签下的电影数据已经全部拿到。

代码实现

我们已经掌握了如何用Python发起GET和POST请求,所以接下来的工作就是写代码实现。

# 加载库
import urllib
import urllib2
import json
from bs4 import BeautifulSoup

# 获取所有标签
tags = []
url = 'https://movie.douban.com/j/search_tags?type=movie'
request = urllib2.Request(url=url)
response = urllib2.urlopen(request, timeout=20)
result = response.read()
# 加载json为字典
result = json.loads(result)
tags = result['tags']

# 定义一个列表存储电影的基本信息
movies = []
# 处理每个tag
for tag in tags:
    start = 0
    # 不断请求,直到返回结果为空
    while 1:
        # 拼接需要请求的链接,包括标签和开始编号
        url = 'https://movie.douban.com/j/search_subjects?type=movie&tag=' + tag + '&sort=recommend&page_limit=20&page_start=' + str(start)
        print url
        request = urllib2.Request(url=url)
        response = urllib2.urlopen(request, timeout=20)
        result = response.read()
        result = json.loads(result)

        # 先在浏览器中访问一下API,观察返回json的结构
        # 然后在Python中取出需要的值 
        result = result['subjects']

        # 返回结果为空,说明已经没有数据了
        # 完成一个标签的处理,退出循环
        if len(result) == 0:
            break

        # 将每一条数据都加入movies
        for item in result:
            movies.append(item)

        # 使用循环记得修改条件
        # 这里需要修改start
        start += 20
        
# 看看一共获取了多少电影
print len(movies)

以上代码运行完毕之后,列表movies中即包含了全部的电影数据,其中的每一项都是一个字典,包含rate评分、title电影标题、url详情页链接、playable是否可播放、cover封面图片链接、id电影的豆瓣id、is_new是否为新电影等字段。

除了以上字段,我们还希望获取每部电影的更多信息,因此需要进一步爬取各部电影所对应的详情页。以下是《疯狂动物城》的豆瓣详情页,导演、编剧、主演、类型、语言、片长、简介等,都是值得进一步爬取的字段。

由于电影详情页的url类型属于Html,即访问后返回经浏览器渲染的网页内容,所以需要更加复杂的处理方法。BeautifulSoup包提供了解析html文本、查找和选择html元素、提取元素内容和属性等功能,但要求一些html和css语法基础。这里仅以详情页中的电影简介为例,展示下如何使用BeautifulSoup解析html文本,其他完整内容等后续章节介绍了相关基础后再回过头讲解。

import time

# 请求每部电影的详情页面
for x in xrange(0, len(movies)):
    url = movies[x]['url']
    request = urllib2.Request(url=url)
    response = urllib2.urlopen(request, timeout=20)
    result = response.read()

    # 使用BeautifulSoup解析html
    html = BeautifulSoup(result)
    # 提取电影简介
    # 捕捉异常,有的电影详情页中并没有简介
    try:
        description = html.find_all("span", attrs={"property": "v:summary"})[0].get_text()
    except Exception, e:
        # 没有提取到简介,则简介为空
        movies[x]['description'] = ''
    else:
        # 将新获取的字段填入movies
        movies[x]['description'] = description
    finally:
        pass

    # 适当休息,避免请求频发被禁止,报403 Forbidden错误
    time.sleep(0.5)

最后,可以将获取的电影数据写入txt文件,以便后续使用。

fw = open('douban_movies.txt', 'w')
# 写入一行表头,用于说明每个字段的意义
fw.write('title^rate^url^cover^id^description\n')
for item in movies:
    # 用^作为分隔符
    # 主要是为了避免中文里可能包含逗号发生冲突
    fw.write(item['title'] + '^' + item['rate'] + '^' + item['url'] + '^' + item['cover'] + '^' + item['id'] + '^' + item['description'] + '\n')
fw.close()

其他内容

这次的实战其实是我一个Github项目的一部分,https://github.com/Honlan/data-visualize-chain。这个项目以豆瓣电影为例,展示了如何进行数据获取、清洗、存储、分析和可视化,和爬虫相关的代码都在spider文件夹下。所以如果希望了解更多,以及对BeautifulSoup用法感兴趣,可以进一步研究。

另外,以上代码最终获取了五千部左右的电影数据,明显少于豆瓣电影的总量,说明之前所使用的API能获取的数据量十分有限。那应该怎么办呢?在豆瓣电影的网站上找一找,会发现这么个链接,https://movie.douban.com/tag/,点进去之后简直是到了一个崭新的世界。在这个页面中提供了各种分类标签,每个标签下的电影数量也十分惊人,全部爬取一遍能收获的数据量必然相当可观。所以只要按照之前所讲的通用思路,类似地写代码爬取即可。

视频链接:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,290评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,399评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,021评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,034评论 0 207
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,412评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,651评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,902评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,605评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,339评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,586评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,076评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,400评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,060评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,851评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,685评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,595评论 2 270

推荐阅读更多精彩内容