python (抓取豆瓣电影TOP250并保存到MySQL)

     首先笔者也才刚刚接触python这门奇幻的语言。python是一个门槛很低的入门语言,但它的作用一点也不小。YouTube和豆瓣就是用python来写的!

笔者将自己的所学的东西放在这里希望和读者一起讨论,一起进步。

首先,笔者非常喜欢看电影,然后就上网搜豆瓣电影top250.一共250部,都是非常好看的也经典的电影。笔者也是一部部在补,感觉人生快要圆满了!


好了,接下来我们尝试用python抓取.笔者只想抓取着250部的电影的名字和导演主演的名字和一些简介并保存到本地的MySQL数据中。

首先,笔者喜欢用第三方库reuquests,而不是python自带urllib2(这个看个人意愿了)

如果没有requests库的话,可以进去cmd命令下:

pip install requests

或者

easy_install requests

或者直接下载文件解压到python目录下的lib/site-package中。

#!/usr/bin/env python

#-*-coding: utf-8-*-

import requests

url='https://movie.douban.com/top250'

headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'}

html=requests.get(url,headers=headers)

print html.text

就这么简单的几行代码我们就已经抓取到当前页面下的HTML啦。

这里的User-Agent是模拟浏览器的信息,不然可能豆瓣会不给你进行抓取哦。


然后,我们就在就抓取关键信息啦,F12或者鼠标右键审查元素功能。


审查页面的左上角有个快速定位关键信息的小箭头。


笔者接下来使用XPATH来进行抓取,这里不进行多余的解释了,有兴趣的小伙伴可以去网上搜一下XPath的下载和教程。

#!/usr/bin/env python

#-*-coding: utf-8-*-

import requests

from lxml import etree

url='https://movie.douban.com/top250'

headers={

'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'}

html=requests.get(url,headers=headers)

selector=etree.HTML(html.text)

names=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')

others=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()')

nums=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')

evaluates=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[4]/text()')

briefs=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[2]/span/text()')

for name,other,num,evaluate,brief in zip(names,others,nums,evaluates,briefs):

print name.encode("utf-8")

print other.encode("utf-8")

print num.encode("utf-8")

printevaluate.encode("utf-8")

print brief.encode("utf-8")

请读者注意,将结果打印出来的时候还是要将格式换成utf-8不然还是XML的格式。


这是截图的一部分。好了。我们之前的只是一个页面上25部电影的信息,其他的跟这个就差不多啦,写个href函数加进去就好了,详细见下代码。

#!/usr/bin/env python

#-*-coding: utf-8-*-

import requests

from lxml import etree

def get_url(url):

    url=url

    headers={

    'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like     Gecko) Chrome/44.0.2403.157 Safari/537.36'}

    html=requests.get(url,headers=headers)

    selector=etree.HTML(html.text)

    hrefs=selector.xpath('//*[@id="content"]/div/div[1]/div[2]/a/@href')

for href in hrefs:

    string=url+href

    get_string(string)

defget_string(string):

    headers={

    'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'}

    html=requests.get(string,headers=headers)

    selector=etree.HTML(html.text)

    names=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')

    others=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()')

    nums=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')

    evaluates=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[4]/text()')

    briefs=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[2]/span/text()')

for name,other,num,evaluate,brief in zip(names,others,nums,evaluates,briefs):

    print name.encode("utf-8")

    print other.encode("utf-8")

    print num.encode("utf-8")

    print evaluate.encode("utf-8")  

    print brief.encode("utf-8")

get_url('https://movie.douban.com/top250')




250部的信息已经抓取下来啦。看看右边导航条。

接下来就是写进数据库啦。我们要导入MySQLdb这个包。这个第三方库教程也请读者自行搜索啦。因为笔者是Mac下的MySQL当初安装这些可是花了好大功夫呢。Windows就简单很多呢。当然了笔者是一开始就在数据库写入table啦。详见以下代码。

#!/usr/bin/env python

#-*-coding: utf-8-*-

import requests

from lxml import etree

import MySQLdb

def get_url(url):

    url=url

    headers={

    'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'}

    html=requests.get(url,headers=headers)

    selector=etree.HTML(html.text)

    hrefs=selector.xpath('//*[@id="content"]/div/div[1]/div[2]/a/@href')

for href in hrefs:

    string=url+href

   get_string(string)

def get_string(string):

    headers={

'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'}

    html=requests.get(string,headers=headers)

    selector=etree.HTML(html.text)

    names=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')

    others=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()')

    nums=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')

    evaluates=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[4]/text()')

    briefs=selector.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[2]/span/text()')

for name,other,num,evaluate,briefinzip(names,others,nums,evaluates,briefs):

    db=MySQLdb.connect("localhost","root","guanguan5208","dh",charset="utf8")

    cursor=db.cursor()

    sql="insert into douban (name,other,num,evaluate,brief) values ('%s','%s','%s','%s','%s')"%(name.encode('utf8'),other.encode('utf8'),num.encode('utf8'),evaluate.encode('utf8'),brief.encode('utf8'))

    cursor.execute(sql)

    db.commit()

    db.close()

get_url('https://movie.douban.com/top250')

已经打工搞成啦,我们去数据库看一下。


已经导入数据里面啦。好开心呀,就根据这个顺序慢慢来看啦。

当然了,笔者也是刚刚接触python这门语言,很多东西还不是很懂,希望读者轻喷,我也是抱着学习的心态来学习的😊。

如果这其中也什么错误的地方,请读者指正,我将第一时间修改。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,569评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,499评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,271评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,087评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,474评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,670评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,911评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,636评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,397评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,607评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,093评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,418评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,074评论 3 237
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,092评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,865评论 0 196
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,726评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,627评论 2 270

推荐阅读更多精彩内容