爬虫日记---小白自学知识点记录(记七日热点)

先开始说一段废话吧。。。
我是从3月中旬开始接触Python。当时我想学习如何去做出比较专业的数据分析图,然后我家人说R语言和Python都可以做出图来。但他建议学Python。我在网上找学习的资料,偶尔之间看到python可以实现爬虫功能。正如彭老师的简书中写到的“学习Python,比较好快速找到应用的场景”。看到爬虫取得各个网页大数据后做的数据分析,这也是我学习的兴趣所在。学习过程饶了不少弯路,以下是我自己的一些教训吧。

python语言学习经验:

1、基础知识要扎实,先要学习一些python的基本操作
参考一本《简明 Python 教程》的文章,因为学过C语言,有些编程的基本常识,所以着重看了些:

      1)数据结构(列表,元组,字典)
      2)控制流(if,for,try...except)
      3)函数(变量,参数,实参,形参,参数的传递)
      4)类

这些在爬虫中反复应用到,一定要学习扎实,不要一开始就去找别人做的爬虫案例。先把基础知识点过一遍,至少知道python的语言结构是怎么样的。会打python代码

2、了解爬虫的原理。学习哪些关键知识点
我的经验是先了解html的网页代码,再搞清楚爬虫的过程,然后一个一个知识点去查资料,去练习。可以在终端先从几行小代码开始练习。最后在做一个小爬虫,然后慢慢变大爬虫,哈哈。。。。(我之前就是没有搞清楚怎么入手学爬虫,饶了一圈回到原点)

爬虫的抓取过程:

先获得网页地址----〉解析网页代码----〉抓取和提取网页内容---〉存储数据      是不是很简单。。。。

小爬虫变大爬虫:

单页爬虫----〉多页爬虫----〉“迭代”爬虫(就是有爬取链接页面底下的页面)----〉异步加载爬虫---〉scrapy爬虫(目前正在攻克中。。。)

爬虫的小知识点主要在于抓取和提取网页内容:

1)BeatifulSoup

说到这个“美丽汤“,我真是又爱又恨。我第一次在终端用的时候就不能运行。大受打击。原因是引入这个类的时候没有区分大小
 错误:
from bs4 import beautifulsoup
正确:
from bs4 import BeautifulSoup
#bs4是一个python的库,BeautifulSoup是这个库里的一个类

知识点1:
soup.find_all('tag.name', class_='class_ value')
soup.find_all('tag.name',attrs ={'class':'class_ value'})

举例:
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story"><a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
soup = BeautifulSoup(html_doc)
print soup.find_all('title')  #提取'title'标签的所有列表
print soup.find_all('p',class_='title') #提取含‘p'标签的且'class'属性是'title'的所有列表
print soup.find_all('a')  #提取'a'标签的所有列表
print soup.find_all(id="link2") #提取id的'属性是"link2"的所有列表

返回值为:
[<title>The Dormouse's story</title>]
[<p class="title"><b>The Dormouse's story</b></p>]
[<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
[<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]

知识点2:
soup.select(tag.name1 tag.name2 tag.name3) #提取tag.name1标签下的tag.name2标签下的tag.name3的列表
soup.select('#****')
soup.select('.****')
soup.select('tag.name #***')
举例:
soup.select('#sponsor') #通过id查找,搜索 id 为 sponsor 的标签列表
#可以在chrome网页抓包中点击你要抓的那个tag,看到整个tag的层次(见图“抓包tag“)

soup.select('.ebox')   .这个点表示查询class="ebox"的,所有标签内容
soup.select('div #index_nav')  表示寻找div标签中id为index_nav的标签内容。

为了方便查找自己抓取的内容,以上可以把空格改为' 〉':
举例:
soup.select("div > #index_nav")
抓包tag
  1. Xpath知识点
·在网页源代码中右键,Copy XPath

·// 定位根节点

·/ 往下层寻找

·提取文本内容:/text()

·提取属性内容: /@xxxx

·以相同的字符开头 starts-with(@属性名称, 属性字符相同部分)

·标签套标签 string(.)

3)正则表达式
目前我还不是很会,所以不做描述

开始爬啦--爬取“简书7日热门“

我在这里就不做具体讲解,可以看一下其他童鞋在爬虫作业专题做的作业,就我犯得一些错误和大家分享一下吧

#-*-coding:'utf-8'-*-
import requests
from lxml import etree
import csv
import re
import json
import sys
reload(sys)
sys.setdefaultencoding('utf8')
base_url='http://www.jianshu.com/'

def information(url):

    html=requests.get(url).content
    selector=etree.HTML(html)
    datas=selector.xpath('//ul[@class="note-list"]/li')
    infos=[]
    for data in datas:
        detail_url=data.xpath('a/@href')
        if detail_url:
            detail_url1=detail_url[0]
            detail_url1='http://www.jianshu.com'+detail_url1
            info=information2(detail_url1)
            infos.append(info)
    return infos

def information2(url):
    info=[]
    html=requests.get(url).content
    selector=etree.HTML(html)
    user=selector.xpath('//span[@class="name"]/a/text()')[0]
    title=selector.xpath('//div[@class="article"]/h1[@class="title"]/text()')[0]
    #read_qty = selector.xpath('//div[@class="meta"]/span[2]/text()')[0]
    #read_qty=re.findall('"views_count":(.*?),', html, re.S)[0]
    view_qty=re.findall('"views_count":(.*?),', html, re.S)[0]
    comment_qty=re.findall('"comments_count":(.*?),', html, re.S)[0]
    like_qty=re.findall('"likes_count":(.*?),', html, re.S)[0]
    id=re.findall('"id":(.*?),', html, re.S)[0]
    reward_url='http://www.jianshu.com/notes/%s/rewards?count=20' %id
    html_reward=requests.get(reward_url).text
    reward_detail=json.loads(html_reward)
    reward_qty=reward_detail['rewards_count']
    html_collection_url='http://www.jianshu.com/notes/%s/included_collections?page=1' %id
    collection=collections(html_collection_url,id)
    info.append(user)
    info.append(title)
    info.append(view_qty)
    info.append(comment_qty)
    info.append(like_qty)
    info.append(reward_qty)
    info.append(collection)
    return info

def collections(url,id):
    html=requests.get(url).content
    collection_detail=json.loads(html)
    pages=collection_detail['total_pages']
    collection_urls=['http://www.jianshu.com/notes/{}/included_collections?page={}'.format(id,str(i)) for i in range(1,pages+1)]
    datas = []
    for url in collection_urls:
        html_collection=requests.get(url).content
        collection_detail=json.loads(html_collection)
        for one in collection_detail['collections']:
            datas.append(one['title'])
    data=','.join(datas)
    return(data)

if __name__=='__main__':
    urls=["http://www.jianshu.com/trending/weekly?&page={}".format(i) for i in range(1,27)]
    csvfile=file('sevenday.csv','wb')
    writer=csv.writer(csvfile)
    #infos=[]
    for url in urls:
        resources=information(url)
        #infos.append(resoure)
        for resource in resources:
            writer.writerow(resource)
    csvfile.close()

每一个小程序都是在不断的调试不断的查资料中进行的。
错误1:(印象也是最深刻的)
对xpath的抓数据理解不够透彻,我想要抓取的是首页的每个标题的链接,看一下网页代码:

Paste_Image.png

分析:每一个href都存放在a标签下,a标签又存放在div.content下,思路:把所有li都提取到。然后for循环爬取li下的a下的href信息。(具体可以看图片底部的标签name)。我们可以按照以下来做:

datas=selector.xpath('//ul[@class="note-list"]/li')
for data in datas:
   detail_url=data.xpath('a/@href')

我当时写成了:

datas=selector.xpath('//div[@class="list-container"]/ul[@class="note-list"]')
for data in datas:
    detail_url=data.xpath('li/a/@href')

经过测试len[datas]结果是0,原因是其实提取了ul下满足class="note-list"的标签。并没有爬取到li这一层

错误2:提取分页链接的url时候,发现程序一直出现报错。
教训:需要学会调试,从大的范围开始调试,在一点缩小范围,找出问题所在
print 所有的 detail_url时候发现,有的url为空,故需要做一个判断是否为空。

for data in datas:
   detail_url=data.xpath('a/@href')
   if detail_url:
       detail_url1=detail_url[0]

总结

谢谢程老师彭老师的指导帮助!
还有就是多看!多想!多问!最重要的是多做!!!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,198评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,663评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,985评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,673评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,994评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,399评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,717评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,407评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,112评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,371评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,891评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,255评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,881评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,010评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,764评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,412评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,299评论 2 260

推荐阅读更多精彩内容

  • 爬虫文章 in 简书程序员专题: like:128 - Python 爬取落网音乐 like:127 - 【图文详...
    treelake阅读 29,364评论 33 638
  • 爬虫文章 in 简书程序员专题: like:128-Python 爬取落网音乐 like:127-【图文详解】py...
    喜欢吃栗子阅读 21,626评论 4 412
  • # Python 资源大全中文版 我想很多程序员应该记得 GitHub 上有一个 Awesome - XXX 系列...
    小迈克阅读 2,859评论 1 3
  • 如何让你遇见我? 在我最好的年岁。 为这—— 我在佛前虔诚发愿, 让我们结一段善缘。 于是, 佛把我化做一棵菩提树...
    岸隐阅读 102评论 0 0
  • 看图作诗,欢迎留言对擂,好诗送贝 (送贝多少,只代表打动我的程度,不代表诗的好差) 另外建议大家作诗前先点赞,并打...
    耶殊陀尼阅读 4,340评论 86 135