爬虫作业3

课程作业

  • 选择第二次课程作业中选中的网址
  • 爬取该页面中的所有可以爬取的元素,至少要求爬取文章主体内容
  • 可以尝试用lxml爬取

在完成这节课的过程中遇到许多问题:

  1. 环境问题:电脑安装的是python 3.x,老师的demo使用python2.7,如何在anaconda中进行环境切换。
    在anaconda中切换py2和py3

conda create env_name list of packages
conda create -n py2 python=2.7 pandas
进入名为env_name的环境
source activate env_name
退出当前环境
source deactivate
在windows系统中,使用activate env_name 和 deactivate env_name进入和退出
删除名为env_name的环境
conda env romove -n env_name
显示所有环境
conda env list

  1. 使用pip安装对应的模块:
    使用pip安装相关模块时,所有的模块都被安装到python3.x目录下面,网上查了很多资料,还是没有解决该问题,只好用一个很傻的方法,将python3.x卸载,只使用python2.7,这样使用pip安装模块时,所有模块会被安装到python2.7环境中。

  2. jupyter notebook环境切换:
    创建python2.7环境
    conda create -n ipykernel_py2 python=2 ipykernel # 创建Python2环境
    source activate ipykernel_py2 # 进入该环境
    python -m ipykernel install --user # 使python2 kernel 在jupyter中新建notebook时显示

  3. 阅读beautifulsoup4文档:

  • BeautifulSoup模块:第一个参数应该是要被解析的文档字符串或是文件句柄,第二个参数用来标识怎样解析文档.要解析的文档类型: 目前支持, “html”, “xml”, 和 “html5”
  • 从文档中找到所有<a>标签的链接:
for link in soup.find_all('a'):
    print link.get('href')
  • find_all()与find()用法:
    • find_all( name , attrs , recursive , text , **kwargs )
      • name 参数,可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉.
      • keyword 参数,如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作指定名字tag的属性来搜索,如果包含一个名字为 id 的参数,Beautiful Soup会搜索每个tag的”id”属性.
      • text 参数,通过 text 参数可以搜搜文档中的字符串内容.与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表, True
      • recursive 参数,调用tag的 find_all() 方法时,Beautiful Soup会检索当前tag的所有子孙节点,如果只想搜索tag的直接子节点,可以使用参数 recursive=False
    • find( name , attrs , recursive , text , **kwargs )
    • 区别:find_all() 方法的返回结果是值包含一个元素的列表,而find()方法直接返回结果;find_all() 方法没有找到目标是返回空列表, find() 方法找不到目标时,返回 None。

作业

导入库

import os          ## os模块包含普遍的操作系统功能
import time        ## time时间模块
import urllib2     ## 可用于页面下载,身份验证,提交表格等,支持非http协议
import urlparse    ##                
from bs4 import BeautifulSoup ## 解析网页,提供定位内容的便捷接口

下载指定页面的html函数download

def download(url, retry=2):
    """
    下载页面的函数,会下载完整的页面信息
    :param url: 要下载的url
    :param retry: 重试次数
    :reutrn: 原生html
    """
    print "downloading:",url
    # 设置header信息,模拟浏览器请求
    header = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.98 Safari/537.36'
    }
    try: #爬去可能会失败,采用try-expect方式来捕获处理
        request = urllib2.Request(url, headers = header)
        html = urllib2.urlopen(request).read() #抓取url
   # except urllib.error.URLError as e: #异常处理
    except urllib2.URLError as e:
        print "download error:", e.reason
        html = None
        if retry > 0: #未超过重试次数,可以继续爬取
            if hasattr(e, 'code') and 500 <= e.code <600: #错误码范围,是请求出错才继续重试爬取
                print e.code
                return download(url, retry - 1)
    time.sleep(1)  #等待1s,避免对服务器造成压力,也避免被服务器屏蔽爬取              
    return html

下载指定页面的内容,并将其存入.txt

def crawled_page(crawled_url):
    """
    爬取文章内容
    param crawled_url: 需要爬取的页面地址集合
    """
    html = download(crawled_url)
    soup = BeautifulSoup(html, "html.parser")
    title = soup.find('h1', {'class': 'title'}).text #获取文章标题
    content = soup.find('div', {'class': 'show-content'}).text #获取文章内容

    if os.path.exists('spider_res/') == False: #检查保存文件的地址
        os.mkdir('spider_res')

    file_name = 'spider_res/' + title + '.txt' #设置要保存的文件名
    file = open(file_name, 'wb') #写文件
    content = unicode(content).encode('utf-8', errors='ignore')
    file.write(content)
    file.close()

调用函数

url = "http://www.jianshu.com/p/4a8749704ebf"
download(url)
crawled_page(url)

结果

image.png
image.png

参考:

  1. 如何同时在 Anaconda 同时配置 python 2和3
  2. Beautiful Soup 4.2.0 文档
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270

推荐阅读更多精彩内容

  • 前情回顾 上一节课的作业中,爬取的页面网址与主要的元素基本已确定好。 然而,在做这节课的作业时,发现了一个问题:主...
    万能滴小笼包阅读 615评论 0 1
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,100评论 18 139
  • 一、前言 上一篇演示了如何使用requests模块向网站发送http请求,获取到网页的HTML数据。这篇来演示如何...
    阿里波特阅读 2,960评论 8 23
  • 如何使用Anaconda来管理 Python 所用的包和环境 Anaconda 能让你轻松安装在数据科学工作中经常...
    重新出发_砥砺前行阅读 8,171评论 0 5
  • 图片来自微博。 不得不说,这个时代的节奏好快。 我来自一个按照划分大概是四五六线的城市,每天早上也会见到许多上班的...
    暴食之阅读 982评论 1 0