python爬虫爬取可可英语官网----四级翻译

可可英语四级备考界面

爬虫基础介绍:

  • 1.url:某个网页的网址
  • 2.带反扒机制的网页,加个header
header={'User-Agent':'Mozilla/5.0 
(Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
Chrome/56.0.2924.87 Safari/537.36'}
  • 3.模拟浏览器进入网页:
request = urllib2.Request(url,headers=header)
  • 4.打开网址:
response = urllib2.urlopen(request)
  • 5.获取源码,读取网页
html = response.read()
  • 6.编写正则表达式:
pattern = re.compile(r"----正则表达式----")
  • 7.匹配正则表达式:
items = re.findall(pattern,html)#  注意:此时的items是一个列表,用来存放匹配到的东西
  • 代码分享
#coding=utf-8
import urllib2
from constants import url
import re
import sys
import os

reload(sys)
sys.setdefaultencoding('utf-8')#解决编码中出现乱码问题

def get_title(url):
    req = urllib2.Request(url)
    req.add_header('User-Agent',
                   'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.109 Safari/537.36')#添加头部信息
    res = urllib2.urlopen(req)
    html = res.read()
    response = re.compile(r'id="nrtitle">(.*?)</h1>', re.S)
    title = re.findall(response, html)[0]#通过re模块进行内容匹配查找
    title = title.replace('​','')#字符串的替换
    title = title.replace('&','')
    title = title.replace(';','')
    title = title.replace('#','')
    title = title.replace('34','')
    return title



def get_first_page(url):
    req = urllib2.Request(url)
    req.add_header('User-Agent',
    'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.109 Safari/537.36')
    res = urllib2.urlopen(req)
    html = res.read()
    response = re.compile(r'<span id="article_eng">(.*?)<script>',re.S)
    contents = re.findall(response,html)[0]
    contents = contents.replace('</p>','')
    contents = contents.replace('<p>','')
    contents = contents.replace('<strong>','')
    contents = contents.replace('</strong>','\n')
    contents = contents.replace('<br />','')
    return  contents

def get_second_page(url):
    # print '参考翻译:'
    req = urllib2.Request(url)
    req.add_header('User-Agent',
    'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.109 Safari/537.36')
    res = urllib2.urlopen(req)
    html = res.read()
    response = re.compile(r'<span id="article_eng">(.*?)<script>', re.S)
    contents = re.findall(response, html)[0]
    contents = contents.replace('</p>', '')
    contents = contents.replace('<p>', '')
    contents = contents.replace('<strong>', '')
    contents = contents.replace('</strong>', '')
    contents = contents.replace(''', '')
    contents = contents.replace('<br />', '\n')
    return contents

def get_third_page(url):
    req = urllib2.Request(url)
    req.add_header('User-Agent',
    'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.109 Safari/537.36')
    res = urllib2.urlopen(req)
    html = res.read()
    response = re.compile(r'<span id="article_eng">(.*?)<script>', re.S)
    contents = re.findall(response, html)[0]
    contents = contents.replace('</p>', '')
    contents = contents.replace('<p>', '')
    contents = contents.replace('<strong>', '')
    contents = contents.replace('<br />', '')
    contents = contents.replace('</strong>', '\n')
    return contents


req = urllib2.Request(url)
res = urllib2.urlopen(req)
html = res.read()
reg = re.compile(r'http://www.kekenet.com/menu/201\d+/[0-9]{6}',re.S)
url_items = re.findall(reg,html)
fin_url=[]
for i in url_items:
    urls = []
    u1 = i+'.shtml'
    u2 = i+'_2.shtml'
    u3 = i+'_3.shtml'
    urls.append(u1)
    urls.append(u2)
    urls.append(u3)
    fin_url.append(urls)

print '开始。。。'
for x in fin_url:
    title = get_title(x[0])#函数的调用
    # print title
    first = get_first_page(x[0])
    second = get_second_page(x[1])
    third = get_third_page(x[2])
    filename = u'%s.docx' %title.split(':')[1]#切片操作
    filename = filename.decode('utf-8')
    path = os.path.join('traslate12', filename)#python中路径的拼接
    f = open(path,'a')#打开文件
    f.write('\t\t'+title+'\n'+'翻译原文:\n'+first+'\n'+'译文:\n'+second+'\n'+'详细解释\n'+third)#写入处理后的数据
    f.close()

print '爬虫工作结束。。。'
自动化生成到文件中
word文档实例展示
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 162,158评论 4 370
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,600评论 1 307
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 111,785评论 0 254
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,655评论 0 220
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 53,075评论 3 295
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 41,002评论 1 225
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,146评论 2 318
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,918评论 0 211
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,671评论 1 250
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,838评论 2 254
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,318评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,636评论 3 263
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,343评论 3 244
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,187评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,982评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 36,126评论 2 285
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,934评论 2 279

推荐阅读更多精彩内容

  • 1 前言 作为一名合格的数据分析师,其完整的技术知识体系必须贯穿数据获取、数据存储、数据提取、数据分析、数据挖掘、...
    whenif阅读 17,997评论 45 523
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,111评论 18 139
  • 要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。 爬虫,即网络爬虫,是一种自动获取网页内容的程序...
    评评分分阅读 7,840评论 2 121
  • 你爬了吗? 要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。 爬虫,即网络爬虫,是一种自动获取网...
    Albert新荣阅读 2,189评论 0 8
  • 圣人每日三省己身,唯恐有过,我非圣人孰能无过,自当见贤思齐,从今天开始每天在朋友圈记录每日收获过错,各位亲朋好友,...
    梅川内库阅读 173评论 0 0