python爬取糗事百科段子

  1. 进入糗事百科网站,右键审查,发现所有的内容是在div标签, class为col1底下。

  2. 然后继续查找各个段子的内容是在div标签,class为content中的span标签里。

    对每个段子获取到span的内容即可,那么这只是当前的页面段子,接下来我们要点击下一页,去爬下一页的段子。

  3. 这时候我们的目的就是要拿到下一页的url,在下一页的位置点击右键审查
    。我们看到路径了,但是每一个li都是一样的,怎么办?如何才能拿到最后一个中的href链接。

  4. 这里我也百思不得其解,卡了很久,后来发现,我可以先拿到class为next的span标签,然后再得到span的父标签li,最后再获取a标签的href链接。

    第二页的路径就是网址+相对路径,其余的页也是一样,得到相对位置即可。

  1. 将每一页爬取的段子内容写到文件中即可。

#!/usr/bin/env python
# encoding=utf-8

"""
爬取糗事百科段子
"""

import codecs
import requests
from bs4 import BeautifulSoup

DOWNLOAD_URL = 'https://www.qiushibaike.com'# 糗事百科的网址

index = 0;# 爬取页的数量
jokeindex = 0 # 段子个数

# 假装自己是个浏览器
def download_page(url):
    return requests.get(url, headers={
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36'
    }).content


def parse_html(html):
    soup = BeautifulSoup(html)# 得到网页的源代码
    #print(soup);

    # 首先找到是在div标签 class等于col1底下
    joke_list_soup = soup.find('div', attrs={'class': 'col1'})
    #print(joke_list_soup);

    joke_name_list = []# 段子的实际内容

    global jokeindex

    for joke_li in joke_list_soup.find_all('div', attrs={'class': 'content'}):#对每一个段子找到span标签中的文字
        jokeindex = jokeindex + 1
        joke_name = str(jokeindex)+joke_li.find('span',attrs={'': ''}).getText()
        #print(joke_name);
        joke_name_list.append(joke_name)#每一次都追加内容到里面



    page = soup.find('ul',attrs={'class':"pagination"})
    #print(page2);
    page2 = page.find('span',attrs={'class':"next"})
    #print(page2);

    next_page = page2.find_parent()
    #print(next_page);


    global index;
    if next_page and index < 10:
        print(index);
        index = index + 1;
        return joke_name_list, DOWNLOAD_URL + next_page['href']
    return joke_name_list, None


def main():
    url = DOWNLOAD_URL

    with codecs.open('qiushi', 'wb', encoding='utf-8') as fp:#打开qiushi文件,将fp作为文件指针
        global index
        while url:
            html = download_page(url)

            jokes, url = parse_html(html)

            fp.write("第"+str(index)+"页" +'\n'+ u'{jokes}\n'.format(jokes='\n'.join(jokes)))


if __name__ == '__main__':
    main()
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270

推荐阅读更多精彩内容