Beautiful Soup库详解

安装

pip install lxml
pip install beautifulsoup4

验证安装

In [1]: from bs4 import BeautifulSoup

In [2]: soup = BeautifulSoup('<p>Hello</p>', 'lxml')

In [3]: print(soup.p.string)
Hello

Beautiful Soup 介绍

Beautiful Soup 所支持的解析器

解析器

综合对比,lxml解析器是比较好的选择

只需要在初始化 Beautiful Soup 时,将第二个参数设置为 lxml 即可

from bs4 import BeautifulSoup

html = '''
<html>
<head><title>Beautiful Soup test</title></head>
<body>
    <p class="first" name="first_p"><b>first content</b></p>
    <p class="second">second content
    <a href="http://example.com/first"></a>
    <a href="http://example.com/second">
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.prettify())  # 增加缩进,美化输出
print(soup.title.string)  # 获取title节点的文本内容

注意:以上代码中的html内容是不全的,有些标签并没有闭合

运行结果:

<html>
 <head>
  <title>
   Beautiful Soup test
  </title>
 </head>
 <body>
  <p class="first" name="first_p">
   <b>
    first content
   </b>
  </p>
  <p class="second">
   second content
   <a href="http://example.com/first">
   </a>
   <a href="http://example.com/second">
   </a>
  </p>
 </body>
</html>
Beautiful Soup test

BeautifulSoup 会自动将html标签补全

节点选择器

from bs4 import BeautifulSoup

html = '''
<html>
<head><title>Beautiful Soup test</title></head>
<body>
    <p class="first" name="first_p"><b>first content</b></p>
    <p class="second">second content
    <a href="http://example.com/first"></a>
    <a href="http://example.com/second">
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.title)
# <title>Beautiful Soup test</title>

print(type(soup.title))
# <class 'bs4.element.Tag'>

print(soup.title.string)
# Beautiful Soup test

print(soup.head)
# <head><title>Beautiful Soup test</title></head>

print(soup.p)
# <p class="first" name="first_p"><b>first content</b></p>

节点名称

In [3]: print(soup.title.name)
title

节点所有属性

In [4]: print(soup.p.attrs)
{'class': ['first'], 'name': 'first_p'}

节点指定属性

In [5]: print(soup.p.attrs['name'])
first_p

节点指定属性简写

In [6]: print(soup.p['name'])
first_p

节点文本内容

In [7]: print(soup.p.string)
first content

嵌套选择

In [8]: print(soup.head.title)
<title>Beautiful Soup test</title>

In [9]: print(type(soup.head.title))
<class 'bs4.element.Tag'>

In [10]: print(soup.head.title.string)
Beautiful Soup test

关联选择

In [11]: print(soup.body.children)
<list_iterator object at 0x10825a6d8>

In [12]: for i, child in enumerate(soup.body.children):
    ...:     print(i, child)
    ...:
0

1 <p class="first" name="first_p"><b>first content</b></p>
2

3 <p class="second">second content
    <a href="http://example.com/first"></a>
<a href="http://example.com/second">
</a></p>
  • children 所有子节点
  • descendants 所有后代节点
  • parent 直接父节点
  • parents 祖先节点
  • next_sibling 下一个兄弟节点
  • previous_sibling 上一个兄弟节点
  • next_siblings 后面的所有兄弟节点
  • previous_siblings 前面的所有兄弟节点

方法选择器

find_all

数据准备

In [13]: from bs4 import BeautifulSoup
    ...:
    ...: html = '''
    ...: <div class="panel">
    ...:     <div class="panel-heading">
    ...:         <h4>Hello</h4>
    ...:     </div>
    ...:     <div class="panel-body">
    ...:         <ul class="list" id="list-1">
    ...:             <li class="element">Foo</li>
    ...:             <li class="element">Bar</li>
    ...:             <li class="element">Jay</li>
    ...:         </ul>
    ...:         <ul class="list list-small" id="list-2">
    ...:             <li class="element">Foo</li>
    ...:             <li class="element">Bar</li>
    ...:         </ul>
    ...:     </div>
    ...: </div>
    ...: '''
    ...:
    ...: soup = BeautifulSoup(html, 'lxml')
    ...:
    ...:

所有ul

In [16]: soup.find_all(name='ul')
Out[16]:
[<ul class="list" id="list-1">
 <li class="element">Foo</li>
 <li class="element">Bar</li>
 <li class="element">Jay</li>
 </ul>, <ul class="list list-small" id="list-2">
 <li class="element">Foo</li>
 <li class="element">Bar</li>
 </ul>]

由于获取到的ul是Tag类型,可以进行迭代

In [17]: type(soup.find_all(name='ul')[0])
Out[17]: bs4.element.Tag

In [18]: for ul in soup.find_all(name='ul'):
    ...:     print(ul.find_all(name='li'))
    ...:
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>]
[<li class="element">Foo</li>, <li class="element">Bar</li>]

再通过遍历li,获取li的文本

In [19]: for ul in soup.find_all(name='ul'):
    ...:     print(ul.find_all(name='li'))
    ...:     for li in ul.find_all(name='li'):
    ...:         print(li.string)
    ...:
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>]
Foo
Bar
Jay
[<li class="element">Foo</li>, <li class="element">Bar</li>]
Foo
Bar

attrs

根据属性查询

In [26]: soup.find_all(attrs={'id': 'list-1'})
Out[26]:
[<ul class="list" id="list-1">
 <li class="element">Foo</li>
 <li class="element">Bar</li>
 <li class="element">Jay</li>
 </ul>]

text

匹配节点的文本内容

In [28]: import re

# 返回所有匹配正则的节点文本组成的列表
In [29]: soup.find_all(text=re.compile('ar'))
Out[29]: ['Bar', 'Bar']

find

返回第一个匹配的元素

In [30]: soup.find(text=re.compile('ar'))
Out[30]: 'Bar'

In [31]: soup.find('li')
Out[31]: <li class="element">Foo</li>

关于find,还有其他用法:

  • find_parents() 和 find_parent()

  • find_next_siblings() 和 find_next_sibling()

  • find_previous_siblings() 和 find_previous_sibling()

  • find_all_next() 和 find_next()

  • fina_all_previous() 和 find_previous()

css 选择器

只需调用 select() 方法,传入相应的css选择器即可

In [32]: soup.select('.panel .panel-heading')
Out[32]:
[<div class="panel-heading">
 <h4>Hello</h4>
 </div>]

In [33]: soup.select('ul li')
Out[33]:
[<li class="element">Foo</li>,
 <li class="element">Bar</li>,
 <li class="element">Jay</li>,
 <li class="element">Foo</li>,
 <li class="element">Bar</li>]

In [34]: soup.select('#list-2 .element')
Out[34]: [<li class="element">Foo</li>, <li class="element">Bar</li>]

In [35]: soup.select('ul')[0]
Out[35]:
<ul class="list" id="list-1">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>

嵌套选择

In [36]: for ul in soup.select('ul'):
    ...:     print(ul.select('li'))
    ...:
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>]
[<li class="element">Foo</li>, <li class="element">Bar</li>]

获取属性

In [37]: for ul in soup.select('ul'):
    ...:     print(ul['id'])
    ...:     print(ul.attrs['id'])
    ...:
list-1
list-1
list-2
list-2

获取文本

In [39]: for li in soup.select('li'):
    ...:     print('Get Text:', li.get_text())
    ...:     print('String:', li.string)
    ...:
    ...:
Get Text: Foo
String: Foo
Get Text: Bar
String: Bar
Get Text: Jay
String: Jay
Get Text: Foo
String: Foo
Get Text: Bar
String: Bar
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,907评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,546评论 1 289
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,705评论 0 238
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,624评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,940评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,371评论 1 210
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,672评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,396评论 0 195
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,069评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,350评论 2 242
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,876评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,243评论 2 251
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,847评论 3 231
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,004评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,755评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,378评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,266评论 2 259

推荐阅读更多精彩内容