本文中主要介绍的BeautifulSoup4
,从简介、安装、解析器使用、语法介绍、遍历文档树、搜索文档树等进行了介绍,能够快速地入门。
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式
pip install beautifulsoup4
Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,其中一个是 lxml .根据操作系统不同,可以选择下列方法来安装lxml:
$ apt-get install Python-lxml
$ easy_install lxml
$ pip install lxml
另一个可供选择的解析器是纯Python实现的 html5lib ,html5lib的解析方式与浏览器相同,可以选择下列方法来安装html5lib:
$ apt-get install Python-html5lib
$ easy_install html5lib
$ pip install html5lib
下表列出了主要的解析器,以及它们的优缺点:
解析器 | 使用方法 | 优势 | 劣势 |
---|---|---|---|
Python标准库 | BeautifulSoup(markup, "html.parser") | Python的内置标准库执行速度适中文档容错能力强 | Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差 |
lxml HTML 解析器 | BeautifulSoup(markup, "lxml") | 速度快文档容错能力强 | 需要安装C语言库 |
lxml XML 解析器 | BeautifulSoup(markup, ["lxml", "xml"])``BeautifulSoup(markup, "xml") | 速度快唯一支持XML的解析器 | 需要安装C语言库 |
html5lib | BeautifulSoup(markup, "html5lib") | 最好的容错性以浏览器的方式解析文档生成HTML5格式的文档 | 速度慢 |
Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据。官方解释如下:
Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。 Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。
使用Beautiful Soup4
提取HTML
内容,一般要经过以下两步:
BeautifulSoup
对象find_all()
或者find()
来查找内容使用的是\color{red}{爱丽丝梦游仙境}中的一段内容
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
下面?的内容是对官网中一些案例的提炼,也是经常会使用到的方法。
使用之前先导入模块并且指定解析器,创建beautifulsoup
对象的时候指定两个参数:
from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc,'html.parser') # 1-待解析文档;2-解析器指定
如果文件是在本地,使用open方法先打开再进行解析
soup = BeautifulSoup(open('index.html'), 'html.parser')
能够按照标准的缩进格式进行输出!!!
需要记住该方法,方便查阅内容
如果想查询所有的标签,往下看
BS将HTML文档解析成一个复杂的树形结构,每个节点都可以看做是Python对象,所有对象可以归纳为4种:
就是HTML中每个标签,下面就是一个完整的title、p标签
<title>The Dormouse's story</title>
<p class="title"><b>The Dormouse's story</b></p>
Tag对象与XML或者HTML原生文档中的tag相同
Tag对象的两个重要属性:name和attributes
\color{red}{注意}:soup 对象本身的name值是[document],对于内部其他标签,输出的值便是标签本身的名称
对于一个tag对象可能具有多个attributes值,比如<a class="sister" href="http://example.com/lacie" id="link2">
便有3个属性值。
通过字典和.[attribute]
的方式能够获取到属性值
tag的属性可以进行修改、添加和删除等操作,操作方法和字典的一样。
字符串常被包含在tag内.Beautiful Soup用 NavigableString
类来包装tag中的字符串。
上面通过方法得到了标签里面的内容,那怎么得到标签内部的文字呢?很简单:通过.string
方法即可
BeautifulSoup
对象表示的是一个文档的全部内容.大部分时候,可以把它当作 Tag
对象
因为 BeautifulSoup
对象并不是真正的HTML或XML的tag,所以它没有name和attribute属性。
但有时查看它的 .name
属性是很方便的,所以 BeautifulSoup
对象包含了一个值为 “[document]” 的特殊属性 .name
Tag
, NavigableString
, BeautifulSoup
几乎覆盖了html和xml中的所有内容,但是还有一些特殊对象.容易让人担心的内容是文档的注释部分.
Comment
对象是一个特殊类型的 NavigableString
对象,其实输出的内容仍然不包括注释符号,看下面的例子:
使用之前最好先进行一个判断:
if type(soup.a.string) == bs4.element.Comment: # 如果类型一致
print(soup.a.string) # 输出文本内容
首先判断了它的类型,是否为 Comment 类型,然后再进行其他操作,如打印输出。
一个Tag可能包含多个字符串或其它的Tag,这些都是这个Tag的子节点。
Beautiful Soup提供了许多操作和遍历子节点的属性,比如直接获取tag的name值:
如果想获取到所有a标签的值,使用find_all
方法
contents属相将tag的子节点以列表的形式输出,获取到的是标签中的内容部分
返回的不是列表形式,可以通过遍历来进行获取子节点。实际上是以列表类型的迭代器
.contents
和 .children
属性仅包含tag的直接子节点,.descendants
属性可以对所有tag的子孙节点进行递归循环,和 children类似,我们也需要遍历获取其中的内容。
# 子孙节点
for each in soup.descendants:
print(each)
结果显示如下内容:
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> and
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
</body></html>
<head><title>The Dormouse's story</title></head>
<title>The Dormouse's story</title>
The Dormouse's story
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> and
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
</body>
<p class="title"><b>The Dormouse's story</b></p>
<b>The Dormouse's story</b>
The Dormouse's story
<p class="story">Once upon a time there were three little sisters; and their names were
<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> and
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
Once upon a time there were three little sisters; and their names were
<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
Elsie
,
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>
Lacie
and
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
Tillie
;
and they lived at the bottom of a well.
<p class="story">...</p>
...
如果一个标签里面没有标签了,那么 .string 就会返回标签里面的内容。如果标签里面只有唯一的一个标签了,那么 .string 也会返回最里面的内容:
如果存在多个子节点,tag就没法确定了,输出的结果就是None
repr()
方法的使用
输出的字符串中可能包含了很多的空格或者空行,使用该方法去除多余的空白内容
笔记?:去除空白内容
将某个元素的所有父辈节点通过递归得到
知识点:.next_sibling .previous_sibling 属性
兄弟节点可以理解为和本节点处在统一级的节点
.next_sibling
属性获取了该节点的下一个兄弟节点
.previous_sibling
则与之相反,如果节点不存在,则返回 None
注意:实际文档中的tag
的.next_sibling
和.previous_sibling
属性通常是字符串或空白,因为空白或者换行也可以被视作一个节点,所以得到的结果可能是空白或者换行
知识点:.next_siblings .previous_siblings 属性
通过 .next_siblings
和 .previous_siblings
属性可以对当前节点的兄弟节点迭代输出
在BS4中搜索文档树?主要是有两种方法:
前者用的比较更为广泛
find_all(name, attrs, recursive, text, **kwargs)
find_all()
方法搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件。
过滤器贯穿整个搜索的API。它们可以被使用在tag的name中,节点的属性中,字符串或者它们的混合中,具体见下面的实例
直接传入需要查找的某个标签,会将结果以列表
的形式展示出来
!!!!!!需要注意的点:
由于HTML中class标签和Python中的class关键字相同,为了不产生冲突,如果遇到要查询class标签的情况,使用class_
来代替,这点和XPATH中的写法类似,举个列子:
但是如果使用的是attrs参数,则不用加下划线:
如果传入的正则表达式作为参数,BS
会通过表达式的match()
来匹配内容。
比如我们现在想找所有以b
开头的标签,这个时候结果应该是<body>
和<b>
都被找到,使用的是re模块中的compile()
方法
如果想同时查找某几个标签,可以通过列表的形式
True
可以匹配任何值,下面代码查找到所有的tag
,但是不会返回字符串节点
如果没有合适过滤器,那么还可以定义一个方法,方法只接受一个元素参数。
如果这个方法返回 True
,表示当前元素匹配并且被找到,如果不是则反回 False
下面的方法校验了当前元素中包含class
属性却不包含id
属性,那么返回True
def has_class_no_id(tag):
return tag.has_attr('class') and not tag.has_attr('id')
将上面的方法传入到find_all
方法中,将得到全部的<p>
标签,因为它满足上面的要求
注意:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作指定名字tag的属性来搜索,如果包含一个名字为
id
的参数,Beautiful Soup会搜索每个tag的”id”属性
href
参数,Beautiful Soup会搜索每个tag的”href”属性该参数用来定义一个字典来搜索包含特殊属性的tag,当然也能搜索普通的属性
通过text
参数来搜索文档中的字符串内容。与name
参数的可选值相同:字符串、正则表达式、列表、True
find_all()
方法返回全部的搜索结构,如果文档树很大那么搜索会很慢。如果我们不需要全部结果,可以使用 limit
参数限制返回结果的数。
效果与SQL
中的limit
关键字类似,当搜索到的结果数量达到 limit
的限制时,就停止搜索返回结果。
调用tag
的 find_all()
方法时,Beautiful Soup
会检索当前tag
的所有子孙节点,如果只想搜索tag
的直接子节点,可以使用参数 recursive=False
,则BS4不会搜索子标签
find(name,attrs,text,recursive,**kwargs)
它与 find_all()
方法唯一的区别是 find_all()
方法的返回结果是值包含一个元素的列表,而 find()
方法直接返回结果。
在写CSS的时候,类名前加上点,id名前加上#。
使用soup.select()的方法类筛选元素,返回的类型是list
组合查找即和写 class 文件时,标签名与类名、id名进行的组合原理是一样的,例如查找 p 标签中,id 等于 link1的内容,二者需要用空格分开
直接查找子标签
查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。
同样,属性仍然可以与上述查找方式组合,不在同一节点的空格隔开,同一节点的不加空格
注意点:select 方法返回的都是列表形式的内容,可以遍历获取,通过get_text
方法获取具体内容