Python Beautiful Soup库
Beautiful Soup库
Beautiful Soup库:https://www.crummy.com/software/BeautifulSoup/
安装Beautiful Soup:
使用Beautiful Soup库
from bs4 import BeautifulSoup #这里的BeautifulSoup是个类
soup = BeautifulSoup('<p>data</p>','html.parser')#使用html.parser解析器
例子:获取http://python123.io/ws/demo.html的信息
Beautiful Soup库的基本元素
Beautiful Soup库是解析、遍历、维护“标签树”的功能库。
Beautiful Soup库,也叫beautifulsoup4或者bs4。
from bs4 import BeautifulSoup #在bs4库中引入BeautifulSoup类型
soup = BeautifulSoup("<html>data</html>","html.parser")
soup = BeautifulSoup("D://demo.html","html.parser") #通过打开文件的方式
BeautifulSoup对应一个HTML/XML文档的全部内容
Beautiful Soup库解析器
解析器 | 使用方法 | 条件 |
---|---|---|
bs4的HTML解析器 | BeautifulSoup(mk,'html.parser') | 安装bs4库 |
lxml的HTML解析器 | BeautifulSoup(mk,'lxml') | pip install lxml |
lxml的XML解析器 | BeautifulSoup(mk,'xml') | pip install lxml |
html5lib的解析器 | BeautifulSoup(mk,'html5lib') | pip install html5lib |
Beautiful Soup类的基本元素
基本元素 | 说明 |
---|---|
Tag | 标签,最基本的信息组织单元,分别用<>和</>标明开头和结尾 |
Name | 标签名字,< p >...< /p >的名字是‘p’,格式:< tag >.name |
Attributes | 标签的属性,字典形式组织,格式:< tag >.attrs |
NavigebleString | 标签内非属性字符串,<>...</>中字符串,格式:< tag >.string |
Comment | 标签内字符串的注释部分,一种特殊的Comment类型 |
基于bs4库的HTML内容遍历方法
标签树的下行遍历
属性 | 说明 |
---|---|
.contents | 子节点的列表,将< tag >所有儿子节点存入列表 |
.children | 子节点的迭代类型,与.contents类似,用于循环遍历儿子节点 |
.descendants | 子孙节点的迭代类型,包含所有子孙节点,用于循环遍历 |
for child in soup.body.children:
print(child) #遍历body标签儿子节点
for child in soup.body.descendants:
print(child) #遍历子孙节点
标签树的上行遍历
属性 | 说明 |
---|---|
.parent | 节点的父亲标签 |
.parents | 节点先辈标签的迭代类型,用于循环遍历先辈节点 |
打印soup的a标签的所有先辈:
标签树的平行遍历
平行遍历发生在同一个父节点下的各节点间
属性 | 说明 |
---|---|
.next_sibling | 返回按照HTML文本顺序的下一个平行节点标签 |
.previous_sibling | 返回按照HTML文本顺序的上一个平行节点的标签 |
.net_sibling | 迭代类型,返回按照HTML文本顺序的后续所有平行节点标签 |
.previous_sibling | 迭代类型,返回按照HTML文本顺序的前续所有平行节点标签 |
for sibling in soup.a.next_siblings:
print(sibling) #遍历后续平行节点
for sibling in soup.a.previous_sibling:
print(sibling) #遍历前续平行节点
基于bs4库的HTML格式化和编码
prettify()方法
.prettify()方法在每个标签后面加了个换行符/n
基于bs4库的HTML内容查找方法
.find_all(name, attrs, recursive, string, **kwargs)
返回一个列表类型,存储查找的结果
- name:对标签名称的检索字符串
- attres:对标签属性值的检索字符串,可标注属性检索
- recursive:是否对子孙全部检索,默认True
- string:<>...</>中字符串区域的检索字符串
扩展方法
方法 | 说明 |
---|---|
<>.find() | 搜索且只返回一个结果,字符串类型,同.find_all()参数 |
<>.find()_parents() | 在先辈节点搜索,返回列表类型,同.find_all()参数 |
<>.find()_parent() | 在先辈节点返回一个结果,字符串类型,同.find()参数 |
<>.find()_next_siblings() | 在后续平行节点中搜索,返回列表类型,同.find_all()参数 |
<>.find()_next_sibling() | 在后续平行节点中返回一个结果,字符串类型,同.find()参数 |
<>.find()_previous_siblings() | 在前序平行节点中搜素,返回列表类型,同.find()_all参数 |
<>.find()_previous_sibling() | 在前序平行节点中返回一个结果,字符串类型,同.find()参数 |
实例:“中国大学排名定向爬虫”
中国大学排名:
http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html
功能描述
- 输入:大学排名URL链接
- 输出:大学排名信息的屏幕输出(排名,大学名称,总分)
- 技术路线:requests-bs4
- 定向爬虫:仅对输入URL进行爬取,不扩展爬取
程序的结构设计
- 步骤1:从网络上获取大学排名网页内容 getHTMLText()
- 步骤2:提取网页内容中信息到合适的数据结构 fillUnivList()
- 步骤3:利用数据结构展示并输出结果 printUnivList()
import requests
from bs4 import BeautifulSoup
import bs4
def getHTMLText(url):
try:
r = requests.get(url, timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return ""
def fillUnivList(ulist, html):
soup = BeautifulSoup(html, "html.parser")
for tr in soup.find('tbody').children: #find查找tbody标签,children循环遍历儿子节点
if isinstance(tr,bs4.element.Tag):#判断tr是否是类bs4.element.Tag的对象
tds = tr('td')
ulist.append([tds[0].string,tds[1].string,tds[2].string])#.string:<>...</>中字符串区域的检索字符串
def printUnivList(ulist, num):
tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
print(tplt.format("排名", "学校名称", "总分",chr(12288))) #chr(12288)中文空格填充
for i in range(num):
u=ulist[i]
print(tplt.format(u[0],u[1],u[2],chr(12288)))
def main():
unifo = []
url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
html = getHTMLText(url)
fillUnivList(unifo, html)
printUnivList(unifo, 20) #20 univs
main()
Python Beautiful Soup库的更多相关文章
- python beautiful soup库的超详细用法
原文地址https://blog.csdn.net/love666666shen/article/details/77512353 参考文章https://cuiqingcai.com/1319.ht ...
- python Beautiful Soup库入门
bs4库的HTML内容遍历方法 基于bs4库的HTML格式输出 显示:友好的显示 <tag>.prettify() 编码:bs4库将任何HTML输入都变成utf-8编码(python 3. ...
- Beautiful Soup库基础用法(爬虫)
初识Beautiful Soup 官方文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc/# 中文文档:https://www.crumm ...
- 【转载】Beautiful Soup库(bs4)入门
转载自:Beautiful Soup库(bs4)入门 该库能够解析HTML和XML 使用Beautiful Soup库: from bs4 import BeautifulSoup impo ...
- Beautiful Soup库入门
1.安装:pip install beautifulsoup4 Beautiful Soup库是解析.遍历.维护“标签树”的功能库 2.引用:(1)from bs4 import BeautifulS ...
- 【Python爬虫学习笔记(3)】Beautiful Soup库相关知识点总结
1. Beautiful Soup简介 Beautiful Soup是将数据从HTML和XML文件中解析出来的一个python库,它能够提供一种符合习惯的方法去遍历搜索和修改解析树,这将大大减 ...
- Python Beautiful Soup 解析库的使用
Beautiful Soup 借助网页的结构和属性等特性来解析网页,这样就可以省去复杂的正则表达式的编写. Beautiful Soup是Python的一个HTML或XML的解析库. 1.解析器 解析 ...
- python之Beautiful Soup库
1.简介 简单来说,Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据.官方解释如下: Beautiful Soup提供一些简单的.python式的函数用来处理导航.搜索 ...
- crawler碎碎念4 关于python requests、Beautiful Soup库、SQLlite的基本操作
Requests import requests from PIL import Image from io improt BytesTO import jason url = "..... ...
随机推荐
- 移动端的vw px rem之间换算
一.vw px rem em是什么 1.vw:就是相对视口宽度(Viewport Width).1vw = 1% * 视口宽度.也就是说,一个视口就是100vw. 2.px:px应该是在css中使用最 ...
- mysql获取表的列名
DESC test4 SHOW COLUMNS FROM test4 SELECT COLUMN_NAME FROM information_schema.columns WHERE table_n ...
- HTML 和 form 表单常用标签
HTML和CSS 常用标签: p:段落,自动换行 span:和div类似,但是默认不换行 br:换行 hr:分割线 h1-h6:标题标签 a:超链接 瞄点:通过给a链接设置#XX作为链接,给需要链接的 ...
- audio小记
写H5活动页的需要音频,图标旋转停止保持当时的旋转角度,这样视觉体验效果好: 之前写法是点击pause()就直接停止动画,后来发现了animation有个比较好的属性animation-play-st ...
- 【转】shim.ChaincodeStubInterface用法
作为记录 shim.ChaincodeStubInterface用法
- LibreOffice(开源免费办公软件)
LibreOffice(开源免费办公软件) 官方地址 中文网站:https://zh-cn.libreoffice.org/ 下载地址: https://zh-cn.libreoffice.org/d ...
- ip地址后面斜杠加数字的含义
案例如:10.121.246.8/29 1.概念: 首先这是一种划分ip的表示方式,叫做无分类域间路由选择(CIDR),区分于传统的划分ip方式(分类的ip划分,在这之后提出了划分子网,即将主机号借出 ...
- MPU9250/MPU6050与运动数据处理与卡尔曼滤波(1)
第一篇--概述和MPU6050及其自带的DMP输出四元数 概述 InvenSense(国内一般译为应美盛)公司产的数字运动传感器在国内非常流行,我用过它的两款,9250和6050.出于被国产芯片惯坏的 ...
- Codeforces Round #704 (Div. 2), problem: (C) Maximum width还是要多学习
Problem - C - Codeforces 看清题目要求, 最重要部分在第二段. 大佬最后给出的代码果然简单, 思路简单化, 未必非要把答案在一个大括号里全部完成, 两个指针同时跑,中间加了一堆 ...
- Codeforces Round #753 (Div. 3), problem: (D) Blue-Red Permutation
还是看大佬的题解吧 CFRound#753(Div.3)A-E(后面的今天明天之内补) - 知乎 (zhihu.com) 传送门 Problem - D - Codeforces 题意 n个数字,n ...