lxml模块(应用xpath技术)
一、lxml介绍
第三方库lxml是第一款表现出高性能特征的python xml库,天生支持Xpath1.0、XSLT1.0、定制元素类,甚至python风格的数据绑定接口。lxml是通过Cpython实现的,构建在两个C库上(libxml2和libxslt),为执行解析、序列化、转换等核心任务提供了主要动力,是爬虫处理网页数据的一件利器。
lxml对xml和html都有很好的支持,分别使用 lxml.etree 和 lxml.html 两个模块。
1、安装第三方lxml模块
# 通过pip直接下载安装
pip install lxml
# 通过git克隆源码进行下载安装
git clone https://github.com/lxml/lxml.git lxml
2、lxml.html和lxml.etree模块
lxml.html&lxml.etree这两个模块是最常用的HTML文档和XML文档解析模块。
HTML(HyperText Markup Language)超文本标记语言。
XML(Extensible Markup Language)可扩展标记语言。
3、lxml官方文档
二、Xpath语法
1、选取节点
Xpath使用路径表达式在XML文档中选取节点。节点是通过沿着路径或者step来选取的。常用的路径表达式如下:
表达式 | 描述 |
---|---|
nodename | 选取此节点的所有子节点 |
/ | 从根节点选取 |
// | 从匹配选择的当前节点选择文档的节点,而不考虑它们的位置 |
. | 选取当前节点 |
.. | 选取当前节点的父节点 |
@ | 选取属性 |
下面为一些路径表达式及表达式结果:
路径表达式 | 结果 |
---|---|
bookstore | 选取 bookstore 元素的所有子节点 |
/bookstore | 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径! |
bookstore/book | 选取属于 bookstore 的子元素的所有 book 元素 |
//book | 选取所有 book 子元素,而不管它们在文档中的位置。 |
bookstore//book | 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。 |
//@lang | 选取名为 lang 的所有属性。 |
2、谓语(Predicates)
谓语用来查找某个特定的节点或者包含某个指定的值的节点。谓语被嵌在方括号中。
下面为一些带有谓语的路径表达式,及表达式结果:
路径表达式 | 结果 |
---|---|
/bookstore/book[1] | 选取属于 bookstore 子元素的第一个 book 元素。 |
/bookstore/book[last()] | 选取属于 bookstore 子元素的最后一个 book 元素。 |
/bookstore/book[last()-1] | 选取属于 bookstore 子元素的倒数第二个 book 元素。 |
/bookstore/book[position()❤️] | 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。 |
//title[@lang] | 选取所有拥有名为 lang 的属性的 title 元素。 |
//title[@lang=’eng’] | 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。 |
/bookstore/book[price>35.00] | 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。 |
/bookstore/book[price>35.00]/title | 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。 |
3、选取未知节点
XPath通配符可用来选取未知的XML元素。
通配符 | 描述 |
---|---|
* | 匹配任何元素节点 |
@* | 匹配任何属性节点 |
node() | 匹配任何类型的节点 |
下面为一些带有通配符的路径表达式,及表达式结果:
路径表达式 | 结果 |
---|---|
/bookstore/* | 选取 bookstore 元素的所有子元素。 |
//* | 选取文档中的所有元素。 |
//title[@*] | 选取文档中的所有元素。 |
4、选取若干路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
下面为一些带有"|"运算符的路径表达式,及表达式结果:
路径表达式 | 结果 |
---|---|
//book/title | //book/price |
//title | //price |
/bookstore/book/title | //price |
5、Xpath运算符
下面列出了可用再XPath表达式中运算符:
运算符 | 描述 | 实例 | 返回值 |
---|---|---|---|
计算两个节点集 | //book | ||
+ | 加法 | 6 + 4 | 10 |
– | 减法 | 6 – 4 | 2 |
* | 乘法 | 6 * 4 | 24 |
div | 除法 | 8 div 4 | 2 |
= | 等于 | price=9.80 | 如果 price 是 9.80,则返回 true。如果 price 是 9.90,则返回 false。 |
!= | 不等于 | price!=9.80 | 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。 |
< | 小于 | price<9.80 | 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。 |
<= | 小于或等于 | price<=9.80 | 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。 |
> | 大于 | price>9.80 | 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。 |
>= | 大于或等于 | price>=9.80 | 如果 price 是 9.90,则返回 true。如果 price 是 9.70,则返回 false。 |
or | 或 | price=9.80 or price=9.70 | 如果 price 是 9.80,则返回 true。如果 price 是 9.50,则返回 false。 |
and | 与 | price>9.00 and price<9.90 | 如果 price 是 9.80,则返回 true。如果 price 是 8.50,则返回 false。 |
mod | 计算除法的余数 | 5 mod 2 | 1 |
6、参考文档
三、爬虫中运用XPath
1、XPath在爬虫中的使用流程
- 下载:pip install lxml
- 导包:from lxml import etree
- 创建etree对象进行指定数据的解析
- 本地:
etree=etree.parse('本地文件路径')
etree.xpath('xpath表达式')
- 网络:
etree=etree.HTML('网络请求到的页面数据')
etree.xpath('xpath表达式')
2、常用的Xpath表达式
属性定位:
#找到class属性值为song的div标签
//div[@class="song"]
层级&索引定位:
#找到class属性值为tang的div的直系子标签ul下的第二个子标签li下的直系子标签a
//div[@class="tang"]/ul/li[2]/a
逻辑运算:
#找到href属性值为空且class属性值为du的a标签
//a[@href="" and @class="du"]
模糊匹配:
//div[contains(@class, "ng")]
//div[starts-with(@class, "ta")]
取文本:
# /表示获取某个标签下的文本内容
# //表示获取某个标签下的文本内容和所有子标签下的文本内容
//div[@class="song"]/p[1]/text()
//div[@class="tang"]//text()
取属性:
//div[@class="tang"]//li[2]/a/@href
3、使用示例
创建本地html文件来测试Xpath数据解析。
(1)test.html
<html lang="en">
<head>
<meta charset="UTF-8" />
<title>测试bs4</title>
</head>
<body>
<div>
<p>百里守约</p>
</div>
<div class="song">
<p>李清照</p>
<p>王安石</p>
<p>苏轼</p>
<p>柳宗元</p>
<a href="http://www.song.com/" title="赵匡胤" target="_self">
<span>this is span</span>
宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a>
<a href="" class="du">总为浮云能蔽日,长安不见使人愁</a>
<img src="http://www.baidu.com/meinv.jpg" alt="" />
</div>
<div class="tang">
<ul>
<li><a href="http://www.baidu.com" title="qing">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li>
<li><a href="http://www.163.com" title="qin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li>
<li><a href="http://www.126.com" alt="qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li>
<li><a href="http://www.sina.com" class="du">杜甫</a></li>
<li><a href="http://www.dudu.com" class="du">杜牧</a></li>
<li><b>杜小月</b></li>
<li><i>度蜜月</i></li>
<li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li>
</ul>
</div>
</body>
</html>
(2)爬虫脚本文件test.py
from lxml import etree
# 创建etree对象进行制定数据解析
tree = etree.parse('./test.html') # 解析本地文件
# 属性定位:根据指定的属性定位到指定的节点标签
# tree.xpath('//div[@class="song"]')
"""
[<Element div at 0x10dbead88>]
"""
# 层级&索引定位
# tree.xpath('//div[@class="tang"]/ul/li[2]/a') # 定位到第二个li中的a标签
"""
[<Element a at 0x10e30ab48>]
"""
# 逻辑定位 //a:整个源码下的a标签
# [@href="" and @class="du"] href为空,class属性为du
# tree.xpath('//a[@href="" and @class="du"]')
"""
[<Element a at 0x10e2a8e88>]
"""
# 模糊匹配
# tree.xpath('//div[contains(@class, "ng")]')
# tree.xpath('//div[starts-with(@class, "ta")]')
"""
[<Element div at 0x10dbea548>, <Element div at 0x10e392348>]
[<Element div at 0x10dabd688>]
"""
# 取文本
# /text()获取当前标签中直系存储的文本数据
# tree.xpath('//div[@class="song"]/p[1]/text()') # song的div下的第一个p子标签
# 输出:['李清照']
# //text()获取tang这个div标签下所有子标签中存储的文本数据
# tree.xpath('//div[@class="tang"]//text()')
"""
['\n\t\t',
'\n\t\t\t',
'清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村',
'\n\t\t\t',
'秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山',
'\n\t\t\t',
'岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君',
'\n\t\t\t',
'杜甫',
'\n\t\t\t',
'杜牧',
'\n\t\t\t',
'杜小月',
'\n\t\t\t',
'度蜜月',
'\n\t\t\t',
'凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘',
'\n\t\t',
'\n\t']
"""
# 取属性
tree.xpath('//div[@class="tang"]//li[2]/a/@href') # 指定a标签对应的href的值
"""
['http://www.163.com']
"""
四、XPath插件
xpath插件的作用:可以直接将xpath表达式作用于浏览器的网页当中。
1、chrome安装xpath插件
(1)更多工具-》扩展程序-》开启右上角开发者模式
(2)将xpath插件拖动到谷歌浏览器拓展程序(更多工具)中,安装成功
2、插件使用
开启和关闭xpath插件的快捷键:Ctrl-Shift-X (or Control-Shift-X on OS X), or click the XPath Helper button in the toolbar, to open the XPath Helper console。
以糗事百科为例使用插件:
右边方框输出的是xpath表达式输出的结果,这里输出的是div对应的数据值。
使用完再次点击Control-Shift-X来关闭xpath插件。未来在程序中设计好xpath表达式之后,一定要用xpath插件做一下表达式的验证。
五、xpath项目演练
需求:使用xpath对段子网中的段子内容和标题进行解析,持久化存储。
段子网地址
1、先用xpath插件验证xpath表达式
可用如下xpath表达式获取所有的li标签,段子内容和标题都被包含在li标签中。
2、爬虫代码实现
import requests
from lxml import etree
# 1.指定url
url = 'https://ishuo.cn/joke'
# 2.发起请求
headers = {
'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
# 3.获取页面内容
page_text = response.text
# 4.数据解析
tree = etree.HTML(page_text)
# 获取所有的li标签(已经经过了xpath插件验证)
li_list = tree.xpath('//div[@id="list"]/ul/li')
# print(li_list)
'''
[<Element li at 0x10e32c248>, <Element li at 0x10e30ae88>,...,<Element li at 0x10ef5bfc8>]
# 注意:Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析
'''
fp = open('./duanzi.txt', 'w', encoding='utf-8') # 一次打开多次写入
for li in li_list:
content = li.xpath('./div[@class="content"]/text()')[0] # 调用text()函数取得段子内容
title = li.xpath('./div[@class="info"]/a/text()')[0] # 获得a标签文本内容
# 5.持久化
fp.write(title + ":" + content + "\n\n") # 段子换行分隔
print("一条数据写入成功")
(1)li标签内部结构
<li class="list_li xh-highlight">
<div class="content">有位非常漂亮的女同事,有天起晚了没有时间化妆便急忙冲到公司。结果那天她被记旷工了……吃惊]</div>
<div class="info">
<span class="right tags">...</span>
<a href="/subject/5898">这个笑话好内涵,你懂了没?</a>
04月29日0个评论 0人喜欢
</div>
</li>
(2)Element类型对象
Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析。
只要是通过xpath表达式解析出来的标签类型的对象,对象类型一定是element类型。
tree = etree.HTML(page_text)
# 获取所有的li标签(已经经过了xpath插件验证)
li_list = tree.xpath('//div[@id="list"]/ul/li')
# print(li_list)
"""
[<Element li at 0x10e32c248>, <Element li at 0x10e30ae88>,...,<Element li at 0x10ef5bfc8>]
# 注意:Element类型的对象可以继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析
"""
for li in li_list:
content = li.xpath('./div[@class="content"]/text()')[0] # 调用text()函数取得段子内容
title = li.xpath('./div[@class="info"]/a/text()')[0] # 获得a标签文本内容——标题
(3)duanzi.txt文件写入效果
lxml模块(应用xpath技术)的更多相关文章
- 洗礼灵魂,修炼python(71)--爬虫篇—【转载】xpath/lxml模块,爬虫精髓讲解
Xpath,lxml模块用法 转载的原因和前面的一样,我写的没别人写的好,所以我也不浪费时间了,直接转载这位崔庆才大佬的 原帖链接:传送门 以下为转载内容: --------------------- ...
- Python爬虫基础——XPath语法的学习与lxml模块的使用
XPath与正则都是用于数据的提取,二者的区别是: 正则:功能相对强大,写起来相对复杂: XPath:语法简单,可以满足绝大部分的需求: 所以,如果你可以根据自己的需要进行选择. 一.首先,我们需要为 ...
- 爬虫(六):XPath、lxml模块
1. XPath 1.1 什么是XPath XPath(XML Path Language) 是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历. 1.2 ...
- Python爬虫 XPath语法和lxml模块
XPath语法和lxml模块 什么是XPath? xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历. X ...
- XPath语法和lxml模块
XPath语法和lxml模块 什么是XPath? xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历. X ...
- python爬虫网页解析之lxml模块
08.06自我总结 python爬虫网页解析之lxml模块 一.模块的安装 windows系统下的安装: 方法一:pip3 install lxml 方法二:下载对应系统版本的wheel文件:http ...
- 关于javascript模块加载技术的一些思考
前不久有个网友问我在前端使用requireJs和seajs的问题,我当时问他你们公司以前有没有自己编写的javascript库,或者javascript框架,他的回答是什么都没有,他只是听说像requ ...
- dom4j解析器 基于dom4j的xpath技术 简单工厂设计模式 分层结构设计思想 SAX解析器 DOM编程
*1 dom4j解析器 1)CRUD的含义:CreateReadUpdateDelete增删查改 2)XML解析器有二类,分别是DOM和SAX(simple Api for xml). ...
- xPath技术
在dom4j中如何使用xPath技术 1)导入xPath支持jar包 . jaxen-1.1-beta-6.jar 2)使用xpath方法 List<Node> selectNodes(& ...
随机推荐
- ThinkCMF Volist标签
volist标签通常用于查询数据集(select方法)的结果输出,通常模型的select方法返回的结果是一个二维数组,可以直接使用volist标签进行输出. 在控制器中首先对模版赋值: $User = ...
- 多线程 NSThread 的使用
NSThread简介 使用NSThread 实现多线程,需要手动管理线程的生命周期, 一.线程的创建 //1.实例方法创建,,需要手动启动线程 NSThread *thread = [[NSThrea ...
- STM32基础分析——PWM配置
在使用STM32F103产生固定频率.固定占空比的PWM波时,虽然有官方以及众多开发板提供的例程,但是关于有点问题并没有说的很清晰,并且<STM32F10X参考手册>的中文翻译可能容易造成 ...
- Codeforces - 915E 离散化区间覆盖
我一直以来都错认为离散化就是换个映射,其实还需要在离散值两端加上相差为1的值才能真正离散 不然看一下test3就知道 不过这个离散姿势太暴力,以至于我1000ms时限跑出998ms(其实是太懒没有删重 ...
- PIE SDK反距离权重插值算法
1.算法功能简介 反距离权重 (IDW) 插值使用一组采样点的线性权重组合来确定像元值.权重是一种反距离函数.进行插值处理的表面应当是具有局部因变量的表面.此方法假定所映射的变量因受到与其采样位置 ...
- apache ftpserver外网访问配置
apache ftpserver搭建ftp服务非常简单,若只是内网访问,几乎不需要配置,直接启动即可.但若需要外网访问,则需要注意以下几点. 1.若是外网访问,主动模式是不行的,因为客户端报告给服务器 ...
- Python 垃圾回收机制(转)
概述 python采用的是引用计数机制为主,标记-清除和分代收集两种机制为辅的策略. 引用计数 Python语言默认采用的垃圾收集机制是『引用计数法 Reference Counting』,该算法最早 ...
- like模糊查询%注入问题
android like 全局模糊查找文件命名 通过条件通过 like %search% 如果查找的关键字是% 那么就成了 like %%% 就会查找出所有的文件 解决办法是先把正则里面的匹配符 替换 ...
- oracle 笔记---(三)__体系架构
查看控制文件位置 SQL> show parameter control_files; NAME TYPE VALUE ------------------------------------ ...
- zabbix 报警程序
一,报警程序 本次使用的为onealert http://c.onealert.com/console/ucid/login.jsp 二,服务端安转 下面为他教的怎么安装这个东西 第一步: 找到脚本目 ...