Python爬虫之xpath语法及案例使用
Python爬虫之xpath语法及案例使用
---- 钢铁侠的知识库 2022.08.15
我们在写Python爬虫时,经常需要对网页提取信息,如果用传统正则表达去写会增加很多工作量,此时需要一种对数据解析的方法,也就是本章要介绍的Xpath表达式。
Xpath是什么
XPath,全称 XML Path Language,即 XML 路径语言,它是一门在 XML 文档中查找信息的语言。最初是用来搜寻 XML 文档的,但同样适用于 HTML 文档的搜索。所以在做爬虫时完全可以使用 XPath 做相应的信息抽取。
XPath 的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供超过 100 个内置函数,用于字符串、数值、时间的匹配以及节点、序列的处理等,几乎所有想要定位的节点都可以用 XPath 来选取。
下面介绍实战中常用的几个知识点,详细也可以看W3C介绍:https://www.w3school.com.cn/xpath/index.asp
Xpath语法介绍
路径常用规则
表达式 | 描述 | 实例 | |
---|---|---|---|
nodename | 选取此节点的所有子节点 | xpath('//div') | 选取了div节点的所有子节点 |
/ | 从根节点选取 | xpath('/div') | 从根节点上选取div节点 |
// | 选取所有当前节点,不考虑位置 | xpath('//div') | 选取所有的div节点 |
. | 选取当前节点 | xpath('./div') | 选取当前节点下的div节点 |
.. | 选取当前节点的父节点 | xpath('..') | 回到上一个节点 |
@ | 选取属性 | xpath('//@calss') | 选取所有的class属性 |
谓语规则
谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点
表达式 | 结果 |
---|---|
xpath('/body/div[1]') | 选取body下的第一个div节点 |
xpath('/body/div[last()]') | 选取body下最后一个div节点 |
xpath('/body/div[last()-1]') | 选取body下倒数第二个div节点 |
xpath('/body/div[positon()️]') | 选取body下前两个div节点 |
xpath('/body/div[@class]') | 选取body下带有class属性的div节点 |
xpath('/body/div[@class="main"]') | 选取body下class属性为main的div节点 |
xpath('/body/div[price>35.00]') | 选取body下price元素值大于35的div节点 |
通配符
通配符来选取未知的XML元素
表达式 | 结果 |
---|---|
xpath('/div/*') | 选取div下的所有子节点 |
xpath('/div[@*]') | 选取所有带属性的div节点 |
取多个路径
使用“|”运算符可以选取多个路径
表达式 | 结果 |
---|---|
xpath('//div|//table') | 选取所有的div和table节点 |
功能函数
使用功能函数能够更好的进行模糊搜索
函数 | 用法 | 解释 |
---|---|---|
starts-with | xpath('//div[starts-with(@id,"ma")]') | 选取id值以ma开头的div节点 |
contains | xpath('//div[contains(@id,"ma")]') | 选取id值包含ma的div节点 |
and | xpath('//div[contains(@id,"ma") and contains(@id,"in")]') | 选取id值包含ma和in的div节点 |
text() | xpath('//div[contains(text(),"ma")]') | 选取节点文本包含ma的div节点 |
语法熟悉
下面举一段HTML文本进行语法热身,代码如下
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# time: 2022/8/8 0:05
# author: gangtie
# email: 648403020@qq.com
from lxml import etree
text = '''
<div>
<ul id='ultest'>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html"><span>fourth item</span></a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
'''
# 调用HTML类进行初始化,这样就成功构造了一个XPath解析对象。
# 利用etree.HTML解析字符串
page = etree.HTML(text)
print(type(page))
可以看到打印结果已经变成XML元素:
<class 'lxml.etree._Element'>
字符串转换HTML
字符串利用etree.HTML解析成html格式:
print(etree.tostring(page,encoding='utf-8').decode('utf-8'))
```
<html><body><div>
<ul id="ultest">
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html"><span>fourth item</span></a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div>
</body></html>
Process finished with exit code 0
```
经过处理可以看到缺失的</li>
也自动补全了,还自动添加html、body节点。
查找绝对路径
通过绝对路径获取a标签的所有内容
a = page.xpath("/html/body/div/ul/li/a")
for i in a:
print(i.text)
```
first item
second item
third item
None
fifth item
```
查找相对路径(常用)
查找所有li标签下的a标签内容
html = etree.HTML(text)
a = html.xpath("//a/text()")
print(a)
```
['first item', 'second item', 'third item', 'fifth item']
```
当前标签节点
.
表示选取当前标签的节点。
我们先定位 ul 元素节点得到一个列表,打印当前节点列表得到第一个 ul,
接着打印 ul 节点的子节点 li,text()输出。
page = etree.HTML(text)
ul = page.xpath("//ul")
print(ul)
print(ul[0].xpath("."))
print(ul[0].xpath("./li"))
print(ul[0].xpath("./li/a/text()"))
```
[<Element ul at 0x234d16186c0>]
[<Element ul at 0x234d16186c0>]
[<Element li at 0x234d1618ac0>, <Element li at 0x234d1618b00>, <Element li at 0x234d1618b40>, <Element li at 0x234d1618b80>, <Element li at 0x234d1618bc0>]
['first item', 'second item', 'third item', 'fifth item']
```
父节点
..
表示选取当前标签的父节点。
可以看到得到ul的上一级div
page = etree.HTML(text)
ul = page.xpath("//ul")
print(ul[0].xpath("."))
print(ul[0].xpath(".."))
```
[<Element ul at 0x1d6d5cd8540>]
[<Element div at 0x1d6d5cd8940>]
```
属性匹配
匹配时可以用@符号进行属性过滤
查找a标签下属性href值为link2.html的内容
html = etree.HTML(text)
a = html.xpath("//a[@href='link2.html']/text()")
print(a)
```
['second item']
```
函数
last():查找最后一个li标签里的a标签的href属性
html = etree.HTML(text)
a = html.xpath("//li[last()]/a/text()")
print(a)
```
['fifth item']
```
contains:查找a标签中属性href包含link的节点,并文本输出
html = etree.HTML(text)
a = html.xpath("//a[contains(@href, 'link')]/text()")
print(a)
```
['first item', 'second item', 'third item', 'fifth item']
```
实战案例
上面说完基本用法,接下来做几个实战案例练练手。
案例一:豆瓣读书
# -*-coding:utf8 -*-
# 1.请求并提取需要的字段
# 2.保存需要的数据
import requests
from lxml import etree
class DoubanBook():
def __init__(self):
self.base_url = 'https://book.douban.com/chart?subcat=all&icn=index-topchart-popular'
self.headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/104.0.0.0 Safari/537.36'
}
# 请求并提取需要的字段
def crawl(self):
res = requests.get(self.base_url, headers=self.headers)
lis = etree.HTML(res.text).xpath('//*[@id="content"]/div/div[1]/ul/li')
# print(type(lis))
books = []
for li in lis:
# print(etree.tostring(li,encoding='utf-8').decode('utf-8'))
# print("==================================================")
title = "".join(li.xpath(".//a[@class='fleft']/text()"))
score = "".join(li.xpath(".//p[@class='clearfix w250']/span[2]/text()"))
# list输出带有['\n 刘瑜 / 2022-4 / 广西师范大学出版社 / 82.00元 / 精装\n ']
publishing = "".join(li.xpath(".//p[@class='subject-abstract color-gray']/text()")).strip()
book = {
'title': title,
'score': score,
'publishing': publishing,
}
books.append(book)
self.save_data(books)
def save_data(self, datas):
with open('books.txt', 'w', encoding='utf-8') as f:
f.write(str(datas))
def run(self):
self.crawl()
if __name__ == '__main__':
DoubanBook().run()
案例二:彼岸图片下载
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# author: 钢铁知识库
# email: 648403020@qq.com
import os
import requests
from lxml import etree
# 彼岸图片下载
class BiAn():
def __init__(self):
self.url = 'https://pic.netbian.com'
self.headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/104.0.0.0 Safari/537.36',
'cookie': '__yjs_duid=1_cb922eedbda97280755010e53b2caca41659183144320; Hm_lvt_c59f2e992a863c2744e1ba985abaea6c=1649863747,1660203266; zkhanecookieclassrecord=%2C23%2C54%2C55%2C66%2C60%2C; Hm_lpvt_c59f2e992a863c2744e1ba985abaea6c=1660207771; yjs_js_security_passport=1225f36e8501b4d95592e5e7d5202f4081149e51_1630209607_js'
}
# 如果目录不存在会报错
if not os.path.exists('BianPicture'):
os.mkdir('BianPicture')
# 请求拿到ul列表
def crawl(self):
res = requests.get(self.url, headers=self.headers)
res.encoding = 'gbk'
uls = etree.HTML(res.text).xpath('//div[@class="slist"]/ul[@class="clearfix"]/li')
# print(etree.tostring(uls,encoding='gbk').decode('gbk'))
# 循环拿到图片名、图片地址,拼接请求再次下载到图片
for ul in uls:
img_name = ul.xpath('.//a/b/text()')[0]
img_src = ul.xpath('.//a/span/img/@src')[0]
# print(img_name + img_src)
img_url = self.url + img_src
# 拼接后下载图片,转义Bytes
img_res = requests.get(img_url, headers=self.headers).content
img_path = "BianPicture/" + img_name + ".jpg"
data = {
'img_res': img_res,
'img_path': img_path
}
self.save_data(data)
# 数据保存逻辑
def save_data(self, data):
with open(data['img_path'], 'wb') as f:
f.write(data['img_res'])
# print(data)
def run(self):
self.crawl()
if __name__ == '__main__':
BiAn().run()
案例三:全国城市名称爬取
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# author: 钢铁知识库
# email: 648403020@qq.com
import os
import requests
from lxml import etree
class CityName():
def __init__(self):
self.url = 'https://www.aqistudy.cn/historydata/'
self.headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36'
}
# 判断目录是否存在
if not os.path.exists('city_project'):
os.mkdir('city_project')
def crawl(self):
res = requests.get(url=self.url, headers=self.headers).text
uls = etree.HTML(res).xpath('//div[@class="all"]/div[2]/ul/div[2]/li')
all_city_name = list()
for ul in uls:
city_name = ul.xpath('.//a/text()')[0]
# print(type(city_name))
all_city_name.append(city_name)
self.save_data(all_city_name)
def save_data(self, data):
with open('./city_project/city.txt', 'w') as f:
f.write(str(data))
def run(self):
self.crawl()
if __name__ == '__main__':
CityName().run()
xpath使用工具
chrome生成XPath表达式
经常使用chome的朋友都应该知道这功能,在 审查
状态下(快捷键ctrl+shift+i,F12),定位到元素(快捷键ctrl+shift+c) ,在Elements选项卡中,右键元素 Copy->Copy xpath,就能得到该元素的xpath了
Xpath Helper插件
为chome装上XPath Helper就可以很轻松的检验自己的xpath是否正确了。安装插件需要特别上网,安装好插件后,在chrome右上角点插件的图标,调出插件的黑色界面,编辑好xpath表达式,表达式选中的元素被标记为黄色
---- 钢铁侠的知识库 2022.08.15
结语:
以上就是利用XPath的所有用法,从常用语法,到案例练习都走了一遍。下一章 钢铁知识库 会继续介绍另一种好用的解析框架,Beautiful Soup,觉得有用点赞加关注,就当你送了红包666
Python爬虫之xpath语法及案例使用的更多相关文章
- python爬虫:XPath语法和使用示例
python爬虫:XPath语法和使用示例 XPath(XML Path Language)是一门在XML文档中查找信息的语言,可以用来在XML文档中对元素和属性进行遍历. 选取节点 XPath使用路 ...
- Python爬虫基础——XPath语法的学习与lxml模块的使用
XPath与正则都是用于数据的提取,二者的区别是: 正则:功能相对强大,写起来相对复杂: XPath:语法简单,可以满足绝大部分的需求: 所以,如果你可以根据自己的需要进行选择. 一.首先,我们需要为 ...
- Python爬虫:Xpath语法笔记
一.选取节点 常用的路劲表达式: 表达式 描述 实例 nodename 选取nodename节点的所有子节点 xpath(‘//div’) 选取了div节点的所有子节点 / 从根节点选取 xpat ...
- 非常全的一份Python爬虫的Xpath博文
非常全的一份Python爬虫的Xpath博文 Xpath 是 python 爬虫过程中非常重要的一个用来定位的一种语法. 一.开始使用 首先我们需要得到一个 HTML 源代码,用来模拟爬取网页中的源代 ...
- 【python爬虫】Xpath
一.xml是什么 1.定义:可扩展标记性语言 2.特点:xml的是具有自描述结构的半结构化数据. 3.作用:xml主要设计宗旨是用来传输数据的.他还可以作为配置文件. 二.xml和html的区别 1. ...
- python爬虫中XPath和lxml解析库
什么是XML XML 指可扩展标记语言(EXtensible Markup Language) XML 是一种标记语言,很类似 HTML XML 的设计宗旨是传输数据,而非显示数据 XML 的标签需要 ...
- 【Day3】4.Xpath语法与案例
课程目标 1.谷歌浏览器配置Xpath 2.Xpath常用语法 3.Xpath常用案例 1.谷歌浏览器配置Xpath Xpath下载:http://chromecj.com/web-developme ...
- python爬虫之xpath的基本使用
一.简介 Xpath是一门在XML文档中查找信息的语言.Xpath可用来在XML文档中对元素和属性进行遍历.Xpath是W3C XSLT标准的主要元素,并且XQuery和XPointer都构建于XPa ...
- Python爬虫Scrapy(二)_入门案例
本章将从案例开始介绍python scrapy框架,更多内容请参考:python学习指南 入门案例 学习目标 创建一个Scrapy项目 定义提取的结构化数据(Item) 编写爬取网站的Spider并提 ...
随机推荐
- 记一次Tomcat卡死在 Deploying web application 步骤的问题
公司有一个历史的遗留项目是传统的MVC架构的前后不分离的项目,一开始使用JDK1.7写的,后来前一阵老板说想在这个远古项目上加点功能,顺带换换皮,于是乎一帮程序员们就用JDK1.8重新翻新了一遍项目顺 ...
- 素性测试+PollardRho
素数判定 暴力 本质上是检查其是否能够不用其本身进行质因数分解. 直接枚举从区间 \([2,n)\) 的数看其是否整除 \(n\) 即可.但是其实发现我们只要枚举到 \(\sqrt n\) 即可,复杂 ...
- Codeforces Round #773 (Div. 2)
这一场打的非常一般,不过把D想出来了(当然只剩10min没有写出来). A.Hard Way 题意:(很怪的题,我读题读半天)给你一个三角形(端点都在整数点上),问从x轴往上划线(不一定垂直)画不到的 ...
- 在linux上开启酸酸乳,未完待续
在服务器调试深度学习环境的时候总需要下载conda的包,一直以来都觉得是因为国内访问慢,于是想在服务器上开 ,或者ssr.由于过去用ssr多一些,于是想了解ssr on linux. 1.首先win1 ...
- vue跑马灯vue3-marquee
安装vue3-marquee 如果您使用的是 npm: npm install vue3-marquee@latest --save 如果您使用的是yarn: yarn add vue3-marque ...
- GO GMP协程调度实现原理 5w字长文史上最全
1 Runtime简介 Go语言是互联网时代的C,因为其语法简洁易学,对高并发拥有语言级别的亲和性.而且不同于虚拟机的方案.Go通过在编译时嵌入平台相关的系统指令可直接编译为对应平台的机器码,同时嵌入 ...
- conda创建/移除虚拟环境
conda创建python虚拟环境 前言 conda常用的命令: conda list 查看安装了哪些包. conda env list 或 conda info -e 查看当前存在哪些虚拟环境 co ...
- 2 Elment Ui 日期选择器 格式化问题
Elment Ui 日期选择器 格式化问题 在前后端联调过程中 我们常常会遇到日期无法被反序列化 这个问题 会有点头疼 下面以我这边为例 后端使用的是springboot 默认集成了jackjson ...
- 什么是AR技术?AR的价值究竟有多大?
什么是AR技术? AR技术,解释来说就是增强现实(Augmented Reality),是一种实时地计算摄影机影像的位置及角度并加上相应图像.3D模型的技术,它的目标是把虚拟世界嵌套进真实世界进行互动 ...
- RPA工单查询和下载流程机器人
1.登录业务系统,输入用户名和密码 2.进入下载模块 3.输入下载查询条件 4.进入文件明细单 5.下载文件 视频地址:https://www.bilibili.com/video/BV1964y1D ...