Python学习指南

有同学说,我正则用的不好,处理HTML文档很累,有没有其他的方法?

有!那就是XPath,我们可以用先将HTML文档转换成XML文档,然后用XPath查找HTML节点或元素。

什么是XML

  • XML指可扩展标记语言(Extensible Markup Language)
  • XML是一种标记语言,很类似HTML
  • XML的设计宗旨是传输数据,而非显示数据。
  • XML的标签需要我们自行定义。
  • XML被设计为具有自我描述性。
  • XML是W3C的推荐标准。

W3School官方文档:http://www.w3school.com.cn/xml/index.asp

XML和HTML的区别

数据格式 描述 设计目标
XML Extensible Markup Language (可扩展标记语言) 被设计为传输和存储数据,其焦点是数据的内容。
HTML HyperText Markup Language(超文本标记语言) 显示数据以及如何更好显示数据。
HTML DOM Document Object Model for HTML (文档对象模型) 通过 HTML DOM,可以访问所有的 HTML 元素,连同它们所包含的文本和属性。可以对其中的内容进行修改和删除,同时也可以创建新的元素。

XML文档实例

  1. <?xml version="1.0" encoding="utf-8"?>
  2. <bookstore>
  3. <book category="cooking">
  4. <title lang="en">Everyday Italian</title>
  5. <author>Giada De Laurentiis</author>
  6. <year>2005</year>
  7. <price>30.00</price>
  8. </book>
  9. <book category="children">
  10. <title lang="en">Harry Potter</title>
  11. <author>J K. Rowling</author>
  12. <year>2005</year>
  13. <price>29.99</price>
  14. </book>
  15. <book category="web">
  16. <title lang="en">XQuery Kick Start</title>
  17. <author>James McGovern</author>
  18. <author>Per Bothner</author>
  19. <author>Kurt Cagle</author>
  20. <author>James Linn</author>
  21. <author>Vaidyanathan Nagarajan</author>
  22. <year>2003</year>
  23. <price>49.99</price>
  24. </book>
  25. <book category="web" cover="paperback">
  26. <title lang="en">Learning XML</title>
  27. <author>Erik T. Ray</author>
  28. <year>2003</year>
  29. <price>39.95</price>
  30. </book>
  31. </bookstore>

HTML DOM模型示例

HTML DOM定义了访问和操作HTML文档的标准方法,以树结构方式表达了HTML文档。

XML的节点关系

1.父(Parent)

每个元素以及属性都有一个父。

下面是一个简单的XML例子中,book元素时title、author、year以及price

  1. <?xml version="1.0" encoding="utf-8"?>
  2. <book>
  3. <title>Harry Potter</title>
  4. <author>J K. Rowling</author>
  5. <year>2005</year>
  6. <price>29.99</price>
  7. </book>

2.子(Children)

元素节点可能有零个、一个或多个子。

在下面的例子中,title、author、year以及price元素都是book元素的子:

  1. <?xml version="1.0" encoding="utf-8"?>
  2. <book>
  3. <title>Harry Potter</title>
  4. <author>J K. Rowling</author>
  5. <year>2005</year>
  6. <price>29.99</price>
  7. </book>

3.同胞(Sibling)

拥有相同的父的节点

在下面的例子中,title、author、year以及price元素都是同胞:

  1. <?xml version="1.0" encoding="utf-8"?>
  2. <book>
  3. <title>Harry Potter</title>
  4. <author>J K. Rowling</author>
  5. <year>2005</year>
  6. <price>29.99</price>
  7. </book>

4.先辈(Ancestor)

某节点的父、父的父,等等。

在下面的例子中,title元素的先辈是book元素和bookstore元素:

  1. <?xml version="1.0" encoding="utf-8"?>
  2. <bookstore>
  3. <book>
  4. <title>Harry Potter</title>
  5. <author>J K. Rowling</author>
  6. <year>2005</year>
  7. <price>29.99</price>
  8. </book>
  9. </bookstore>

5.后代

某个节点的子,子的子,等等。

在下面的例子中,bookstore的后代是book、title、author、year以及price元素:

  1. <?xml version="1.0" encoding="utf-8"?>
  2. <bookstore>
  3. <book>
  4. <title>Harry Potter</title>
  5. <author>J K. Rowling</author>
  6. <year>2005</year>
  7. <price>29.99</price>
  8. </book>
  9. </bookstore>

什么是XPath?

XPath(XML Path Language)是一门在XML文档中查找信息的语言,可用来在XML中对元素和属性进行遍历。

W3School官方文档:http://www.w3school.com.cn/xpath/index.asp

XPath 开发工具

  1. 开源的XPath表达式编辑工具:XML Quire(XML格式文件可用)
  2. Chrome插件Xpath Helper
  3. Firefox插件Xpath Checker

选取节点

XPath使用路径表达式来选取XML文档中的节点或者节点集。这些路径表达式和我们常规的电脑文件系统中看到的表达式非常相似。

下面列出了最常用的路径表达式:

表达式 描述
nodename 选取此节点的所有子节点
/ 从根节点选取
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
. 选取当前节点。
.. 选取当前节点的父节点
@ 选取属性

在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式 描述
bookstore 选取bookstore元素的所有子节点。
/bookstore 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book 选取属于bookstore的子元素的所有book元素
//book 选取所有book子元素,而不管它们在文档中的位置
bookstore//book 选择属于bookstore元素的后代的所有bok元素,而不管它们位于bookstore之下的什么位置
//@lang 选取名为lang的所有属性。

谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个特定的值的节点,被嵌在方括号中。

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式 结果
/bookstore/book[1] 选取属于bookstore子元素的第一个book元素。
/bookstore/book[last()] 选取数据bookstore子元素的最后一个book元素
/bookstore/book[last()-1] 选取属于bookstore元素的倒数第二个book元素
/bookstore/book[position()❤️] 选取最前面的两个属于bookstore元素的子元素book元素
//title[@lang] 选取所有拥有名为lang的属性的title元素
//title[@lang="eng"] 选取所有title元素,且这些元素拥有值为eng的lang属性
/bookstore/book[price>35.00] 选取所有bookstore元素的book元素,且其中的price元素的值必须大于35.00
/bookstore/book[price>35.00]/title 选取bookstore元素中的book元素的所有title元素,且其中的price元素的值必须大于35.00

选取未知节点

XPath通配符可用来选取未知的XML元素。

通配符 描述
* 匹配任何元素节点
@* 匹配任何属性节点
node() 匹配任何类型的节点

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式 结果
/bookstore/* 选取bookstore元素的所有子元素
//* 选取文档中的所有元素
title[@*] 选取所有带属性的title元素

选取若干路径

通过在路径表达式中使用"|"运算符,您可以选取若干个路劲。

实例

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式 结果
'//book/title | //book/price' 选取book元素的所有title和price元素。
//title &#124 //price 选取文档中的所有title和price元素
/bookstore/book/title | //price 选取属于bookstore元素的book元素的title元素,以及文档中的所有price元素

XPath的运算符

以上就是XPath的语法内容,在运用到Python抓取时要先转换为xml.

lxml库

lxml是一个HTML/XML的解析器,主要的功能是如何提取和解析HTML/XML数据。

lxml和正则一样,也是用C实现,是一款高性能的Python HTML/XML解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

lxml python官方文档:http://lxml.de/index.html

需要安装C语言库,可使用pip安装:pip install lxml(或通过wheel方式安装)

初步使用

我们利用它来解析HTML代码,简单实例:

  1. #-*- coding:utf-8 -*-
  2. #lxml_test.py
  3. #使用lxml的etree库
  4. from lxml import etree
  5. text = '''
  6. <div>
  7. <ul>
  8. <li class="item-0"><a href="link1.html">first item</a></li>
  9. <li class="item-1"><a href="link2.html">second item</a></li>
  10. <li class="item-inactive"><a href="link3.html">third item</a></li>
  11. <li class="item-1"><a href="link4.html">fourth item</a></li>
  12. <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 </li> 闭合标签
  13. </ul>
  14. </div>
  15. '''
  16. #利用etree.HTML,将字符串解析为HTML文档
  17. html = etree.HTML(text)
  18. #按字符串序列化为HTML文档
  19. result = etree.tostring(html)
  20. print(result)

输出结果:

  1. <html><body>
  2. <div>
  3. <ul>
  4. <li class="item-0"><a href="link1.html">first item</a></li>
  5. <li class="item-1"><a href="link2.html">second item</a></li>
  6. <li class="item-inactive"><a href="link3.html">third item</a></li>
  7. <li class="item-1"><a href="link4.html">fourth item</a></li>
  8. <li class="item-0"><a href="link5.html">fifth item</a></li>
  9. </ul>
  10. </div>
  11. </body></html>

lxml可以自动修正html代码,例子里不仅补全里li标签,还添加了body/html标签

文件读取:

除了直接读取字符串,lxml还支持从文件里读取内容。我们新建一个hello.html文档:

  1. <!--hello.html-->
  2. <div>
  3. <ul>
  4. <li class="item-0"><a href="link1.html">first item</a></li>
  5. <li class="item-1"><a href="link2.html">second item</a></li>
  6. <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
  7. <li class="item-1"><a href="link4.html">fourth item</a></li>
  8. <li class="item-0"><a href="link5.html">fifth item</a></li>
  9. </ul>
  10. </div>

再利用etree.parse()方法来读取文件。

  1. #lxml_parse.py
  2. from lxml import etree
  3. #读取外部文件hello.html
  4. html = etree.parse('./hello.html')
  5. result = etree.tostring(html, pretty_print=True)
  6. print(result)

输出结果与之前相同:

  1. <html><body>
  2. <div>
  3. <ul>
  4. <li class="item-0"><a href="link1.html">first item</a></li>
  5. <li class="item-1"><a href="link2.html">second item</a></li>
  6. <li class="item-inactive"><a href="link3.html">third item</a></li>
  7. <li class="item-1"><a href="link4.html">fourth item</a></li>
  8. <li class="item-0"><a href="link5.html">fifth item</a></li>
  9. </ul>
  10. </div>
  11. </body></html>

XPath实例测试

1.获取所有的<li>标签

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('hello.html')
  4. print type(html) #显示etree.parse()返回类型
  5. result = html.xpath('//li')
  6. print result #打印<li>标签的的元素集合
  7. print len(result)
  8. print type(result)
  9. print type(result[0])

输出结果:

  1. <type 'lxml.etree._ElementTree'>
  2. [<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]
  3. 5
  4. <type 'list'>
  5. <type 'lxml.etree._Element'>

2.继续获取<li>标签的所有class属性

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('htllo.html')
  4. result = html.xpath('//li/@class')
  5. print result

运行结果:

  1. ['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']

3.继续获取<li>标签下hreflink1.html<a>标签

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('hello.html')
  4. result = html.xpath('//li/a[@href="link1.html"]')
  5. print result

运行结果:

  1. [<Element a at 0x10ffaae18>]

4.获取<li>标签下的所有<span>标签

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('hello.html')
  4. #result = html.xpath('//li/span')
  5. #注意这么写是不对的
  6. #因为/是用来获取子元素的,而<span>不是<li>的子元素,所以,要用双斜杠
  7. result = html.xpath('//li//span')
  8. print result

运行结果:

  1. [<Element span at 0x10d698e18>]

5.获取<li>标签下的<a>标签里的所有class

  1. from lxml import etree
  2. html = etree.parse('hello.html')
  3. result = html.xpath('//li/a//@class')
  4. print result

运行结果

  1. ['blod']

6.获取最后一个<li><a>的href

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('hello.html')
  4. result = html.xpath('//li[last()]/a/@href')
  5. #谓语[last()]可以找到最后一个元素
  6. print result

运行结果

  1. ['link5.html']

7.获取倒数第二个元素的内容

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('hello.html')
  4. result = html.xpath('//li[last()-1]/a')
  5. #text方法可以获取元素内容
  6. print(result[0].text)

运行结果

  1. fourth item

8.获取class值为bold的标签名

  1. #xpath_li.py
  2. from lxml import etree
  3. html = etree.parse('hello.html')
  4. result = html.xpath('//*[@class="bold"]')
  5. #tag方法可以获取标签名
  6. print result[0].tag

运行结果

  1. span

Python爬虫(十二)_XPath与lxml类库的更多相关文章

  1. Python 爬虫十六式 - 第六式:JQuery的假兄弟-pyquery

    PyQuery:一个类似jquery的python库 学习一时爽,一直学习一直爽   Hello,大家好,我是 Connor,一个从无到有的技术小白.上一次我们说到了 BeautifulSoup 美味 ...

  2. Python爬虫十六式 - 第四式: 使用Xpath提取网页内容

    Xpath:简单易用的网页内容提取工具 学习一时爽,一直学习一直爽 !   Hello,大家好,我是Connor,一个从无到有的技术小白.上一次我们说到了 requests 的使用方法.到上节课为止, ...

  3. Python爬虫利器二之Beautiful Soup的用法

    上一节我们介绍了正则表达式,它的内容其实还是蛮多的,如果一个正则匹配稍有差池,那可能程序就处在永久的循环之中,而且有的小伙伴们也对写正则表达式的写法用得不熟练,没关系,我们还有一个更强大的工具,叫Be ...

  4. Python 爬虫十六式 - 第五式:BeautifulSoup-美味的汤

    BeautifulSoup 美味的汤 学习一时爽,一直学习一直爽!    Hello,大家好,我是Connor,一个从无到有的技术小白.上一次我们说到了 Xpath 的使用方法.Xpath 我觉得还是 ...

  5. 初学 Python(十二)——高阶函数

    初学 Python(十二)--高阶函数 初学 Python,主要整理一些学习到的知识点,这次是高阶函数. #-*- coding:utf-8 -*- ''''' 话说高阶函数: 能用函数作为参数的函数 ...

  6. 2.Python爬虫入门二之爬虫基础了解

    1.什么是爬虫 爬虫,即网络爬虫,大家可以理解为在网络上爬行的一直蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来.想抓取什么?这个由你来控制它咯. ...

  7. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  8. Python爬虫入门二之爬虫基础了解

    1.什么是爬虫 爬虫,即网络爬虫,大家可以理解为在网络上爬行的一直蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来.想抓取什么?这个由你来控制它咯. ...

  9. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

随机推荐

  1. Ubuntu16 远程连接MySQL

    1.进入MySQL配置目录允许其他IP可以链接 vi /etc/mysql/mysql.conf.d/mysqld.cnf 吧下面这行注释掉 #bind-address = 127.0.0.1 2.远 ...

  2. struts2 中文乱码问题,自定义过滤器通用解决方法

    问题描述 在JSP中使用form表单向后台action中传递中文参数,后台action接收到参数出现中文乱码.JSP页面统一采用了utf-8编码格式.由于struts2默认采用的编码为utf-8,根据 ...

  3. asp.net后台发送HTTP请求

    一.文件流方式(转自:http://blog.csdn.net/u011511086/article/details/53216330) /// 发送请求 /// </summary> / ...

  4. Unity中的Mono & Linux上编译Mono的流程

    前段时间编译了一下Unity的Mono,看了很多相关的文章,也遇到很多新坑.所以来总结一下,加深自己对Mono的理解 为什么Unity可以跨平台运行呢 通常Unity的脚本有C#.JS.Boo.不过现 ...

  5. Appscan 配置中登录管理的问题

    一.登录录制时录制为空 这个问题出现在 9.0.3.5 版本上,当时同事一录制为空,我录制却ok,后来发现他录制前将谷歌浏览是打开状态,谷歌浏览关闭掉,再使用外部浏览器Chrome进行会话录制后,问题 ...

  6. C#多线程和线程同步总结

    Thread 没有参数的线程启动 Thread newThread = new Thread(new ThreadStart(DoWork)); newThread.Start(); 有参数的线程启动 ...

  7. 小白必看Python视频基础教程

    Python的排名从去年开始就借助人工智能持续上升,现在它已经成为了第一名.Python的火热,也带动了工程师们的就业热.可能你也想通过学习加入这个炙手可热的行业,可以看看Python视频基础教程,小 ...

  8. struts2 内容记录

    多xml文件配置 在开发过程中我们经常会将每一张表(如:user表)的struts.xml文件分开,便于管理,故需要建立struts_user.xml文件管理请求等.那么需要用到inculde标签. ...

  9. java SE 基础概念梳理(一)

     (一)First 摘要:Java概述.Java开发环境搭建.程序开发流程 Java概述  Java的应用 开发QQ.迅雷程序(桌面应用软件)开发淘宝.京东(互联网应用软件) Java的擅长 互联网: ...

  10. iPhone X 网页导航概念

     以下内容由Mockplus团队翻译整理,仅供学习交流,Mockplus是更快更简单的原型设计工具.   在移动应用程序设计中,选择汉堡菜单按钮还是标签栏作为导航一直是个古老的争论话题.目前看来,由于 ...