对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

  1. import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   class parseLinks(HTMLParser.HTMLParser):
  6.  
  7.   def handle_starttag(self, tag, attrs):
  8.  
  9.   if tag == 'a':
  10.  
  11.   for name,value in attrs:
  12.  
  13.   if name == 'href':
  14.  
  15.   print value
  16.  
  17.   print self.get_starttag_text()
  18.  
  19.   lParser = parseLinks()
  20.  
  21.   lParser.feed(urllib.urlopen("http://www.python.org/index.html").read())

处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子

  1. import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   import sys
  6.  
  7.   #定义HTML解析器
  8.  
  9.   class parseLinks(HTMLParser.HTMLParser):
  10.  
  11.   def handle_starttag(self, tag, attrs):
  12.  
  13.   if tag == 'a':
  14.  
  15.   for name,value in attrs:
  16.  
  17.   if name == 'href':
  18.  
  19.   print value
  20.  
  21.   print self.get_starttag_text()
  22.  
  23.   #创建HTML解析器的实例
  24.  
  25.   lParser = parseLinks()
  26.  
  27.   #打开HTML文件
  28.  
  29.   lParser.feed(urllib.urlopen( /
  30.  
  31.   "http://www.python.org/index.html").read())
  32.  
  33.   lParser.close()

  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

  1.  import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   def getImage(addr):
  6.  
  7.   u = urllib.urlopen(addr)
  8.  
  9.   data = u.read()
  10.  
  11.   class parseImages(HTMLParser.HTMLParser):
  12.  
  13.   def handle_starttag(self, tag, attrs):
  14.  
  15.   if tag == 'img':
  16.  
  17.   for name,value in attrs:
  18.  
  19.   if name == 'src':
  20.  
  21.   getImage(urlString + "/" + value)
  22.  
  23.   u = urllib.urlopen(urlString)
  24.  
  25.   lParser.feed(u.read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

  1. import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   import sys
  6.  
  7.   urlString = "http://www.python.org"
  8.  
  9.   #把图像文件保存至硬盘
  10.  
  11.   def getImage(addr):
  12.  
  13.   u = urllib.urlopen(addr)
  14.  
  15.   data = u.read()
  16.  
  17.   splitPath = addr.split('/')
  18.  
  19.   fName = splitPath.pop()
  20.  
  21.   print "Saving %s" % fName
  22.  
  23.   f = open(fName, 'wb')
  24.  
  25.   f.write(data)
  26.  
  27.   f.close()
  28.  
  29.   #定义HTML解析器
  30.  
  31.   class parseImages(HTMLParser.HTMLParser):
  32.  
  33.   def handle_starttag(self, tag, attrs):
  34.  
  35.   if tag == 'img':
  36.  
  37.   for name,value in attrs:
  38.  
  39.   if name == 'src':
  40.  
  41.   getImage(urlString + "/" + value)
  42.  
  43.   #创建HTML解析器的实例
  44.  
  45.   lParser = parseImages()
  46.  
  47.   #打开HTML文件
  48.  
  49.   u = urllib.urlopen(urlString)
  50.  
  51.   print "Opening URL/n===================="
  52.  
  53.   print u.info()
  54.  
  55.   #把HTML文件传给解析器
  56.  
  57.   lParser.feed(u.read())
  58.  
  59.   lParser.close()

上述代码的运行结果如下所示:

  1.   Opening URL
  2.  
  3.   ====================
  4.  
  5.   Date: Fri, 26 Jun 2009 10:54:49 GMT
  6.  
  7.   Server: Apache/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_ssl/2.2.9 OpenSSL/0.9.8g mod_wsgi/2.3 Python/2.5.2
  8.  
  9.   Last-Modified: Thu, 25 Jun 2009 09:44:54 GMT
  10.  
  11.   ETag: "105800d-46e7-46d29136f7180"
  12.  
  13.   Accept-Ranges: bytes
  14.  
  15.   Content-Length: 18151
  16.  
  17.   Connection: close
  18.  
  19.   Content-Type: text/html
  20.  
  21.   Saving python-logo.gif
  22.  
  23.   Saving trans.gif
  24.  
  25.   Saving trans.gif
  26.  
  27.   Saving afnic.fr.png

三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

  1.   import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   class parseText(HTMLParser.HTMLParser):
  6.  
  7.   def handle_data(self, data):
  8.  
  9.   if data != '/n':
  10.  
  11.   urlText.append(data)
  12.  
  13.   lParser = parseText()
  14.  
  15.   lParser.feed(urllib.urlopen( /
  16.  
  17.   http://docs.python.org/lib/module-HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。 HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给 HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很 大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

  1.   import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   urlText = []
  6.  
  7.   #定义HTML解析器
  8.  
  9.   class parseText(HTMLParser.HTMLParser):
  10.  
  11.   def handle_data(self, data):
  12.  
  13.   if data != '/n':
  14.  
  15.   urlText.append(data)
  16.  
  17.   #创建HTML解析器的实例
  18.  
  19.   lParser = parseText()
  20.  
  21.   #把HTML文件传给解析器
  22.  
  23.   lParser.feed(urllib.urlopen( /
  24.  
  25.   http://docs.python.org/lib/module-HTMLParser.html” /
  26.  
  27.   ).read())
  28.  
  29.   lParser.close()
  30.  
  31.   for item in urlText:
  32.  
  33.   print item

上面代码的运行输出过长,在此略过

四、从HTML文档中提取Cookies

  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。

  1.   import urllib2
  2.  
  3.   import cookielib
  4.  
  5.   from urllib2 import urlopen, Request
  6.  
  7.   cJar = cookielib.LWPCookieJar()
  8.  
  9.   opener=urllib2.build_opener( /
  10.  
  11.   urllib2.HTTPCookieProcessor(cJar))
  12.  
  13.   urllib2.install_opener(opener)
  14.  
  15.   r = Request(testURL)
  16.  
  17.   h = urlopen(r)
  18.  
  19.   for ind, cookie in enumerate(cJar):
  20.  
  21.   print "%d - %s" % (ind, cookie)
  22.  
  23.   cJar.save(cookieFile)

  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。

  1.   import os
  2.  
  3.   import urllib2
  4.  
  5.   import cookielib
  6.  
  7.   from urllib2 import urlopen, Request
  8.  
  9.   cookieFile = "cookies.dat"
  10.  
  11.   testURL = 'http://maps.google.com/'
  12.  
  13.   #为cookie jar 创建实例
  14.  
  15.   cJar = cookielib.LWPCookieJar()
  16.  
  17.   #创建HTTPCookieProcessor的opener对象
  18.  
  19.   opener = urllib2.build_opener( /
  20.  
  21.   urllib2.HTTPCookieProcessor(cJar))
  22.  
  23.   #安装HTTPCookieProcessor的opener
  24.  
  25.   urllib2.install_opener(opener)
  26.  
  27.   #创建一个Request对象
  28.  
  29.   r = Request(testURL)
  30.  
  31.   #打开HTML文件
  32.  
  33.   h = urlopen(r)
  34.  
  35.   print "页面的头部/n======================"
  36.  
  37.   print h.info()
  38.  
  39.   print "页面的Cookies/n======================"
  40.  
  41.   for ind, cookie in enumerate(cJar):
  42.  
  43.   print "%d - %s" % (ind, cookie)
  44.  
  45.   #保存cookies
  46.  
  47.   cJar.save(cookieFile)

上述代码的运行结果如下所示:

  1.   页面的头部
  2.  
  3.   ======================
  4.  
  5.   Cache-Control: private
  6.  
  7.   Content-Type: text/html; charset=ISO-8859-1
  8.  
  9.   Set-Cookie: PREF=ID=5d9692b55f029733:NW=1:TM=1246015608:LM=1246015608:S=frfx--b3xt73TaEA; expires=Sun, 26-Jun-2011 11:26:48 GMT; path=/; domain=.google.com
  10.  
  11.   Date: Fri, 26 Jun 2009 11:26:48 GMT
  12.  
  13.   Server: mfe
  14.  
  15.   Expires: Fri, 26 Jun 2009 11:26:48 GMT
  16.  
  17.   Transfer-Encoding: chunked
  18.  
  19.   Connection: close
  20.  
  21.   页面的Cookies
  22.  
  23.   ======================
  24.  
  25.   0 -

五、为HTML文档中的属性值添加引号

  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。

  1.   import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   class parseAttrs(HTMLParser.HTMLParser):
  6.  
  7.   def handle_starttag(self, tag, attrs):
  8.  
  9.   . . .
  10.  
  11.   attrParser = parseAttrs()
  12.  
  13.   attrParser.init_parser()
  14.  
  15.   attrParser.feed(urllib.urlopen("test2.html").read())

这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。

  1.   handle_starttag(tag, attrs)
  2.  
  3.   handle_charref(name)
  4.  
  5.   handle_endtag(tag)
  6.  
  7.   handle_entityref(ref)
  8.  
  9.   handle_data(text)
  10.  
  11.   handle_comment(text)
  12.  
  13.   handle_pi(text)
  14.  
  15.   handle_decl(text)
  16.  
  17.   handle_startendtag(tag, attrs)

  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:

  1.   import HTMLParser
  2.  
  3.   import urllib
  4.  
  5.   import sys
  6.  
  7.   #定义HTML解析器
  8.  
  9.   class parseAttrs(HTMLParser.HTMLParser):
  10.  
  11.   def init_parser (self):
  12.  
  13.   self.pieces = []
  14.  
  15.   def handle_starttag(self, tag, attrs):
  16.  
  17.   fixedAttrs = ""
  18.  
  19.   #for name,value in attrs:
  20.  
  21.   for name, value in attrs:
  22.  
  23.   fixedAttrs += "%s=/"%s/" " % (name, value)
  24.  
  25.   self.pieces.append("<%s %s>" % (tag, fixedAttrs))
  26.  
  27.   def handle_charref(self, name):
  28.  
  29.   self.pieces.append("&#%s;" % (name))
  30.  
  31.   def handle_endtag(self, tag):
  32.  
  33.   self.pieces.append("" % (tag))
  34.  
  35.   def handle_entityref(self, ref):
  36.  
  37.   self.pieces.append("&%s" % (ref))
  38.  
  39.   def handle_data(self, text):
  40.  
  41.   self.pieces.append(text)
  42.  
  43.   def handle_comment(self, text):
  44.  
  45.   self.pieces.append("" % (text))
  46.  
  47.   def handle_pi(self, text):
  48.  
  49.   self.pieces.append("" % (text))
  50.  
  51.   def handle_decl(self, text):
  52.  
  53.   self.pieces.append("" % (text))
  54.  
  55.   def parsed (self):
  56.  
  57.   return "".join(self.pieces)
  58.  
  59.   #创建HTML解析器的实例
  60.  
  61.   attrParser = parseAttrs()
  62.  
  63.   #初始化解析器数据
  64.  
  65.   attrParser.init_parser()
  66.  
  67.   #把HTML文件传给解析器
  68.  
  69.   attrParser.feed(urllib.urlopen("test2.html").read())
  70.  
  71.   #显示原来的文件内容
  72.  
  73.   print "原来的文件/n========================"
  74.  
  75.   print open("test2.html").read()
  76.  
  77.   #显示解析后的文件
  78.  
  79.   print "解析后的文件/n========================"
  80.  
  81.   print attrParser.parsed()
  82.  
  83.   attrParser.close()

我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:

  1. 原来的文件
  2. ========================
  3. <html>
  4. <head>
  5. <meta content="text/html; charset=utf-8"
  6. http-equiv="content-type"/>
  7. <title>Web页面</title>
  8. </head>
  9. <body>
  10. <H1>Web页面清单</H1>
  11. <a href=http://www.python.org>Python网站</a>
  12. <a href=test.html>本地页面</a>
  13. <img SRC=test.jpg>
  14. </body>
  15. </html>
  16.  
  17. 解析后的文件
  18. ========================
  19. <html>
  20. <head >
  21. <meta content="text/html; charset=utf-8"
  22. http-equiv="content-type" ></meta>
  23. <title >Web页面</title>
  24. </head>
  25. <body >
  26. <h1 >Web页面清单</h1>
  27. <a href="http://www.python.org" >Python网站</a>
  28. <a href="test.html" >本地页面</a>
  29. <img src="test.jpg" >
  30. </body>
  31. </html>

  六、小结

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来 迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本 文对您会有所帮助。

(转自:http://www.cnblogs.com/huangcong/archive/2011/08/31/2160747.html)

使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)(转)的更多相关文章

  1. 【python】使用HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies

    一.从HTML文档中提取链接 模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁.高效地解析HTML文档. 处理HTML文档的时候,我们常常需要从其中提取出所有的链接.使用HTM ...

  2. Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)

    对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...

  3. 使用Python中的urlparse、urllib抓取和解析网页(一)(转)

    对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...

  4. Python中的urlparse、urllib抓取和解析网页(一)

    对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...

  5. 【python】使用Python中的urlparse、urllib抓取和解析网页

    一.解析URL 函数urlparse(urlstring [, default_scheme [, allow_fragments]])的作用是将URL分解成不同的组成部分,它从urlstring中取 ...

  6. 一个简易的Python爬虫,将爬取到的数据写入txt文档中

    代码如下: import requests import re import os #url url = "http://wiki.akbfun48.com/index.php?title= ...

  7. org.springframework.beans.factory.xml.XmlBeanDefinitionStoreException 前言中不允许有内容 来自类路径资源的XML文档中的第1行是无效的

    今天复习一下Spring和Hibernate的整合,遇到了一个问题,报错信息如下: org.springframework.beans.factory.xml.XmlBeanDefinitionSto ...

  8. c# 抓取和解析网页,并将table数据保存到datatable中(其他格式也可以,自己去修改)

    使用HtmlAgilityPack 基础请参考这篇博客:https://www.cnblogs.com/fishyues/p/10232822.html 下面是根据抓取的页面string 来解析并保存 ...

  9. Jsoup抓取、解析网页和poi存取excel综合案例——采集网站的联系人信息

    需求:采集网站中每一页的联系人信息 一.创建maven工程,添加jsoup和poi的依赖包 <!-- https://mvnrepository.com/artifact/org.apache. ...

随机推荐

  1. [转载]微软VS2015支持Android和iOS编程

    Visual Studio 2015 Preview http://www.zhihu.com/question/26594936/answer/33397319 http://www.visuals ...

  2. windows环境命令行创建虚拟环境

    1:安装virtualenv pip install virtualenv 2:创建并激活虚拟环境 #创建虚拟环境 D:\>mkdir xianmu D:\>cd xianmu D:\xi ...

  3. 如何得到Slave应用relay-log的时间

    官方社区版MySQL 5.7.19 基于Row+Position搭建的一主一从异步复制结构:Master->{Slave} ROLE HOSTNAME BASEDIR DATADIR IP PO ...

  4. GaN助力运营商和基站OEM实现5G sub-6GHz和mmWave大规模MIMO

    到2021年,估计全球会有更多的人拥有移动电话(55亿),将超过用上自来水的人数(53亿).与此同时,带宽紧张的视频应用将进一步增加对移动网络的需求,其会占移动流量的78%.使用大规模多输入多输出(M ...

  5. liunx jdk安装

    打开https://www.oracle.com/technetwork/java/javase/downloads/index.html 选择Development版本(server为服务器版本), ...

  6. 3种高效的Tags标签系统数据库设计方案分享

    需求背景 目前主流的博客系统.CMS都会有一个TAG标签系统,不仅可以让内容链接的结构化增强,而且可以让文章根据Tag来区分.相比传统老式的Keyword模式,这种Tag模式可以单独的设计一个Map的 ...

  7. js上传插件uploadify自动检测不到flash控件的问题

    [问题描述] 项目开发中,由于使用了js的一个上传插件uploadify,下载的是flash版本的,后来在谷歌浏览器上运行时经常报flash控件未安装,虽然下图是uploadify自动检测自动弹出来的 ...

  8. 怎么去除移动端点击a标签链接时的背景色

    在手机端点击链接时会发现有一个背景色,有时候需要改变这个颜色,或者去除这个颜色,有时候a标签做成按钮时这个颜色的存在会很丑,像这样: 可以通过 -webkit-tap-highlight-color: ...

  9. python基础下的数据结构与算法之链表

    一.链表的定义 用链接关系显式表示元素之间顺序关系的线性表称为链接表或链表. 二.单链表的python实现 class Node(object): """定义节点&quo ...

  10. 【Ray Tracing in One Weekend 超详解】 光线追踪1-8 自定义相机设计

    今天,我们来学习如何设计自定义位置的相机 ready 我们只需要了解我们之前的坐标体系,或者说是相机位置 先看效果   Chapter10:Positionable camera 这一章我们直接用概念 ...