【python】使用HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies
一、从HTML文档中提取链接
模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。
处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。
定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子。
- # -*- coding: UTF-8 -*-
- __author__ = 'paul'
- import HTMLParser
- import urllib
- import sys
- #定义HTML解析器
- class parseLinks(HTMLParser.HTMLParser):
- def handle_starttag(self, tag, attrs):
- if tag == 'a':##显示标签为a
- for name,value in attrs:
- if name == 'href':#显示属性为href
- print value##显示标签属性值
- print self.get_starttag_text()##全部显示
- #创建HTML解析器的实例
- lParser = parseLinks()
- #打开HTML文件
- lParser.feed(urllib.urlopen( "http://www.python.org/index.html").read())
- lParser.close()
二、从HTML文档中提取图像
定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:
- # -*- coding: UTF-8 -*-
- __author__ = 'paul'
- import HTMLParser
- import urllib
- import sys
- urlString = "http://www.python.org"
- #urlString = "http://www.baidu.com"
- #把图像文件保存至硬盘
- def getImage(addr):
- u = urllib.urlopen(addr)
- data = u.read()
- splitPath = addr.split('/')
- fName = splitPath.pop()
- print "Saving %s" % fName
- f = open(fName, 'wb')
- f.write(data)
- f.close()
- #定义HTML解析器
- class parseImages(HTMLParser.HTMLParser):
- def handle_starttag(self, tag, attrs):
- if tag == 'img':
- for name,value in attrs:
- if name == 'src':
- #value1=value[2:]
- #print value1
- print self.get_starttag_text()
- getImage(urlString + "/" + value)##当图片的src为相对路径时需要拼接
- #getImage("http://"+value1)##当图片的src为相对路径时,直接使用绝对路径即可,但是需要注意的是,urllib.urlopen需要添加链接的协议如http://或者https://等等
- #创建HTML解析器的实例
- lParser = parseImages()
- #打开HTML文件
- u = urllib.urlopen(urlString)
- print "Opening URL/n===================="
- print u.info()
- #把HTML文件传给解析器
- lParser.feed(u.read())
- lParser.close()
三、从HTML文档中提取文本
处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。
- # -*- coding: UTF-8 -*-
- __author__ = 'paul'
- import HTMLParser
- import urllib
- urlText = []
- #定义HTML解析器
- class parseText(HTMLParser.HTMLParser):
- def handle_data(self, data):
- if data != '/n':
- urlText.append(data)
- #创建HTML解析器的实例
- lParser = parseText()
- #把HTML文件传给解析器
- lParser.feed(urllib.urlopen( "http://www.baidu.com").read())
- lParser.close()
- for item in urlText:
- print item
四、从HTML文档中提取Cookies
为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。
接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。
注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。
一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。
打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。
- # -*- coding: UTF-8 -*-
- __author__ = 'paul'
- import os
- import urllib2
- import cookielib
- from urllib2 import urlopen, Request
- cookieFile = "cookies.dat"
- testURL = 'http://www.baidu.com/'
- #为cookie jar 创建实例
- cJar = cookielib.LWPCookieJar()
- #创建HTTPCookieProcessor的opener对象
- opener = urllib2.build_opener( urllib2.HTTPCookieProcessor(cJar))
- #安装HTTPCookieProcessor的opener
- urllib2.install_opener(opener)
- #创建一个Request对象
- r = Request(testURL)
- #打开HTML文件
- h = urlopen(r)
- print "页面的头部/n======================"
- print h.info()
- print "页面的Cookies/n======================"
- print cJar
- for ind, cookie in enumerate(cJar):
- print "%d - %s" % (ind, cookie)
- #保存cookies
- cJar.save(cookieFile)
五、为HTML文档中的属性值添加引号
- # -*- coding: UTF-8 -*-
- __author__ = 'paul'
- import HTMLParser
- import urllib
- import sys
- #定义HTML解析器
- class parseAttrs(HTMLParser.HTMLParser):
- def init_parser (self):
- self.pieces = []
- def handle_starttag(self, tag, attrs):
- fixedAttrs = ""
- #for name,value in attrs:
- for name, value in attrs:
- fixedAttrs += "%s=\"%s\" " % (name, value)
- self.pieces.append("<%s %s>" % (tag, fixedAttrs))
- def handle_charref(self, name):
- self.pieces.append("&#%s;" % (name))
- def handle_endtag(self, tag):
- self.pieces.append("%s" % (tag))
- def handle_entityref(self, ref):
- self.pieces.append("&%s" % (ref))
- def handle_data(self, text):
- self.pieces.append(text)
- def handle_comment(self, text):
- self.pieces.append("s%" % (text))
- def handle_pi(self, text):
- self.pieces.append("s%"% (text))
- def handle_decl(self, text):
- self.pieces.append("s%" % (text))
- def parsed (self):
- return "".join(self.pieces)
- #创建HTML解析器的实例
- attrParser = parseAttrs()
- #初始化解析器数据
- attrParser.init_parser()
- #把HTML文件传给解析器
- attrParser.feed(urllib.urlopen("test2.html").read())
- #显示原来的文件内容
- print "原来的文件/n========================"
- print open("test2.html").read()
- #显示解析后的文件
- print "解析后的文件/n========================"
- print attrParser.parsed()
- attrParser.close()
【python】使用HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies的更多相关文章
- 使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)(转)
对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...
- Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)
对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...
- 一个简易的Python爬虫,将爬取到的数据写入txt文档中
代码如下: import requests import re import os #url url = "http://wiki.akbfun48.com/index.php?title= ...
- 使用Python中的urlparse、urllib抓取和解析网页(一)(转)
对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...
- Python中的urlparse、urllib抓取和解析网页(一)
对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览 ...
- 【python】使用Python中的urlparse、urllib抓取和解析网页
一.解析URL 函数urlparse(urlstring [, default_scheme [, allow_fragments]])的作用是将URL分解成不同的组成部分,它从urlstring中取 ...
- Jsoup抓取、解析网页和poi存取excel综合案例——采集网站的联系人信息
需求:采集网站中每一页的联系人信息 一.创建maven工程,添加jsoup和poi的依赖包 <!-- https://mvnrepository.com/artifact/org.apache. ...
- c# 抓取和解析网页,并将table数据保存到datatable中(其他格式也可以,自己去修改)
使用HtmlAgilityPack 基础请参考这篇博客:https://www.cnblogs.com/fishyues/p/10232822.html 下面是根据抓取的页面string 来解析并保存 ...
- python&php数据抓取、爬虫分析与中介,有网址案例
近期在做一个网络爬虫程序.后台使用python不定时去抓取数据.前台使用php进行展示 站点是:http://se.dianfenxiang.com
随机推荐
- 初识PHP(三)面向对象特性
PHP5开始支持面向对象的编程方式.PHP的面向对象编程方法和别的语言区别不大,下面对PHP面向编程基本语法进行简单记录. 一.声明对象 声明方法: class Say{ public functio ...
- Git简介【转】
本文转载自:http://www.liaoxuefeng.com/wiki/0013739516305929606dd18361248578c67b8067c8c017b000 Git简介 Git是什 ...
- 如何生成ssh密钥对
答:执行以下命令即可,生成的密钥对在~/.ssh下,会生成两个文件,一个id_rsa和id_rsa.pub,前者是私钥,后者是公钥 ssh-keygen -t rsa -C "your_em ...
- ZOJ 2747 Paint the Wall(离散化+暴力)题解
题意:给你一个面,然后涂颜色,问你最后剩多少颜色,每种颜色面积. 思路:第一反应是二维线段树,代码又臭又长,可以做.但是这题暴力+离散化就可以过.可以看到他给的n只有100,也就是说最坏情况下会涂10 ...
- 框架-springmvc源码分析(一)
框架-springmvc源码分析(一) 参考: http://www.cnblogs.com/heavenyes/p/3905844.html#a1 https://www.cnblogs.com/B ...
- NOIP 2018 兔纸旅游记
今年是第一次参加tg呢... Day0 早上出发去中旅坐大巴,走有 lz 特色的OI比赛道路. 车上谈笑风生,看 jw 的 GDOI 的小本本. 到动车站取票入站,看 lmh 和 zn 的爱恨情 ...
- Python学习札记(四十二) IO 2
参考:StringIO和BytesIO NOTE 1.StringIO: 顾名思义就是在内存中读写str. #!/usr/bin/env python from io import BytesIO a ...
- python 字符串输出
>>> 'spam eggs' # single quotes 'spam eggs' >>> 'doesn\'t' # use \' to escape the ...
- C# 字符串与字节数组相互转换
https://www.cnblogs.com/xiaoqingshe/p/5882601.html
- 实用性较强的idea插件
1. .ignore 生成各种ignore文件,一键创建git ignore文件的模板,免得自己去写 2. GsonFormat 一键根据json文本生成java类 非常方便 3.Maven Hel ...