常用的提取网页数据的工具有三种xpath、css选择器、正则表达式

1.xpath

  1.1在python中使用xpath必须要下载lxml模块:

  lxml官方文档 :https://lxml.de/index.html

    pip install lxml

  然后导入:

    from lxml import etree

  使用:

    selector = etree.HTML(html_str)

    selector.xpath("xpath语法")

  1.2xpath语法

  w3c xpath语法:https://www.w3school.com.cn/xpath/index.asp

  以上是获取元素的语法,但我们最终的目的是获取元素里面的属性信息或文本信息

from lxml import etree

html_str = '''
<div class="example1">
<a href="http://www.baidu.com/" data-id="12345678">百度</a>
</div> <div class="example2">
<a href="https://cn.bing.com/" data-id="23456789">Bing</a>
</div>
'''
response = etree.HTML(html_str)

  获取属性data-id信息:

data-id = selector.xpath("//div[@class='example1']/@data-id")[0]

  获取文本信息:

text = selector.xpath("//div[@class='example2']/a/text()")[0]    

2.selector

  2.1cssselect

    使用css选择器也是使用lxml这个模块

  使用:

    selector = etree.HTML(html_str)

    selector.cssselect("css语法")

  异常:

    有的人在使用selector.cssselect("css语法")的时候,会报错cssselect没有安装,我们使用dir(selector)的时候,会发现selector的属性方法中有cssselect这个方法,之所以报错,是因为这个

方法是依赖于cssselect这个模块中,所以要安装cssselect这个模块

  安装:

    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple cssselect

  2.2css语法

    基本的父代、子代、后代、祖辈我们就不用说了,今天主要想记录的是如何获取属性值和文本  

from lxml import etree

html_str = '''
<div class="example1">
<a href="http://www.baidu.com/" data-id="12345678">百度</a>
</div> <div class="example2">
<a href="https://cn.bing.com/" data-id="23456789">Bing</a>
</div>
'''
response = etree.HTML(html_str)

    获取文本: 

# 获取文本用text属性

text = selector.cssselect("div.example1 a")[0].text

    获取属性值:

# 获取属性值用get(attr)方法

link = selector.cssselect("div.example2 a")[0].get("href")   

3.正则表达式

  3.1在Python中使用正则表达式必须导入Python内置的re模块

import re

  3,2常用的匹配方法有re.match()、re.search()、re.findall()

    re.match(pattern, string, flag)

    re.search(pattern, string, flag)

    re.findall(pattern, string, flag)

    

    pattern  匹配的正则表达式

    string    要匹配的字符串

    flags     标志位,用于控制正则表达式的匹配方式,如:是否区分大小写、多行匹配等等(可选参数)

    3.2.1pattern

      ^  匹配字符串的开头

      $  匹配字符串的结尾

      .  匹配任意字符(包括\r),除了换行符

      [...]   匹配一组字符中的任意一个字符

      [^...]  匹配不在一组字符中的任意字符

      *  匹配0个或多个表达式

      +  匹配1个或多个表达式

      ?   匹配0个或1个表达式,非贪婪方式

      {n}  匹配n个前面的表达式

      {n,} 

      {n,m} 匹配n到m次前面的表达式,贪婪模式

      a|b  匹配a或b

      ()  对正则表达式分组并记住匹配的文本

      \w   匹配字母数字下划线(Python中包括汉字)

      \W     匹配非字母数字下划线

      \s  匹配任意空白字符,等价于[\t\r\n\g]

      \S    匹配任意非空字符

      \d  匹配任意数字,等价于[0-9]

      \D  匹配任意非数字

      \A  匹配字符串开始

      \Z  匹配字符串结束,如果存在换行,只匹配到换行前的结束字符串

      \z  匹配字符串结束

      \G  匹配最后匹配完成的位置

      \b  匹配一个单词的边界,也就是指单词和空格间的位置。例如:‘er\b’可以匹配never中的er,但是不能匹配到verb中的er

      \B  匹配一个非单词的边界

      \n、\t等 匹配一个换行符

      \1...\9  匹配n个分组的内容

      \10      匹配第n个分组的内容,如果他经匹配,否则指的是八进制字符码的表达式

    3.2.2string

      该参数既可以为字符型字符串,也可以为二进制行字符串

      3.2.2.1当string为字符型字符串时  

import re
string = "token:dsasdfva13421hb4v4b141jjb4bj1jbb汉字是世界上最难的文字"
# 匹配token值
re.findall(r"token:([0-9a-zA-Z]+)", string)
# 执行结果 ['dsasdfva13421hb4v4b141jjb4bj1jbb']

      3.2.2.2当string为二进制型字符串时

import re
import socket
# 发送图片请求,并返回一个响应报文
s = socket.socket()
s.connect(("desk-fd.zol-img.com.cn", 80))
s.send("GET /t_s960x600c5/g5/M00/0E/08/ChMkJl3g7o-Ibp4nAAYg0I-lImUAAvfjgFkfbYABiDo544.jpg HTTP/1.1\r\nHost: desk-fd.zol-img.com.cn\r\n\r\n".encode())
res_content = s.recv(1024)
s.settimeout(2)
full_content = b''
while res_content:
try:
full_content += res_content
res_content = s.recv(1024)
except:
break
s.close()
# 从响应报文中提取出响应体(图片二进制数字),需了解报文的结构
re.findall(b"\r\n\r\n(.+)", full_content)

    3.2.3flags(可选参数)

      正则表达式可以包含一些可选标志修饰符来控制匹配的模式。修饰符被指定为一个可选的标志。多个标志可以通过按位OR(|)它们来指定。如

    re.I|re.M被设置成I和M标志:

      re.I  使匹配对大小写不敏感

      re.L  使本地化识别(locale-aware匹配)

      re.M  多行匹配,影响^和$

      re.S  使.匹配包括换行在内的所有字符

      re.U  根据Unicode字符集。这个标志影响\w,\W,\b,\B

      re.X  该标志通过给予你更灵活的格式以便你将正则表达式写得更易于理解

  3.3re.search()、re.match、re.findall()

    3.3.1match(pattern,string,flags) 只匹配开头

      匹配不到返回:None

      匹配到返回:

        re.match("(\d)", "123")

        <re.Match object; span=(0, 1), match='1'>

      匹配到就使用group(num=0)、groups()取值

        group(num=0)

# 序号0为正则表达式匹配到的内容
re.match("\d\d\d", "").group(0) # 默认num为0
# '123'
# 序号1为正则表达式第一个括号的内容
re.match("(\d)(\d)(\d)", "").group(1)
# '1'
# 序号2为正则表达式第二个括号的内容
re.match("(\d)(\d)(\d)", "").group(2)
# '2'
# 序号3为正则表达式第三个括号的内容
re.match("(\d)(\d)(\d)", "").group(3)
# '3' # 返回匹配到的内容所有分组元组
re.match("(\d)(\d)(\d)", "").groups()
# ('1','2','3')

    3.3.2search(pattern,string,flags)全文匹配一次

      匹配不到返回:None

      匹配到返回:

        re.search("(\d)(\d)", "123")

        <re.Match object; span=(0, 2), match='12'>

      匹配到就使用group(num=0)、groups()取值

# 序号0为正则表达式匹配到的内容
re.search("\d\d\d", "as12345566").group(0) # 默认num为0
# '123'
# 序号1为正则表达式第一个括号的内容
re.search("(\d)(\d)(\d)", "as12345566").group(1)
# '1'
# 序号2为正则表达式第二个括号的内容
re.search("(\d)(\d)(\d)", "as12345566").group(2)
# '2'
# 序号3为正则表达式第三个括号的内容
re.search("(\d)(\d)(\d)", "as12345566").group(3)
# '3' # 返回匹配到的内容所有分组元组
re.search("(\d)(\d)(\d)", "as12345566").groups()
# ('1','2','3')

    3.3.3findall(pattern,string,flags)全文匹配

      匹配不到返回:[]

      匹配到返回:一个列表(如果没有分组,就返回匹配正则表达式的所有匹配到的项,如果分组就会返回匹配到的项中的分组组成的一个元组的所有项)

re.findall("\d\d", "")
# 结果 ['12', '31', '23', '43', '23', '45']      
re.findall("(\d)(\d)", "")
# 结果 [('1', '2'), ('3', '1'), ('2', '3'), ('4', '3'), ('2', '3'), ('4', '5')]

        

        

      

        

python爬虫-提取网页数据的三种武器的更多相关文章

  1. python爬虫解析页面数据的三种方式

    re模块 re.S表示匹配单行 re.M表示匹配多行 使用re模块提取图片url,下载所有糗事百科中的图片 普通版 import requests import re import os if not ...

  2. scrapy爬虫提取网页链接的两种方法以及构造HtmlResponse对象的方式

    Response对象的几点说明: Response对象用来描述一个HTTP响应,Response只是一个基类,根据相应的不同有如下子类: TextResponse,HtmlResponse,XmlRe ...

  3. python爬虫的页面数据解析和提取/xpath/bs4/jsonpath/正则(1)

    一.数据类型及解析方式 一般来讲对我们而言,需要抓取的是某个网站或者某个应用的内容,提取有用的价值.内容一般分为两部分,非结构化的数据 和 结构化的数据. 非结构化数据:先有数据,再有结构, 结构化数 ...

  4. Python爬虫框架Scrapy实例(三)数据存储到MongoDB

    Python爬虫框架Scrapy实例(三)数据存储到MongoDB任务目标:爬取豆瓣电影top250,将数据存储到MongoDB中. items.py文件复制代码# -*- coding: utf-8 ...

  5. Python爬虫突破封禁的6种常见方法

    转 Python爬虫突破封禁的6种常见方法 2016年08月17日 22:36:59 阅读数:37936 在互联网上进行自动数据采集(抓取)这件事和互联网存在的时间差不多一样长.今天大众好像更倾向于用 ...

  6. python爬虫抓网页的总结

    python爬虫抓网页的总结 更多 python 爬虫   学用python也有3个多月了,用得最多的还是各类爬虫脚本:写过抓代理本机验证的脚本,写过在discuz论坛中自动登录自动发贴的脚本,写过自 ...

  7. python爬虫之urllib库(三)

    python爬虫之urllib库(三) urllib库 访问网页都是通过HTTP协议进行的,而HTTP协议是一种无状态的协议,即记不住来者何人.举个栗子,天猫上买东西,需要先登录天猫账号进入主页,再去 ...

  8. ios网络学习------4 UIWebView的加载本地数据的三种方式

    ios网络学习------4 UIWebView的加载本地数据的三种方式 分类: IOS2014-06-27 12:56 959人阅读 评论(0) 收藏 举报 UIWebView是IOS内置的浏览器, ...

  9. Linux就这个范儿 第18章 这里也是鼓乐笙箫 Linux读写内存数据的三种方式

    Linux就这个范儿 第18章  这里也是鼓乐笙箫  Linux读写内存数据的三种方式 P703 Linux读写内存数据的三种方式 1.read  ,write方式会在用户空间和内核空间不断拷贝数据, ...

随机推荐

  1. flask学习笔记1.21

    先新建一个文件夹  templates from flask import Flask #创建Flask应用程序实例 #需要传入__name__,作用是为了确定资源所在的路径 app = Flask( ...

  2. Linux之seq命令

    作用:seq命令用于以指定增量从首数开始打印数字到尾数,即产生从某个数到另外一个数之间的所有整数,并且可以对整数的格式.宽度.分割符号进行控制 语法: [1]  seq [选项]    尾数 [2]  ...

  3. 引力波的绘制(python)

    import numpy as np import matplotlib.pyplot as plt from scipy.io import wavfile rate_h,hstrain = wav ...

  4. 主效应|处理误差 |组间误差|处理效应|随机误差|组内误差|误差|效应分析|方差齐性检验|SSE|SSA|SST|MSE|MSA|F检验|关系系数|完全随机化设计|区组设计|析因分析

    8 什么是只考虑主效应的方差分析? 就是不考虑交互效应的方差分析,即认为因素之间是不相互影响的,就是无重复的方差分析.   什么是处理误差 (treatment error).组间误差(between ...

  5. ROS中的日志(log)消息

    学会使用日志(log)系统,做ROS大型项目的主治医生 通过显示进程的运行状态是好的习惯,但需要确定这样做不会影响到软件的运行效率和输出的清晰度.ROS 日志 (log) 系统的功能就是让进程生成一些 ...

  6. django框架中的cookie与session

    cookie因为http是一个无状态协议,无法记录用户上一步的操作,所以需要状态保持.cookie和session的区别:1.cookie是保存在浏览器本地的,所以相对不安全.cookie是4k的大小 ...

  7. SpringBoot之HandlerInterceptor拦截器的使用 ——(三)获取requestBody解决java.io.IOException: Stream closed

    原文地址:https://blog.csdn.net/zhibo_lv/article/details/81875705 感谢原作者

  8. 瑞星发布Linux系统安全报告:Linux病毒或将大面积爆发

    近半年来,由于中央推荐使用国产Linux操作系统,国产Linux操作系统开始受到政府机关及大型企事业机关单位的高度重视.很多人都认为,以Linux系统为基础的国产操作系统最符合国家.政府和企业信息安全 ...

  9. HTML name、id、class 的区别

    转载: 在一个页面中,有许多的控件(元素或标签).为了更方便的操作这些标签,就需要给这些标签标识一个身份牌. 目录 1. name :指定标签的名称. 2. id :指定标签的唯一标识. 3. cla ...

  10. Linux(Centos7.X ) 配置Java 环境变量

    前提条件:上传Jdk 文件到Linux服务器上. tar -zxvf jdk-8u111-linux-x64.tar.gz 修改 /etc/profile 在打开的文件末尾添加如下内容: export ...