网络爬虫实战知识准备:

Requests库、robots(网络爬虫排除标准)、BeautifulSoup库

一、Re正则表达式

1.

简洁地表达一组字符串

通用的字符串表达框架

字符串匹配

编译:

2.语法

字符+操作符

操作符

.:表示任何单个字符

[]:字符集,对单个字符给出取值范围

[^]:非字符集,对单个字符给出排除范围

*:前一个字符0次或无限次扩展

+:前一个字符1次或无限次扩展

?:前一个字符0次或1次扩展

|:左右表达式任意一个

{m}:扩展前一个字符m次

{m,n}:扩展前一个字符m至n次(含n)

^:匹配字符串开头

$:匹配字符串结尾

():分组标记,内部只能用|操作符

\d:数字,等价于[0-9]

\w:单词字符串,等价于[A-Za-z0-9_]

经典正则表达式实例

^[A-Za-z]+$ 由26个字母组成的字符串

^[A-Za-z0-9]+$ 由26个字母和数字组成的字符串

^-?\d+$ 整数形式的字符串

^[0-9]*[1-9][0-9]*$ 正整数形式的字符串

[\u4e00-\u9fa5] 匹配中文字符串

3.Re库介绍

re.search(pattern,string,flags=0):在一个字符串中搜索匹配正则表达式的第一个位置,返回match对象

flags控制标记

re.I 忽略正则表达式的大小写

re.M 正则表达式中的^操作符能够将给定字符串的每行当作匹配开始

re.S 正则表达式中的.操作符能够匹配所有字符,默认匹配除换行外的所有字符

>>> import re
>>> match = re.search(r'[1-9]\d{5}','BIT 100081')
>>> if match:
print(match.group(0)) 100081

re.match(pattern,string,flags):从一个字符串的开始位置起匹配正则表达式,返回match对象

>>> match = re.match(r'[1-9]\d{5}','BIT 100081')
>>> if match:
print(match.group(0)) >>> match.group(0)
Traceback (most recent call last):
File "<pyshell#9>", line 1, in <module>
match.group(0)
AttributeError: 'NoneType' object has no attribute 'group'

>>> match = re.match(r'[1-9]\d{5}','100081')
>>> match.group(0)
'100081'

re.findall(pattern,string,flags):搜索字符串,以列表类型返回全部能匹配的子串

>>> ls = re.findall(r'[1-9]\d{5}','BIT100081 NPU100084')
>>> ls
['', '']

re.split(pattern,string,maxsplit=0,flags=0):将一个字符串按照正则表达式匹配结果进行分割,返回列表类型

maxsplit:最大分割数

>>> re.split(r'[1-9]\d{5}','BIT100081 NPU100084')
['BIT', ' NPU', '']
>>> re.split(r'[1-9]\d{5}','BIT100081 NPU100084',maxsplit = 1)
['BIT', ' NPU100084']

re.finditer(pattern,string,flags):搜索字符串,返回一个匹配结果的迭代类型,每个迭代元素是match对象

>>> for m in re.finditer(r'[1-9]\d{5}','BIT100081 NPU100084'):
if m:
print(m.group(0)) 100081
100084

re.sub(pattern,rel,string,count,flags):在一个字符串中替换所有匹配正则表达式的子串,返回替换后的字符串

repl:替换匹配字符串的字符串

count:匹配的次数

>>> re.sub(r'[1-9]\d{5}',':zipcode','BIT100081 NPU100084')
'BIT:zipcode NPU:zipcode'

re.compile(pattern,flags)

regex = re.compile(r'[1-9]\d{5})

regex.search().......

这是面向对象的编译方法

4.Re库的match对象

属性:

.string 待匹配的文本

.re 匹配时使用的pattern对象(正则表达式)

.pos 正则表达式搜索文本的开始位置

.endpos .....结束位置

方法:

.group(0) 获得匹配后的字符串

.start() 匹配字符串在原始字符串的开始位置

.end() 。。。。。结束位置

.span() 返回(.start(),.end())

>>> import re
>>> m = re.search(r'[1-9]\d{5}','NPU100081 NPU100084')
>>> m.string
'NPU100081 NPU100084'
>>> m.re
re.compile('[1-9]\\d{5}')
>>> m.pos
0
>>> m.end
<built-in method end of re.Match object at 0x03CEED40>
>>> m.endpos
19
>>> m.group(0)
''
>>> m.group(1)
Traceback (most recent call last):
File "<pyshell#8>", line 1, in <module>
m.group(1)
IndexError: no such group
>>> m.start()
3
>>> m.end()
9
>>> m.span()
(3, 9)

贪婪匹配:默认输出最长匹配

>>> match = re.search(r'PY.*N','PYANBNCNDN')
>>> match.group(0)
'PYANBNCNDN'

最小匹配

>>> match = re.search(r'PY.*?N','PYANBNCNDN')
>>> match.group(0)
'PYAN'

*?前一个字符0次或无限次扩展

+?前一个字符1次或无限次扩展

?? 前一个字符0次或1次扩展

{m,n}? 扩展前一个字符m至n次

>>> match = re.search(r'PY.+?N','PYANBNCNDN')
>>> match.group(0)
'PYAN'

The website is API(3)的更多相关文章

  1. The website is API(2)

    一.Beautifu Soup库 from bs4 import BeautifulSoup soup = BeautifulSoup(demo,"html.parser") Ta ...

  2. The website is API(1)

    Requests 自动爬取HTML页面 自动网路请求提交 robots 网络爬虫排除标准 Beautiful Soup 解析HTML页面 实战 Re 正则表达式详解提取页面关键信息 Scrapy*框架 ...

  3. The website is API(4)

    1.淘宝商品信息定向爬虫 目标:获取淘宝搜索页面信息,提取其中的商品名称和价格 理解:淘宝的搜索接口 翻页的处理 技术路线:requests+re https://s.taobao.com/searc ...

  4. 我这么玩Web Api(二):数据验证,全局数据验证与单元测试

    目录 一.模型状态 - ModelState 二.数据注解 - Data Annotations 三.自定义数据注解 四.全局数据验证 五.单元测试   一.模型状态 - ModelState 我理解 ...

  5. [Android]使用Dagger 2依赖注入 - API(翻译)

    以下内容为原创,欢迎转载,转载请注明 来自天天博客:http://www.cnblogs.com/tiantianbyconan/p/5092525.html 使用Dagger 2依赖注入 - API ...

  6. [转]ASP.NET Web API(三):安全验证之使用摘要认证(digest authentication)

    本文转自:http://www.cnblogs.com/parry/p/ASPNET_MVC_Web_API_digest_authentication.html 在前一篇文章中,主要讨论了使用HTT ...

  7. ASP.NET Web API(三):安全验证之使用摘要认证(digest authentication)

    在前一篇文章中,主要讨论了使用HTTP基本认证的方法,因为HTTP基本认证的方式决定了它在安全性方面存在很大的问题,所以接下来看看另一种验证的方式:digest authentication,即摘要认 ...

  8. ASP.NET Web API(二):安全验证之使用HTTP基本认证

    在前一篇文章ASP.NET Web API(一):使用初探,GET和POST数据中,我们初步接触了微软的REST API: Web API. 我们在接触了Web API的后就立马发现了有安全验证的需求 ...

  9. 微信公众平台Js API(WeixinApi)

    微信公众平台Js API(WeixinApi): https://github.com/zxlie/WeixinApi#user-content-3%E9%9A%90%E8%97%8F%E5%BA%9 ...

随机推荐

  1. Hadoop家族系统学习路线

    本文主要介绍Hadoop家族产品,常用的项目包括Hadoop,Hive,Pig,HBase,Sqoop,Mahout,Zookeeper,Avro,Ambari,Chukwa,新增加的项目包括,YAR ...

  2. Vmware 部分所学到的功能简写

    VMware  vSphere  Hypervisor 免费版esxi VMware vSphere Update Manager (6.5之后集成到了VCSA中) 在 vSphere 6.5 及更高 ...

  3. 使用util包里自带的接口和类实现观察者模式

    之前的关于观察者模式的文章,是用自己写的Observable接口和Observer接口,然后进行实现.其实官方的util包下自带有实现观察者模式对应的接口和类,可以简化我们的代码结构. 比如我们可以直 ...

  4. POJ 1459:Power Network 能源网络

    Power Network Time Limit: 2000MS   Memory Limit: 32768K Total Submissions: 25414   Accepted: 13247 D ...

  5. Java多线程之并发包,并发队列

    目录 1 并发包 1.1同步容器类 1.1.1Vector与ArrayList区别 1.1.2HasTable与HasMap 1.1.3 synchronizedMap 1.1.4 Concurren ...

  6. C++实现顺序表的14种操作

    C++顺序表的操作 2017-12-27 // 顺序表.cpp: 定义控制台应用程序的入口点. //Author:kgvito YinZongYao //Date: 2017.12.27 #inclu ...

  7. 用Pandas Dataframe支撑起多只金融产品股票的数据内部形态

    3. 如果同时拿一个板块股票的收市价和成交额 前一篇说到,用大盘指数,如恒生指数,上证,深证,这些重要的大盘指数来做Dataframe主键,那麽如果是同时拿一个板块股票的收市价和成交额,可以怎样操作呢 ...

  8. Bugku杂项(1—28)

    1.签到题 只要关注公众号就可以得到 flag---开胃菜 2.这是一张单纯的图片 用Winhex打开,会发现最下面有一行编码: key{you are right} 是一串HTML编码,解密下就行了 ...

  9. spyder.app制作图标

    安装了 anaconda3, 自带spyder, 但是只能在terminal 中打开, 非常不友好. 模仿 anaconda3/目录下 Anaconda-Navigator.app, 制作了 spyd ...

  10. PAT Advanced 1147 Heaps (30) [堆,树的遍历]

    题目 In computer science, a heap is a specialized tree-based data structure that satisfies the heap pr ...