python爬虫解析库之re模块
re模块
一:什么是正则?
正则就是用一些具有特殊含义的符号组合到一起(称为正则表达式)来描述字符或者字符串的方法。或者说:正则就是用来描述一类事物的规则。(在Python中)它内嵌在Python中,并通过 re 模块实现。正则表达式模式被编译成一系列的字节码,然后由用 C 编写的匹配引擎执行。
生活中处处都是正则:
比如我们描述:4条腿
你可能会想到的是四条腿的动物或者桌子,椅子等
继续描述:4条腿,活的
就只剩下四条腿的动物这一类了
二:常用匹配模式(元字符)
http://blog.csdn.net/yufenghyc/article/details/51078107
- # =================================匹配模式=================================
- #一对一的匹配
- # 'hello'.replace(old,new)
- # 'hello'.find('pattern')
- #正则匹配
- import re
- #\w与\W
- print(re.findall('\w','hello egon 123')) #['h', 'e', 'l', 'l', 'o', 'e', 'g', 'o', 'n', '1', '2', '3']
- print(re.findall('\W','hello egon 123')) #[' ', ' ']
- #\s与\S
- print(re.findall('\s','hello egon 123')) #[' ', ' ', ' ', ' ']
- print(re.findall('\S','hello egon 123')) #['h', 'e', 'l', 'l', 'o', 'e', 'g', 'o', 'n', '1', '2', '3']
- #\n \t都是空,都可以被\s匹配
- print(re.findall('\s','hello \n egon \t 123')) #[' ', '\n', ' ', ' ', '\t', ' ']
- #\n与\t
- print(re.findall(r'\n','hello egon \n123')) #['\n']
- print(re.findall(r'\t','hello egon\t123')) #['\n']
- #\d与\D
- print(re.findall('\d','hello egon 123')) #['1', '2', '3']
- print(re.findall('\D','hello egon 123')) #['h', 'e', 'l', 'l', 'o', ' ', 'e', 'g', 'o', 'n', ' ']
- #\A与\Z
- print(re.findall('\Ahe','hello egon 123')) #['he'],\A==>^
- print(re.findall('123\Z','hello egon 123')) #['he'],\Z==>$
- #^与$
- print(re.findall('^h','hello egon 123')) #['h']
- print(re.findall('3$','hello egon 123')) #['3']
- # 重复匹配:| . | * | ? | .* | .*? | + | {n,m} |
- #.
- print(re.findall('a.b','a1b')) #['a1b']
- print(re.findall('a.b','a1b a*b a b aaab')) #['a1b', 'a*b', 'a b', 'aab']
- print(re.findall('a.b','a\nb')) #[]
- print(re.findall('a.b','a\nb',re.S)) #['a\nb']
- print(re.findall('a.b','a\nb',re.DOTALL)) #['a\nb']同上一条意思一样
- #*
- print(re.findall('ab*','bbbbbbb')) #[]
- print(re.findall('ab*','a')) #['a']
- print(re.findall('ab*','abbbb')) #['abbbb']
- #?
- print(re.findall('ab?','a')) #['a']
- print(re.findall('ab?','abbb')) #['ab']
- #匹配所有包含小数在内的数字
- print(re.findall('\d+\.?\d*',"asdfasdf123as1.13dfa12adsf1asdf3")) #['123', '1.13', '12', '1', '3']
- #.*默认为贪婪匹配
- print(re.findall('a.*b','a1b22222222b')) #['a1b22222222b']
- #.*?为非贪婪匹配:推荐使用
- print(re.findall('a.*?b','a1b22222222b')) #['a1b']
- #+
- print(re.findall('ab+','a')) #[]
- print(re.findall('ab+','abbb')) #['abbb']
- #{n,m}
- print(re.findall('ab{2}','abbb')) #['abb']
- print(re.findall('ab{2,4}','abbb')) #['abb']
- print(re.findall('ab{1,}','abbb')) #'ab{1,}' ===> 'ab+'
- print(re.findall('ab{0,}','abbb')) #'ab{0,}' ===> 'ab*'
- #[]
- print(re.findall('a[1*-]b','a1b a*b a-b')) #[]内的都为普通字符了,且如果-没有被转意的话,应该放到[]的开头或结尾
- print(re.findall('a[^1*-]b','a1b a*b a-b a=b')) #[]内的^代表的意思是取反,所以结果为['a=b']
- print(re.findall('a[0-9]b','a1b a*b a-b a=b')) #[]内的^代表的意思是取反,所以结果为['a=b']
- print(re.findall('a[a-z]b','a1b a*b a-b a=b aeb')) #[]内的^代表的意思是取反,所以结果为['a=b']
- print(re.findall('a[a-zA-Z]b','a1b a*b a-b a=b aeb aEb')) #[]内的^代表的意思是取反,所以结果为['a=b']
- #\# print(re.findall('a\\c','a\c')) #对于正则来说a\\c确实可以匹配到a\c,但是在python解释器读取a\\c时,会发生转义,然后交给re去执行,所以抛出异常
- print(re.findall(r'a\\c','a\c')) #r代表告诉解释器使用rawstring,即原生字符串,把我们正则内的所有符号都当普通字符处理,不要转义
- print(re.findall('a\\\\c','a\c')) #同上面的意思一样,和上面的结果一样都是['a\\c']
- #():分组
- print(re.findall('ab+','ababab123')) #['ab', 'ab', 'ab']
- print(re.findall('(ab)+123','ababab123')) #['ab'],匹配到末尾的ab123中的ab
- print(re.findall('(?:ab)+123','ababab123')) #findall的结果不是匹配的全部内容,而是组内的内容,?:可以让结果为匹配的全部内容
- print(re.findall('href="(.*?)"','<a href="http://www.baidu.com">点击</a>'))#['http://www.baidu.com']
- print(re.findall('href="(?:.*?)"','<a href="http://www.baidu.com">点击</a>'))#['href="http://www.baidu.com"']
- #|
- print(re.findall('compan(?:y|ies)','Too many companies have gone bankrupt, and the next one is my company'))
- # ===========================re模块提供的方法介绍===========================
- import re
- print(re.findall('e','alex make love') ) #['e', 'e', 'e'],返回所有满足匹配条件的结果,放在列表里
- #
- print(re.search('e','alex make love').group()) #e,只到找到第一个匹配然后返回一个包含匹配信息的对象,该对象可以通过调用group()方法得到匹配的字符串,如果字符串没有匹配,则返回None。
- print(re.match('e','alex make love')) #None,同search,不过在字符串开始处进行匹配,完全可以用search+^代替match
- print(re.split('[ab]','abcd')) #['', '', 'cd'],先按'a'分割得到''和'bcd',再对''和'bcd'分别按'b'分割
- print('===>',re.sub('a','A','alex make love')) #===> Alex mAke love,不指定n,默认替换所有
- print('===>',re.sub('a','A','alex make love',1)) #===> Alex make love
- print('===>',re.sub('a','A','alex make love',2)) #===> Alex mAke love
- print('===>',re.sub('^(\w+)(.*?\s)(\w+)(.*?\s)(\w+)(.*?)$',r'\5\2\3\4\1','alex make love')) #===> love make alex
- print('===>',re.subn('a','A','alex make love')) #===> ('Alex mAke love', 2),结果带有总共替换的个数
- obj=re.compile('\d{2}')
- print(obj.findall('abc123eeee')) #['12'],重用了obj

- import re
- print(re.findall("<(?P<tag_name>\w+)>\w+</(?P=tag_name)>","<h1>hello</h1>")) #['h1']
- print(re.search("<(?P<tag_name>\w+)>\w+</(?P=tag_name)>","<h1>hello</h1>").group()) #<h1>hello</h1>
- print(re.search("<(?P<tag_name>\w+)>\w+</(?P=tag_name)>","<h1>hello</h1>").groupdict()) #<h1>hello</h1>
- print(re.search(r"<(\w+)>\w+</(\w+)>","<h1>hello</h1>").group())
- print(re.search(r"<(\w+)>\w+</\1>","<h1>hello</h1>").group())

补充一

- import re
- print(re.findall(r'-?\d+\.?\d*',"1-12*(60+(-40.35/5)-(-4*3))")) #找出所有数字['1', '-12', '60', '-40.35', '5', '-4', '3']
- #使用|,先匹配的先生效,|左边是匹配小数,而findall最终结果是查看分组,所有即使匹配成功小数也不会存入结果
- #而不是小数时,就去匹配(-?\d+),匹配到的自然就是,非小数的数,在此处即整数
- print(re.findall(r"-?\d+\.\d*|(-?\d+)","1-2*(60+(-40.35/5)-(-4*3))")) #找出所有整数['1', '-2', '60', '', '5', '-4', '3']

补充二
- #计算器作业参考:http://www.cnblogs.com/wupeiqi/articles/4949995.html
- expression='1-2*((60+2*(-3-40.0/5)*(9-2*5/3+7/3*99/4*2998+10*568/14))-(-4*3)/(16-3*2))'
- content=re.search('\(([\-\+\*\/]*\d+\.?\d*)+\)',expression).group() #(-3-40.0/5)
- #为何同样的表达式search与findall却有不同结果:
- print(re.search('\(([\+\-\*\/]*\d+\.?\d*)+\)',"1-12*(60+(-40.35/5)-(-4*3))").group()) #(-40.35/5)
- print(re.findall('\(([\+\-\*\/]*\d+\.?\d*)+\)',"1-12*(60+(-40.35/5)-(-4*3))")) #['/5', '*3']
- #看这个例子:(\d)+相当于(\d)(\d)(\d)(\d)...,是一系列分组
- ').group()) #group的作用是将所有组拼接到一起显示出来
- ')) #findall结果是组内的结果,且是最后一个组的结果
search与findall
- #_*_coding:utf-8_*_
- __author__ = 'Linhaifeng'
- #在线调试工具:tool.oschina.net/regex/#
- import re
- s='''
- http://www.baidu.com
- egon@oldboyedu.com
- 你好
- 010-3141
- '''
- #最常规匹配
- # content='Hello 123 456 World_This is a Regex Demo'
- # res=re.match('Hello\s\d\d\d\s\d{3}\s\w{10}.*Demo',content)
- # print(res)
- # print(res.group())
- # print(res.span())
- #泛匹配
- # content='Hello 123 456 World_This is a Regex Demo'
- # res=re.match('^Hello.*Demo',content)
- # print(res.group())
- #匹配目标,获得指定数据
- # content='Hello 123 456 World_This is a Regex Demo'
- # res=re.match('^Hello\s(\d+)\s(\d+)\s.*Demo',content)
- # print(res.group()) #取所有匹配的内容
- # print(res.group(1)) #取匹配的第一个括号内的内容
- # print(res.group(2)) #去陪陪的第二个括号内的内容
- #贪婪匹配:.*代表匹配尽可能多的字符
- # import re
- # content='Hello 123 456 World_This is a Regex Demo'
- #
- # res=re.match('^He.*(\d+).*Demo$',content)
- # print(res.group(1)) #只打印6,因为.*会尽可能多的匹配,然后后面跟至少一个数字
- #非贪婪匹配:?匹配尽可能少的字符
- # import re
- # content='Hello 123 456 World_This is a Regex Demo'
- #
- # res=re.match('^He.*?(\d+).*Demo$',content)
- # print(res.group(1)) #只打印6,因为.*会尽可能多的匹配,然后后面跟至少一个数字
- #匹配模式:.不能匹配换行符
- content='''Hello 123456 World_This
- is a Regex Demo
- '''
- # res=re.match('He.*?(\d+).*?Demo$',content)
- # print(res) #输出None
- # res=re.match('He.*?(\d+).*?Demo$',content,re.S) #re.S让.可以匹配换行符
- # print(res)
- # print(res.group(1))
- #转义:\
- # content='price is $5.00'
- # res=re.match('price is $5.00',content)
- # print(res)
- #
- # res=re.match('price is \$5\.00',content)
- # print(res)
- #总结:尽量精简,详细的如下
- # 尽量使用泛匹配模式.*
- # 尽量使用非贪婪模式:.*?
- # 使用括号得到匹配目标:用group(n)去取得结果
- # 有换行符就用re.S:修改模式
- #re.search:会扫描整个字符串,不会从头开始,找到第一个匹配的结果就会返回
- # import re
- # content='Extra strings Hello 123 456 World_This is a Regex Demo Extra strings'
- #
- # res=re.match('Hello.*?(\d+).*?Demo',content)
- # print(res) #输出结果为None
- #
- # import re
- # content='Extra strings Hello 123 456 World_This is a Regex Demo Extra strings'
- #
- # res=re.search('Hello.*?(\d+).*?Demo',content) #
- # print(res.group(1)) #输出结果为
- #re.search:只要一个结果,匹配演练,
- import re
- content='''
- <tbody>
- <tr id="4766303201494371851675" class="even "><td><div class="hd"><span class="num">1</span><div class="rk "><span class="u-icn u-icn-75"></span></div></div></td><td class="rank"><div class="f-cb"><div class="tt"><a href="/song?id=476630320"><img class="rpic" src="http://p1.music.126.net/Wl7T1LBRhZFg0O26nnR2iQ==/19217264230385030.jpg?param=50y50&quality=100"></a><span data-res-id="476630320" "
- # res=re.search('<a\shref=.*?<b\stitle="(.*?)".*?b>',content)
- # print(res.group(1))
- #re.findall:找到符合条件的所有结果
- # res=re.findall('<a\shref=.*?<b\stitle="(.*?)".*?b>',content)
- # for i in res:
- # print(i)
- #re.sub:字符串替换
- import re
- content='Extra strings Hello 123 456 World_This is a Regex Demo Extra strings'
- # content=re.sub('\d+','',content)
- # print(content)
- #用\1取得第一个括号的内容
- #用法:将123与456换位置
- # import re
- # content='Extra strings Hello 123 456 World_This is a Regex Demo Extra strings'
- #
- # # content=re.sub('(Extra.*?)(\d+)(\s)(\d+)(.*?strings)',r'\1\4\3\2\5',content)
- # content=re.sub('(\d+)(\s)(\d+)',r'\3\2\1',content)
- # print(content)
- # import re
- # content='Extra strings Hello 123 456 World_This is a Regex Demo Extra strings'
- #
- # res=re.search('Extra.*?(\d+).*strings',content)
- # print(res.group(1))
- # import requests,re
- # respone=requests.get('https://book.douban.com/').text
- # print(respone)
- # print('======'*1000)
- # print('======'*1000)
- # print('======'*1000)
- # print('======'*1000)
- # res=re.findall('<li.*?cover.*?href="(.*?)".*?title="(.*?)">.*?more-meta.*?author">(.*?)</span.*?year">(.*?)</span.*?publisher">(.*?)</span.*?</li>',respone,re.S)
- # # res=re.findall('<li.*?cover.*?href="(.*?)".*?more-meta.*?author">(.*?)</span.*?year">(.*?)</span.*?publisher">(.*?)</span>.*?</li>',respone,re.S)
- #
- #
- # for i in res:
- # print('%s %s %s %s' %(i[0].strip(),i[1].strip(),i[2].strip(),i[3].strip()))
python爬虫解析库之re模块的更多相关文章
- python爬虫解析库之Beautifulsoup模块
一 介绍 Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会 ...
- Python 爬虫 解析库的使用 --- XPath
一.使用XPath XPath ,全称XML Path Language,即XML路径语言,它是一门在XML文档中查找信息的语言.它最初是用来搜寻XML文档的,但是它同样适用于HTML文档的搜索. 所 ...
- Python 爬虫 解析库的使用 --- Beautiful Soup
知道了正则表达式的相关用法,但是一旦正则表达式写的有问题,得到的可能就不是我们想要的结果了.而且对于一个网页来说,都有一定的特殊结构和层级关系,而且有很多节点都有id或class来做区分,所以借助它们 ...
- python爬虫请求库之selenium模块
一 介绍 selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器 ...
- python爬虫解析库学习
一.xpath库使用: 1.基本规则: 2.将文件转为HTML对象: html = etree.parse('./test.html', etree.HTMLParser()) result = et ...
- python爬虫主要就是五个模块:爬虫启动入口模块,URL管理器存放已经爬虫的URL和待爬虫URL列表,html下载器,html解析器,html输出器 同时可以掌握到urllib2的使用、bs4(BeautifulSoup)页面解析器、re正则表达式、urlparse、python基础知识回顾(set集合操作)等相关内容。
本次python爬虫百步百科,里面详细分析了爬虫的步骤,对每一步代码都有详细的注释说明,可通过本案例掌握python爬虫的特点: 1.爬虫调度入口(crawler_main.py) # coding: ...
- 爬虫解析库——BeautifulSoup
解析库就是在爬虫时自己制定一个规则,帮助我们抓取想要的内容时用的.常用的解析库有re模块的正则.beautifulsoup.pyquery等等.正则完全可以帮我们匹配到我们想要住区的内容,但正则比较麻 ...
- Python爬虫Urllib库的高级用法
Python爬虫Urllib库的高级用法 设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Head ...
- Python爬虫—requests库get和post方法使用
目录 Python爬虫-requests库get和post方法使用 1. 安装requests库 2.requests.get()方法使用 3.requests.post()方法使用-构造formda ...
随机推荐
- Robot Framework 安装及环境配置
Robot Framework 安装及环境配置 Robot Framework 介绍 Robot Framework是一款python编写的功能自动化测试框架.具备良好的可扩展性,支持关键字驱动,可以 ...
- Android系统信息获取
在Android中可以通过android.os.Build这个类和System.getProperty(“xxx”);来获取设备信息,下面列举的常见设备信息摘自Android群英传 Build.BOA ...
- Ripple 水波纹效果
背景+波纹 对于有边界限制的Ripple,我们就需要给他提供一个范围,即添加一个item标签. 如果在一个ripple标签中,添加一个item标签,在item中添加如下属性: [android:dra ...
- (顺序表应用5.1.1)POJ 3750 小孩报数问题(基本的约瑟夫环问题:给出人数n,出发位置w,间隔数s)
/* * POJ_3750.cpp * * Created on: 2013年10月30日 * Author: Administrator */ #include <iostream> # ...
- 我追一个处女座的女孩快两个月了,我之前聊得很好,她说过有空call我去看电影,过了一个月她就不理我了,我喜欢她, 我是程序员,百度发不了那么多字。
她刚刚进公司的时候,公司组织去打球,我叫她一起去她也去了,我和她聊了很多,聊得很自然,很开心,如我是哪个学习毕业的 我出来工作多久了等,她也聊了 她自己好多,她现在在读大学,只有周日上一天课那种. 我 ...
- /etc/ssh/sshd_config 配置(ssh连接)
# Package generated configuration file# See the sshd_config(5) manpage for details # What ports, IPs ...
- TeamTalk 5
TeamTalk 5 Repository for TeamTalk 5 development. Download TeamTalk 5 SDK To build the TeamTalk clie ...
- 【找规律】HDU 4662——MU Puzzle
来源:点击打开链接 这个题目的来源是人工智能领域MU猜想.比赛的时候也参考了相关资料,可是最后差一点没有把规律推出来. 注意到以下几个性质.第一,MI怎么变换M永远只能在第一位.第二,因为变换时只能在 ...
- ionic 调用手机的打电话功能
1.需求描述 在ionic项目用调用手机的打电话功能.开始还想找cordova和ng-cordova的插件那,现在H5实现起来特别方便. 2.准备 在cordova中所有的URL Schemes 都是 ...
- 几种通讯协议的比较RMI > Httpinvoker >= Hessian >> Burlap >> web service (转)
一.综述 本文比较了RMI,Hessian,Burlap,Httpinvoker,web service等5种通讯协议的在不同的数据结构和不同数据量时的传输性能.RMI是java语言本身提供的通讯协议 ...