Python爬虫爬取糗事百科段子内容
参照网上的教程再做修改,抓取糗事百科段子(去除图片),详情见下面源码:
#coding=utf-8
#!/usr/bin/python
import urllib
import urllib2
import re
import thread
import time
import sys
#定义要抓取的网页
#url = 'http://www.qiushibaike.com/hot/'
#读取要抓取的网页
#globalcontent = urllib.urlopen(url).read()
#抓取段子内容
#new_inner01_h = globalcontent.find('<div class="content" <span>')
#print new_inner01_h
#设置系统编码utf-8
reload(sys)
sys.setdefaultencoding("utf-8")
#加载处理糗事百科
class Spider_Model:
"""docstring for Spider_Model"""
def __init__(self):
self.page = 1
self.pages = []
self.enable = False
#抓取该页面的所有段子,添加到列表中并且返回列表
def GetPage(self,page):
try:
myUrl = "http://m.qiushibaike.com/hot/page/" + str(page)
user_agent = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'
headers = {'User-Agent':user_agent}
req = urllib2.Request(myUrl,headers = headers)
myResponse = urllib2.urlopen(req)
myPage = myResponse.read().decode('utf-8')
return myPage
#decode的作用将其他编码的字符串转换成Unicode编码
except urllib2.URLError, e:
if hasattr(e,"code"):
print u"链接糗事百科失败,错误原因",e.code
if hasattr(e,"reason"):
print u"链接糗事百科失败,错误原因",e.reason
return None
#传入某一页代码,返回本页不带图片的段子列表
def getPageItems(self,page):
myPage = self.GetPage(page)
if not myPage:
print "页面加载失败..."
return None
#正则匹配需要获取的段子
pattern = re.compile('<div.*?class="author.*?clearfix".*?>.*?<a.*?</a>.*?<a.*? title="(.*?)">.*?</a>.*?<div.*?class'+
'="content".*?>.*?<span.*?>(.*?)</span>.*?</a>(.*?)<div.*?class="stats.*?>.*?<i.*?class="number">(.*?)</i>',re.S)
# pattern = re.compile('.*?(.*?)(.*?).*?.*?(.*?).*?.*?.*?(.*?).*?.*?',re.S)
#pattern = re.compile('(.*?)(.*?).*?', re.S)
#pattern = re.compile(r'.*?<a.*?<a.*?(.*?).*?(.*?)<!.*?.*?(.*?)',re.S)
items = re.findall(pattern,myPage)
#用来存储每页的段子们
pageStroies = []
#遍历正则表达式匹配的信息
for item in items:
#判断是否包含图片
haveImg = re.search("img",item[2])
#如果不含有图片,把它加入list中
if not haveImg:
#item[0]是发布者,item[1]是内容,item[3]是点赞数
if '<br/>' in item:
new_item = re.sub(r'<br.*?>','\n',item)
pageStroies.append([new_item[0].strip(),new_item[1].strip(),new_item[3].strip()])
else:
pageStroies.append([item[0].strip(),item[1].strip(),item[3].strip()])
return pageStroies
#找出所有class="content"的div标记
#re.S是任意匹配模式,也就是.可以匹配换行符
#myItems = re.find('<div.*?class="content">(.*?)</div>',unicodePage,re.S)
#items = []
#for item in myItems:
#item[0]是div的标题
#item[1]是div的内容
#items.append([item[0].replace("\n",""),item[1].replace("\n"),""])
#items = item[0]
#return items
#加载并提取页面的内容,加入到列表中
def LoadPage(self):
#如果用户未输入quit则一直运行
#while self.enable:
if self.enable == True:
#如果当前未看的页数小于2也,则加载新一页
if len(self.pages) < 2:
#获取新一页
pageStroies = self.getPageItems(self.page)
#将该页的段子存放到全局list中
if pageStroies:
self.pages.append(pageStroies)
#获取完之后页面索引加一,表示下次读取下一页
self.page += 1
#try:
# 获取新的页面中的段子
#myPage = self.GetPage(str(self.page))
#self.page += 1
#self.pages.append(myPage)
#except:
#print '无法链接糗事百科'
#else:
#time.sleep(1)
#调用该方法,每次敲回车打印输出一个段子
def ShowPage(self,pageStroies,page):
#遍历一页的段子
for items in pageStroies:
#等待用户输入
input = raw_input()
#每次输入回车,判断是否要加载新页面
self.LoadPage()
#输入输入Q则程序结束
if input == "Q":
self.enable = False
return
print u"第%d页\n发布人:%s\t\n发布内容:%s\n赞:%s\n" %(page,items[0],items[1],items[2])
def Start(self):
print u"正在读取糗事百科,按回车见查看新段子,Q退出"
#初始化变量为True,程序正常执行
self.enable = True
#先加载一页内容
self.LoadPage()
#局部变量,控制当前读到了第几页
nowPage = 0
while self.enable:
if len(self.pages)>0:
#从全局list中获取一页的段子
pageStroies = self.pages[0]
#当前读到的页数加一
nowPage += 1
#将全局list中第一个元素删除,因为已经取出
del self.pages[0]
#输出该页的段子
self.ShowPage(pageStroies,nowPage)
'''
page = self.page
#新建一个线程在后台加载段子存储
thread.start_new_thread(self.LoadPage,())
#加载处理糗事百科
while self.enable:
#如果self的page数组中存有元素
if self.pages:
nowPage = self.pages[0]
del self.pages[0]
self.ShowPage(nowPage,page)
page += 1
print u'请按下回车键浏览今日的糗事百科:'
raw_input(' ')
'''
myModel = Spider_Model()
myModel.Start()
Python爬虫爬取糗事百科段子内容的更多相关文章
- Python爬虫-爬取糗事百科段子
闲来无事,学学python爬虫. 在正式学爬虫前,简单学习了下HTML和CSS,了解了网页的基本结构后,更加快速入门. 1.获取糗事百科url http://www.qiushibaike.com/h ...
- python学习(十六)写爬虫爬取糗事百科段子
原文链接:爬取糗事百科段子 利用前面学到的文件.正则表达式.urllib的知识,综合运用,爬取糗事百科的段子先用urllib库获取糗事百科热帖第一页的数据.并打开文件进行保存,正好可以熟悉一下之前学过 ...
- Python爬虫--抓取糗事百科段子
今天使用python爬虫实现了自动抓取糗事百科的段子,因为糗事百科不需要登录,抓取比较简单.程序每按一次回车输出一条段子,代码参考了 http://cuiqingcai.com/990.html 但该 ...
- Python爬虫实战一之爬取糗事百科段子
大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...
- 转 Python爬虫实战一之爬取糗事百科段子
静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...
- 8.Python爬虫实战一之爬取糗事百科段子
大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...
- [爬虫]用python的requests模块爬取糗事百科段子
虽然Python的标准库中 urllib2 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 “HTTP for Humans”,说明使用更 ...
- python爬取糗事百科段子
初步爬取糗事百科第一页段子(发布人,发布内容,好笑数和评论数) #-*-coding:utf--*- import urllib import urllib2 import re page = url ...
- 芝麻HTTP:Python爬虫实战之爬取糗事百科段子
首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致之前的代码没法用了,会导致无法输出和CPU占用过高的 ...
随机推荐
- 2016 Multi-University Training Contest 4
6/12 2016 Multi-University Training Contest 4官方题解 KMP+DP A Another Meaning(CYD) 题意: 给一段字符,同时给定你一个单词, ...
- centos yum安装saltstack
1.导入安装源 centos5 rpm -Uvh http://ftp.linux.ncsu.edu/pub/epel/5/x86_64/epel-release-5-4.noarch.rpm cen ...
- 洛谷 P2733 家的范围 Home on the Range Label:二维数组前缀和
题目背景 农民约翰在一片边长是N (2 <= N <= 250)英里的正方形牧场上放牧他的奶牛.(因为一些原因,他的奶牛只在正方形的牧场上吃草.)遗憾的是,他的奶牛已经毁坏一些土地.( 一 ...
- MySQL数据备份之mysqldump使用
mysqldump常用于MySQL数据库逻辑备份. 1.各种用法说明 A. 最简单的用法: mysqldump -uroot -pPassword [database name] > [dump ...
- C# 禁止修改已装箱了的值类型的字段值,但是可以通过接口的方式实现
C# 默认是不能修改已装箱了的值类型中字段的值,但是可以通过 值类型实现指定的接口来改变 首先定义一个接口 interface IChange { void Change(int a, int b); ...
- 20145205《Java程序设计》课程总结
每周读书笔记链接汇总 20145205 <Java程序设计>第1周学习总结 20145205<Java程序设计>第2周学习总结 20145205 <Java程序设计> ...
- Oracle EBS - TNS
TNS Setting: DEV5.VIASYSTEMS.COM= (DESCRIPTION= (ADDRESS= (PROTOCOL=TCP) (HOST=10.1.50 ...
- python与shell的3种交互方式介绍
[目录] 1.os.system(cmd) 2.os.popen(cmd) 3.利用subprocess模块 4.subprocessor模块进阶 [概述] 考虑这样一个问题,有hello.py脚本, ...
- 浏览器IE与非IE区分
1. window.VBArray IE自带 if(window.VBArray) {console.log("IE 浏览器");} else{console.log(" ...
- MYSQL 多行转多列
mysql 行变列(多行变成一行/多行合并成一行/多行合并成多列/合并行),我觉得这都是一个意思 数据库结构如图: 而我想让同一个人的不同成绩变成此人在这一行不同列上显示出来,此时分为2中展现: 第一 ...