python 爬糗事百科】的更多相关文章

糗事百科网站段子爬取,糗事百科是我见过的最简单的网站了!!! #-*-coding:utf8-*- import requests import re import sys reload(sys) sys.setdefaultencoding("utf-8") url = 'http://www.qiushibaike.com/hot/page/' page = urls = [] f = open("happy.txt",'w') ,): u = url+str(…
一个偶然的机会接触了Python,感觉很好用,但是一直在看c++啥的,也没系统学习.用过之后也荒废了许久.之前想建个公众号自动爬糗事百科的段子,但是没能建起来,真是尴尬,代码上传的服务器上之后,不能正确回复公众号的消息. 听说微信是有个什么调试功能,但我也不会用,后来就开始考试,给忘了这件事.今天看见了之前学习的糗百的爬虫代码,也算是第一次写,写个帖子纪念一下. 从中还是学习了有关正则表达式的许多知识,不过糗百的网页有时候会更新结构,正则表达式就要从写...这个要是能自动生成正则表达式就好了..…
代码: # _*_ coding:utf-8 _*_ import urllib2 import re from datetime import datetime class QSBK: def __init__(self): self.pageIndex = 1 self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' self.headers = {'User-Agent':self.user_agent} self…
案例要求参考上一个糗事百科单进程案例 Queue(队列对象) Queue是python中的标准库,可以直接import Queue引用;队列是线程间最常用的交换数据的形式 python下多线程的思考 对于资源,加锁是个重要的环节.因为python原生的list,dict等,都是not thread safe的.而Queue,是线程安全的,因此在满足使用条件下,建议使用队列 初始化: class Queue.Queue(maxsize) FIFO 先进先出 包中的常用方法: Queue.qsize…
import requests from lxml import etree import json import threading import queue # 采集html类 class GetHtml(threading.Thread): def __init__(self, page_queue): threading.Thread.__init__(self) self.page_queue = page_queue def run(self): self.do_get_html()…
import requestsimport reheaders = { 'User-Agent':'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0)'}info_lists = []def judgment_sex(class_name): if class_name == 'womenIcon': return '女' else: return '男'def get_info(url): re…
是时候给你说说 爬虫框架了 使用框架来爬取数据 会节省我们更多时间 很快就能抓取到我们想要抓取的内容 框架集合了许多操作 比如请求,数据解析,存储等等 都可以由框架完成 有些小伙伴就要问了 你他妈的 为什么不早点说呢? 是这样的 当你不知道 1+1 是什么的时候 你去使用计算器来计算 也是没用的 对吧 所以框架的使用 在现在这个时候(爬虫28篇之后)讲 就是一个不错的时机 今天 小帅b就跟你说说 scrapy这个框架 到底有多牛b 那么 接下来就是 学习 python 的正确姿势 要使用 scr…
欢迎添加华为云小助手微信(微信号:HWCloud002 或 HWCloud003),输入关键字"加群",加入华为云线上技术讨论群:输入关键字"最新活动",获取华为云最新特惠促销.华为云诸多技术大咖.特惠活动等你来撩 自娱自乐 今天朋友发了一个段子,居然来自糗事百科-随着抖音.快手的各种火爆,仿佛从前拿着手机刷糗百的日子,已经过去好久了.不知道多少人还会念起那句"天王盖地虎,小鸡炖蘑菇-".今天就做个小练习,爬一爬糗事百科上的段子吧! 网站分析 段…
初次学习爬虫技术,在知乎上看了如何爬去糗事百科的段子,于是打算自己也做一个. 实现目标:1,爬取到糗事百科的段子 2,实现每次爬去一个段子,每按一次回车爬取到下一页 技术实现:基于python的实现,利用Requests库,re库,bs4库的BeautifulSoup方法来实现的 主要内容:首先我们要理清一下爬取实现的思路,我们来构建一下主体框架.第一步我们先写一个利用Requests库来获取网页的方法,第二步我们利用bs4库的BeautifulSoup方法来分析所获取的网页信息并利用正则表达式…
闲来无事,学学python爬虫. 在正式学爬虫前,简单学习了下HTML和CSS,了解了网页的基本结构后,更加快速入门. 1.获取糗事百科url http://www.qiushibaike.com/hot/page/2/    末尾2指第2页 2.先抓取HTML页面 import urllib import urllib2 import re page = 2 url = 'http://www.qiushibaike.com/hot/page/' + str(page) #对应第2页的url…