#!/usr/bin/env python # -*- encoding: utf-8 -*- # vim: set et sw=4 ts=4 sts=4 ff=unix fenc=utf8: # Created on 2014-10-31 13:05:52 import re from libs.base_handler import * class Handler(BaseHandler): ''' this is a sample handler ''' crawl_config = {…
闲话: 一位前辈告诉我大学期间要好好维护自己的博客,在博客园发布很好,但是自己最好也保留一个备份. 正好最近在学习python,刚刚从py2转到py3,还有点不是很习惯,正想着多练习,于是萌生了这个想法--用爬虫保存自己的所有文章 在查了一些资料后,慢慢的有了思路. 正文: 有了上面的思路后,编程就不是问题了,就像师傅说的,任何语言,语法只是很小的一部分,主要还是编程思想.于是边看语法,边写程序,照葫芦画瓢,也算实现了既定的功能: 1.现在py文件同目录下创建一个以博主名字为名的文件夹,用来存放…
Scrapy简单介绍及爬取伯乐在线所有文章 一.简说安装相关环境及依赖包 1.安装Python(2或3都行,我这里用的是3) 2.虚拟环境搭建: 依赖包:virtualenv,virtualenvwrapper(为了更方便管理和使用虚拟环境) 安装:pip install virtulaenv,virtualenvwrapper或通过源码包安装 常用命令:mkvirtualenv --python=/usr/local/python3.5.3/bin/python article_spider(…
Node爬取简书首页文章 博主刚学node,打算写个爬虫练练手,这次的爬虫目标是简书的首页文章 流程分析 使用superagent发送http请求到服务端,获取HTML文本 用cheerio解析获得的HTML文本,本例将解析简书首页20篇文章的基本信息 使用mysql模块把解析出的数据写入本地数据库存储 第三方模块 superagent superagent是一个优雅又轻量级的网络请求API,类似于Python中的requests.官方文档在这里 $ npm install superagent…
前言 第一次写博客,主要内容是爬取微信公众号的文章,将文章以PDF格式保存在本地. 爬取微信公众号文章(使用wechatsogou) 1.安装 pip install wechatsogou --upgrade wechatsogou是一个基于搜狗微信搜索的微信公众号爬虫接口 2.使用方法 使用方法如下所示 import wechatsogou # captcha_break_time为验证码输入错误的重试次数,默认为1 ws_api = wechatsogou.WechatSogouAPI(c…
前几天跟同事聊到最近在看什么小说,想起之前看过一篇文章说的是网络十大水文,就想把起点上的小说信息爬一下,搞点可视化数据看看.这段时间正在看爬虫框架-pyspider,觉得这种网站用框架还是很方便的,所以今天就给大家带来这篇---起点中文网小说爬取.可视化我们放到下一集. 安装使用 安装和基本使用请查看pyspider中文文档,我们这篇主要不是介绍pyspider哦.Mac安装的过程中出现了一些问题,请看Mac安装pycurl失败,装好以后使用pyspider all启动.然后打开浏览器输入:ht…
0 url :http://blog.csdn.net/youyou1543724847/article/details/52818339Redis一点基础的东西目录 1.基础底层数据结构 2.windows下环境搭建 3.java里连接redis数据库 4.关于认证 5.redis高级功能总结1.基础底层数据结构1.1.简单动态字符串SDS定义: ...47分钟前1 url :http://blog.csdn.net/youyou1543724847/article/details/52818…
目标地址:http://weixin.sogou.com/weixin? 这个地址是搜狗微信的文章搜索,可以搜索到微信的文章,而我们目标就是这些文章内容 这个url经过测试,当我们没登陆微信只能看到10页的内容,我们登陆后才可以查看100页的内容, 而且翻页多次会出现ip检测的反爬机制,出现302重新跳转到验证码输入页面,输入验证码后才可以继续浏览网页 于是我们就利用代理池来解决这个反爬. 首先搭建爬虫主题框架,因为是搜索类型的url,一般通过get请求,所以我们通过urlencode进行参数拼…
前言 近期本人在某云上购买了个人域名,本想着以后购买与服务器搭建自己的个人网站,由于需要筹备的太多,暂时先搁置了,想着先借用GitHub Pages搭建一个静态的站,搭建的过程其实也曲折,主要是域名地址配置把人搞废了,不过总的来说还算顺利,网站地址  https://chenchangyuan.cn(空博客,样式还挺漂亮的,后期会添砖加瓦) 利用git+npm+hexo,再在github中进行相应配置,网上教程很多,如果有疑问欢迎评论告知. 本人以前也是搞过几年java,由于公司的岗位职责,后面…
具体搭建步骤不再赘述,这里主要使用到了fakeagent,phantomjs和proxy pyspider的爬取相当智能,在不能获取图片的时候会适当的暂停一段时间再试探性的爬取,配合fakeagent,proxypool和phantomjs,爬取成功率在90%以上. 代码是扒的别人的然后修改提高速度和成功率的,数据总量在百G左右,磁盘大的可以扒一扒. 代码如下: #!/usr/bin/env python # -*- encoding: utf-8 -*- # Created on 2016-0…