java爬虫系列第五讲-如何使用代理防止爬虫被屏蔽?
本文内容
1、分析一下爬虫存在的问题及解决方案
2、webmagic中代理的使用
3、目前市面上一些比较好用的代理服务器
存在的问题
我们在使用爬虫过程中,大多都会遇到这样的问题:突然某一天爬虫爬不到内容了,目标网站直接返回404或者其他错误信息,这说明我们的爬虫被目标网站给屏蔽了。
爬虫被屏蔽的原因
1、爬虫大量请求对对目标服务器造成了压力
2、爬虫采集目标网站有价值的内容到处传播,对目标网站造成了不良影响
出于以上原因,正常情况下目标网站会把爬虫屏蔽掉,这样直接导致我们开发的爬虫无法采集正确的内容。
未使用代理的情况
我们的爬虫程序以一个固定的ip去访问目标网站,目标网站会发现这个固定的ip有大量的请求,会判定为爬虫,直接进行屏蔽。
如果我们每次请求发送的ip都不一样,这样目标网站一般情况下就不会把我们当成爬虫屏蔽了。
解决办法
使用代理来解决问题
请求过程如下:
1、爬虫采集请求给代理服务器
2、代理服务器一般是一个集群,内部有很多机器,代理随机选择一台机器,将请求发送给目标服务器
3、目标服务器将结果返回给代理服务器
4、代理服务器将结果返回给爬虫
可以看出,整个系统的稳定性在代理服务器上,代理服务器的质量直接影响到整个程序的稳定性。
webmagic中使用代理
从0.7.1版本开始,WebMagic开始使用了新的代理APIProxyProvider
。因为相对于Site的“配置”,ProxyProvider定位更多是一个“组件”,所以代理不再从Site设置,而是由HttpClientDownloader
设置。
API | 说明 |
---|---|
HttpClientDownloader.setProxyProvider(ProxyProvider proxyProvider) | 设置代理 |
ProxyProvider
有一个默认实现:SimpleProxyProvider
。它是一个基于简单Round-Robin的、没有失败检查的ProxyProvider。可以配置任意个候选代理,每次会按顺序挑选一个代理使用。它适合用在自己搭建的比较稳定的代理的场景。
代理示例:
1、设置单一的普通HTTP代理为101.101.101.101的8888端口,并设置密码为"username","password"
HttpClientDownloader httpClientDownloader = new HttpClientDownloader();
httpClientDownloader.setProxyProvider(SimpleProxyProvider.from(new Proxy("101.101.101.101",8888,"username","password")));
spider.setDownloader(httpClientDownloader);
2、设置代理池,其中包括101.101.101.101和102.102.102.102两个IP,没有密码
HttpClientDownloader httpClientDownloader = new HttpClientDownloader();
httpClientDownloader.setProxyProvider(SimpleProxyProvider.from(new Proxy("101.101.101.101", 8888), new Proxy("102.102.102.102", 8888)));
免费代理服务器
1、目前用的还不错的有快代理,有免费 和 收费版,如果是咱们自己搞着玩,可以使用免费版的,如果对代理服务器要求比较高,可以用他们的付费版的。我之前做过一个爬取财经数据的程序,对代理要求比较高,使用的是他们的收费版的,用下来还可以的。如果你们有发现更好的,可以留言,分享分享,谢谢
对于快代理我这边提供一个代理代码,可以拿去直接用:
public class KuaidailiProxyProvider implements ProxyProvider {
private Logger logger = Logger.getLogger(KuaidailiProxyProvider.class);
private List<Proxy> proxyList = new ArrayList<>();
private volatile Map<String, ArrayBlockingQueue<Proxy>> siteProxysMap = new HashMap<String, ArrayBlockingQueue<Proxy>>();
private Object siteProxysMapLock = new Object();
//获取代理信息的地址
private String apiurl;
//用户名
private String username;
//密码
private String password;
private volatile static KuaidailiProxyProvider instance = null;
public KuaidailiProxyProvider(String apiurl, String username, String password) {
this.apiurl = apiurl;
this.username = username;
this.password = password;
this.init();
}
public static KuaidailiProxyProvider getInstance(String apiurl, String username, String password) {
if (instance == null) {
synchronized (KuaidailiProxyProvider.class) {
if (instance == null) {
instance = new KuaidailiProxyProvider(apiurl, username, password);
}
}
}
return instance;
}
private void init() {
try {
logger.info("get proxy");
String s = HttpsUtil.requestGet(this.apiurl);
logger.info(s);
if (StringUtil.isNotEmpty(s)) {
final JSONObject jsonObject = JSON.parseObject(s);
if (jsonObject == null) {
return;
}
final JSONObject data = jsonObject.getJSONObject("data");
if (data == null) {
return;
}
final JSONArray proxy_list = data.getJSONArray("proxy_list");
if (proxy_list == null && proxy_list.size() == 0) {
return;
}
List<String> tempList = new ArrayList<>();
for (int i = 0; i < proxy_list.size(); i++) {
final String string = proxy_list.getString(i);
final String[] split = string.split(":");
proxyList.add(new Proxy(split[0], Integer.parseInt(split[1]), this.username, this.password));
}
}
} catch (Exception e) {
logger.error(e.getMessage(), e);
}
}
private ArrayBlockingQueue<Proxy> get(String key) {
try {
ArrayBlockingQueue<Proxy> queue = siteProxysMap.get(key);
if (queue == null) {
synchronized (siteProxysMapLock) {
queue = siteProxysMap.get(key);
if (queue == null) {
ArrayBlockingQueue<Proxy> proxies = new ArrayBlockingQueue<Proxy>(proxyList.size());
for (Proxy proxy : proxyList) {
proxies.put(proxy);
}
siteProxysMap.put(key, proxies);
}
}
}
} catch (InterruptedException e) {
this.logger.error(e.getMessage(), e);
}
return siteProxysMap.get(key);
}
@Override
public void returnProxy(Proxy proxy, Page page, Task task) {
this.logger.info(proxy);
try {
String key = getKey(task);
this.get(key).put(proxy);
} catch (InterruptedException e) {
this.logger.error(e.getMessage(), e);
}
}
private String getKey(Task task) {
final String domain = task != null && task.getSite() != null ? task.getSite().getDomain() : null;
return StringUtil.isNotEmpty(domain) ? domain : KuaidailiProxyProvider.class.getName();
}
@Override
public Proxy getProxy(Task task) {
Proxy proxy = null;
try {
proxy = this.get(this.getKey(task)).take();
this.logger.info(proxy);
} catch (InterruptedException e) {
logger.error(e.getMessage(), e);
}
return proxy;
}
}
调用KuaidailiProxyProvider.getInstance获取代理实例。
可以关注公众号:路人甲Java,获取年薪50万课程,获取最新文章。
java爬虫系列第五讲-如何使用代理防止爬虫被屏蔽?的更多相关文章
- Java 设计模式系列(十二)代理模式
Java 设计模式系列(十二)代理模式 代理模式是对象的结构模式.代理模式给某一个对象提供一个代理对象,并由代理对象控制对原对象的引用. package com.github.binarylei.de ...
- python爬虫系列(1)——一个简单的爬虫实例
本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片. 1. 概述 本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片.下载图片的步骤如下: 获取网页html文本内容:分析html中 ...
- java爬虫系列目录
1. java爬虫系列第一讲-爬虫入门(爬取动作片列表) 2. java爬虫系列第二讲-爬取最新动作电影<海王>迅雷下载地址 3. java爬虫系列第三讲-获取页面中绝对路径的各种方法 4 ...
- python 全栈开发,Day134(爬虫系列之第1章-requests模块)
一.爬虫系列之第1章-requests模块 爬虫简介 概述 近年来,随着网络应用的逐渐扩展和深入,如何高效的获取网上数据成为了无数公司和个人的追求,在大数据时代,谁掌握了更多的数据,谁就可以获得更高的 ...
- 爬虫系列(三) urllib的基本使用
一.urllib 简介 urllib 是 Python3 中自带的 HTTP 请求库,无需复杂的安装过程即可正常使用,十分适合爬虫入门 urllib 中包含四个模块,分别是 request:请求处理模 ...
- 爬虫系列(七) requests的基本使用
一.requests 简介 requests 是一个功能强大.简单易用的 HTTP 请求库,可以使用 pip install requests 命令进行安装 下面我们将会介绍 requests 中常用 ...
- Python3爬虫系列:理论+实验+爬取妹子图实战
Github: https://github.com/wangy8961/python3-concurrency-pics-02 ,欢迎star 爬虫系列: (1) 理论 Python3爬虫系列01 ...
- 爬虫系列(九) xpath的基本使用
一.xpath 简介 究竟什么是 xpath 呢?简单来说,xpath 就是一种在 XML 文档中查找信息的语言 而 XML 文档就是由一系列节点构成的树,例如,下面是一份简单的 XML 文档: &l ...
- 爬虫系列(二) Chrome抓包分析
在这篇文章中,我们将尝试使用直观的网页分析工具(Chrome 开发者工具)对网页进行抓包分析,更加深入的了解网络爬虫的本质与内涵 1.测试环境 浏览器:Chrome 浏览器 浏览器版本:67.0.33 ...
随机推荐
- Vue 进阶之路(九)
之前的文章我们介绍了 vue 中父组件之间的传值,本章我们再来看一下父子组件间传值的参数校验和非 Props 特性. <!DOCTYPE html> <html lang=" ...
- 自己动手编译Android(LineageOS)源码
准备 设备:红米3s 设备代号:land Android版本:7.1.1 源码提供:Lineage PC配置: 系统:Ubuntu16.04 x64 至少12G RAM 至少80GB 剩余硬盘空间 良 ...
- vue.js框架原理浅析
vue.js是一个非常优秀的前端开发框架,不是我说的,大家都知道. 首先我现在的能力,独立阅读源码还是有很大压力的,所幸vue写的很规范,通过方法名基本可以略知一二,里面的原理不懂的地方多方面查找资料 ...
- 『发呆』.Net 2.0 ~ .Net 4.0 所实现了那些底层
随着时间的推移,程序越写越大,代码越写越少. 今天突然发呆,就想比较全面的汇总一下 .Net 2.0 和 .Net 4.0 都实现的功能. .Net 2.0 的大部分常见程序集 (已经过滤掉了一部分和 ...
- .Net小白离开校园的第一年
Why? 2018的已经步入尾声,对新的一年又是充满期待. 在这年底里,看到园子里有很多园友写了博客回顾自己的2018,本人自知文笔和各位前辈比不了,但是我也想来写一写,这是我特殊的第一年,记录下来, ...
- 卷积神经网络之VGG
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比 ...
- Named Volume 在 MySQL 数据持久化上的基本应用
原文作者:春哥 初识春哥时,春哥是美术设计大咖.后不久,创业并致力于游戏开发,已有3年.从Unity3D到IOS(Swift)开发,从前端开发到后端以及容器技术,从设计开发测试到产品经理以及CEO,已 ...
- layui,返回的数据不符合规范,正确的成功状态码 (code) 应为:0
在使用layui的数据表格绑定数据的时候,出现的一些问题, "返回的数据不符合规范,正确的成功状态码 (code) 应为:0" 之后在网上也查找的了许多的资料,也去看了官网的文档 ...
- SQL Server2008 xp_cmdshell啟用
1. 查看系统数据库参数配置: select * from sys.configurations where name='xp_cmdshell' 修改系统数据库参数: 语法格式: sp_ ...
- gitbash安装与使用
1. 下载安装git (windows版) 网址:https://git-scm.com/download/win 点击for windows版本->下载 2. 点击exe文件安装,安装完成后打 ...