学于黑马和传智播客联合做的教学项目 感谢

黑马官网

传智播客官网

微信搜索"艺术行者",关注并回复关键词"webcrawler"获取视频和教程资料!

b站在线视频

学习目标

  1. 能够理解WebMagic架构

  2. 能够完成入门案例

  3. 能够理解PageProcessor的作用

  4. 能够使用选择器抽取页面元素

  5. 能够使用Spider启动爬虫

  6. 能够使用Site设置爬虫参数

  7. 能够使用过滤器对url去重

  8. 能够实现案例

  9. 能够使用和定制Pipeline输出数据

1. 课程计划

  1. WebMagic介绍

  2. WebMagic功能

  3. 爬虫分类

  4. 案例开发分析

  5. 案例实现

2. WebMagic介绍

昨天完成了爬虫的入门的学习,是一个最基本的爬虫案例,今天我们要学习一款爬虫框架的使用就是WebMagic。其底层用到了我们上一天课程所使用的HttpClient和Jsoup,让我们能够更方便的开发爬虫。

WebMagic项目代码分为核心和扩展两部分。核心部分(webmagic-core)是一个精简的、模块化的爬虫实现,而扩展部分则包括一些便利的、实用性的功能。

WebMagic的设计目标是尽量的模块化,并体现爬虫的功能特点。核心部分提供非常简单、灵活的API,在基本不改变开发模式的情况下,编写一个爬虫。

扩展部分(webmagic-extension)提供一些便捷的功能,例如注解模式编写爬虫等。同时内置了一些常用的组件,便于爬虫开发。

2.1. 架构介绍

WebMagic的结构分为Downloader、PageProcessor、Scheduler、Pipeline四大组件,并由Spider将它们彼此组织起来。这四大组件对应爬虫生命周期中的下载、处理、管理和持久化等功能。WebMagic的设计参考了Scapy(使用Python实现),但是实现方式更Java化一些。

而Spider则将这几个组件组织起来,让它们可以互相交互,流程化的执行,可以认为Spider是一个大的容器,它也是WebMagic逻辑的核心。

WebMagic总体架构图如下:

2.1.1. WebMagic的四个组件

  1. Downloader

Downloader负责从互联网上下载页面,以便后续处理。WebMagic默认使用了Apache HttpClient作为下载工具。

  1. PageProcessor

PageProcessor负责解析页面,抽取有用信息,以及发现新的链接。WebMagic使用Jsoup作为HTML解析工具,并基于其开发了解析XPath的工具Xsoup。

在这四个组件中,PageProcessor对于每个站点每个页面都不一样,是需要使用者定制的部分。

  1. Scheduler

Scheduler负责管理待抓取的URL,以及一些去重的工作。WebMagic默认提供了JDK的内存队列来管理URL,并用集合来进行去重。也支持使用Redis进行分布式管理。

  1. Pipeline

Pipeline负责抽取结果的处理,包括计算、持久化到文件、数据库等。WebMagic默认提供了“输出到控制台”和“保存到文件”两种结果处理方案。

Pipeline定义了结果保存的方式,如果你要保存到指定数据库,则需要编写对应的Pipeline。对于一类需求一般只需编写一个Pipeline。

2.1.2. 用于数据流转的对象

  1. Request

Request是对URL地址的一层封装,一个Request对应一个URL地址。

它是PageProcessor与Downloader交互的载体,也是PageProcessor控制Downloader唯一方式。

除了URL本身外,它还包含一个Key-Value结构的字段extra。你可以在extra中保存一些特殊的属性,然后在其他地方读取,以完成不同的功能。例如附加上一个页面的一些信息等。

  1. Page

Page代表了从Downloader下载到的一个页面——可能是HTML,也可能是JSON或者其他文本格式的内容。

Page是WebMagic抽取过程的核心对象,它提供一些方法可供抽取、结果保存等。

  1. ResultItems

ResultItems相当于一个Map,它保存PageProcessor处理的结果,供Pipeline使用。它的API与Map很类似,值得注意的是它有一个字段skip,若设置为true,则不应被Pipeline处理。

2.2. 入门案例

2.2.1. 加入依赖

创建Maven工程,并加入以下依赖:

		<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>8</source>
<target>8</target>
</configuration>
</plugin>
</plugins>
</build> <properties>
<java.version>1.8</java.version>
</properties> <dependencies>
<!--WebMagic-->
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-core</artifactId>
<version>0.7.3</version>
</dependency>
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-extension</artifactId>
<version>0.7.3</version>
</dependency>
</dependencies>

注意:0.7.3版本对SSL的并不完全,如果是直接从Maven中央仓库下载依赖,在爬取只支持SSL v1.2的网站会有SSL的异常抛出。(此时0.7.3版本已经将这个修复了)

解决方案:

  1. 等作者的0.7.4的版本发布

  2. 直接从github上下载最新的代码,安装到本地仓库

也可以参考以下资料自己修复

https://github.com/code4craft/webmagic/issues/701

2.2.2. 加入配置文件

WebMagic使用slf4j-log4j12作为slf4j的实现。

添加log4j.properties配置文件:

log4j.rootLogger=INFO,A1

log4j.appender.A1=org.apache.log4j.ConsoleAppender
log4j.appender.A1.layout=org.apache.log4j.PatternLayout
log4j.appender.A1.layout.ConversionPattern=%-d{yyyy-MM-dd HH:mm:ss,SSS} [%t] [%c]-[%p] %m%n

2.2.3. 案例实现

代码页面

package org.example.start;

import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.processor.PageProcessor; /**
* @author HackerStar
* @create 2020-05-23 21:47
*/
public class JobProcessor implements PageProcessor {
@Override
public void process(Page page) {
page.putField("author", page.getHtml().css("div.author").all());
} private Site site = Site.me();
@Override
public Site getSite() {
return site;
} public static void main(String[] args) {
Spider.create(new JobProcessor())
//初始访问url地址
.addUrl("http://book.sina.com.cn")
.run(); }
}

打印结果:

3. WebMagic功能

3.1. 实现PageProcessor

3.1.1. 抽取元素Selectable

WebMagic里主要使用了三种抽取技术:XPath、正则表达式和CSS选择器。另外,对于JSON格式的内容,可使用JsonPath进行解析。

爬取的页面:

完整Java代码:

package org.example.webMagic;

import us.codecraft.webmagic.*;
import us.codecraft.webmagic.pipeline.FilePipeline;
import us.codecraft.webmagic.processor.PageProcessor;
import us.codecraft.webmagic.scheduler.BloomFilterDuplicateRemover;
import us.codecraft.webmagic.scheduler.QueueScheduler;
import us.codecraft.webmagic.scheduler.Scheduler; /**
* @author HackerStar
* @create 2020-05-23 17:21
*/
public class JobProcessor implements PageProcessor {
//解析页面
public void process(Page page) {
//解析返回的数据page,并且把解析的结果放到ResultItems中
//css选择器
page.putField("css选择器", page.getHtml().css("div.news-list-b p").all());
//XPath
page.putField("XPath", page.getHtml().xpath("//div[@class=news-list-b]/ul/li/p/a").all());
//正则表达式
page.putField("正则表达式", page.getHtml().css("div.news-list-b a").regex(".*篮网.*").all());
//处理结果API
page.putField("处理结果API", page.getHtml().css("div.news-list-b a").regex(".*篮网.*").get());
page.putField("处理结果API2", page.getHtml().css("div.news-list-b a").regex(".*篮网.*").toString());
//获取链接
//page.addTargetRequests(page.getHtml().css("div.news-list-b").links().all());
//page.putField("url", page.getHtml().css("div.news-list-b p").all()); //测试去重(只访问一次指定的链接)
page.addTargetRequest("https://finance.sina.com.cn");
page.addTargetRequest("https://finance.sina.com.cn");
page.addTargetRequest("https://finance.sina.com.cn");
} private Site site = Site.me()
.setCharset("utf8")//设置编码
.setTimeOut(10000)//设置超时时间,单位是ms毫秒
.setRetrySleepTime(3000)//设置重试的间隔时间
.setSleepTime(3);//设置重试次数
public Site getSite() {
return site;
} //主函数,执行爬虫
public static void main(String[] args) {
Spider spider = Spider.create(new JobProcessor())
.addUrl("http://sports.sina.com.cn/nba/")//设置爬取数据的页面(初始访问url地址)
// .addPipeline(new FilePipeline("/development/files/"))//爬取的数据存入到指定的位置
//设置布隆去重过滤器,指定最多对1000万数据进行去重操作(需要导包com.google.guava)
.setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(10000000)))//参数设置需要对多少条数据去重
.thread(5);//设置线程数 Scheduler scheduler = spider.getScheduler();//设置断点查看使用的是哪个去重器 //执行爬虫
spider.run();
}
}
  1. XPath
package org.example.webMagic;

import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Request;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.pipeline.FilePipeline;
import us.codecraft.webmagic.processor.PageProcessor;
import us.codecraft.webmagic.scheduler.BloomFilterDuplicateRemover;
import us.codecraft.webmagic.scheduler.QueueScheduler;
import us.codecraft.webmagic.scheduler.Scheduler; /**
* @author HackerStar
* @create 2020-05-23 17:21
*/
public class JobProcessor implements PageProcessor {
//解析页面
public void process(Page page) {
//解析返回的数据page,并且把解析的结果放到ResultItems中
//XPath
page.putField("XPath", page.getHtml().xpath("//div[@class=news-list-b]/ul/li/p/a").all());
} private Site site = Site.me()
.setCharset("utf8")//设置编码
.setTimeOut(10000)//设置超时时间,单位是ms毫秒
.setRetrySleepTime(3000)//设置重试的间隔时间
.setSleepTime(3);//设置重试次数
public Site getSite() {
return site;
} //主函数,执行爬虫
public static void main(String[] args) {
Spider spider = Spider.create(new JobProcessor())
.addUrl("http://sports.sina.com.cn/nba/")//设置爬取数据的页面
// .addPipeline(new FilePipeline("/development/files/"))//爬取的数据存入到指定的位置
//设置布隆去重过滤器,指定最多对1000万数据进行去重操作(需要导包com.google.guava)
// .setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(10000000)))
.thread(5); Scheduler scheduler = spider.getScheduler(); //执行爬虫
spider.run();
}
}

语法可以参考资料的W3School离线手册(2017.03.11版).chm

  1. CSS选择器
//css选择器
page.putField("css选择器", page.getHtml().css("div.news-list-b p").all());

CSS选择器是与XPath类似的语言。在上一次的课程中,我们已经学习过了Jsoup的选择器,它比XPath写起来要简单一些,但是如果写复杂一点的抽取规则,就相对要麻烦一点。

举例:

div.mt>h1表示class为mt的div标签下的直接子元素h1标签

page.getHtml().css("div.mt>h1").toString()

可以使用:nth-child(n)选择第几个元素,如下选择第一个元素

page.getHtml().css("div#news_div > ul > li:nth-child(1) a").toString()

注意:需要使用>,即直接子元素才可以选择第几个元素

  1. 正则表达式

正则表达式则是一种通用的文本抽取语言。在这里一般用于获取url地址。

正则表达式学习难度要大一些,大家可以参考资料"正则表达式系统教程.CHM"

3.1.2. 抽取元素API

Selectable相关的抽取元素链式API是WebMagic的一个核心功能。使用Selectable接口,可以直接完成页面元素的链式抽取,也无需去关心抽取的细节。

在刚才的例子中可以看到,page.getHtml()返回的是一个Html对象,它实现了Selectable接口。这个接口包含的方法分为两类:抽取部分和获取结果部分。

这些抽取API返回的都是一个Selectable接口,意思是说,是支持链式调用的。例如访问https://www.jd.com/moreSubject.aspx页面

//先获取class为news_div的div
//再获取里面的所有包含文明的元素
List<String> list = page.getHtml()
.css("div#news_div")
.regex(".*文明.*").all();

3.1.3. 获取结果API

当链式调用结束时,我们一般都想要拿到一个字符串类型的结果。这时候就需要用到获取结果的API了。

我们知道,一条抽取规则,无论是XPath、CSS选择器或者正则表达式,总有可能抽取到多条元素。WebMagic对这些抽取方式的结果进行了统一,这些方式可以通过不同的API获取到一个或者多个元素。

当有多条数据的时候,使用get()和toString()都是获取第一个url地址。

String str = page.getHtml()
.css("div#news_div")
.links().regex(".*[0-3]$").toString(); String get = page.getHtml()
.css("div#news_div")
.links().regex(".*[0-3]$").get();

测试结果:

这里selectable.toString()采用了toString()这个接口,是为了在输出以及和一些框架结合的时候,更加方便。因为一般情况下,我们都只需要选择一个元素!

selectable.all()则会获取到所有元素。

3.1.4. 获取链接

有了处理页面的逻辑,我们的爬虫就接近完工了,但是现在还有一个问题:一个站点的页面是很多的,一开始我们不可能全部列举出来,于是如何发现后续的链接,是一个爬虫不可缺少的一部分。

下面的例子就是获取https://www.jd.com/moreSubject.aspx这个页面中

所有符合https://www.jd.com/news.\w+?.*正则表达式的url地址

并将这些链接加入到待抓取的队列中去。

public void process(Page page) {
page.addTargetRequests(page.getHtml().links()
.regex("(https://www.jd.com/news.\\w+?.*)").all());
System.out.println(page.getHtml().css("div.mt>h1").all());
} public static void main(String[] args) {
Spider.create(new JobProcessor())
.addUrl("https://www.jd.com/moreSubject.aspx")
.run();
}

3.2. 使用Pipeline保存结果

WebMagic用于保存结果的组件叫做Pipeline。我们现在通过“控制台输出结果”这件事也是通过一个内置的Pipeline完成的,它叫做ConsolePipeline

那么,我现在想要把结果用保存到文件中,怎么做呢?只将Pipeline的实现换成"FilePipeline"就可以了。

public static void main(String[] args) {
Spider.create(new JobProcessor())
//初始访问url地址
.addUrl("https://www.jd.com/moreSubject.aspx")
.addPipeline(new FilePipeline("/development/java/webmagic/"))
.thread(5)//设置线程数
.run();
}

3.3. 爬虫的配置、启动和终止

3.3.1.Spider

Spider是爬虫启动的入口。在启动爬虫之前,我们需要使用一个PageProcessor创建一个Spider对象,然后使用run()进行启动。

同时Spider的其他组件(Downloader、Scheduler、Pipeline)都可以通过set方法来进行设置。

3.3.2.爬虫配置Site

Site.me()可以对爬虫进行一些配置配置,包括编码、抓取间隔、超时时间、重试次数等。

private Site site = Site.me()
.setCharset("UTF-8")//编码
.setSleepTime(1)//抓取间隔时间
.setTimeOut(1000*10)//超时时间
.setRetrySleepTime(3000)//重试时间
.setRetryTimes(3);//重试次数

站点本身的一些配置信息,例如编码、HTTP头、超时时间、重试策略等、代理等,都可以通过设置Site对象来进行配置。

4. 爬虫分类

网络爬虫按照系统结构和实现技术,大致可以分为以下几种类型:通用网络爬虫、聚焦网络爬虫、增量式网络爬虫、深层网络爬虫。 实际的网络爬虫系统通常是几种爬虫技术相结合实现的。

4.1. 通用网络爬虫

通用网络爬虫又称全网爬虫(Scalable Web Crawler),爬行对象从一些种子 URL 扩充到整个 Web,主要为门户站点搜索引擎和大型 Web 服务提供商采集数据。

这类网络爬虫的爬行范围和数量巨大,对于爬行速度和存储空间要求较高,对于爬行页面的顺序要求相对较低,同时由于待刷新的页面太多,通常采用并行工作方式,但需要较长时间才能刷新一次页面。

简单的说就是互联网上抓取所有数据。

4.2. 聚焦网络爬虫

聚焦网络爬虫(Focused Crawler),又称主题网络爬虫(Topical Crawler),是指选择性地爬行那些与预先定义好的主题相关页面的网络爬虫。

和通用网络爬虫相比,聚焦爬虫只需要爬行与主题相关的页面,极大地节省了硬件和网络资源,保存的页面也由于数量少而更新快,还可以很好地满足一些特定人群对特定领域信息的需求 。

简单的说就是互联网上只抓取某一种数据。

4.3. 增量式网络爬虫

增量式网络爬虫(Incremental Web Crawler)是指对已下载网页采取增量式更新和只爬行新产生的或者已经发生变化网页的爬虫,它能够在一定程度上保证所爬行的页面是尽可能新的页面。

和周期性爬行和刷新页面的网络爬虫相比,增量式爬虫只会在需要的时候爬行新产生或发生更新的页面 ,并不重新下载没有发生变化的页面,可有效减少数据下载量,及时更新已爬行的网页,减小时间和空间上的耗费,但是增加了爬行算法的复杂度和实现难度。

简单的说就是互联网上只抓取刚刚更新的数据。

4.4. Deep Web 爬虫

Web 页面按存在方式可以分为表层网页(Surface Web)和深层网页(Deep Web,也称 Invisible Web Pages 或 Hidden Web)。

表层网页是指传统搜索引擎可以索引的页面,以超链接可以到达的静态网页为主构成的 Web 页面。

Deep Web 是那些大部分内容不能通过静态链接获取的、隐藏在搜索表单后的,只有用户提交一些关键词才能获得的 Web 页面。

5. 案例开发分析

我们已经学完了WebMagic的基本使用方法,现在准备使用WebMagic实现爬取数据的功能。这里是一个比较完整的实现。

在这里我们实现的是聚焦网络爬虫,只爬取招聘的相关数据。

5.1. 业务分析

今天要实现的是爬取https://www.51job.com上的招聘信息。只爬取“计算机软件”和“互联网/电子商务”两个行业的信息。

首先访问页面并搜索两个行业,结果如下:

点击职位详情页,我们分析发现详情页还有一些数据需要抓取:

职位、公司名称、工作地点、薪资、发布时间、职位信息、公司联系方式、公司信息

5.2. 数据库表

根据以上信息,设计数据库表

CREATE TABLE `job_info` (
`id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT '主键id',
`company_name` varchar(100) DEFAULT NULL COMMENT '公司名称',
`company_addr` varchar(200) DEFAULT NULL COMMENT '公司联系方式',
`company_info` text COMMENT '公司信息',
`job_name` varchar(100) DEFAULT NULL COMMENT '职位名称',
`job_addr` varchar(50) DEFAULT NULL COMMENT '工作地点',
`job_info` text COMMENT '职位信息',
`salary_min` int(10) DEFAULT NULL COMMENT '薪资范围,最小',
`salary_max` int(10) DEFAULT NULL COMMENT '薪资范围,最大',
`url` varchar(150) DEFAULT NULL COMMENT '招聘信息详情页',
`time` varchar(10) DEFAULT NULL COMMENT '职位最近发布时间',
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='招聘信息';

5.3. 实现流程

我们需要解析职位列表页,获取职位的详情页,再解析页面获取数据。

获取url地址的流程如下:

但是在这里有个问题:在解析页面的时候,很可能会解析出相同的url地址(例如商品标题和商品图片超链接,而且url一样),如果不进行处理,同样的url会解析处理多次,浪费资源。所以我们需要有一个url去重的功能。

5.3.1. Scheduler组件

WebMagic提供了Scheduler可以帮助我们解决以上问题。

Scheduler是WebMagic中进行URL管理的组件。一般来说,Scheduler包括两个作用:

  • 对待抓取的URL队列进行管理。

  • 对已抓取的URL进行去重

WebMagic内置了几个常用的Scheduler。如果你只是在本地执行规模比较小的爬虫,那么基本无需定制Scheduler,但是了解一下已经提供的几个Scheduler还是有意义的。

去重部分被单独抽象成了一个接口:DuplicateRemover,从而可以为同一个Scheduler选择不同的去重方式,以适应不同的需要,目前提供了两种去重方式:

RedisScheduler是使用Redis的set进行去重,其他的Scheduler默认都使用HashSetDuplicateRemover来进行去重。

如果要使用BloomFilter,必须要加入以下依赖:

<!--WebMagic对布隆过滤器的支持-->
<dependency>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
<version>16.0</version>
</dependency>

修改代码,添加布隆过滤器:

		//主函数,执行爬虫
public static void main(String[] args) {
Spider spider = Spider.create(new JobProcessor())
.addUrl("http://sports.sina.com.cn/nba/")//设置爬取数据的页面(初始访问url地址)
// .addPipeline(new FilePipeline("/development/files/"))//爬取的数据存入到指定的位置
//设置布隆去重过滤器,指定最多对1000万数据进行去重操作(需要导包com.google.guava)
.setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(10000000)))//参数设置需要对多少条数据去重
.thread(5);//设置线程数 Scheduler scheduler = spider.getScheduler();//设置断点查看使用的是哪个去重器 //执行爬虫
spider.run();
}

修改public void process(Page page)方法,添加代码:

//测试去重(只访问一次指定的链接)
page.addTargetRequest("https://finance.sina.com.cn");
page.addTargetRequest("https://finance.sina.com.cn");
page.addTargetRequest("https://finance.sina.com.cn");

完整代码:

package org.example.webMagic;

import us.codecraft.webmagic.*;
import us.codecraft.webmagic.pipeline.FilePipeline;
import us.codecraft.webmagic.processor.PageProcessor;
import us.codecraft.webmagic.scheduler.BloomFilterDuplicateRemover;
import us.codecraft.webmagic.scheduler.QueueScheduler;
import us.codecraft.webmagic.scheduler.Scheduler; /**
* @author HackerStar
* @create 2020-05-23 17:21
*/
public class JobProcessor implements PageProcessor {
//解析页面
public void process(Page page) {
//解析返回的数据page,并且把解析的结果放到ResultItems中
//css选择器
page.putField("css选择器", page.getHtml().css("div.news-list-b p").all());
//XPath
page.putField("XPath", page.getHtml().xpath("//div[@class=news-list-b]/ul/li/p/a").all());
//正则表达式
page.putField("正则表达式", page.getHtml().css("div.news-list-b a").regex(".*篮网.*").all());
//处理结果API
page.putField("处理结果API", page.getHtml().css("div.news-list-b a").regex(".*篮网.*").get());
page.putField("处理结果API2", page.getHtml().css("div.news-list-b a").regex(".*篮网.*").toString());
//获取链接
//page.addTargetRequests(page.getHtml().css("div.news-list-b").links().all());
//page.putField("url", page.getHtml().css("div.news-list-b p").all()); //测试去重(只访问一次指定的链接)
page.addTargetRequest("https://finance.sina.com.cn");
page.addTargetRequest("https://finance.sina.com.cn");
page.addTargetRequest("https://finance.sina.com.cn");
} private Site site = Site.me()
.setCharset("utf8")//设置编码
.setTimeOut(10000)//设置超时时间,单位是ms毫秒
.setRetrySleepTime(3000)//设置重试的间隔时间
.setSleepTime(3);//设置重试次数
public Site getSite() {
return site;
} //主函数,执行爬虫
public static void main(String[] args) {
Spider spider = Spider.create(new JobProcessor())
.addUrl("http://sports.sina.com.cn/nba/")//设置爬取数据的页面(初始访问url地址)
// .addPipeline(new FilePipeline("/development/files/"))//爬取的数据存入到指定的位置
//设置布隆去重过滤器,指定最多对1000万数据进行去重操作(需要导包com.google.guava)
.setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(10000000)))//参数设置需要对多少条数据去重
.thread(5);//设置线程数 Scheduler scheduler = spider.getScheduler();//设置断点查看使用的是哪个去重器 //执行爬虫
spider.run();
}
}

设置断点查看使用的是什么过滤器:

5.3.2. 三种去重方式

HashSet

使用Java中的HashSet不能重复的特点去重。优点是容易理解。使用方便。

缺点:占用内存大,性能较低。

Redis去重

使用Redis的set进行去重。优点是速度快(Redis本身速度就很快),而且去重不会占用爬虫服务器的资源,可以处理更大数据量的数据爬取。

缺点:需要准备Redis服务器,增加开发和使用成本。

布隆过滤器(BloomFilter)

使用布隆过滤器也可以实现去重。优点是占用的内存要比使用HashSet要小的多,也适合大量数据的去重操作。

缺点:有误判的可能。没有重复可能会判定重复,但是重复数据一定会判定重复。

布隆过滤器 (Bloom Filter)是由Burton Howard Bloom于1970年提出,它是一种space efficient的概率型数据结构,用于判断一个元素是否在集合中。在垃圾邮件过滤的黑白名单方法、爬虫(Crawler)的网址判重模块中等等经常被用到。

哈希表也能用于判断元素是否在集合中,但是布隆过滤器只需要哈希表的1/8或1/4的空间复杂度就能完成同样的问题。布隆过滤器可以插入元素,但不可以删除已有元素。其中的元素越多,误报率越大,但是漏报是不可能的。

原理:

布隆过滤器需要的是一个位数组(和位图类似)和K个映射函数(和Hash表类似),在初始状态时,对于长度为m的位数组array,它的所有位被置0。

对于有n个元素的集合S={S1,S2...Sn},通过k个映射函数{f1,f2,......fk},将集合S中的每个元素Sj(1<=j<=n)映射为K个值{g1,g2...gk},然后再将位数组array中相对应的array[g1],array[g2]......array[gk]置为1:

如果要查找某个元素item是否在S中,则通过映射函数{f1,f2,...fk}得到k个值{g1,g2...gk},然后再判断array[g1],array[g2]...array[gk]是否都为1,若全为1,则item在S中,否则item不在S中。

布隆过滤器会造成一定的误判,因为集合中的若干个元素通过映射之后得到的数值恰巧包括g1,g2,...gk,在这种情况下可能会造成误判,但是概率很小。

5.3.3. 布隆过滤器实现(了解)

以下是一个布隆过滤器的实现,可以参考:

//布隆过滤器
public class BloomFilter {
/* BitSet初始分配2^24个bit */
private static final int DEFAULT_SIZE = 1 << 24; /* 不同哈希函数的种子,一般应取质数 */
private static final int[] seeds = new int[] { 5, 7, 11, 13, 31, 37 }; private BitSet bits = new BitSet(DEFAULT_SIZE); /* 哈希函数对象 */
private SimpleHash[] func = new SimpleHash[seeds.length]; public BloomFilter() {
for (int i = 0; i < seeds.length; i++) {
func[i] = new SimpleHash(DEFAULT_SIZE, seeds[i]);
}
} // 将url标记到bits中
public void add(String str) {
for (SimpleHash f : func) {
bits.set(f.hash(str), true);
}
} // 判断是否已经被bits标记
public boolean contains(String str) {
if (StringUtils.isBlank(str)) {
return false;
} boolean ret = true;
for (SimpleHash f : func) {
ret = ret && bits.get(f.hash(str));
} return ret;
} /* 哈希函数类 */
public static class SimpleHash {
private int cap;
private int seed; public SimpleHash(int cap, int seed) {
this.cap = cap;
this.seed = seed;
} // hash函数,采用简单的加权和hash
public int hash(String value) {
int result = 0;
int len = value.length();
for (int i = 0; i < len; i++) {
result = seed * result + value.charAt(i);
}
return (cap - 1) & result;
}
}
}

6. 案例实现

6.1. 开发准备

6.1.1. 创建工程

创建Maven工程,并加入依赖:

		<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.0.2.RELEASE</version>
</parent> <build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>8</source>
<target>8</target>
</configuration>
</plugin>
</plugins>
</build> <dependencies>
<!--SpringMVC-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<!--SpringData Jpa-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-jpa</artifactId>
</dependency>
<!--MySQL连接包-->
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
</dependency>
<!--WebMagic核心包-->
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-core</artifactId>
<version>0.7.3</version>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
</exclusions>
</dependency>
<!--WebMagic扩展-->
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-extension</artifactId>
<version>0.7.3</version>
</dependency>
<!--WebMagic对布隆过滤器的支持-->
<dependency>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
<version>16.0</version>
</dependency>
<!--工具包-->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-lang3</artifactId>
</dependency>
</dependencies>

6.1.2. 加入配置文件

添加application.properties配置文件:

#DB Configuration:
spring.datasource.driverClassName=com.mysql.jdbc.Driver
spring.datasource.url=jdbc:mysql://127.0.0.1:3306/WebCrawler?useUnicode=true&characterEncoding=utf-8&useSSL=false
spring.datasource.username=root
spring.datasource.password=root #JPA Configuration:
spring.jpa.database=MySQL
spring.jpa.show-sql=true

6.1.3. 编写Pojo

package org.example.jobs.pojo;

import javax.persistence.GeneratedValue;
import javax.persistence.GenerationType;
import javax.persistence.Id; /**
* @author HackerStar
* @create 2020-05-24 10:26
*/
@Entity
public class JobInfo {
@Id
@GeneratedValue(strategy = GenerationType.IDENTITY)
private Long id;//主键ID
private String companyName;//公司名称
private String companyAddr;//公司联系方式
private String companyInfo;//公司信息
private String jobName;//职位名称
private String jobAddr;//工作地点
private String jobInfo;//职位信息
private Integer salaryMin;//最小工资
private Integer salaryMax;//最大工资
private String url;//招聘信息详情页
private String time;//职位最近发布时间 @Override
public String toString() {
return "JobInfo{" +
"id=" + id +
", companyName='" + companyName + '\'' +
", companyAddr='" + companyAddr + '\'' +
", companyInfo='" + companyInfo + '\'' +
", jobName='" + jobName + '\'' +
", jobAddr='" + jobAddr + '\'' +
", jobInfo='" + jobInfo + '\'' +
", salaryMin=" + salaryMin +
", salaryMax=" + salaryMax +
", url='" + url + '\'' +
", time='" + time + '\'' +
'}';
} public Long getId() {
return id;
} public void setId(Long id) {
this.id = id;
} public String getCompanyName() {
return companyName;
} public void setCompanyName(String companyName) {
this.companyName = companyName;
} public String getCompanyAddr() {
return companyAddr;
} public void setCompanyAddr(String companyAddr) {
this.companyAddr = companyAddr;
} public String getCompanyInfo() {
return companyInfo;
} public void setCompanyInfo(String companyInfo) {
this.companyInfo = companyInfo;
} public String getJobName() {
return jobName;
} public void setJobName(String jobName) {
this.jobName = jobName;
} public String getJobAddr() {
return jobAddr;
} public void setJobAddr(String jobAddr) {
this.jobAddr = jobAddr;
} public String getJobInfo() {
return jobInfo;
} public void setJobInfo(String jobInfo) {
this.jobInfo = jobInfo;
} public Integer getSalaryMin() {
return salaryMin;
} public void setSalaryMin(Integer salaryMin) {
this.salaryMin = salaryMin;
} public Integer getSalaryMax() {
return salaryMax;
} public void setSalaryMax(Integer salaryMax) {
this.salaryMax = salaryMax;
} public String getUrl() {
return url;
} public void setUrl(String url) {
this.url = url;
} public String getTime() {
return time;
} public void setTime(String time) {
this.time = time;
}
}

6.1.4. 编写Dao

package org.example.jobs.dao;

import org.example.jobs.pojo.JobInfo;
import org.springframework.data.jpa.repository.JpaRepository; /**
* @author HackerStar
* @create 2020-05-24 10:29
*/
public interface JobInfoDao extends JpaRepository<JobInfo, Long> {
}

6.1.5. 编写Service

编写Service接口

package org.example.jobs.service;

import org.example.jobs.pojo.JobInfo;

import java.util.List;

/**
* @author HackerStar
* @create 2020-05-24 10:32
*/
public interface JobInfoService {
/**
* 保存工作信息
*
* @param jobInfo
*/
public void save(JobInfo jobInfo); /**
* 根据条件查询工作信息
*
* @param jobInfo
* @return
*/
public List<JobInfo> findJobInfo(JobInfo jobInfo);
}

编写Service实现类

package org.example.jobs.service.impl;

import org.example.jobs.dao.JobInfoDao;
import org.example.jobs.pojo.JobInfo;
import org.example.jobs.service.JobInfoService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.domain.Example;
import org.springframework.stereotype.Service;
import org.springframework.transaction.annotation.Transactional; import java.util.List; /**
* @author HackerStar
* @create 2020-05-24 10:34
*/
@Service
public class JobInfoServiceImpl implements JobInfoService {
@Autowired
private JobInfoDao jobInfoDao; @Override
@Transactional
public void save(JobInfo jobInfo) {
//先从数据库查询数据,根据发布日期查询和url查询
JobInfo param = new JobInfo();
param.setUrl(jobInfo.getUrl());
param.setTime(jobInfo.getTime());
//执行查询
List<JobInfo> list = findJobInfo(param); if (list.size() == 0) {
//没有查询到数据则新增或者修改数据
jobInfoDao.saveAndFlush(jobInfo);
}
} @Override
public List<JobInfo> findJobInfo(JobInfo jobInfo) {
//设置查询条件
Example example = Example.of(jobInfo);
//执行查询
List<JobInfo> list = jobInfoDao.findAll(example);
return list;
}
}

6.1.6. 编写引导类

package org.example.jobs;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.scheduling.annotation.EnableScheduling; /**
* @author HackerStar
* @create 2020-05-24 10:39
*/
@SpringBootApplication
@EnableScheduling//开启定时任务
public class Application {
public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}
}

6.2. 功能实现

在saveJobInfo方法中设置属性时,设置断点,边调边写

6.2.1. 编写url解析功能

package org.example.jobs.task;

import org.example.jobs.pojo.JobInfo;
import org.example.jobs.utils.MathSalary;
import org.jsoup.Jsoup;
import org.springframework.scheduling.annotation.Scheduled;
import org.springframework.stereotype.Component;
import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.processor.PageProcessor;
import us.codecraft.webmagic.scheduler.BloomFilterDuplicateRemover;
import us.codecraft.webmagic.scheduler.QueueScheduler;
import us.codecraft.webmagic.selector.Html;
import us.codecraft.webmagic.selector.Selectable; import java.util.List; /**
* @author HackerStar
* @create 2020-05-24 10:41
*/
@Component
public class JobProcessor implements PageProcessor {
private String url = "https://search.51job.com/list/000000,000000,0000,01%252C32,9,99,Java,2,1.html?lang=c&stype=&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&providesalary=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare="; //initialDelay:当任务启动后,等待多久执行方法
//fixedDelay:每隔多久执行方法
//@Scheduled(initialDelay = 1000, fixedDelay = 10 * 1000)
@Scheduled(initialDelay = 1000, fixedDelay = 10 * 1000)
public void process() {
Spider.create(new JobProcessor())
.addUrl(url)
.setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(100000)))
.thread(5)
.run();
} @Override
public void process(Page page) {
//解析页面,获取招聘信息详情的url地址
List<Selectable> list = page.getHtml().css("div#resultList div.el").nodes();
//判断获取到的集合是否为空
if (list.size() == 0) {
//如果为空,表示这是招聘详情页,解析页面,获取招聘详情信息,保存数据
saveJobInfo(page);
} else {
//如果不为空,表示这是列表页,解析出详情页的url地址,放到任务队列中
for (Selectable selectable : list) {
//获取url地址
String jobInfoUrl = selectable.links().toString();
//把获取到的url地址放到任务队列中
page.addTargetRequest(jobInfoUrl);
}
//获取下一页的url(总共有两个bk一个上一页一个下一页,0表示第一个,1表示第二个)
String bkUrl = page.getHtml().css("div.p_in li.bk").nodes().get(1).links().toString();
//把url放到任务队列中
page.addTargetRequest(bkUrl);
}
} //解析页面,获取招聘详情信息,保存数据
private void saveJobInfo(Page page) {
//创建招聘详情对象
JobInfo jobInfo = new JobInfo();
//解析页面
Html html = page.getHtml();
//获取数据,封装到对象中
//jobInfo.setCompanyName(Jsoup.parse(html.css("div.cn p.cname a","text").toString()).text());
jobInfo.setCompanyName(html.css("div.cn p.cname a","text").toString());
/*
System.out.println(Jsoup.parse(html.css("div.cn p.cname a").toString()).text());-------1
System.out.println(html.css("di.cn p.cname a", "text"));-------2
System.out.println(html.css("div.cn p.cname a", "text").toString());--------3
这三个方式打印效果相同,其中第二个第三个因为打印,如果不调用toString方法打印,默认使用toString方法打印,如果是设置属性,不会自动转换为String类型
所以解析使用第一和第三中方式是一样的。
*/
String companyAddr = Jsoup.parse(html.css("div.bmsg").nodes().get(1).toString()).text();
if (companyAddr.contains("地图")) {
jobInfo.setCompanyAddr(companyAddr.substring(0, companyAddr.length()-2));
} else {
jobInfo.setCompanyAddr(companyAddr);
}
jobInfo.setCompanyInfo(html.css("div.tmsg", "text").toString());
jobInfo.setJobName(html.css("div.cn h1", "text").toString());
String jobAddrAndTime = Jsoup.parse(html.css("p.msg").toString()).text();
jobInfo.setJobAddr(jobAddrAndTime.substring(0, 2));
jobInfo.setJobInfo(Jsoup.parse(html.css("div.job_msg").toString()).text());
jobInfo.setUrl(page.getUrl().toString()); //获取薪资(年薪) //职位发布时间 //保存数据 System.out.println();//设置断点,调试用
} private Site site = Site.me()
.setCharset("gbk")//设置编码
.setTimeOut(10*1000)//设置超时时间
.setRetrySleepTime(3000)//设置重试的间隔时间
.setRetryTimes(3);//设置重试的次数
@Override
public Site getSite() {
return site;
}
}

6.2.2. 编写页面解析功能

薪水的计算需要添加课堂资料的工具类MathSalary进行计算。

 			//获取薪资(年薪)
Integer[] salary = MathSalary.getSalary(html.css("div.cn strong", "text").toString());
jobInfo.setSalaryMin(salary[0]);
jobInfo.setSalaryMax(salary[1]); //职位发布时间
String time = jobAddrAndTime.substring(jobAddrAndTime.length()-7, jobAddrAndTime.length()-2);
jobInfo.setTime(time); //保存数据
page.putField("jobInfo", jobInfo);

6.3. 使用和定制Pipeline

在WebMagic中,Pileline是抽取结束后,进行处理的部分,它主要用于抽取结果的保存,也可以定制Pileline可以实现一些通用的功能。在这里我们会定制Pipeline实现数据导入到数据库中。

6.3.1.Pipeline输出

Pipeline的接口定义如下:

public interface Pipeline {
//ResultItems保存了抽取结果,它是一个Map结构,
//用page.putField(key,value)中保存的数据,
//可以通过ResultItems.get(key)获取value值
public void process(ResultItems resultItems, Task task);
}

可以看到,Pipeline其实就是将PageProcessor抽取的结果,继续进行了处理,其实在Pipeline中完成的功能,基本上也可以直接在PageProcessor实现,那么为什么会有Pipeline?有几个原因:

  • 为了模块分离

“页面抽取”和“后处理、持久化”是爬虫的两个阶段,将其分离开来,一个是代码结构比较清晰,另一个是以后也可能将其处理过程分开,分开在独立的线程以至于不同的机器执行。

  • Pipeline的功能比较固定,更容易做成通用组件

每个页面的抽取方式千变万化,但是后续处理方式则比较固定,例如保存到文件、保存到数据库这种操作,这些对所有页面都是通用的。

在WebMagic里,一个Spider可以有多个Pipeline,使用Spider.addPipeline()即可增加一个Pipeline。这些Pipeline都会得到处理,例如可以使用

spider.addPipeline(new ConsolePipeline()).addPipeline(new FilePipeline())

实现输出结果到控制台,并且保存到文件的目标。

6.3.2. 已有的Pipeline

WebMagic中就已经提供了控制台输出、保存到文件、保存为JSON格式的文件几种通用的Pipeline。

6.3.3. 案例自定义Pipeline导入数据

自定义SpringDataPipeline

package org.example.jobs.task;

import org.example.jobs.pojo.JobInfo;
import org.example.jobs.service.JobInfoService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;
import us.codecraft.webmagic.ResultItems;
import us.codecraft.webmagic.Task;
import us.codecraft.webmagic.pipeline.Pipeline; /**
* @author HackerStar
* @create 2020-05-24 17:01
*/
@Component
public class SpringDataPipeline implements Pipeline {
@Autowired
private JobInfoService jobInfoService; @Override
public void process(ResultItems resultItems, Task task) {
//获取封装好的招聘详情对象
JobInfo jobInfo = resultItems.get("jobInfo"); //判断数据是否不为空
if (jobInfo != null) {
//如果不为空把数据保存到数据库中
jobInfoService.save(jobInfo);
}
}
}

在类JobProcessor中修改process()启动的逻辑,添加代码

.addPipeline(springDataPipeline)
	 @Autowired
private SpringDataPipeline springDataPipeline; //initialDelay:当任务启动后,等待多久执行方法
//fixedDelay:每隔多久执行方法
//@Scheduled(initialDelay = 1000, fixedDelay = 10 * 1000)
@Scheduled(initialDelay = 1000, fixedDelay = 10 * 1000)
public void process() {
Spider.create(new JobProcessor())
.addUrl(url)
.setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(100000)))
.addPipeline(springDataPipeline)
.thread(5)
.run();
}

完整代码

package org.example.jobs.task;

import org.example.jobs.pojo.JobInfo;
import org.example.jobs.utils.MathSalary;
import org.jsoup.Jsoup;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.scheduling.annotation.Scheduled;
import org.springframework.stereotype.Component;
import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.processor.PageProcessor;
import us.codecraft.webmagic.scheduler.BloomFilterDuplicateRemover;
import us.codecraft.webmagic.scheduler.QueueScheduler;
import us.codecraft.webmagic.selector.Html;
import us.codecraft.webmagic.selector.Selectable; import java.util.List; /**
* @author HackerStar
* @create 2020-05-24 10:41
*/
@Component
public class JobProcessor implements PageProcessor {
private String url = "https://search.51job.com/list/000000,000000,0000,01%252C32,9,99,Java,2,1.html?lang=c&stype=&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&providesalary=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare="; @Autowired
private SpringDataPipeline springDataPipeline; //initialDelay:当任务启动后,等待多久执行方法
//fixedDelay:每隔多久执行方法
//@Scheduled(initialDelay = 1000, fixedDelay = 10 * 1000)
@Scheduled(initialDelay = 1000, fixedDelay = 10 * 1000)
public void process() {
Spider.create(new JobProcessor())
.addUrl(url)
.setScheduler(new QueueScheduler().setDuplicateRemover(new BloomFilterDuplicateRemover(100000)))
.addPipeline(springDataPipeline)
.thread(5)
.run();
} @Override
public void process(Page page) {
//解析页面,获取招聘信息详情的url地址
List<Selectable> list = page.getHtml().css("div#resultList div.el").nodes();
//判断获取到的集合是否为空
if (list.size() == 0) {
//如果为空,表示这是招聘详情页,解析页面,获取招聘详情信息,保存数据
saveJobInfo(page);
} else {
//如果不为空,表示这是列表页,解析出详情页的url地址,放到任务队列中
for (Selectable selectable : list) {
//获取url地址
String jobInfoUrl = selectable.links().toString();
//把获取到的url地址放到任务队列中
page.addTargetRequest(jobInfoUrl);
}
//获取下一页的url(总共有两个bk一个上一页一个下一页,0表示第一个,1表示第二个)
String bkUrl = page.getHtml().css("div.p_in li.bk").nodes().get(1).links().toString();
//把url放到任务队列中
page.addTargetRequest(bkUrl);
}
} //解析页面,获取招聘详情信息,保存数据
private void saveJobInfo(Page page) {
//创建招聘详情对象
JobInfo jobInfo = new JobInfo();
//解析页面
Html html = page.getHtml();
//获取数据,封装到对象中
//jobInfo.setCompanyName(Jsoup.parse(html.css("div.cn p.cname a","text").toString()).text());
jobInfo.setCompanyName(html.css("div.cn p.cname a","text").toString());
/*
System.out.println(Jsoup.parse(html.css("div.cn p.cname a").toString()).text());-------1
System.out.println(html.css("di.cn p.cname a", "text"));-------2
System.out.println(html.css("div.cn p.cname a", "text").toString());--------3
这三个方式打印效果相同,其中第二个第三个因为打印,如果不调用toString方法打印,默认使用toString方法打印,如果是设置属性,不会自动转换为String类型
所以解析使用第一和第三中方式是一样的。
*/
String companyAddr = Jsoup.parse(html.css("div.bmsg").nodes().get(1).toString()).text();
if (companyAddr.contains("地图")) {
jobInfo.setCompanyAddr(companyAddr.substring(0, companyAddr.length()-2));
} else {
jobInfo.setCompanyAddr(companyAddr);
}
jobInfo.setCompanyInfo(html.css("div.tmsg", "text").toString());
jobInfo.setJobName(html.css("div.cn h1", "text").toString());
String jobAddrAndTime = Jsoup.parse(html.css("p.msg").toString()).text();
jobInfo.setJobAddr(jobAddrAndTime.substring(0, 2));
jobInfo.setJobInfo(Jsoup.parse(html.css("div.job_msg").toString()).text());
jobInfo.setUrl(page.getUrl().toString()); //获取薪资(年薪)
Integer[] salary = MathSalary.getSalary(html.css("div.cn strong", "text").toString());
jobInfo.setSalaryMin(salary[0]);
jobInfo.setSalaryMax(salary[1]); //职位发布时间
String time = jobAddrAndTime.substring(jobAddrAndTime.length()-7, jobAddrAndTime.length()-2);
jobInfo.setTime(time); //保存数据
page.putField("jobInfo", jobInfo); // System.out.println();//设置断点,调试用
} private Site site = Site.me()
.setCharset("gbk")//设置编码
.setTimeOut(10*1000)//设置超时时间
.setRetrySleepTime(3000)//设置重试的间隔时间
.setRetryTimes(3);//设置重试的次数
@Override
public Site getSite() {
return site;
}
}

包结构

Day02_WebCrawler(网络爬虫)的更多相关文章

  1. Python初学者之网络爬虫(二)

    声明:本文内容和涉及到的代码仅限于个人学习,任何人不得作为商业用途.转载请附上此文章地址 本篇文章Python初学者之网络爬虫的继续,最新代码已提交到https://github.com/octans ...

  2. 网络爬虫:使用Scrapy框架编写一个抓取书籍信息的爬虫服务

      上周学习了BeautifulSoup的基础知识并用它完成了一个网络爬虫( 使用Beautiful Soup编写一个爬虫 系列随笔汇总 ), BeautifulSoup是一个非常流行的Python网 ...

  3. 网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(3): 抓取amazon.com价格

    通过上一篇随笔的处理,我们已经拿到了书的书名和ISBN码.(网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(2): 抓取allitebooks.com书籍信息 ...

  4. 网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(2): 抓取allitebooks.com书籍信息及ISBN码

    这一篇首先从allitebooks.com里抓取书籍列表的书籍信息和每本书对应的ISBN码. 一.分析需求和网站结构 allitebooks.com这个网站的结构很简单,分页+书籍列表+书籍详情页. ...

  5. 网络爬虫: 从allitebooks.com抓取书籍信息并从amazon.com抓取价格(1): 基础知识Beautiful Soup

    开始学习网络数据挖掘方面的知识,首先从Beautiful Soup入手(Beautiful Soup是一个Python库,功能是从HTML和XML中解析数据),打算以三篇博文纪录学习Beautiful ...

  6. Atitit.数据检索与网络爬虫与数据采集的原理概论

    Atitit.数据检索与网络爬虫与数据采集的原理概论 1. 信息检索1 1.1. <信息检索导论>((美)曼宁...)[简介_书评_在线阅读] - dangdang.html1 1.2. ...

  7. Java 网络爬虫获取页面源代码

    原博文:http://www.cnblogs.com/xudong-bupt/archive/2013/03/20/2971893.html 1.网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网 ...

  8. [Search Engine] 搜索引擎技术之网络爬虫

    随着互联网的大力发展,互联网称为信息的主要载体,而如何在互联网中搜集信息是互联网领域面临的一大挑战.网络爬虫技术是什么?其实网络爬虫技术就是指的网络数据的抓取,因为在网络中抓取数据是具有关联性的抓取, ...

  9. [Python] 网络爬虫和正则表达式学习总结

    以前在学校做科研都是直接利用网上共享的一些数据,就像我们经常说的dataset.beachmark等等.但是,对于实际的工业需求来说,爬取网络的数据是必须的并且是首要的.最近在国内一家互联网公司实习, ...

随机推荐

  1. 【python爬虫实战】使用Selenium webdriver采集山东招考数据

    目录 1.目标 2.Selenium webdriver说明 2.1 为什么使用webdriver 2.2 webdriver支持浏览器 2.3 配置与使用说明 3.采集 3.1 分析网站 3.2 遍 ...

  2. 猿灯塔:Java程序员月薪三万,需要技术达到什么水平?

    最近跟朋友在一起聚会的时候,提了一个问题,说Java程序员如何能月薪达到二万,技术水平需要达到什么程度?人回答说这只能是大企业或者互联网企业工程师才能拿到.也许是的,小公司或者非互联网企业拿二万的不太 ...

  3. like's photos

    wallhaven官网

  4. 仅需5步,轻松升级K3s集群!

    Rancher 2.4是Rancher目前最新的版本,在这一版本中你可以通过Rancher UI对K3s集群进行升级管理. K3s是一个轻量级Kubernetes发行版,借助它你可以几分钟之内设置你的 ...

  5. python中os模块用法大全

    os.listdir(dirname):列出dirname下的目录和文件 os.getcwd():获得当前工作目录 os.chdir(dirname):改变工作目录到dirname os.path.r ...

  6. CVE-2020-0796 漏洞复现

    漏洞介绍 2020年3月10日,微软在其官方SRC发布了CVE-2020-0796的安全公告(ADV200005,MicrosoftGuidance for Disabling SMBv3 Compr ...

  7. 攻防世界-Web-ics-05

    根据题目提示直接进入设备维护中心 点击云平台设备维护中心发现page=index LFI漏洞的黑盒判断方法: 单纯的从URL判断的话,URL中path.dir.file.pag.page.archiv ...

  8. Ethical Hacking - NETWORK PENETRATION TESTING(11)

    Securing your Network From the Above Attacks. Now that we know how to test the security of all known ...

  9. 关于Java8的精心总结

    前言 ​ 最近公司里比较新的项目里面,看到了很多关于java8新特性的用法,由于之前自己对java8的新特性不是很了解也没有去做深入研究,所以最近就系统的去学习了一下,然后总结了一篇文章第一时间和大家 ...

  10. Vue开发者必会的基础知识盘点

    你会Vue吗,你看以下知识点你掌握了多少?实际工作中是否运用的得心应手?如果是,那么恭喜你! Vue中的数据和DOM已经被关联起来,所有的东西都是响应式的.注意我们不再和HTML直接交互.一个Vue应 ...