使用Jsoup爬取网站图片
package com.test.pic.crawler; import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URL;
import java.net.URLConnection;
import java.util.Arrays;
import java.util.HashSet;
import java.util.List;
import java.util.Set;
import java.util.concurrent.BlockingQueue;
import java.util.concurrent.LinkedBlockingDeque;
import java.util.concurrent.ScheduledExecutorService;
import java.util.concurrent.ScheduledThreadPoolExecutor;
import org.apache.commons.lang3.concurrent.BasicThreadFactory;
import org.jsoup.Jsoup;
import org.jsoup.nodes.*;
import org.jsoup.select.Elements; /**
* @Title: PicCrawler.java
*
* @Package com.test.pic.crawler
*
* @Description: 爬取指定网站的指定Tag下的图片或者全部Tag图片
*
* @author CoderZZ
*
* @date 2018年1月12日 下午11:22:41
*
* @version V1.0
*
*/
public class PicCrawler implements Runnable{
private static String pathString = "G:/test/pic/";//存储目录
//存储真正的爬取页面
static BlockingQueue<String> urlBlockingQueue = new LinkedBlockingDeque<String>(1000);
static int threadNum = 10;
// public PicCrawler(String url){
// this.url = url;
// } /**
* @Title: main
*
* @Description: TODO(这里用一句话描述这个方法的作用)
*
* @param @param args 设定文件
*
* @return void 返回类型
*
* @throws
*
*/
public static void main(String[] args) {
String homeurlString = "https://www.xxxx.com";//爬取页面的基本地址
String tagPageUrl = "https://www.xxxx.com/tag/";//tag分页地址
//Tag标签的完整路径
Set<String> tagFullHrefSet = new HashSet<String>(16);
//想要爬取哪些tag,如果为空,则全部爬取;否则只配置对应的tag
String[] crawlerTagArray = {"风景"};
List<String> crawlerTagList = Arrays.asList(crawlerTagArray);
try {
//1.获取想要的tag完整的url
Document tagListDocument = Jsoup.connect(tagPageUrl).get();
Elements tagsListDivElements = tagListDocument.getElementsByClass("tags_list");
for(Element element:tagsListDivElements){
Elements aElements = element.getElementsByTag("a");
for(Element a:aElements){
if(crawlerTagList.size() == 0 || crawlerTagList.contains(a.text())){
String tagUrlString = homeurlString+a.attr("href");
//https://www.xxxx.com/tag/fengjing.html
tagUrlString = tagUrlString.substring(0, tagUrlString.lastIndexOf("."))+"/1.html";
tagFullHrefSet.add(tagUrlString);
}
}
}
//2.获取图片链接页面地址,分页爬取
for(String tagUrl:tagFullHrefSet){
String tempTagUrlString = tagUrl;
int currentPageNum = 1;
while(true){
try{
Document imagePageDocument = Jsoup.connect(tempTagUrlString).get();
Elements imageListElements = imagePageDocument.getElementsByClass("Pli-litpic");
if(imageListElements.size() == 0){
break;
}
for(Element image:imageListElements){
urlBlockingQueue.offer(homeurlString+image.attr("href"));
}
//https://www.xxxx.com/tag/fengjing/1.html
tempTagUrlString = tempTagUrlString.substring(0, tempTagUrlString.lastIndexOf("/")+1)+(++currentPageNum)+".html";
}catch(Exception e){
break;
}
}
}
ScheduledExecutorService excutor = new ScheduledThreadPoolExecutor(threadNum,new BasicThreadFactory.Builder().namingPattern("my-crawler-thread-%d").daemon(false).build());
for(int i=0;i<threadNum;i++){
// excutor.schedule(new PicCrawler(urlArray[i]), 1, TimeUnit.SECONDS);
// excutor.execute(new PicCrawler(urlArray[i]));
excutor.submit(new PicCrawler());
}
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
@Override
public void run() {
while (true) {
try {
long begin = System.currentTimeMillis();
String url = urlBlockingQueue.poll();
if(null != url){
Document doc = Jsoup.connect(url).get();
Elements titleElements =doc.select("#photos > h1");
if(null != titleElements && null != titleElements.get(0)){
Set<String> imgSrcSet = new HashSet<String>(16);
Element titleElement = titleElements.get(0);
String foldNameString = titleElement.text();
String[] nameArray = foldNameString.split("\\(");
foldNameString = nameArray[0];
nameArray = nameArray[1].split("/");
int totalPaggs = Integer.parseInt(nameArray[1].replace(")", ""));
for(int i=1;i<=totalPaggs;i++){
String urlTemp = url.replace(".html", "_"+i+".html");
Document docTemp = Jsoup.connect(urlTemp).get();
Element element = docTemp.getElementById("big-pic");
Elements imgElements = element.getElementsByTag("img");
for(Element imgElement:imgElements){
imgSrcSet.add(imgElement.attr("src"));
}
}
if(imgSrcSet.size()>0){
for(String imgSrc:imgSrcSet){
// 构造URL
URL imgurl = new URL(imgSrc);
// 打开连接
URLConnection con = imgurl.openConnection();
//设置请求超时为10s
con.setConnectTimeout(10*1000);
// 输入流
InputStream is = con.getInputStream();
// 500k的数据缓冲
byte[] bs = new byte[1024*500];
// 读取到的数据长度
int len;
// 输出的文件流
File sf=new File(pathString+"\\"+foldNameString);
if(!sf.exists()){
sf.mkdirs();
}
String filename = imgSrc.split("/")[imgSrc.split("/").length-1];
OutputStream os = new FileOutputStream(sf.getPath()+"\\"+filename);
// 开始读取
while ((len = is.read(bs)) != -1) {
os.write(bs, 0, len);
}
// 完毕,关闭所有链接
os.close();
is.close();
System.out.println(imgSrc+"下载完成!!!");
}
}
long end = System.currentTimeMillis();
System.out.println("================================================================");
System.out.println(Thread.currentThread().getName()+"******************已全部下载完成,用时:"+((end-begin)/1000)+"S");
}
}else{
System.out.println("========================BlockingQueue已空,已全部抓取完成!=======================");
}
} catch (Exception e) {
System.out.println("========================抓取异常=======================");
}
}
}
}
使用Jsoup爬取网站图片的更多相关文章
- jsoup爬取网站图片
package com.ij34.JsoupTest; import java.io.File; import java.io.FileOutputStream; import java.io.Inp ...
- Python:爬取网站图片并保存至本地
Python:爬取网页图片并保存至本地 python3爬取网页中的图片到本地的过程如下: 1.爬取网页 2.获取图片地址 3.爬取图片内容并保存到本地 实例:爬取百度贴吧首页图片. 代码如下: imp ...
- Day11 (黑客成长日记) 爬取网站图片
#导入第三方库# coding:utf-8import requests,re #找到需要爬取的网站'http://www.qqjia.com/sucai/sucai1210.htm' #1>获 ...
- webmagic 二次开发爬虫 爬取网站图片
webmagic的是一个无须配置.便于二次开发的爬虫框架,它提供简单灵活的API,只需少量代码即可实现一个爬虫. webmagic介绍 编写一个简单的爬虫 webmagic的使用文档:http://w ...
- 使用ajax爬取网站图片()
以下内容转载自:https://www.makcyun.top/web_scraping_withpython4.html 文章关于网站使用Ajaxj技术加载页面数据,进行爬取讲的很详细 大致步骤如下 ...
- 【Python】爬取网站图片
import requests import bs4 import urllib.request import urllib import os hdr = {'User-Agent': 'Mozil ...
- Jsoup爬取带登录验证码的网站
今天学完爬虫之后想的爬一下我们学校的教务系统,可是发现登录的时候有验证码.因此研究了Jsoup爬取带验证码的网站: 大体的思路是:(需要注意的是__VIEWSTATE一直变化,所以我们每个页面都需要重 ...
- jsoup爬取某网站安全数据
jsoup爬取某网站安全数据 package com.vfsd.net; import java.io.IOException; import java.sql.SQLException; impor ...
- Python爬虫学习(6): 爬取MM图片
为了有趣我们今天就主要去爬取以下MM的图片,并将其按名保存在本地.要爬取的网站为: 大秀台模特网 1. 分析网站 进入官网后我们发现有很多分类: 而我们要爬取的模特中的女模内容,点进入之后其网址为:h ...
随机推荐
- 8.1 HTML基础知识点
8.1 HTML基础知识点 一.HTML是什么? Hyper Text Markup Language 超文本标记语言 的缩写 开发一个html文件,可以有很多方式 :比如Dreamweaver,HB ...
- IDEA下载安装及绿色方法
特别提示:本人博客部分有参考网络其他博客,但均是本人亲手编写过并验证通过.如发现博客有错误,请及时提出以免误导其他人,谢谢!欢迎转载,但记得标明文章出处:http://www.cnblogs.com/ ...
- 【闭包】JS闭包深入理解
先看题目代码: 1 2 3 4 5 6 7 8 9 10 11 12 function fun(n,o) { console.log(o) return { fun:function(m){ ...
- koa 项目实战(四)注册接口和调试工具(postman)
1.安装模块 npm install koa-bodyparser --save npm install bcryptjs --save 2.引入模块 根目录/app.js const bodyPar ...
- [学习笔记] Uplift Decision Tree With KL Divergence
Uplift Decision Tree With KL Divergence Intro Uplift model 我没找到一个合适的翻译,这方法主要应用是,探究用户在给予一定激励之后的表现,也就是 ...
- LC 413. Arithmetic Slices
A sequence of number is called arithmetic if it consists of at least three elements and if the diffe ...
- Linux内存简单汇总
Linux内存主要用来存储系统和应用程序的指令,数据,缓存等 一,内存映射 1,内核给每个进程提供一个独立的虚拟机地址空间,并且这个地址空间是连续的 2,虚拟地址空间内部又被分为内核空间和用户空间 3 ...
- ubuntu下wps的安装
(一)安装 1)下载:WPS For Linux http://community.wps.cn/download/ 下载wps-office_10.1.0.5672~a21_amd64.deb 2) ...
- IPV6测试方法
终端 dig +nocmd + nostats 你的域名 AAAA: 查看Got answer 如果 status的状态是NO ERROR 那就是支持IPV6 就没啥问题. 如果status 的状态是 ...
- Golang- import 导入包的几种方式:点,别名与下划线
包的导入语法 在写Go代码的时候经常用到import这个命令用来导入包文件,看到的方式参考如下: import( "fmt" ) 然后在代码里面可以通过如下的方式调用 fmt.Pr ...