Node.js meitulu图片批量下载爬虫1.06版
//======================================================
// https://www.meitulu.com图片批量下载Node.js爬虫1.06
// 1.00 完成图片爬虫,手动输入页数和目录
// 1.01 改写。
// 1.02 手动输入页面url,然后自动解析
// 1.03 从命令行获得页面url,然后自动解析
// 1.04 解决数量节点位置不固定bug和输入状态不退出bug
// 1.05 增加自动模式和手动模式
// 1.06 更改为按名字搜索页批量下载
// 2017年11月9日
//======================================================
// 内置https模块,用来解析页面得到页数(图片总数)和目录(图片所在网络目录)
var https=require("https");
// 内置http模块,用来通过地址得到图片文件
var http=require("http");
// 用于解析gzip网页(ungzip,https得到的网页是用gzip进行压缩的)
var zlib = require('zlib');
// cheerio模块,提供了类似jQuery的功能,用于从HTML code中查找页数和目录
var cheerio = require("cheerio");
// 内置文件处理模块,用于创建目录和图片文件
var fs=require('fs');
// 请求参数JSON。http和https都有使用
var options;
// request请求
var req;
//--------------------------------------
// 程序入口
//--------------------------------------
function getInput(){
process.stdout.write("\033[35m 请输入按名称搜索的页面URL:\033[039m"); //紫色
process.stdin.resume();
process.stdin.setEncoding('utf8');
process.stdin.on('data',function(text){
process.stdin.end();// 退出输入状态
findPageUrls(text.trim());// trim()是必须的!
});
}
//--------------------------------------
// 在按名称搜索的页面找到单页url
// batchPageUrl sample1:https://www.meitulu.com/t/mikie-hara/
// batchPageUrl sample2:https://www.meitulu.com/search/%E5%8E%9F%E5%B9%B2
// sample2类似的地址可能要尝试多次
//--------------------------------------
function findPageUrls(batchPageUrl){
console.log("开始查找单页urls");
var hostName="";
var Path="";
var arr=batchPageUrl.split("/");
hostName=arr[2];
console.log("hostName="+hostName);
// 以是否以‘/’结尾区分两种情况
if(batchPageUrl.charAt(batchPageUrl.length-1)=='/'){
// 带斜杠的是点名字出来的已设定地址
Path="/"+arr[3]+"/"+arr[4]+"/";
}else{
// 不带斜杠的是按关键字搜索出来的
Path="/"+arr[3]+"/"+arr[4];
}
console.log("Path="+Path);
// 初始化options
options={
hostname:hostName,
port:443,
path:Path,// 子路径
method:'GET',
agent:false,
gzip: true,
};
req=https.request(options,function(resp){
var html = [];
resp.on("data", function(data) {
html.push(data);
})
resp.on("end", function() {
var buffer = Buffer.concat(html);
zlib.gunzip(buffer, function(err, decoded) {
if(err){
console.log("[findPageUrls]不能得到页面:"+batchPageUrl+"对应的html文本,错误是:"+err);
console.log(err);
}else{
//console.log(decoded.toString());// gzip解压后的html文本
var body=decoded.toString();
var $ = cheerio.load(body);
// 查找所有class为boxs的节点下面的ul li a节点
$(".boxs ul li a").each(function(index,element){
var text=$(element).attr("href");
// 有https://www.meitulu.com/item的地址的链接是目标
if(text.indexOf('https://www.meitulu.com/item')!=-1){
console.log("pageUrl="+text);
start(text);
}
})
}
})
}).on("error", function() {
console.log("获取失败")
})
});
// 超时处理
req.setTimeout(5000,function(){
req.abort();
});
// 出错处理
req.on('error',function(err){
if(err.code=="ECONNRESET"){
console.log('[findPageUrls]socket端口连接超时。');
console.log(err);
}else{
console.log('[findPageUrls]请求发生错误,err.code:'+err.code);
console.log(err);
}
});
// 请求结束
req.end();
}
//--------------------------------------
// 开始单页下载
//--------------------------------------
function start(pageUrl){
console.log("开始下载...");
var hostName="";
var Path="";
var arr=pageUrl.split("/");
hostName=arr[2];
Path="/"+arr[3]+"/"+arr[4];
// 初始化options
options={
hostname:hostName,
port:443,
path:Path,// 子路径
method:'GET',
agent:false,
gzip: true,
};
req=https.request(options,function(resp){
var html = [];
resp.on("data", function(data) {
html.push(data);
})
resp.on("end", function() {
var buffer = Buffer.concat(html);
zlib.gunzip(buffer, function(err, decoded) {
var endIndex=-1;
var folder="";
if(err){
console.log("不能得到html文本,因为"+err);
console.log("请使用 1.05版本里的 1.手动模式 下载 "+pageUrl);
}else{
//console.log(decoded.toString());// gzip解压后的html文本
var body=decoded.toString();
var $ = cheerio.load(body);
// 查找所有class为c_l的节点下面的p节点
$(".c_l p").each(function(index,element){
var text=$(element).text();
if(text.indexOf("数量")!=-1 && endIndex==-1){
var arr=text.split(" ");
endIndex=arr[1];
}
})
// 查找所有class为c_l的节点下面的p节点
$(".content center img").each(function(index,element){
if(index==0){
var text=$(element).attr("src");
var arr=text.split("/");
folder=arr[arr.length-2];
}
})
console.log("页数="+endIndex);
console.log("目录="+folder);
fs.mkdir('./'+folder,function(err){
if(err){
console.log("目录"+folder+"已经存在");
}
});
}
// 下载图片
for(var i=1;i<=endIndex;i++){
downloadPic(folder,i);
}
})
}).on("error", function() {
console.log("获取失败")
})
});
// 超时处理
req.setTimeout(5000,function(){
req.abort();
});
// 出错处理
req.on('error',function(err){
if(err.code=="ECONNRESET"){
console.log('[start]socket端口连接超时。');
console.log(err);
}else{
console.log('[start]请求发生错误,err.code:'+err.code);
console.log(err);
}
});
// 请求结束
req.end();
}
//--------------------------------------
// 下载图片
// folder:图片所在url的目录
// pinctureIndex:图片序号
//--------------------------------------
function downloadPic(folder,pinctureIndex){
console.log("图片:"+pinctureIndex+"下载开始");
// 初始化options
options={
hostname:'mtl.ttsqgs.com',// 这里别加http://,否则会出现ENOTFOUND错误
port:80,
path:'/images/img/'+folder+'/'+pinctureIndex+'.jpg',// 子路径
method:'GET',
};
req=http.request(options,function(resp){
var imgData = "";
resp.setEncoding("binary");
resp.on('data',function(chunk){
imgData+=chunk;
});
resp.on('end',function(){
var fileName="./"+folder+"/"+pinctureIndex+".jpg";
fs.writeFile(fileName, imgData, "binary", function(err){
if(err){
console.log("文件"+fileName+"下载失败.");
}
console.log("文件"+fileName+"下载成功");
});
});
});
// 超时处理
req.setTimeout(5000,function(){
req.abort();
});
// 出错处理
req.on('error',function(err){
if(err.code=="ECONNRESET"){
console.log('[downloadPic]socket端口连接超时。');
console.log(err);
}else{
console.log('[downloadPic]请求发生错误,err.code:'+err.code);
console.log(err);
}
});
// 请求结束
req.end();
}
// 调用getInput函数,程序开始
getInput();
2017年11月10日07:02:27
Node.js meitulu图片批量下载爬虫1.06版的更多相关文章
- Node.js meitulu图片批量下载爬虫 1.05版(Final最终版)
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.04版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.03版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.02版
以前版本需要先查看网页源码,然后肉眼找到图片数量和子目录,虽说不费事,但多少有点不方便. 于是修改了一下,用cheerio自己去找找到图片数量和子目录,只要修改页面地址就行了.至此社会又前进了一步. ...
- Node.js meitulu图片批量下载爬虫1.01版
在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下 ...
- Node.js meitulu图片批量下载爬虫1.051
原有1.05版程序没有断点续传模式,现在在最近程序基础上改写一版1.051. //====================================================== // m ...
- Node.js mm131图片批量下载爬虫1.01 增加断点续传功能
这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名.我的具体做法是:在下载出现故障或是图片已 ...
- Node.js abaike图片批量下载爬虫1.02
//====================================================== // abaike图片批量下载爬虫1.02 // 用最近的断点续传框架改写原有1.01 ...
- Node.js nvshens图片批量下载爬虫1.01
//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.0 ...
随机推荐
- Jxl、JxCell图表导出功能的实现
最近接触过许多报表导出功能,也用过多种工具进行导出功能的实现,但对于图表的导出一直没有仔细的去展开研究和探讨,直到最近略微整理了下这方面的需求和技术攻克. 首先导出excel功能的实现主要有JXL.J ...
- redis 数据类型的使用场景
value为对应的数据类型. String 应用场景: String是最常用的一种数据类型,普通的key/value存储都可以归为此类,value其实不仅是String,也可以是数字. Hash 应用 ...
- docker从零开始(五)堆栈初体验,stacks
先决条件 安装Docker 1.13或更高版本. 获取Docker Compose,请参考第三节 按照第四节中的描述获取Docker Machine. 在第二节中了解如何创建容器. 确保您的图像作为已 ...
- ubuntu 16.04安装redis(源码安装)zz
本文转载自: http://www.linuxdiyf.com/linux/22527.html Redis是一个开源的使用ANSI C语言编写.支持网络.可基于内存亦可持久化的日志型.Key-Val ...
- MVC架构中的controller的几种写法
开始写代码之前,我们先来看一下spring MVC概念.一张图能够清晰得说明. 除了controller,我们需要编写大量代码外,其余的都可以通过配置文件直接配置. MVC的本质即是将业务数据的抽取和 ...
- 虚拟机vmware下安装Ghost XP——正确的解决方案
http://hi.baidu.com/xjl456852/item/fd466e9935b2da8859146111 在虚拟机中启动系统,出现"Operating System not f ...
- Jquery获取服务器端控件的三种方式
一 Jquery获得服务器控件值的方法由于ASP.NET网页运行后,服务器控件会随机生成客户端id,jquery获取时候不太好操作,google了下,总结有以下3种方法: 服务器控件代码:<as ...
- python提纲
根据网上专栏整理提纲 1.模块介绍 2.time&datetime模块 3.random模块 4.os模块 5.sys模块 6.json&pickle模块 7.logging模块 8. ...
- NOIP2018提高组模拟题(六)
购物(shop) Description 小林来到商店中进行购物.商店里一共有 n 件物品,第 i 件物品的价格为 a[i] 元.小林总共需要购买 m 件物品,他希望他所花费的钱最少,请你计算出最小 ...
- POJ 1741 Tree (点分治)
Tree Time Limit: 1000MS Memory ...