Node.js meitulu图片批量下载爬虫1.06版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1.06 // 1.00 完成图片爬虫,手动输入页数和目录 // 1.01 改写。 // 1.02 手动输入页面url,然后自动解析 // 1.03 从命令行获得页面url,然后自动解析 // 1.04 解决数量节点位置不固定bug和输入状态不退出bug // 1.05 增加自动模式和手动模式 // 1.06 更改为按名字搜索页批量下载 // 2017年11月9日 //====================================================== // 内置https模块,用来解析页面得到页数(图片总数)和目录(图片所在网络目录) var https=require("https"); // 内置http模块,用来通过地址得到图片文件 var http=require("http"); // 用于解析gzip网页(ungzip,https得到的网页是用gzip进行压缩的) var zlib = require('zlib'); // cheerio模块,提供了类似jQuery的功能,用于从HTML code中查找页数和目录 var cheerio = require("cheerio"); // 内置文件处理模块,用于创建目录和图片文件 var fs=require('fs'); // 请求参数JSON。http和https都有使用 var options; // request请求 var req; //-------------------------------------- // 程序入口 //-------------------------------------- function getInput(){ process.stdout.write("\033[35m 请输入按名称搜索的页面URL:\033[039m"); //紫色 process.stdin.resume(); process.stdin.setEncoding('utf8'); process.stdin.on('data',function(text){ process.stdin.end();// 退出输入状态 findPageUrls(text.trim());// trim()是必须的! }); } //-------------------------------------- // 在按名称搜索的页面找到单页url // batchPageUrl sample1:https://www.meitulu.com/t/mikie-hara/ // batchPageUrl sample2:https://www.meitulu.com/search/%E5%8E%9F%E5%B9%B2 // sample2类似的地址可能要尝试多次 //-------------------------------------- function findPageUrls(batchPageUrl){ console.log("开始查找单页urls"); var hostName=""; var Path=""; var arr=batchPageUrl.split("/"); hostName=arr[2]; console.log("hostName="+hostName); // 以是否以‘/’结尾区分两种情况 if(batchPageUrl.charAt(batchPageUrl.length-1)=='/'){ // 带斜杠的是点名字出来的已设定地址 Path="/"+arr[3]+"/"+arr[4]+"/"; }else{ // 不带斜杠的是按关键字搜索出来的 Path="/"+arr[3]+"/"+arr[4]; } console.log("Path="+Path); // 初始化options options={ hostname:hostName, port:443, path:Path,// 子路径 method:'GET', agent:false, gzip: true, }; req=https.request(options,function(resp){ var html = []; resp.on("data", function(data) { html.push(data); }) resp.on("end", function() { var buffer = Buffer.concat(html); zlib.gunzip(buffer, function(err, decoded) { if(err){ console.log("[findPageUrls]不能得到页面:"+batchPageUrl+"对应的html文本,错误是:"+err); console.log(err); }else{ //console.log(decoded.toString());// gzip解压后的html文本 var body=decoded.toString(); var $ = cheerio.load(body); // 查找所有class为boxs的节点下面的ul li a节点 $(".boxs ul li a").each(function(index,element){ var text=$(element).attr("href"); // 有https://www.meitulu.com/item的地址的链接是目标 if(text.indexOf('https://www.meitulu.com/item')!=-1){ console.log("pageUrl="+text); start(text); } }) } }) }).on("error", function() { console.log("获取失败") }) }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[findPageUrls]socket端口连接超时。'); console.log(err); }else{ console.log('[findPageUrls]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } //-------------------------------------- // 开始单页下载 //-------------------------------------- function start(pageUrl){ console.log("开始下载..."); var hostName=""; var Path=""; var arr=pageUrl.split("/"); hostName=arr[2]; Path="/"+arr[3]+"/"+arr[4]; // 初始化options options={ hostname:hostName, port:443, path:Path,// 子路径 method:'GET', agent:false, gzip: true, }; req=https.request(options,function(resp){ var html = []; resp.on("data", function(data) { html.push(data); }) resp.on("end", function() { var buffer = Buffer.concat(html); zlib.gunzip(buffer, function(err, decoded) { var endIndex=-1; var folder=""; if(err){ console.log("不能得到html文本,因为"+err); console.log("请使用 1.05版本里的 1.手动模式 下载 "+pageUrl); }else{ //console.log(decoded.toString());// gzip解压后的html文本 var body=decoded.toString(); var $ = cheerio.load(body); // 查找所有class为c_l的节点下面的p节点 $(".c_l p").each(function(index,element){ var text=$(element).text(); if(text.indexOf("数量")!=-1 && endIndex==-1){ var arr=text.split(" "); endIndex=arr[1]; } }) // 查找所有class为c_l的节点下面的p节点 $(".content center img").each(function(index,element){ if(index==0){ var text=$(element).attr("src"); var arr=text.split("/"); folder=arr[arr.length-2]; } }) console.log("页数="+endIndex); console.log("目录="+folder); fs.mkdir('./'+folder,function(err){ if(err){ console.log("目录"+folder+"已经存在"); } }); } // 下载图片 for(var i=1;i<=endIndex;i++){ downloadPic(folder,i); } }) }).on("error", function() { console.log("获取失败") }) }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[start]socket端口连接超时。'); console.log(err); }else{ console.log('[start]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } //-------------------------------------- // 下载图片 // folder:图片所在url的目录 // pinctureIndex:图片序号 //-------------------------------------- function downloadPic(folder,pinctureIndex){ console.log("图片:"+pinctureIndex+"下载开始"); // 初始化options options={ hostname:'mtl.ttsqgs.com',// 这里别加http://,否则会出现ENOTFOUND错误 port:80, path:'/images/img/'+folder+'/'+pinctureIndex+'.jpg',// 子路径 method:'GET', }; req=http.request(options,function(resp){ var imgData = ""; resp.setEncoding("binary"); resp.on('data',function(chunk){ imgData+=chunk; }); resp.on('end',function(){ var fileName="./"+folder+"/"+pinctureIndex+".jpg"; fs.writeFile(fileName, imgData, "binary", function(err){ if(err){ console.log("文件"+fileName+"下载失败."); } console.log("文件"+fileName+"下载成功"); }); }); }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[downloadPic]socket端口连接超时。'); console.log(err); }else{ console.log('[downloadPic]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } // 调用getInput函数,程序开始 getInput();
2017年11月10日07:02:27
Node.js meitulu图片批量下载爬虫1.06版的更多相关文章
- Node.js meitulu图片批量下载爬虫 1.05版(Final最终版)
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.04版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.03版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.02版
以前版本需要先查看网页源码,然后肉眼找到图片数量和子目录,虽说不费事,但多少有点不方便. 于是修改了一下,用cheerio自己去找找到图片数量和子目录,只要修改页面地址就行了.至此社会又前进了一步. ...
- Node.js meitulu图片批量下载爬虫1.01版
在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下 ...
- Node.js meitulu图片批量下载爬虫1.051
原有1.05版程序没有断点续传模式,现在在最近程序基础上改写一版1.051. //====================================================== // m ...
- Node.js mm131图片批量下载爬虫1.01 增加断点续传功能
这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名.我的具体做法是:在下载出现故障或是图片已 ...
- Node.js abaike图片批量下载爬虫1.02
//====================================================== // abaike图片批量下载爬虫1.02 // 用最近的断点续传框架改写原有1.01 ...
- Node.js nvshens图片批量下载爬虫1.01
//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.0 ...
随机推荐
- 3个js函数 变成数组本身的3个方法
<!DOCTYPE html> 3个js函数 变成数组本身的3个方法 /** * 稀疏数组 变成不稀疏数组 * @params array arr 稀疏数组 * @return arry ...
- win32 读取文本文件,并进行字符串分割和存储
//分割字符 char *p;//p存放临时行指针 q存放临时每一行的列指针 char *hang[100]={0};//存储第一行 char *lie[300]={0} ...
- RTP 学习
1. RTP提供抖动补偿和数据无序到达检测的机制 2. RTP 本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于底层服务去实现这一过程. RTP标准定义了两个子协议,RTP和RTCP. ...
- nginx [error] open() "/usr/local/nginx/logs/nginx.pid" failed的解决
今天关闭nginx后重启不了: nginx -s reload 结果报错: nginx: [error] open() "/usr/local/nginx/logs/nginx.pid&qu ...
- AC日记——摆花
思路: 矩阵加速dp: 代码: #include <cstdio> #include <cstring> #include <iostream> #include ...
- PHP实现支付宝即时到账功能
本文实例为大家分享了PHP支付宝即时到账功能的实现代码,供大家参考,具体内容如下 首先需要下载即时到账交易接口,传送门https://doc.open.alipay.com/doc2/detail?t ...
- Codeforces #449 Div2 D
#449 Div2 D 题意 交互式类题目. 起始有 n 张纸,会给出 m 次数字 p (\(1 \leq p \leq c\)),每次可选择一张纸,并在纸上写上这个数字,如果纸上已经存在数字,会覆盖 ...
- 第1天-html快速入门
开发工具:HBuilder 创建项目: 在电脑本地磁盘创建项目目录,如"D:\project" 打开HBuilder,这个工具默认会创建一个项目,我们删掉即可,然后新建项目:&qu ...
- 某dalao贼快的hash?
#include<map> #include<cstdio> #include<iostream> #include<ext/pb_ds/assoc_cont ...
- [BZOJ 1499] 瑰丽华尔兹
Link:https://www.lydsy.com/JudgeOnline/problem.php?id=1499 Solution : 能立即发现这是和动态规划相关的题目 令f[t][i][j]表 ...