Node.js meitulu图片批量下载爬虫1.06版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1.06 // 1.00 完成图片爬虫,手动输入页数和目录 // 1.01 改写。 // 1.02 手动输入页面url,然后自动解析 // 1.03 从命令行获得页面url,然后自动解析 // 1.04 解决数量节点位置不固定bug和输入状态不退出bug // 1.05 增加自动模式和手动模式 // 1.06 更改为按名字搜索页批量下载 // 2017年11月9日 //====================================================== // 内置https模块,用来解析页面得到页数(图片总数)和目录(图片所在网络目录) var https=require("https"); // 内置http模块,用来通过地址得到图片文件 var http=require("http"); // 用于解析gzip网页(ungzip,https得到的网页是用gzip进行压缩的) var zlib = require('zlib'); // cheerio模块,提供了类似jQuery的功能,用于从HTML code中查找页数和目录 var cheerio = require("cheerio"); // 内置文件处理模块,用于创建目录和图片文件 var fs=require('fs'); // 请求参数JSON。http和https都有使用 var options; // request请求 var req; //-------------------------------------- // 程序入口 //-------------------------------------- function getInput(){ process.stdout.write("\033[35m 请输入按名称搜索的页面URL:\033[039m"); //紫色 process.stdin.resume(); process.stdin.setEncoding('utf8'); process.stdin.on('data',function(text){ process.stdin.end();// 退出输入状态 findPageUrls(text.trim());// trim()是必须的! }); } //-------------------------------------- // 在按名称搜索的页面找到单页url // batchPageUrl sample1:https://www.meitulu.com/t/mikie-hara/ // batchPageUrl sample2:https://www.meitulu.com/search/%E5%8E%9F%E5%B9%B2 // sample2类似的地址可能要尝试多次 //-------------------------------------- function findPageUrls(batchPageUrl){ console.log("开始查找单页urls"); var hostName=""; var Path=""; var arr=batchPageUrl.split("/"); hostName=arr[2]; console.log("hostName="+hostName); // 以是否以‘/’结尾区分两种情况 if(batchPageUrl.charAt(batchPageUrl.length-1)=='/'){ // 带斜杠的是点名字出来的已设定地址 Path="/"+arr[3]+"/"+arr[4]+"/"; }else{ // 不带斜杠的是按关键字搜索出来的 Path="/"+arr[3]+"/"+arr[4]; } console.log("Path="+Path); // 初始化options options={ hostname:hostName, port:443, path:Path,// 子路径 method:'GET', agent:false, gzip: true, }; req=https.request(options,function(resp){ var html = []; resp.on("data", function(data) { html.push(data); }) resp.on("end", function() { var buffer = Buffer.concat(html); zlib.gunzip(buffer, function(err, decoded) { if(err){ console.log("[findPageUrls]不能得到页面:"+batchPageUrl+"对应的html文本,错误是:"+err); console.log(err); }else{ //console.log(decoded.toString());// gzip解压后的html文本 var body=decoded.toString(); var $ = cheerio.load(body); // 查找所有class为boxs的节点下面的ul li a节点 $(".boxs ul li a").each(function(index,element){ var text=$(element).attr("href"); // 有https://www.meitulu.com/item的地址的链接是目标 if(text.indexOf('https://www.meitulu.com/item')!=-1){ console.log("pageUrl="+text); start(text); } }) } }) }).on("error", function() { console.log("获取失败") }) }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[findPageUrls]socket端口连接超时。'); console.log(err); }else{ console.log('[findPageUrls]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } //-------------------------------------- // 开始单页下载 //-------------------------------------- function start(pageUrl){ console.log("开始下载..."); var hostName=""; var Path=""; var arr=pageUrl.split("/"); hostName=arr[2]; Path="/"+arr[3]+"/"+arr[4]; // 初始化options options={ hostname:hostName, port:443, path:Path,// 子路径 method:'GET', agent:false, gzip: true, }; req=https.request(options,function(resp){ var html = []; resp.on("data", function(data) { html.push(data); }) resp.on("end", function() { var buffer = Buffer.concat(html); zlib.gunzip(buffer, function(err, decoded) { var endIndex=-1; var folder=""; if(err){ console.log("不能得到html文本,因为"+err); console.log("请使用 1.05版本里的 1.手动模式 下载 "+pageUrl); }else{ //console.log(decoded.toString());// gzip解压后的html文本 var body=decoded.toString(); var $ = cheerio.load(body); // 查找所有class为c_l的节点下面的p节点 $(".c_l p").each(function(index,element){ var text=$(element).text(); if(text.indexOf("数量")!=-1 && endIndex==-1){ var arr=text.split(" "); endIndex=arr[1]; } }) // 查找所有class为c_l的节点下面的p节点 $(".content center img").each(function(index,element){ if(index==0){ var text=$(element).attr("src"); var arr=text.split("/"); folder=arr[arr.length-2]; } }) console.log("页数="+endIndex); console.log("目录="+folder); fs.mkdir('./'+folder,function(err){ if(err){ console.log("目录"+folder+"已经存在"); } }); } // 下载图片 for(var i=1;i<=endIndex;i++){ downloadPic(folder,i); } }) }).on("error", function() { console.log("获取失败") }) }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[start]socket端口连接超时。'); console.log(err); }else{ console.log('[start]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } //-------------------------------------- // 下载图片 // folder:图片所在url的目录 // pinctureIndex:图片序号 //-------------------------------------- function downloadPic(folder,pinctureIndex){ console.log("图片:"+pinctureIndex+"下载开始"); // 初始化options options={ hostname:'mtl.ttsqgs.com',// 这里别加http://,否则会出现ENOTFOUND错误 port:80, path:'/images/img/'+folder+'/'+pinctureIndex+'.jpg',// 子路径 method:'GET', }; req=http.request(options,function(resp){ var imgData = ""; resp.setEncoding("binary"); resp.on('data',function(chunk){ imgData+=chunk; }); resp.on('end',function(){ var fileName="./"+folder+"/"+pinctureIndex+".jpg"; fs.writeFile(fileName, imgData, "binary", function(err){ if(err){ console.log("文件"+fileName+"下载失败."); } console.log("文件"+fileName+"下载成功"); }); }); }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[downloadPic]socket端口连接超时。'); console.log(err); }else{ console.log('[downloadPic]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } // 调用getInput函数,程序开始 getInput();
2017年11月10日07:02:27
Node.js meitulu图片批量下载爬虫1.06版的更多相关文章
- Node.js meitulu图片批量下载爬虫 1.05版(Final最终版)
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.04版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.03版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.02版
以前版本需要先查看网页源码,然后肉眼找到图片数量和子目录,虽说不费事,但多少有点不方便. 于是修改了一下,用cheerio自己去找找到图片数量和子目录,只要修改页面地址就行了.至此社会又前进了一步. ...
- Node.js meitulu图片批量下载爬虫1.01版
在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下 ...
- Node.js meitulu图片批量下载爬虫1.051
原有1.05版程序没有断点续传模式,现在在最近程序基础上改写一版1.051. //====================================================== // m ...
- Node.js mm131图片批量下载爬虫1.01 增加断点续传功能
这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名.我的具体做法是:在下载出现故障或是图片已 ...
- Node.js abaike图片批量下载爬虫1.02
//====================================================== // abaike图片批量下载爬虫1.02 // 用最近的断点续传框架改写原有1.01 ...
- Node.js nvshens图片批量下载爬虫1.01
//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.0 ...
随机推荐
- C++ Primer 阅读笔记:迭代器和容器 小结
原创 by zoe.zhang 0.写在前面的话 我是在2011年学的C++,但是那一年恰好是C++11新标准的一年,但是大学上学的C++还是基于C++98的风格的,使用的编译器也是VC6.0,啊, ...
- 6.shell判断语句
[ condition ](注意condition前后要有空格),可以使用$?验证(0为true,>1为false) 两个整数的比较:=:字符串比较-lt:小于-gt:大于-le:小于等于-ge ...
- [ Python - 7 ] 简单的省份查询系统
主要是练习while 循环和 if 条件判断的使用 #!_*_coding:utf-8_*_ # Author: hkey def options(list): for i, v in enumera ...
- DRF的过滤与排序
过滤 对于列表数据可能需要根据字段进行过滤,我们可以通过添加 django-filter 扩展来增强支持. pip install django-filter 在配置文件中增加过滤后端的设置: INS ...
- 学习apache commons lang3的源代码 (2):RandomStringUtils
本文,主要是分析类;RandomStringUtils. 下面这个方法的:count:表示要生成的数量(比如4个字符组成的字符串等) start,end,表示限定的范围,比如生成ascii码的随机等. ...
- js的变量的有效域
function test(o) { var i=0; if(typeof o=="object") { var j=1; for(var k=0;k<10;k++) { c ...
- 【hdoj_1257】最小拦截系统
题目:http://acm.hdu.edu.cn/showproblem.php?pid=1257 可以这样理解题意:给出一组数字,给它们划分组数,划分的依据是,每一组的元素必须是单调递减的顺序,只有 ...
- centos6.5 python2.7.8 安装scrapy总是出错【解决】
pip install Scrapy 报错: UnicodeDecodeError: 'ascii' codec can't decode byte 0xb4 in position python s ...
- 将双击“root的主文件”弹出的窗口设置为文件浏览器
1.双击桌面"root的文件夹"图标, 在过去Centos版本之前,每次双击“root主文件夹”都会弹出文件管理窗口: 解决办法: 关闭所有窗口后,重新双击图标: ...
- HDU 2521 反素数(数论,比较)
#include<iostream> #include<cstring> #include<cmath> #include<cstdio> using ...