说明:本文在个人博客地址为edwardesire.com,欢迎前来品尝。


今天来学习alsotang的爬虫教程,跟着把CNode简单地爬一遍。


  1. 建立项目craelr-demo

    我们首先建立一个Express项目,然后将app.js的文件内容全部删除,因为我们暂时不需要在Web端展示内容。当然我们也可以在空文件夹下直接 npm install express来使用我们需要的Express功能。

  2. 目标网站分析

    如图,这是CNode首页一部分div标签,我们就是通过这一系列的id、class来定位我们需要的信息。

  3. 使用superagent获取源数据

    superagent就是ajax API来使用的Http库,它的使用方法与jQuery差不多,我们通过它发起get请求,在回调函数中输出结果。

     var express = require('express');
    var url = require('url'); //解析操作url
    var superagent = require('superagent'); //这三个外部依赖不要忘记npm install
    var cheerio = require('cheerio');
    var eventproxy = require('eventproxy'); var targetUrl = 'https://cnodejs.org/';
    superagent.get(targetUrl)
    .end(function (err, res) {
    console.log(res);
    });

    它的res结果为一个包含目标url信息的对象,网站内容主要在其text(string)里。

  4. 使用cheerio解析

    cheerio充当服务器端的jQuery功能,我们先使用它的.load()来载入HTML,再通过CSS selector来筛选元素。

     var $ = cheerio.load(res.text);
    //通过CSS selector来筛选数据
    $('#topic_list .topic_title').each(function (idx, element) {
    console.log(element);
    });

    其结果为一个个对象,调用 .each(function(index, element))函数来遍历每一个对象,返回的是HTML DOM Elements。

    输出 console.log($element.attr('title'));的结果为 广州 2014年12月06日 NodeParty 之 UC 场

    之类的标题,输出 console.log($element.attr('href'));的结果为 /topic/545c395becbcb78265856eb2之类的url。再用NodeJS1的url.resolve()函数来补全完整的url。

     superagent.get(tUrl)
    .end(function (err, res) {
    if (err) {
    return console.error(err);
    }
    var topicUrls = [];
    var $ = cheerio.load(res.text);
    // 获取首页所有的链接
    $('#topic_list .topic_title').each(function (idx, element) {
    var $element = $(element);
    var href = url.resolve(tUrl, $element.attr('href'));
    console.log(href);
    //topicUrls.push(href);
    });
    });
  5. 使用eventproxy来并发抓取每个主题的内容

    教程上展示了深度嵌套(串行)方法和计数器方法的例子,eventproxy就是使用事件(并行)方法来解决这个问题。当所有的抓取完成后,eventproxy接收到事件消息自动帮你调用处理函数。

     //第一步:得到一个 eventproxy 的实例
    var ep = new eventproxy(); //第二步:定义监听事件的回调函数。
    //after方法为重复监听
    //params: eventname(String) 事件名,times(Number) 监听次数, callback 回调函数
    ep.after('topic_html', topicUrls.length, function(topics){
    // topics 是个数组,包含了 40 次 ep.emit('topic_html', pair) 中的那 40 个 pair
    //.map
    topics = topics.map(function(topicPair){
    //use cheerio
    var topicUrl = topicPair[0];
    var topicHtml = topicPair[1];
    var $ = cheerio.load(topicHtml);
    return ({
    title: $('.topic_full_title').text().trim(),
    href: topicUrl,
    comment1: $('.reply_content').eq(0).text().trim()
    });
    }); //outcome
    console.log('outcome:');
    console.log(topics);
    }); //第三步:确定放出事件消息的
    topicUrls.forEach(function (topicUrl) {
    superagent.get(topicUrl)
    .end(function (err, res) {
    console.log('fetch ' + topicUrl + ' successful');
    ep.emit('topic_html', [topicUrl, res.text]);
    });
    });

    结果如下

  6. 扩展练习(挑战)

    • 获取留言用户名和积分

    在文章页面的源码找到评论的用户class名,classname为reply_author。console.log第一个元素 $('.reply_author').get(0)可以看到,我们需要获取东西都在这里头。

    首先,我们先对一篇文章进行抓取,一次性把需要的都得到即可。

     var userHref = url.resolve(tUrl, $('.reply_author').get(0).attribs.href);
    console.log(userHref);
    console.log($('.reply_author').get(0).children[0].data);

    我们可以通过https://cnodejs.org/user/username抓取积分信息

     $('.reply_author').each(function (idx, element) {
    var $element = $(element);
    console.log($element.attr('href'));
    });

    在用户信息页面 $('.big').text().trim()即为积分信息。

    使用cheerio的函数.get(0)为获取第一个元素。

     var userHref = url.resolve(tUrl, $('.reply_author').get(0).attribs.href);
    console.log(userHref);

    这只是对于单个文章的抓取,对于40个还有需要修改的地方。


Notes:

  1. 爬虫定义
  2. superagent
  3. cheerio
  4. Ajax
  5. jQuery
  6. 30种CSS Selectors
  7. eventproxy

NodeJS学习:爬虫小探的更多相关文章

  1. NodeJS学习:爬虫小探补完计划

    说明:本文在个人博客地址为edwardesire.com,欢迎前来品尝. 书接上回,我们需要修改程序以达到连续抓取40个页面的内容.也就是说我们需要输出每篇文章的标题.链接.第一条评论.评论用户和论坛 ...

  2. 爬虫小探-Python3 urllib.request获取页面数据

    使用Python3 urllib.request中的Requests()和urlopen()方法获取页面源码,并用re正则进行正则匹配查找需要的数据. #forex.py#coding:utf-8 ' ...

  3. nodeJs爬虫小程序练习

    //爬虫小程序 var express = require('express'); //superagent是一个http的库,可以发起get和post请求 var superagent = requ ...

  4. Nodejs学习路线图

    前言 用Nodejs已经1年有余,陆陆续续写了48篇关于Nodejs的博客文章,用过的包有上百个.和所有人一样,我也从Web开发开始,然后到包管 理,再到应用系统的开发,最后开源自己的Nodejs项目 ...

  5. Nodejs学习笔记(四)——支持Mongodb

    前言:回顾前面零零碎碎写的三篇挂着Nodejs学习笔记的文章,着实有点名不副实,当然,这篇可能还是要继续走着离主线越走越远的路子,从简短的介绍什么是Nodejs,到如何寻找一个可以调试的Nodejs ...

  6. Nodejs学习笔记(三)——一张图看懂Nodejs建站

    前言:一条线,竖着放,如果做不到精进至深,那就旋转90°,至少也图个幅度宽广. 通俗解释上面的胡言乱语:还没学会爬,就学起走了?! 继上篇<Nodejs学习笔记(二)——Eclipse中运行调试 ...

  7. Nodejs学习笔记(二)——Eclipse中运行调试Nodejs

    前篇<Nodejs学习笔记(一)——初识Nodejs>主要介绍了在搭建node环境过程中遇到的小问题以及搭建Eclipse开发Node环境的前提步骤.本篇主要介绍如何在Eclipse中运行 ...

  8. 一个python爬虫小程序

    起因 深夜忽然想下载一点电子书来扩充一下kindle,就想起来python学得太浅,什么“装饰器”啊.“多线程”啊都没有学到. 想到廖雪峰大神的python教程很经典.很著名.就想找找有木有pdf版的 ...

  9. NodeJS制作爬虫全过程

    这篇文章主要介绍了NodeJS制作爬虫的全过程,包括项目建立,目标网站分析.使用superagent获取源数据.使用cheerio解析.使用eventproxy来并发抓取每个主题的内容等方面,有需要的 ...

随机推荐

  1. 关于ssh的一篇很好的文章

    源地址:http://www.w3hacker.com/?p=156   ssh-agent的manual写得倒是挺详细,可看了好几次都没怎么搞明白.08年在网上找到了非常好的一篇文章,An Illu ...

  2. 【转载】git/github初级运用自如

    之前了解过github,并在上面看了一些项目的源代码,于是自己也在github上创建了账户,希望以后有机会也把自己的项目托管在上面去.但是前提你要先了解git/github,下面的内容是从我的好基友虫 ...

  3. PHP程序员的40点陋习

    1.不写注释 2.不使用可以提高生产效率的IDE工具 3.不使用版本控制 4.不按照编程规范写代码 5.不使用统一的方法 6.编码前不去思考和计划 7.在执行sql前不执行编码和安全检测 8.不使用测 ...

  4. Could not write to output file 'c:\Windows\Microsoft.NET\Framework64\v4.0.30319\Temporary ASP.NET Files\root\xx'

    1.清了C:\Windows\Microsoft.NET\Framework64\v4.0.30319\Temporary ASP.NET Files 2.给上述文件夹EveryOne和IIS_Use ...

  5. Ubuntu链接ubuntu服务器

    以前在windows下用ssh工具putty连接 linux服务器, 很简单,在linux下要连接linux的服务器, 找了下,果然putty在linux中也行1,sudo apt-get insta ...

  6. JasperReports+iReport在eclipse中的使用

    转载:http://blog.csdn.net/daming924/article/details/7402295 一.介绍1)它可以PDF,HTML,XML等多种形式产生报表或动态报表,在新版本还支 ...

  7. 使用hibernate annotation 为非空列加上默认值

    在网上查了很多资料都没找到如何为非空列加上默认值 以前的做法是给字段一个初始值,加上dynamic-insert属性 换了annotation了以后没有找到如何设置dynamic-insert属性 但 ...

  8. uva1349Optimal Bus Route Design

    二分图最小权完美匹配. 一个最小费用流就能跑了,记住检查一下,容量是否跑满,如果没有跑满,就说明没有完美匹配. #include<cstdio> #include<algorithm ...

  9. UVa 10601 (Polya计数 等价类计数) Cubes

    用6种颜色去染正方体的12条棱,但是每种颜色都都限制了使用次数. 要确定正方体的每一条棱,可以先选择6个面之一作为顶面,然后剩下的四个面选一个作为前面,共有24种. 所以正方体的置换群共有24个置换. ...

  10. Java 7 语法新特性

    一.二进制数字表达方式 原本整数(以60为例)能够用十进制(60).八进制(074).十六进制(0x3c)表示,唯独不能用二进制表示(111100),Java 7 弥补了这点. public clas ...