1、分析url

《空港双流》数字报刊,访问地址为:http://epaper.slnews.net.cn,现在为了抓取每篇新闻的网页内容。

在浏览器访问该链接后,发现链接出现了变化,看样子是后端服务器进行了重定向:

观察该链接,发现定向链接规则显然是包含日期规则,2018-01/10,表示2018年01月10日的报刊,也就是定位为当天的日期,试着修改为前一天,即2018-01/09,页面果然发生了跳转,没问题。跳转到第二天,即还没有到来的11号,页面显示未找到。

从页面结构可以看到,报刊分为按版面分区,每个版面下包含不同的文章:

用浏览器调试查看一下网页源码,可以看到版面部分的链接结构为node_?.htm,而文章部分的链接结构是content_?.htm形式(?指代数字):

 
 
那么显然思路就有了:
  • 先得到所有版面的url
  • 访问版面网页并抓取其中的所有文章的url
  • 最后访问文章url就可以得到新闻网页内容了

2、代码部分

根据爬虫的基本原理,先写一个返回指定url的网页内容的方法:
public class CrawlerUtil {  

    /**
* 获取主网页的内容
*
* @param url 网页url
* @param requestMethod 请求方式
* @param refer post内容
* @return 网页内容
*/
public static String sendHttpRequest(String url, RequestMethod requestMethod, String refer) {
refer = refer == null || "".equals(refer) ? null : refer;
StringBuffer buffer = new StringBuffer();
try {
//建立连接
URL requestUrl = new URL(url);
HttpURLConnection connection = (HttpURLConnection) requestUrl.openConnection();
connection.setRequestMethod(requestMethod.getValue());
switch (requestMethod) {
case GET:
connection.connect();
break;
case POST:
if (refer != null) {
OutputStream out = connection.getOutputStream();
out.write((refer.getBytes("UTF-8")));
out.close();
}
break;
default:
break;
}
//获取网页内容
InputStream in = connection.getInputStream();
InputStreamReader inputStreamReader = new InputStreamReader(in, "UTF-8");
BufferedReader bufferedReader = new BufferedReader(inputStreamReader);
String str = null;
while ((str = bufferedReader.readLine()) != null) {
buffer.append(str);
}
//关闭资源
bufferedReader.close();
inputStreamReader.close();
in.close();
in = null;
connection.disconnect(); } catch (MalformedURLException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
} return buffer.toString();
} }
57
 
1
public class CrawlerUtil {  
2

3
    /**
4
     * 获取主网页的内容
5
     *
6
     * @param url 网页url
7
     * @param requestMethod 请求方式
8
     * @param refer post内容
9
     * @return 网页内容
10
     */
11
    public static String sendHttpRequest(String url, RequestMethod requestMethod, String refer) {
12
        refer = refer == null || "".equals(refer) ? null : refer;
13
        StringBuffer buffer = new StringBuffer();
14
        try {
15
            //建立连接
16
            URL requestUrl = new URL(url);
17
            HttpURLConnection connection = (HttpURLConnection) requestUrl.openConnection();
18
            connection.setRequestMethod(requestMethod.getValue());
19
            switch (requestMethod) {
20
                case GET:
21
                    connection.connect();
22
                    break;
23
                case POST:
24
                    if (refer != null) {
25
                        OutputStream out = connection.getOutputStream();
26
                        out.write((refer.getBytes("UTF-8")));
27
                        out.close();
28
                    }
29
                    break;
30
                default:
31
                    break;
32
            }
33
            //获取网页内容
34
            InputStream in = connection.getInputStream();
35
            InputStreamReader inputStreamReader = new InputStreamReader(in, "UTF-8");
36
            BufferedReader bufferedReader = new BufferedReader(inputStreamReader);
37
            String str = null;
38
            while ((str = bufferedReader.readLine()) != null) {
39
                buffer.append(str);
40
            }
41
            //关闭资源
42
            bufferedReader.close();
43
            inputStreamReader.close();
44
            in.close();
45
            in = null;
46
            connection.disconnect();
47

48
        } catch (MalformedURLException e) {
49
            e.printStackTrace();
50
        } catch (IOException e) {
51
            e.printStackTrace();
52
        }
53

54
        return buffer.toString();
55
    }
56

57
}

观察链接,发现其变动的实际上就两个部分,日期和最后部分node或content,那么写一个获取链接的方法:
/**
* 双流新闻网地址
*/
private static final String NEWS_URL = "http://epaper.slnews.net.cn/html/%s/%s.htm"; /**
* 获取特定日期的新闻网的版面地址url
* <p>
* 默认不填写factor参数的话,则url为第一版面链接,填入factor值node_2
* </p>
*
* @param date 日期
* @param factor 板面,形式为node_?
* 文章,形式为content_?
* @return 新闻网地址url
*/
public static String takePageUrl(Date date, String factor) {
SimpleDateFormat format = new SimpleDateFormat("yyyy-MM/dd");
factor = factor == null ? "node_2" : factor;
return String.format(NEWS_URL, format.format(date), factor);
}
21
 
1
/**
2
 * 双流新闻网地址
3
 */
4
private static final String NEWS_URL = "http://epaper.slnews.net.cn/html/%s/%s.htm";
5

6
/**
7
 * 获取特定日期的新闻网的版面地址url
8
 * <p>
9
 * 默认不填写factor参数的话,则url为第一版面链接,填入factor值node_2
10
 * </p>
11
 *
12
 * @param date   日期
13
 * @param factor 板面,形式为node_?
14
 *               文章,形式为content_?
15
 * @return 新闻网地址url
16
 */
17
public static String takePageUrl(Date date, String factor) {
18
    SimpleDateFormat format = new SimpleDateFormat("yyyy-MM/dd");
19
    factor = factor == null ? "node_2" : factor;
20
    return String.format(NEWS_URL, format.format(date), factor);
21
}

获取到的网页内容中,根据网页代码结构,使用正则来匹配获取我们想要的内容,先写一个通用的匹配方法:
/**
* 获取内容匹配的元素集合
*
* @param content 网页内容
* @param reg 匹配正则
* @return 元素集合
*/
private static List<String> takeElementList(String content, String reg) {
log.debug("start take elements from content by Reg");
List<String> list = new ArrayList<String>();
//定义正则规则
Pattern pattern = Pattern.compile(reg);
Matcher matcher = pattern.matcher(content);
while (matcher.find()) {
String element = matcher.group(1);
list.add(element);
log.debug(element);
}
log.debug("take elements end");
return list;
}
21
 
1
/**
2
 * 获取内容匹配的元素集合
3
 *
4
 * @param content 网页内容
5
 * @param reg     匹配正则
6
 * @return 元素集合
7
 */
8
private static List<String> takeElementList(String content, String reg) {
9
    log.debug("start take elements from content by Reg");
10
    List<String> list = new ArrayList<String>();
11
    //定义正则规则
12
    Pattern pattern = Pattern.compile(reg);
13
    Matcher matcher = pattern.matcher(content);
14
    while (matcher.find()) {
15
        String element = matcher.group(1);
16
        list.add(element);
17
        log.debug(element);
18
    }
19
    log.debug("take elements end");
20
    return list;
21
}

那么主要的就很简单了,获取node版面的集合,获取content文章的集合,这里主要需要注意的是正则的书写:
/**
* 获取特定日期新闻网的版面链接元素
*
* @param date 日期
* @return 版面链接的元素集合
*/
public static List<String> takeNodeUrlEleList(Date date) {
String url = takePageUrl(date, null);
String content = CrawlerUtil.sendHttpRequest(url, RequestMethod.GET, null);
String reg = "<a id=pageLink href=.*?(node_\\d+?)\\.htm>.*?<\\/a>";
return takeElementList(content, reg);
} /**
* 获取指定日期指定版面的所有文章链接元素集合
*
* @param date 日期
* @param node 版面元素,格式为node_?
* @return 文章链接的元素集合
*/
public static List<String> takeNewsUrlEleList(Date date, String node) {
String url = takePageUrl(date, node);
String content = CrawlerUtil.sendHttpRequest(url, RequestMethod.GET, null);
String reg = "<a href=.*?(content_\\d+?)\\.htm>";
return takeElementList(content, reg);
}
x
 
1
/**
2
 * 获取特定日期新闻网的版面链接元素
3
 *
4
 * @param date 日期
5
 * @return 版面链接的元素集合
6
 */
7
public static List<String> takeNodeUrlEleList(Date date) {
8
    String url = takePageUrl(date, null);
9
    String content = CrawlerUtil.sendHttpRequest(url, RequestMethod.GET, null);
10
    String reg = "<a id=pageLink href=.*?(node_\\d+?)\\.htm>.*?<\\/a>";
11
    return takeElementList(content, reg);
12
}
13

14
/**
15
 * 获取指定日期指定版面的所有文章链接元素集合
16
 *
17
 * @param date 日期
18
 * @param node 版面元素,格式为node_?
19
 * @return 文章链接的元素集合
20
 */
21
public static List<String> takeNewsUrlEleList(Date date, String node) {
22
    String url = takePageUrl(date, node);
23
    String content = CrawlerUtil.sendHttpRequest(url, RequestMethod.GET, null);
24
    String reg = "<a href=.*?(content_\\d+?)\\.htm>";
25
    return takeElementList(content, reg);
26
}

那么获取新闻文章网页内容的方法也就无非是上面两个的嵌套循环:
/**
* 抓取指定日期新闻页面内容集合
*
* @param date 日期
* @return 新闻页面内容
*/
public static List<String> takeNewsPageList(Date date) {
log.info("start crawl news page content. date:" + date);
List<String> newsList = new ArrayList<String>();
List<String> nodeEleList = NewsCrawler.takeNodeUrlEleList(date);
for (String nodeEle : nodeEleList) {
List<String> newsEleList = NewsCrawler.takeNewsUrlEleList(date, nodeEle);
for (String newsEle : newsEleList) {
String url = NewsCrawler.takePageUrl(date, newsEle);
String content = CrawlerUtil.sendHttpRequest(url, RequestMethod.GET, null);
newsList.add(content);
}
}
log.info("crawl news page content end. page amount:" + newsList.size());
return newsList;
}
 
1
/**
2
 * 抓取指定日期新闻页面内容集合
3
 *
4
 * @param date 日期
5
 * @return 新闻页面内容
6
 */
7
public static List<String> takeNewsPageList(Date date) {
8
    log.info("start crawl news page content. date:" + date);
9
    List<String> newsList = new ArrayList<String>();
10
    List<String> nodeEleList = NewsCrawler.takeNodeUrlEleList(date);
11
    for (String nodeEle : nodeEleList) {
12
        List<String> newsEleList = NewsCrawler.takeNewsUrlEleList(date, nodeEle);
13
        for (String newsEle : newsEleList) {
14
            String url = NewsCrawler.takePageUrl(date, newsEle);
15
            String content = CrawlerUtil.sendHttpRequest(url, RequestMethod.GET, null);
16
            newsList.add(content);
17
        }
18
    }
19
    log.info("crawl news page content end. page amount:" + newsList.size());
20
    return newsList;
21
}

接下来,可以再根据需要对内容进行进一步的加工,因为获取的新闻文章网页内容也包含了太多我们完全不需要的内容和html代码,比如我们只需要网页内容的新闻部分,那么就再通过查看该html代码结构,使用正则表达式继续提取即可。

大概就是这个样子,大功告成,一个简单的示例。

[01-01] 示例:用Java爬取新闻的更多相关文章

  1. MinerHtmlThread.java 爬取页面线程

    MinerHtmlThread.java 爬取页面线程 package com.iteye.injavawetrust.miner; import org.apache.commons.logging ...

  2. MinerConfig.java 爬取配置类

    MinerConfig.java 爬取配置类 package com.iteye.injavawetrust.miner; import java.util.List; /** * 爬取配置类 * @ ...

  3. Java爬取网络博客文章

    前言 近期本人在某云上购买了个人域名,本想着以后购买与服务器搭建自己的个人网站,由于需要筹备的太多,暂时先搁置了,想着先借用GitHub Pages搭建一个静态的站,搭建的过程其实也曲折,主要是域名地 ...

  4. Java爬取校内论坛新帖

    Java爬取校内论坛新帖 为了保持消息灵通,博主没事会上上校内论坛看看新帖,作为爬虫爱好者,博主萌生了写个爬虫自动下载的想法. 嗯,这次就选Java. 第三方库准备 Jsoup Jsoup是一款比较好 ...

  5. Java爬取B站弹幕 —— Python云图Wordcloud生成弹幕词云

    一 . Java爬取B站弹幕 弹幕的存储位置 如何通过B站视频AV号找到弹幕对应的xml文件号 首先爬取视频网页,将对应视频网页源码获得 就可以找到该视频的av号aid=8678034 还有弹幕序号, ...

  6. java爬取网页内容 简单例子(2)——附jsoup的select用法详解

    [背景] 在上一篇博文java爬取网页内容 简单例子(1)——使用正则表达式 里面,介绍了如何使用正则表达式去解析网页的内容,虽然该正则表达式比较通用,但繁琐,代码量多,现实中想要想出一条简单的正则表 ...

  7. java爬取并下载酷狗TOP500歌曲

    是这样的,之前买车送的垃圾记录仪不能用了,这两天狠心买了好点的记录仪,带导航.音乐.蓝牙.4G等功能,寻思,既然有这些功能就利用起来,用4G听歌有点奢侈,就准备去酷狗下点歌听,居然都是需要办会员才能下 ...

  8. Java爬取并下载酷狗音乐

    本文方法及代码仅供学习,仅供学习. 案例: 下载酷狗TOP500歌曲,代码用到的代码库包含:Jsoup.HttpClient.fastJson等. 正文: 1.分析是否可以获取到TOP500歌单 打开 ...

  9. Java爬取先知论坛文章

    Java爬取先知论坛文章 0x00 前言 上篇文章写了部分爬虫代码,这里给出一个完整的爬取先知论坛文章代码. 0x01 代码实现 pom.xml加入依赖: <dependencies> & ...

随机推荐

  1. python爬虫入门---第一篇:获取某一网页所有超链接

    这是一个通过使用requests和BeautifulSoup库,简单爬取网站的所有超链接的小爬虫.有任何问题欢迎留言讨论. import requests from bs4 import Beauti ...

  2. JqGrid: Add,Edit,Del in asp.net

    https://github.com/1rosehip/jplist https://github.com/free-jqgrid/jqGrid https://plugins.jquery.com/ ...

  3. 【代码笔记】Web-ionic tab(选项卡)

    一,效果图. 二,代码. <!DOCTYPE html> <html> <head> <meta charset="utf-8"> ...

  4. vue-cli脚手架之webpack.prod.conf.js

    webpack.prod.conf.js 生产环境配置文件: 'use strict'//js严格模式执行 const path = require('path')//这个模块是发布到NPM注册中心的 ...

  5. http请求之get和post的区别

    前言:大家现在度娘一下,查得最多的区别,可能就是: “Get把参数写在URL中,Post通过请求体来传参的” “GET没有POST安全,因为Get参数直接显示在URL上” “Get请求在URL中传送的 ...

  6. 我的Java之旅 第四课 JAVA 语言语法 基础

    1  整型           int num = 1_000_000; //从java 7开始支持的语法 ,只是让人更易读,java编绎器会去除   2  字符串        一定不能使用==运算 ...

  7. MySQL 性能优化--优化数据库结构之优化数据大小

    MySQL性能优化--优化数据库结构之优化数据大小   By:授客  QQ:1033553122 尽量减少表占用的磁盘空间.通常,执行查询期间处理表数据时,小表占用更少的内存. 表列 l   尽可能使 ...

  8. unresolved external symbol boost::throw_exception

    使用boost库,VS生成的时候一直报错, error LNK2019: 无法解析的外部符号 "void __cdecl boost::throw_exception(class std:: ...

  9. TensorFlow实现Softmax回归(模型存储与加载)

    # -*- coding: utf-8 -*- """ Created on Thu Oct 18 18:02:26 2018 @author: zhen "& ...

  10. 深度学习word embedding猜测性别初探

    根据用户的一些特征数据,如果能推测出用户的性别借此提高产品的服务质量.广告的精准性等都是极好的. 机器学习方法有很多,而且一般都可以达到不错的效果,比如svm或神经网络等. 本文使用的代码参考——&l ...