jsoup抓取网页+具体解说

Java 程序在解析 HTML 文档时,相信大家都接触过 htmlparser 这个开源项目。我以前在 IBM DW 上发表过两篇关于 htmlparser 的文章。各自是:从 HTML 中攫取你所需的信息和 扩展
HTMLParser 对自己定义标签的处理能力。但如今我已经不再使用 htmlparser 了。原因是 htmlparser 非常少更新,但最重要的是有了 jsoup 。

jsoup 是一款 Java 的 HTML 解析器。可直接解析某个 URL 地址、HTML 文本内容。

它提供了一套很省力的 API。可通过 DOM,CSS 以及类似于 jQuery 的操作方法来取出和操作数据。

jsoup 的主要功能例如以下:

1. 从一个 URL,文件或字符串中解析 HTML;

2. 使用 DOM 或 CSS 选择器来查找、取出数据;

3. 可操作 HTML 元素、属性、文本;

jsoup 是基于 MIT 协议公布的,可放心使用于商业项目。

jsoup 的主要类层次结构如图 1 所看到的:

图 1. jsoup 的类层次结构

接下来我们专门针对几种常见的应用场景举例说明 jsoup 是怎样优雅的进行 HTML 文档处理的。


回页首

文档输入

jsoup 能够从包含字符串、URL 地址以及本地文件来载入 HTML 文档。并生成 Document 对象实例。

以下是相关代码:

清单 1

 // 直接从字符串中输入 HTML 文档
String html = "<html><head><title> 开源中国社区 </title></head>"
+ "<body><p> 这里是 jsoup 项目的相关文章 </p></body></html>";
Document doc = Jsoup.parse(html); // 从 URL 直接载入 HTML 文档
Document doc = Jsoup.connect("http://www.oschina.net/").get();
String title = doc.title(); Document doc = Jsoup.connect("http://www.oschina.net/")
.data("query", "Java") // 请求參数
.userAgent("I ’ m jsoup") // 设置 User-Agent
.cookie("auth", "token") // 设置 cookie
.timeout(3000) // 设置连接超时时间
.post(); // 使用 POST 方法訪问 URL // 从文件里载入 HTML 文档
File input = new File("D:/test.html");
Document doc = Jsoup.parse(input,"UTF-8","http://www.oschina.net/");

请大家注意最后一种 HTML 文档输入方式中的 parse 的第三个參数,为什么须要在这里指定一个网址呢(尽管能够不指定,如第一种方法)?由于 HTML 文档中会有非常多比如链接、图片以及所引用的外部脚本、css 文件等。而第三个名为 baseURL 的參数的意思就是当 HTML 文档使用相对路径方式引用外部文件时。jsoup 会自己主动为这些 URL 加上一个前缀,也就是这个 baseURL。

比如 <a href=/project> 开源软件 </a> 会被转换成 <a href=http://www.oschina.net/project> 开源软件 </a>。


回页首

解析并提取 HTML 元素

这部分涉及一个 HTML 解析器最主要的功能,但 jsoup 使用一种有别于其它开源项目的方式——选择器,我们将在最后一部分具体介绍 jsoup 选择器。本节中你将看到 jsoup 是怎样用最简单的代码实现。

只是 jsoup 也提供了传统的 DOM 方式的元素解析。看看以下的代码:

清单 2.

 File input = new File("D:/test.html");
Document doc = Jsoup.parse(input, "UTF-8", "http://www.oschina.net/"); Element content = doc.getElementById("content");
Elements links = content.getElementsByTag("a");
for (Element link : links) {
String linkHref = link.attr("href");
String linkText = link.text();
}

你可能会认为 jsoup 的方法似曾相识,没错。像 getElementById 和 getElementsByTag 方法跟 JavaScript 的方法名称是一样的,功能也全然一致。

你能够依据节点名称或者是 HTML 元素的 id 来获取相应的元素或者元素列表。

与 htmlparser 项目不同的是。jsoup 并没有为 HTML 元素定义一个相应的类。一般一个 HTML 元素的组成部分包含:节点名、属性和文本,jsoup 提供简单的方法供你自己检索这些数据,这也是 jsoup 保持瘦身的原因。

而在元素检索方面,jsoup 的选择器简直无所不能。

清单 3.

 File input = new File("D:\test.html");
Document doc = Jsoup.parse(input,"UTF-8","http://www.oschina.net/"); Elements links = doc.select("a[href]"); // 具有 href 属性的链接
Elements pngs = doc.select("img[src$=.png]");// 全部引用 png 图片的元素 Element masthead = doc.select("div.masthead").first();
// 找出定义了 class=masthead 的元素 Elements resultLinks = doc.select("h3.r > a"); // direct a after h3

这是 jsoup 真正让我折服的地方,jsoup 使用跟 jQuery 一模一样的选择器对元素进行检索,以上的检索方法假设换成是其它的 HTML 解释器,至少都须要非常多行代码,而 jsoup 仅仅须要一行代码就可以完毕。

jsoup 的选择器还支持表达式功能,我们将在最后一节介绍这个超强的选择器。


回页首

改动数据

在解析文档的同一时候。我们可能会须要对文档中的某些元素进行改动,比如我们能够为文档中的全部图片添加可点击链接、改动链接地址或者是改动文本等。

以下是一些简单的样例:

清单 4.

 doc.select("div.comments a").attr("rel", "nofollow");
// 为全部链接添加 rel=nofollow 属性
doc.select("div.comments a").addClass("mylinkclass");
// 为全部链接添加 class=mylinkclass 属性
doc.select("img").removeAttr(" // 删除全部图片的 onclick 属性
doc.select("input[type=text]").val(""); // 清空全部文本输入框中的文本

道理非常easy,你仅仅须要利用 jsoup 的选择器找出元素,然后就能够通过以上的方法来进行改动,除了无法改动标签名外(能够删除后再插入新的元素),包含元素的属性和文本都能够改动。

改动完直接调用 Element(s) 的 html() 方法就能够获取改动完的 HTML 文档。


回页首

HTML 文档清理

jsoup 在提供强大的 API 同一时候。人性化方面也做得很好。在做站点的时候。常常会提供用户评论的功能。

有些用户比較淘气。会搞一些脚本到评论内容中。而这些脚本可能会破坏整个页面的行为,更严重的是获取一些机要信息。比如 XSS 跨站点攻击之类的。

jsoup 对这方面的支持很强大,使用很easy。看看以下这段代码:

清单 5.

 String unsafe = "<p><a href='http://www.oschina.net/'
开源中国社区 </a></p>";
String safe = Jsoup.clean(unsafe, Whitelist.basic());
// 输出 :
// <p><a href="http://www.oschina.net/" rel="nofollow"> 开源中国社区 </a></p>

jsoup 使用一个 Whitelist 类用来对 HTML 文档进行过滤。该类提供几个经常用法:

表 1. 经常用法:

方法名 简单介绍
none() 仅仅同意包括文本信息
basic() 同意的标签包含:a, b, blockquote, br, cite, code, dd, dl, dt, em, i, li, ol, p, pre, q, small, strike, strong, sub, sup, u, ul, 以及合适的属性
simpleText() 仅仅同意 b, em, i, strong, u 这些标签
basicWithImages() 在 basic() 的基础上添加了图片
relaxed() 这个过滤器同意的标签最多。包含:a, b, blockquote, br, caption, cite, code, col, colgroup, dd, dl, dt, em, h1, h2, h3, h4, h5, h6, i, img, li, ol, p, pre, q, small, strike, strong, sub, sup, table, tbody,
td, tfoot, th, thead, tr, u, ul

假设这五个过滤器都无法满足你的要求呢,比如你同意用户插入 flash 动画,没关系,Whitelist 提供扩展功能,比如 whitelist.addTags("embed","object","param","span","div"); 也可调用 addAttributes 为某些元素添加属性。


回页首

jsoup 的过人之处——选择器

前面我们已经简单的介绍了 jsoup 是怎样使用选择器来对元素进行检索的。本节我们把重点放在选择器本身强大的语法上。下表是 jsoup 选择器的全部语法具体列表。

表 2. 基本使用方法:

tagname 使用标签名来定位,比如 a
ns|tag 使用命名空间的标签定位,比如 fb:name 来查找 <fb:name> 元素
#id 使用元素 id 定位,比如 #logo
.class 使用元素的 class 属性定位,比如 .head
[attribute] 使用元素的属性进行定位,比如 [href] 表示检索具有 href 属性的全部元素
[^attr] 使用元素的属性名前缀进行定位,比如 [^data-] 用来查找 HTML5 的 dataset 属性
[attr=value] 使用属性值进行定位,比如 [width=500] 定位全部 width 属性值为 500 的元素
[attr^=value], [attr$=value], [attr*=value] 这三个语法分别代表,属性以 value 开头、结尾以及包括
[attr~=regex] 使用正則表達式进行属性值的过滤,比如 img[src~=(?i)\.(png|jpe?g)]
* 定位全部元素

以上是最主要的选择器语法,这些语法也能够组合起来使用,以下是 jsoup 支持的组合使用方法:

表 3:组合使用方法:

el#id 定位 id 值某个元素。比如 a#logo -> <a id=logo href= … >
el.class 定位 class 为指定值的元素。比如 div.head -> <div class=head>xxxx</div>
el[attr] 定位全部定义了某属性的元素,比如 a[href]
以上三个随意组合 比如 a[href]#logo 、a[name].outerlink
ancestor child 这五种都是元素之间组合关系的选择器语法,当中包含父子关系、合并关系和层次关系。

parent > child
siblingA + siblingB
siblingA ~ siblingX
el, el, el

除了一些主要的语法以及这些语法进行组合外,jsoup 还支持使用表达式进行元素过滤选择。以下是 jsoup 支持的全部表达式一览表:

表 4. 表达式:

:lt(n) 比如 td:lt(3) 表示 小于三列
:gt(n) div p:gt(2) 表示 div 中包括 2 个以上的 p
:eq(n) form input:eq(1) 表示仅仅包括一个 input 的表单
:has(seletor) div:has(p) 表示包括了 p 元素的 div
:not(selector) div:not(.logo) 表示不包括 class=logo 元素的全部 div 列表
:contains(text) 包括某文本的元素。不区分大写和小写。比如 p:contains(oschina)
:containsOwn(text) 文本信息全然等于指定条件的过滤
:matches(regex) 使用正則表達式进行文本过滤:div:matches((?

i)login)

:matchesOwn(regex) 使用正則表達式找到自身的文本

jsoup抓取网页+具体解说的更多相关文章

  1. HttpClient+Jsoup 抓取网页信息(网易贵金属为例)

    废话不多说直接讲讲今天要做的事. 利用HttpClient和Jsoup技术抓取网页信息.HttpClient是支持HTTP协议的客户端编程工具包,并且它支持HTTP协议. jsoup 是一款基于 Ja ...

  2. Jsoup抓取网页数据完成一个简易的Android新闻APP

    前言:作为一个篮球迷,每天必刷NBA新闻.用了那么多新闻APP,就想自己能不能也做个简易的新闻APP.于是便使用Jsoup抓取了虎扑NBA新闻的数据,完成了一个简易的新闻APP.虽然没什么技术含量,但 ...

  3. jsoup抓取网页报错UnsupportedMimeTypeException

    今天在用Jsoup爬虫的时候两次遇到下面错误 Exception in thread "main" org.jsoup.UnsupportedMimeTypeException: ...

  4. 利用jsoup抓取网页图片

    jsoup简介 jsoup is a Java library for working with real-world HTML. It provides a very convenient API ...

  5. jsoup抓取网页内容

    java项目有时候我们需要别人网页上的数据,怎么办?我们可以借助第三方架包jsou来实现,jsoup的中文文档,那怎么具体的实现呢?那就跟我一步一步来吧 最先肯定是要准备好这个第三方架包啦,下载地址, ...

  6. java抓取网页数据,登录之后抓取数据。

    最近做了一个从网络上抓取数据的一个小程序.主要关于信贷方面,收集的一些黑名单网站,从该网站上抓取到自己系统中. 也找了一些资料,觉得没有一个很好的,全面的例子.因此在这里做个笔记提醒自己. 首先需要一 ...

  7. HttpClient(一)HttpClient抓取网页基本信息

    一.HttpClient简介 HttpClient 是 Apache Jakarta Common 下的子项目,可以用来提供高效的.最新的.功能丰富的支持 HTTP 协议的客户端编程工具包, 并且它支 ...

  8. Java 抓取网页中的内容【持续更新】

    背景:前几天复习Java的时候看到URL类,当时就想写个小程序试试,迫于考试没有动手,今天写了下,感觉还不错 内容1. 抓取网页中的URL 知识点:Java URL+ 正则表达式 import jav ...

  9. C语言调用curl库抓取网页图片

    思路是先用curl抓取网页源码,然后以关键字寻找出图片网址.   #include <stdio.h> #include <stdlib.h> #include <str ...

随机推荐

  1. HBase读取代码

    HBase读取代码 需要的jar包: activation-1.1.jar aopalliance-1.0.jar apacheds-i18n-2.0.0-M15.jar apacheds-kerbe ...

  2. linux虚拟机网络设置好ping百度没有用

    场景:公司内网,本机使用的是本地连接,不是wiff,虚拟机设置了桥接模式 问题:使用桥接模式 启动好网络服务,查看ifconfig也获取到了设置的ip,可是ping了www.baidu.com还是没有 ...

  3. android开发一些小bug

    1.一定要注意findViewId这种方法,尤其是含有多个同样的R.id的名字时,debug时不会当场报错.但随后会报空指针错误 2.List转换为Array能够这样处理: ArrayList< ...

  4. 初识MVC之建项

    MVC全名是Model View Controller,是模型(model)-视图(view)-控制器(controller)的缩写,用一种业务逻辑.数据.界面显示分离的方法组织代码,将业务逻辑聚集到 ...

  5. 【Python】python网络协议

    套接字是常见的低级别的网络通讯协议,在此基础上,还有很多其他的网络通讯协议.用于实现client-server的网络互联,以下对这些协议做一个简单的介绍. 1.文件传输 FTP:文件传输协议.能够上传 ...

  6. Ubuntu输入su提示认证失败的解决方法

    用su切换,输入密码提示认证失败,这下搞了吧,后来一经查阅原来Ubuntu安装后,root用户默认是被锁定了的,不允许登录,也不允许 su 到 root ,对于桌面用户来说这个可能是为了增强安全性,但 ...

  7. ubuntu16.04安装配置mysql数据库,分割视频为帧图像

    参考http://wiki.ubuntu.org.cn/MySQL%E5%AE%89%E8%A3%85%E6%8C%87%E5%8D%97 版本为5.7 一.安装 安装命令sudo apt-get i ...

  8. Linux就该这么学 20181009(第十二章 SAMBA)

    参考链接https://www.linuxprobe.com Samba 跨平台的文件共享 linux-linux linux-windows /etc/samba/smb.conf 里面 []这个名 ...

  9. 前后端分离之接口登陆权限token

    随着业务的需求普通的springmvc+jsp已经不能满足我们的系统了,会逐渐把后台和前端展示分离开来,下面我们就来把普通的springmvc+jsp分为 springmvc只提供rest接口,前端用 ...

  10. EF Code First 使用(一)

    第一步:创建MVC5项目,添加数据库实体,建立上下文对象. 第二步:创建数据库和添加数据