Java爬虫,信息抓取的实现(转)
转载请注明出处:http://blog.csdn.net/lmj623565791/article/details/23272657
今天公司有个需求,需要做一些指定网站查询后的数据的抓取,于是花了点时间写了个demo供演示使用。
思想很简单:就是通过Java访问的链接,然后拿到html字符串,然后就是解析链接等需要的数据。
技术上使用Jsoup方便页面的解析,当然Jsoup很方便,也很简单,一行代码就能知道怎么用了:
- Document doc = Jsoup.connect("http://www.oschina.net/")
- .data("query", "Java") // 请求参数
- .userAgent("I ’ m jsoup") // 设置 User-Agent
- .cookie("auth", "token") // 设置 cookie
- .timeout(3000) // 设置连接超时时间
- .post(); // 使用 POST 方法访问 URL
Document doc = Jsoup.connect("http://www.oschina.net/")
.data("query", "Java") // 请求参数
.userAgent("I ’ m jsoup") // 设置 User-Agent
.cookie("auth", "token") // 设置 cookie
.timeout(3000) // 设置连接超时时间
.post(); // 使用 POST 方法访问 URL
下面介绍整个实现过程:
1、分析需要解析的页面:
网址:http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery
页面:
先在这个页面上做一次查询:观察下请求的url,参数,method等。
这里我们使用chrome内置的开发者工具(快捷键F12),下面是查询的结果:
我们可以看到url,method,以及参数。知道了如何或者查询的URL,下面就开始代码了,为了重用与扩展,我定义了几个类:
1、Rule.java用于指定查询url,method,params等
- package com.zhy.spider.rule;
- /**
- * 规则类
- *
- * @author zhy
- *
- */
- public class Rule
- {
- /**
- * 链接
- */
- private String url;
- /**
- * 参数集合
- */
- private String[] params;
- /**
- * 参数对应的值
- */
- private String[] values;
- /**
- * 对返回的HTML,第一次过滤所用的标签,请先设置type
- */
- private String resultTagName;
- /**
- * CLASS / ID / SELECTION
- * 设置resultTagName的类型,默认为ID
- */
- private int type = ID ;
- /**
- *GET / POST
- * 请求的类型,默认GET
- */
- private int requestMoethod = GET ;
- public final static int GET = 0 ;
- public final static int POST = 1 ;
- public final static int CLASS = 0;
- public final static int ID = 1;
- public final static int SELECTION = 2;
- public Rule()
- {
- }
- public Rule(String url, String[] params, String[] values,
- String resultTagName, int type, int requestMoethod)
- {
- super();
- this.url = url;
- this.params = params;
- this.values = values;
- this.resultTagName = resultTagName;
- this.type = type;
- this.requestMoethod = requestMoethod;
- }
- public String getUrl()
- {
- return url;
- }
- public void setUrl(String url)
- {
- this.url = url;
- }
- public String[] getParams()
- {
- return params;
- }
- public void setParams(String[] params)
- {
- this.params = params;
- }
- public String[] getValues()
- {
- return values;
- }
- public void setValues(String[] values)
- {
- this.values = values;
- }
- public String getResultTagName()
- {
- return resultTagName;
- }
- public void setResultTagName(String resultTagName)
- {
- this.resultTagName = resultTagName;
- }
- public int getType()
- {
- return type;
- }
- public void setType(int type)
- {
- this.type = type;
- }
- public int getRequestMoethod()
- {
- return requestMoethod;
- }
- public void setRequestMoethod(int requestMoethod)
- {
- this.requestMoethod = requestMoethod;
- }
- }
package com.zhy.spider.rule; /**
* 规则类
*
* @author zhy
*
*/
public class Rule
{
/**
* 链接
*/
private String url; /**
* 参数集合
*/
private String[] params;
/**
* 参数对应的值
*/
private String[] values; /**
* 对返回的HTML,第一次过滤所用的标签,请先设置type
*/
private String resultTagName; /**
* CLASS / ID / SELECTION
* 设置resultTagName的类型,默认为ID
*/
private int type = ID ; /**
*GET / POST
* 请求的类型,默认GET
*/
private int requestMoethod = GET ; public final static int GET = 0 ;
public final static int POST = 1 ; public final static int CLASS = 0;
public final static int ID = 1;
public final static int SELECTION = 2; public Rule()
{
} public Rule(String url, String[] params, String[] values,
String resultTagName, int type, int requestMoethod)
{
super();
this.url = url;
this.params = params;
this.values = values;
this.resultTagName = resultTagName;
this.type = type;
this.requestMoethod = requestMoethod;
} public String getUrl()
{
return url;
} public void setUrl(String url)
{
this.url = url;
} public String[] getParams()
{
return params;
} public void setParams(String[] params)
{
this.params = params;
} public String[] getValues()
{
return values;
} public void setValues(String[] values)
{
this.values = values;
} public String getResultTagName()
{
return resultTagName;
} public void setResultTagName(String resultTagName)
{
this.resultTagName = resultTagName;
} public int getType()
{
return type;
} public void setType(int type)
{
this.type = type;
} public int getRequestMoethod()
{
return requestMoethod;
} public void setRequestMoethod(int requestMoethod)
{
this.requestMoethod = requestMoethod;
} }
简单说一下:这个规则类定义了我们查询过程中需要的所有信息,方便我们的扩展,以及代码的重用,我们不可能针对每个需要抓取的网站写一套代码。
2、需要的数据对象,目前只需要链接,LinkTypeData.java
- package com.zhy.spider.bean;
- public class LinkTypeData
- {
- private int id;
- /**
- * 链接的地址
- */
- private String linkHref;
- /**
- * 链接的标题
- */
- private String linkText;
- /**
- * 摘要
- */
- private String summary;
- /**
- * 内容
- */
- private String content;
- public int getId()
- {
- return id;
- }
- public void setId(int id)
- {
- this.id = id;
- }
- public String getLinkHref()
- {
- return linkHref;
- }
- public void setLinkHref(String linkHref)
- {
- this.linkHref = linkHref;
- }
- public String getLinkText()
- {
- return linkText;
- }
- public void setLinkText(String linkText)
- {
- this.linkText = linkText;
- }
- public String getSummary()
- {
- return summary;
- }
- public void setSummary(String summary)
- {
- this.summary = summary;
- }
- public String getContent()
- {
- return content;
- }
- public void setContent(String content)
- {
- this.content = content;
- }
- }
package com.zhy.spider.bean; public class LinkTypeData
{
private int id;
/**
* 链接的地址
*/
private String linkHref;
/**
* 链接的标题
*/
private String linkText;
/**
* 摘要
*/
private String summary;
/**
* 内容
*/
private String content;
public int getId()
{
return id;
}
public void setId(int id)
{
this.id = id;
}
public String getLinkHref()
{
return linkHref;
}
public void setLinkHref(String linkHref)
{
this.linkHref = linkHref;
}
public String getLinkText()
{
return linkText;
}
public void setLinkText(String linkText)
{
this.linkText = linkText;
}
public String getSummary()
{
return summary;
}
public void setSummary(String summary)
{
this.summary = summary;
}
public String getContent()
{
return content;
}
public void setContent(String content)
{
this.content = content;
}
}
3、核心的查询类:ExtractService.java
- package com.zhy.spider.core;
- import java.io.IOException;
- import java.util.ArrayList;
- import java.util.List;
- import java.util.Map;
- import javax.swing.plaf.TextUI;
- import org.jsoup.Connection;
- import org.jsoup.Jsoup;
- import org.jsoup.nodes.Document;
- import org.jsoup.nodes.Element;
- import org.jsoup.select.Elements;
- import com.zhy.spider.bean.LinkTypeData;
- import com.zhy.spider.rule.Rule;
- import com.zhy.spider.rule.RuleException;
- import com.zhy.spider.util.TextUtil;
- /**
- *
- * @author zhy
- *
- */
- public class ExtractService
- {
- /**
- * @param rule
- * @return
- */
- public static List<LinkTypeData> extract(Rule rule)
- {
- // 进行对rule的必要校验
- validateRule(rule);
- List<LinkTypeData> datas = new ArrayList<LinkTypeData>();
- LinkTypeData data = null;
- try
- {
- /**
- * 解析rule
- */
- String url = rule.getUrl();
- String[] params = rule.getParams();
- String[] values = rule.getValues();
- String resultTagName = rule.getResultTagName();
- int type = rule.getType();
- int requestType = rule.getRequestMoethod();
- Connection conn = Jsoup.connect(url);
- // 设置查询参数
- if (params != null)
- {
- for (int i = 0; i < params.length; i++)
- {
- conn.data(params[i], values[i]);
- }
- }
- // 设置请求类型
- Document doc = null;
- switch (requestType)
- {
- case Rule.GET:
- doc = conn.timeout(100000).get();
- break;
- case Rule.POST:
- doc = conn.timeout(100000).post();
- break;
- }
- //处理返回数据
- Elements results = new Elements();
- switch (type)
- {
- case Rule.CLASS:
- results = doc.getElementsByClass(resultTagName);
- break;
- case Rule.ID:
- Element result = doc.getElementById(resultTagName);
- results.add(result);
- break;
- case Rule.SELECTION:
- results = doc.select(resultTagName);
- break;
- default:
- //当resultTagName为空时默认去body标签
- if (TextUtil.isEmpty(resultTagName))
- {
- results = doc.getElementsByTag("body");
- }
- }
- for (Element result : results)
- {
- Elements links = result.getElementsByTag("a");
- for (Element link : links)
- {
- //必要的筛选
- String linkHref = link.attr("href");
- String linkText = link.text();
- data = new LinkTypeData();
- data.setLinkHref(linkHref);
- data.setLinkText(linkText);
- datas.add(data);
- }
- }
- } catch (IOException e)
- {
- e.printStackTrace();
- }
- return datas;
- }
- /**
- * 对传入的参数进行必要的校验
- */
- private static void validateRule(Rule rule)
- {
- String url = rule.getUrl();
- if (TextUtil.isEmpty(url))
- {
- throw new RuleException("url不能为空!");
- }
- if (!url.startsWith("http://"))
- {
- throw new RuleException("url的格式不正确!");
- }
- if (rule.getParams() != null && rule.getValues() != null)
- {
- if (rule.getParams().length != rule.getValues().length)
- {
- throw new RuleException("参数的键值对个数不匹配!");
- }
- }
- }
- }
package com.zhy.spider.core; import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.Map; import javax.swing.plaf.TextUI; import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements; import com.zhy.spider.bean.LinkTypeData;
import com.zhy.spider.rule.Rule;
import com.zhy.spider.rule.RuleException;
import com.zhy.spider.util.TextUtil; /**
*
* @author zhy
*
*/
public class ExtractService
{
/**
* @param rule
* @return
*/
public static List<LinkTypeData> extract(Rule rule)
{ // 进行对rule的必要校验
validateRule(rule); List<LinkTypeData> datas = new ArrayList<LinkTypeData>();
LinkTypeData data = null;
try
{
/**
* 解析rule
*/
String url = rule.getUrl();
String[] params = rule.getParams();
String[] values = rule.getValues();
String resultTagName = rule.getResultTagName();
int type = rule.getType();
int requestType = rule.getRequestMoethod(); Connection conn = Jsoup.connect(url);
// 设置查询参数 if (params != null)
{
for (int i = 0; i < params.length; i++)
{
conn.data(params[i], values[i]);
}
} // 设置请求类型
Document doc = null;
switch (requestType)
{
case Rule.GET:
doc = conn.timeout(100000).get();
break;
case Rule.POST:
doc = conn.timeout(100000).post();
break;
} //处理返回数据
Elements results = new Elements();
switch (type)
{
case Rule.CLASS:
results = doc.getElementsByClass(resultTagName);
break;
case Rule.ID:
Element result = doc.getElementById(resultTagName);
results.add(result);
break;
case Rule.SELECTION:
results = doc.select(resultTagName);
break;
default:
//当resultTagName为空时默认去body标签
if (TextUtil.isEmpty(resultTagName))
{
results = doc.getElementsByTag("body");
}
} for (Element result : results)
{
Elements links = result.getElementsByTag("a"); for (Element link : links)
{
//必要的筛选
String linkHref = link.attr("href");
String linkText = link.text(); data = new LinkTypeData();
data.setLinkHref(linkHref);
data.setLinkText(linkText); datas.add(data);
}
} } catch (IOException e)
{
e.printStackTrace();
} return datas;
} /**
* 对传入的参数进行必要的校验
*/
private static void validateRule(Rule rule)
{
String url = rule.getUrl();
if (TextUtil.isEmpty(url))
{
throw new RuleException("url不能为空!");
}
if (!url.startsWith("http://"))
{
throw new RuleException("url的格式不正确!");
} if (rule.getParams() != null && rule.getValues() != null)
{
if (rule.getParams().length != rule.getValues().length)
{
throw new RuleException("参数的键值对个数不匹配!");
}
} } }
4、里面用了一个异常类:RuleException.java
- package com.zhy.spider.rule;
- public class RuleException extends RuntimeException
- {
- public RuleException()
- {
- super();
- // TODO Auto-generated constructor stub
- }
- public RuleException(String message, Throwable cause)
- {
- super(message, cause);
- // TODO Auto-generated constructor stub
- }
- public RuleException(String message)
- {
- super(message);
- // TODO Auto-generated constructor stub
- }
- public RuleException(Throwable cause)
- {
- super(cause);
- // TODO Auto-generated constructor stub
- }
- }
package com.zhy.spider.rule; public class RuleException extends RuntimeException
{ public RuleException()
{
super();
// TODO Auto-generated constructor stub
} public RuleException(String message, Throwable cause)
{
super(message, cause);
// TODO Auto-generated constructor stub
} public RuleException(String message)
{
super(message);
// TODO Auto-generated constructor stub
} public RuleException(Throwable cause)
{
super(cause);
// TODO Auto-generated constructor stub
} }
5、最后是测试了:这里使用了两个网站进行测试,采用了不同的规则,具体看代码吧
- package com.zhy.spider.test;
- import java.util.List;
- import com.zhy.spider.bean.LinkTypeData;
- import com.zhy.spider.core.ExtractService;
- import com.zhy.spider.rule.Rule;
- public class Test
- {
- @org.junit.Test
- public void getDatasByClass()
- {
- Rule rule = new Rule(
- "http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery",
- new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "兴网","" },
- "cont_right", Rule.CLASS, Rule.POST);
- List<LinkTypeData> extracts = ExtractService.extract(rule);
- printf(extracts);
- }
- @org.junit.Test
- public void getDatasByCssQuery()
- {
- Rule rule = new Rule("http://www.11315.com/search",
- new String[] { "name" }, new String[] { "兴网" },
- "div.g-mn div.con-model", Rule.SELECTION, Rule.GET);
- List<LinkTypeData> extracts = ExtractService.extract(rule);
- printf(extracts);
- }
- public void printf(List<LinkTypeData> datas)
- {
- for (LinkTypeData data : datas)
- {
- System.out.println(data.getLinkText());
- System.out.println(data.getLinkHref());
- System.out.println("***********************************");
- }
- }
- }
package com.zhy.spider.test; import java.util.List; import com.zhy.spider.bean.LinkTypeData;
import com.zhy.spider.core.ExtractService;
import com.zhy.spider.rule.Rule; public class Test
{
@org.junit.Test
public void getDatasByClass()
{
Rule rule = new Rule(
"http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery",
new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "兴网","" },
"cont_right", Rule.CLASS, Rule.POST);
List<LinkTypeData> extracts = ExtractService.extract(rule);
printf(extracts);
} @org.junit.Test
public void getDatasByCssQuery()
{
Rule rule = new Rule("http://www.11315.com/search",
new String[] { "name" }, new String[] { "兴网" },
"div.g-mn div.con-model", Rule.SELECTION, Rule.GET);
List<LinkTypeData> extracts = ExtractService.extract(rule);
printf(extracts);
} public void printf(List<LinkTypeData> datas)
{
for (LinkTypeData data : datas)
{
System.out.println(data.getLinkText());
System.out.println(data.getLinkHref());
System.out.println("***********************************");
} }
}
输出结果:
- 深圳市网兴科技有限公司
- http://14603257.11315.com
- ***********************************
- 荆州市兴网公路物资有限公司
- http://05155980.11315.com
- ***********************************
- 西安市全兴网吧
- #
- ***********************************
- 子长县新兴网城
- #
- ***********************************
- 陕西同兴网络信息有限责任公司第三分公司
- #
- ***********************************
- 西安高兴网络科技有限公司
- #
- ***********************************
- 陕西同兴网络信息有限责任公司西安分公司
- #
- ***********************************
深圳市网兴科技有限公司
http://14603257.11315.com
***********************************
荆州市兴网公路物资有限公司
http://05155980.11315.com
***********************************
西安市全兴网吧
#
***********************************
子长县新兴网城
#
***********************************
陕西同兴网络信息有限责任公司第三分公司
#
***********************************
西安高兴网络科技有限公司
#
***********************************
陕西同兴网络信息有限责任公司西安分公司
#
***********************************
最后使用一个Baidu新闻来测试我们的代码:说明我们的代码是通用的。
- /**
- * 使用百度新闻,只设置url和关键字与返回类型
- */
- @org.junit.Test
- public void getDatasByCssQueryUserBaidu()
- {
- Rule rule = new Rule("http://news.baidu.com/ns",
- new String[] { "word" }, new String[] { "支付宝" },
- null, -1, Rule.GET);
- List<LinkTypeData> extracts = ExtractService.extract(rule);
- printf(extracts);
- }
/**
* 使用百度新闻,只设置url和关键字与返回类型
*/
@org.junit.Test
public void getDatasByCssQueryUserBaidu()
{
Rule rule = new Rule("http://news.baidu.com/ns",
new String[] { "word" }, new String[] { "支付宝" },
null, -1, Rule.GET);
List<LinkTypeData> extracts = ExtractService.extract(rule);
printf(extracts);
}
我们只设置了链接、关键字、和请求类型,不设置具体的筛选条件。
结果:有一定的垃圾数据是肯定的,但是需要的数据肯定也抓取出来了。我们可以设置Rule.SECTION,以及筛选条件进一步的限制。
- 按时间排序
- /ns?word=支付宝&ie=utf-8&bs=支付宝&sr=0&cl=2&rn=20&tn=news&ct=0&clk=sortbytime
- ***********************************
- x
- javascript:void(0)
- ***********************************
- 支付宝将联合多方共建安全基金 首批投入4000万
- http://finance.ifeng.com/a/20140409/12081871_0.shtml
- ***********************************
- 7条相同新闻
- /ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:2465146414%7C697779368%7C3832159921&same=7&cl=1&tn=news&rn=30&fm=sd
- ***********************************
- 百度快照
- http://cache.baidu.com/c?m=9d78d513d9d437ab4f9e91697d1cc0161d4381132ba7d3020cd0870fd33a541b0120a1ac26510d19879e20345dfe1e4bea876d26605f75a09bbfd91782a6c1352f8a2432721a844a0fd019adc1452fc423875d9dad0ee7cdb168d5f18c&p=c96ec64ad48b2def49bd9b780b64&newp=c4769a4790934ea95ea28e281c4092695912c10e3dd796&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=1
- ***********************************
- OpenSSL漏洞涉及众多网站 支付宝称暂无数据泄露
- http://tech.ifeng.com/internet/detail_2014_04/09/35590390_0.shtml
- ***********************************
- 26条相同新闻
- /ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:3869124100&same=26&cl=1&tn=news&rn=30&fm=sd
- ***********************************
- 百度快照
- http://cache.baidu.com/c?m=9f65cb4a8c8507ed4fece7631050803743438014678387492ac3933fc239045c1c3aa5ec677e4742ce932b2152f4174bed843670340537b0efca8e57dfb08f29288f2c367117845615a71bb8cb31649b66cf04fdea44a7ecff25e5aac5a0da4323c044757e97f1fb4d7017dd1cf4&p=8b2a970d95df11a05aa4c32013&newp=9e39c64ad4dd50fa40bd9b7c5253d8304503c52251d5ce042acc&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=2
- ***********************************
- 雅虎日本6月起开始支持支付宝付款
- http://www.techweb.com.cn/ucweb/news/id/2025843
- ***********************************
按时间排序
/ns?word=支付宝&ie=utf-8&bs=支付宝&sr=0&cl=2&rn=20&tn=news&ct=0&clk=sortbytime
***********************************
x
javascript:void(0)
***********************************
支付宝将联合多方共建安全基金 首批投入4000万
http://finance.ifeng.com/a/20140409/12081871_0.shtml
***********************************
7条相同新闻
/ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:2465146414%7C697779368%7C3832159921&same=7&cl=1&tn=news&rn=30&fm=sd
***********************************
百度快照
http://cache.baidu.com/c?m=9d78d513d9d437ab4f9e91697d1cc0161d4381132ba7d3020cd0870fd33a541b0120a1ac26510d19879e20345dfe1e4bea876d26605f75a09bbfd91782a6c1352f8a2432721a844a0fd019adc1452fc423875d9dad0ee7cdb168d5f18c&p=c96ec64ad48b2def49bd9b780b64&newp=c4769a4790934ea95ea28e281c4092695912c10e3dd796&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=1
***********************************
OpenSSL漏洞涉及众多网站 支付宝称暂无数据泄露
http://tech.ifeng.com/internet/detail_2014_04/09/35590390_0.shtml
***********************************
26条相同新闻
/ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:3869124100&same=26&cl=1&tn=news&rn=30&fm=sd
***********************************
百度快照
http://cache.baidu.com/c?m=9f65cb4a8c8507ed4fece7631050803743438014678387492ac3933fc239045c1c3aa5ec677e4742ce932b2152f4174bed843670340537b0efca8e57dfb08f29288f2c367117845615a71bb8cb31649b66cf04fdea44a7ecff25e5aac5a0da4323c044757e97f1fb4d7017dd1cf4&p=8b2a970d95df11a05aa4c32013&newp=9e39c64ad4dd50fa40bd9b7c5253d8304503c52251d5ce042acc&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=2
***********************************
雅虎日本6月起开始支持支付宝付款
http://www.techweb.com.cn/ucweb/news/id/2025843
***********************************
如果有什么不足,可以指出;如果觉得对你有用,顶一下~~哈哈
源码下载,点击这里。
http://www.cnblogs.com/oversea201405/p/3752050.html
Java爬虫,信息抓取的实现(转)的更多相关文章
- 教您使用java爬虫gecco抓取JD全部商品信息
gecco爬虫 如果对gecco还没有了解可以参看一下gecco的github首页.gecco爬虫十分的简单易用,JD全部商品信息的抓取9个类就能搞定. JD网站的分析 要抓取JD网站的全部商品信息, ...
- 【JAVA系列】Google爬虫如何抓取JavaScript的?
公众号:SAP Technical 本文作者:matinal 原文出处:http://www.cnblogs.com/SAPmatinal/ 原文链接:[JAVA系列]Google爬虫如何抓取Java ...
- Python爬虫实战---抓取图书馆借阅信息
Python爬虫实战---抓取图书馆借阅信息 原创作品,引用请表明出处:Python爬虫实战---抓取图书馆借阅信息 前段时间在图书馆借了很多书,借得多了就容易忘记每本书的应还日期,老是担心自己会违约 ...
- Pyhton爬虫实战 - 抓取BOSS直聘职位描述 和 数据清洗
Pyhton爬虫实战 - 抓取BOSS直聘职位描述 和 数据清洗 零.致谢 感谢BOSS直聘相对权威的招聘信息,使本人有了这次比较有意思的研究之旅. 由于爬虫持续爬取 www.zhipin.com 网 ...
- Golang分布式爬虫:抓取煎蛋文章|Redis/Mysql|56,961 篇文章
--- layout: post title: "Golang分布式爬虫:抓取煎蛋文章" date: 2017-04-15 author: hunterhug categories ...
- 网易新闻页面信息抓取(htmlagilitypack搭配scrapysharp)
转自原文 网易新闻页面信息抓取(htmlagilitypack搭配scrapysharp) 最近在弄网页爬虫这方面的,上网看到关于htmlagilitypack搭配scrapysharp的文章,于是决 ...
- 网页信息抓取进阶 支持Js生成数据 Jsoup的不足之处
转载请标明出处:http://blog.csdn.net/lmj623565791/article/details/23866427 今天又遇到一个网页数据抓取的任务,给大家分享下. 说道网页信息抓取 ...
- Ajax异步信息抓取方式
淘女郎模特信息抓取教程 源码地址: cnsimo/mmtao 网址:https://0x9.me/xrh6z 判断一个页面是不是Ajax加载的方法: 查看网页源代码,查找网页中加载的数据信息,如果 ...
- Atitit.web的自动化操作与信息抓取 attilax总结
Atitit.web的自动化操作与信息抓取 attilax总结 1. Web操作自动化工具,可以简单的划分为2大派系: 1.录制回放 2.手工编写0 U' z; D! s2 d/ Q! ^1 2. 常 ...
- 网页信息抓取 Jsoup的不足之处 httpunit
今天又遇到一个网页数据抓取的任务,给大家分享下. 说道网页信息抓取,相信Jsoup基本是首选的工具,完全的类JQuery操作,让人感觉很舒服.但是,今天我们就要说一说Jsoup的不足. 1.首先我们新 ...
随机推荐
- Cannot instantiate the type List<Integer>
在使用java.util.List; 的时候,把语句写成了: List<Integer> arr = new List<Integer>(); 导致错误: Cannot ins ...
- hdu2222Keywords Search (特里)
Problem Description In the modern time, Search engine came into the life of everybody like Google, B ...
- Java UML描述
开发Java应用程序时,开发者要想有效地利用统一建模语言(UML),必须全面理解UML元素以及这些元素如何映射到Java.本文重点讨论UML类图中的元素. 类图是最常用的UML图,它用于描述系统的 ...
- word2vec 中的数学原理具体解释(四)基于 Hierarchical Softmax 的模型
word2vec 是 Google 于 2013 年开源推出的一个用于获取 word vector 的工具包,它简单.高效,因此引起了非常多人的关注.因为 word2vec 的作者 Tomas M ...
- wamp在win7下64位系统memcache/memcached安装教程
折腾了1个多小时,终于搞定.操作系统时64位的,php5.3.13 类似于上一篇的xdebug安装教程~~ memcache和memcached的区别 在自己的新程序中打算全面应用memcached ...
- cocos2d-x2.x环境搭建配置
[安装工具] VS2012 Cocos2D-X 2.2.3 Python 2.7.8 一.运行cocos2dx中的hello world! 1.在Cocos2D-X 2.2.3目录下,点击cocos2 ...
- 第二期“晋IT”分享成长沙龙
本期主题:微信.打造品牌个体 报名方式:关注微信.回复"我要成长" "晋IT"沙龙费用:全程免费 "晋IT"沙龙文化:共通 共融 合作共赢 ...
- Eclipse关闭检查
有没有发现每次操作Eclipse过后,都会有build Workspace的操作一直在后台执行,JS校验一直validate,非常卡非常受不了有木有? 有木有?以下是我个人成功的步骤,曾经试过非常多次 ...
- cocos2dx的发展的例子2048(加入动画版)
网上找了很多写作教程2048.只是不知道卡的移动动画,我写了一个完美的动画版少. 开发步骤: 1,一个设计CardSprite类. 2,设计主游戏场景GameScene,实现游戏逻辑,加入动画逻辑. ...
- NSPredicate的用法
一般来说这种情况还是蛮多的,比如你从文件中读入了一个array1,然后想把程序中的一个array2中符合array1中内容的元素过滤出来. 正 常傻瓜一点就是两个for循环,一个一个进行比较,这样效率 ...