public static void Get()
{
// string xpathtrI = "//*[@id='classify-list']/dl/dd/a/cite/span/i";
#region 获取首页的分类 ////主页的html地址
//string urlHome = "http://www.qidian.com/";
//HtmlWeb web = new HtmlWeb();
//HtmlAgilityPack.HtmlDocument htmlDoc = web.Load(urlHome);
////创建html的节点
//HtmlNode rootNode1 = htmlDoc.DocumentNode;
//string xpathtrA = "//*[@id='classify-list']/dl/dd";
//HtmlNodeCollection classList = rootNode1.SelectNodes(xpathtrA);
//List<string> listINode = new List<string>();
//foreach (HtmlNode item in classList)
//{
// //获取分类
// string inode = item.SelectSingleNode("//a/cite/span/i").InnerText;
// listINode.Add(inode);
//} #endregion #region 分类及明细 //string urlDetail = "http://xuanhuan.qidian.com/";
//List<string> urlList = new List<string>();
//urlList.Add("http://xuanhuan.qidian.com/");
//urlList.Add("http://qihuan.qidian.com/");
//urlList.Add("http://wuxia.qidian.com/");
//urlList.Add("http://xianxia.qidian.com/");
//urlList.Add("http://dushi.qidian.com/");
//urlList.Add("http://zhichang.qidian.com/");
//urlList.Add("http://junshi.qidian.com/");
//urlList.Add("http://lishi.qidian.com/");
//urlList.Add("http://youxi.qidian.com/");
//urlList.Add("http://tiyu.qidian.com/");
//urlList.Add("http://kehuan.qidian.com/");
//urlList.Add("http://lingyi.qidian.com/");//foreach (string url in urlList)
//{
// HtmlAgilityPack.HtmlDocument htmlDetail = web.Load(url);
// HtmlNode rootNode2 = htmlDetail.DocumentNode;
// string a = "//*[@class='book-info']";
// HtmlNodeCollection classList2 = rootNode2.SelectNodes(a);
// List<string> listINode2 = new List<string>();
// foreach (HtmlNode item in classList2)
// {
// //获取分类
// string inode = item.InnerHtml;
// listINode2.Add(inode);
// }
//} #endregion #region 文章内容 HtmlWeb web = new HtmlWeb();
string u = "http://read.qidian.com/chapter/zOGI9RYmNdFhO--gcH8iFg2/h3iHSEH1cSpMs5iq0oQwLQ2";
HtmlAgilityPack.HtmlDocument htmlDocment = web.Load(u);
//创建html的节点
HtmlNode htmlNode = htmlDocment.DocumentNode;
string x = "//*[@class='read-content j_readContent']";
HtmlNode htmlNodeP = htmlNode.SelectSingleNode(x);
string htmlD = htmlNodeP.InnerText; #endregion }

只是拿一个例子而已。

C#使用xpath简单爬取网站的内容的更多相关文章

  1. Python入门,以及简单爬取网页文本内容

    最近痴迷于Python的逻辑控制,还有爬虫的一方面,原本的目标是拷贝老师上课时U盘的数据.后来发现基础知识掌握的并不是很牢固.便去借了一本Python基础和两本爬虫框架的书.便开始了自己的入坑之旅 言 ...

  2. Python简单爬取Amazon图片-其他网站相应修改链接和正则

    简单爬取Amazon图片信息 这是一个简单的模板,如果需要爬取其他网站图片信息,更改URL和正则表达式即可 1 import requests 2 import re 3 import os 4 de ...

  3. requests 使用免费的代理ip爬取网站

    import requests import queue import threading from lxml import etree #要爬取的URL url = "http://xxx ...

  4. Python 利用 BeautifulSoup 爬取网站获取新闻流

    0. 引言 介绍下 Python 用 Beautiful Soup 周期性爬取 xxx 网站获取新闻流: 图 1 项目介绍 1. 开发环境 Python: 3.6.3 BeautifulSoup:   ...

  5. Java - XPath解析爬取内容

    code { margin: 0; padding: 0; white-space: pre; border: none; background: transparent; } pre { backg ...

  6. Golang+chromedp+goquery 简单爬取动态数据

    目录 Golang+chromedp+goquery 简单爬取动态数据 Golang的安装 下载golang软件 解压golang 配置golang 重新导入配置 chromedp框架的使用 实际的代 ...

  7. 使用scrapy爬取网站的商品数据

    目标是爬取网站http://www.muyingzhijia.com/上全部的商品数据信息,包括商品的一级类别,二级类别,商品title,品牌,价格. 搜索了一下,python的scrapy是一个不错 ...

  8. requests+xpath+map爬取百度贴吧

    # requests+xpath+map爬取百度贴吧 # 目标内容:跟帖用户名,跟帖内容,跟帖时间 # 分解: # requests获取网页 # xpath提取内容 # map实现多线程爬虫 impo ...

  9. 利用linux curl爬取网站数据

    看到一个看球网站的以下截图红色框数据,想爬取下来,通常爬取网站数据一般都会从java或者python爬取,但本人这两个都不会,只会shell脚本,于是硬着头皮试一下用shell爬取,方法很笨重,但旨在 ...

随机推荐

  1. redis的主从服务器配置

    1. redis的主从配置: (1)把redis的配置文件(reids.conf)拷贝2份 [root@192 redis]# cp redis.conf redis6380.conf [root@1 ...

  2. django进阶篇

    原文连接:http://www.cnblogs.com/wupeiqi/articles/5246483.html Model 到目前为止,当我们的程序涉及到数据库相关操作时,我们一般都会这么搞: 创 ...

  3. PAT Basic 1007

    1007 素数对猜想 (20 分) 让我们定义d​n​​为:d​n​​=p​n+1​​−p​n​​,其中p​i​​是第i个素数.显然有d​1​​=1,且对于n>1有d​n​​是偶数.“素数对猜想 ...

  4. RESTEASY ,从学会使用到了解原理。

    转载本文需注明出处:EAII企业架构创新研究院,违者必究.如需加入微信群参与微课堂.架构设计与讨论直播请直接回复公众号:“EAII企业架构创新研究院”.(微信号:eaworld) 1,背景知识; 1. ...

  5. ssh以root用户远程登录失败

    参考文献: http://blog.csdn.net/lichangzai/article/details/39379153 http://blog.csdn.net/yasi_xi/article/ ...

  6. 使用linux kernel代码编译perf工具

    环境:Qemu + ARMv8 perf是一款综合性分析工具,大到系统全局性性能,再小到进程线程级别,甚至到函数及汇编级别. 在内核源码目录下执行编译脚本: #!/bin/bash cross_com ...

  7. 免费 web 后台管理 网站

    使用java自主开发的后台管理软件, 访问地址:http://wx.yanquanguoke.top 登录账号:test   密码:test 欢迎大家使用,有什么想法的可以交流. 进群搜索微信号:a1 ...

  8. Windows下NetBeans中文乱码解决办法

    找到你的Netbeans安装目录下的etc文件夹,用记事本打开netbeans.conf,找到netbeans_default_options(不是最后那个带句号的…), 在其属性的最后(冒号以内)加 ...

  9. [Ramda] Lens in Depth

    In this post, we are going to see how to use Ramda Lens. For example, we have data: const {log} = re ...

  10. [Python设计模式] 第16章 上班,干活,下班,加班——状态模式

    github地址:https://github.com/cheesezh/python_design_patterns 题目 用代码模拟一天的工作状态,上午状态好,中午想睡觉,下午渐恢复,加班苦煎熬. ...