最近做了一个新项目,因为项目需要大量电影数据,猫眼电影又恰好有足够的数据,就上猫眼爬数据了。

1、先分析一下网页地址,发现电影都是被排好序号了,这就很简单了。

2、在分析页面,这次主要爬取黄色框中的内容。在浏览器中按F12检查元素,只要把Div获取出来就算完成了。

下面贴代码:

主函数

 static void Main(string[] args)
{
int errorCount = ;//计算爬取失败的次数
int count = ;//结束范围
for (int i = ; i <= count; i++)
{
Thread.Sleep();//每隔两秒爬取一次,不要给服务器压力
try
{
HtmlWeb web = new HtmlWeb();
//https://maoyan.com/films/1
web.OverrideEncoding = Encoding.UTF8;
HtmlDocument doc = web.Load($"https://maoyan.com/films/{i}");//把url中的1替换为i HtmlDocument htmlDoc = new HtmlDocument();
string url = $"https://maoyan.com/films/{i}"; //获取电影名
HtmlNode MovieTitle = doc.DocumentNode.SelectSingleNode("//div[@class='movie-brief-container']/h1[@class='name']");//分析页面结构后得到的div
if (MovieTitle == null)//如果是null,那么表明进入验证页面了,执行第二种方法
{
string urlResponse = URLRequest(url);
htmlDoc.LoadHtml(urlResponse);
MovieTitle = htmlDoc.DocumentNode.SelectSingleNode("//div[@class='movie-brief-container']/h1[@class='name']");
if (MovieTitle == null)//如果是null,那么表明进入验证页面了。(第二种方法也失效)
{
                  //此处需要进入浏览器手动完成验证 或者 自行分析验证页面实现自动验证
}
}
string title = MovieTitle.InnerText;
//Console.WriteLine(MovieTitle.InnerText); //获取电影海报
HtmlNode MovieImgSrc = doc.DocumentNode.SelectSingleNode("//div[@class='celeInfo-left']/div[@class='avatar-shadow']/img[@class='avatar']");
if (MovieImgSrc == null)
{ MovieImgSrc = htmlDoc.DocumentNode.SelectSingleNode("//div[@class='celeInfo-left']/div[@class='avatar-shadow']/img[@class='avatar']");
}
//Console.WriteLine(MovieImgSrc.GetAttributeValue("src", ""));
string imgurl = MovieImgSrc.GetAttributeValue("src", ""); //电影类型
HtmlNodeCollection MovieTypes = doc.DocumentNode.SelectNodes("//div[@class='movie-brief-container']/ul/li[@class='ellipsis']");
if (MovieTypes == null)
{
MovieTypes = htmlDoc.DocumentNode.SelectNodes("//div[@class='movie-brief-container']/ul/li[@class='ellipsis']");
}
string types = "", artime = "", releasetime = ""; foreach (var item in MovieTypes[].ChildNodes)
{
if (item.InnerText.Trim() != "")
{
//Console.WriteLine(item.InnerText.Trim());
types += item.InnerText.Trim() + "-";
}
}
artime = MovieTypes[].InnerText;
releasetime = MovieTypes[].InnerText;
//Console.WriteLine(MovieTypes[i].InnerText); //剧情简介
string intro = "";
HtmlNode introduction = doc.DocumentNode.SelectSingleNode("//div[@class='mod-content']/span[@class='dra']");
if (introduction == null)
{
introduction = htmlDoc.DocumentNode.SelectSingleNode("//div[@class='mod-content']/span[@class='dra']");
}
//Console.WriteLine(introduction.InnerText);
intro = introduction.InnerText;
//Console.WriteLine(i); using (FileStream fs = new FileStream(@"d:\Sql.txt", FileMode.Append, FileAccess.Write))
{
fs.Lock(, fs.Length);
StreamWriter sw = new StreamWriter(fs);
sw.WriteLine($"INSERT INTO Movies VALUES('{title}','{imgurl}','{types}','{artime}','{releasetime}','{intro.Trim()}');");
fs.Unlock(, fs.Length);//一定要用在Flush()方法以前,否则抛出异常。
sw.Flush();
} }
catch (Exception ex)
{
errorCount++;
Console.WriteLine(ex);
}
}
Console.WriteLine($"结束 成功:{count - errorCount}条,失败:{errorCount}条");
Console.ReadLine(); }
URLRequest方法
 static string URLRequest(string url)
{
// 准备请求
HttpWebRequest request = (HttpWebRequest)WebRequest.Create(url); // 设置GET方法
request.Method = "GET";
request.Timeout = ; //60 second timeout
request.UserAgent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.106 Safari/537.36"; string responseContent = null; // 获取 Response
using (WebResponse response = request.GetResponse())
{
using (Stream stream = response.GetResponseStream())
{
// 读取流
using (StreamReader streamreader = new StreamReader(stream))
{
responseContent = streamreader.ReadToEnd();
}
}
} return (responseContent);
}

先进入for循环,到时候把url中的 1 替换为 i ,就可以实现自动爬取所有电影了。

解析html代码我用的是第三方类库  HtmlAgilityPack,大家可以在Nuget中搜索到。

我将爬取的数据转换为Sql语句了,存在D盘根目录下 Sql.txt。

下面是结果

一共爬了200条数据

大家注意一下,程序报错 如果是空异常,那么表明没有获取到相应的div,没有获取到相应的div就表明猫眼让你跳转到验证中心页面了,你要进入到浏览器验证一下,或者更换IP访问。

最后再提醒一下大家,要慢慢的获取数据,不然会403。

C# 爬取猫眼电影数据的更多相关文章

  1. python 爬取猫眼电影top100数据

    最近有爬虫相关的需求,所以上B站找了个视频(链接在文末)看了一下,做了一个小程序出来,大体上没有修改,只是在最后的存储上,由txt换成了excel. 简要需求:爬虫爬取 猫眼电影TOP100榜单 数据 ...

  2. 爬虫系列(1)-----python爬取猫眼电影top100榜

    对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天在整理代码时,整理了一下之前自己学习爬虫的一些代码,今天先上一个简单的例子,手把手教你入门Python爬虫,爬取 ...

  3. Python 爬取猫眼电影最受期待榜

     主要爬取猫眼电影最受期待榜的电影排名.图片链接.名称.主演.上映时间. 思路:1.定义一个获取网页源代码的函数: 2.定义一个解析网页源代码的函数: 3.定义一个将解析的数据保存为本地文件的函数: ...

  4. 一起学爬虫——使用xpath库爬取猫眼电影国内票房榜

    之前分享了一篇使用requests库爬取豆瓣电影250的文章,今天继续分享使用xpath爬取猫眼电影热播口碑榜 XPATH语法 XPATH(XML Path Language)是一门用于从XML文件中 ...

  5. 14-Requests+正则表达式爬取猫眼电影

    '''Requests+正则表达式爬取猫眼电影TOP100''''''流程框架:抓去单页内容:利用requests请求目标站点,得到单个网页HTML代码,返回结果.正则表达式分析:根据HTML代码分析 ...

  6. 50 行代码教你爬取猫眼电影 TOP100 榜所有信息

    对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天,恋习Python的手把手系列,手把手教你入门Python爬虫,爬取猫眼电影TOP100榜信息,将涉及到基础爬虫 ...

  7. 40行代码爬取猫眼电影TOP100榜所有信息

    主要内容: 一.基础爬虫框架的三大模块 二.完整代码解析及效果展示 1️⃣  基础爬虫框架的三大模块 1.HTML下载器:利用requests模块下载HTML网页. 2.HTML解析器:利用re正则表 ...

  8. PYTHON 爬虫笔记八:利用Requests+正则表达式爬取猫眼电影top100(实战项目一)

    利用Requests+正则表达式爬取猫眼电影top100 目标站点分析 流程框架 爬虫实战 使用requests库获取top100首页: import requests def get_one_pag ...

  9. Python使用asyncio+aiohttp异步爬取猫眼电影专业版

    asyncio是从pytohn3.4开始添加到标准库中的一个强大的异步并发库,可以很好地解决python中高并发的问题,入门学习可以参考官方文档 并发访问能极大的提高爬虫的性能,但是requests访 ...

随机推荐

  1. 用斗地主的实例学会使用java Collections工具类

    目录 一.背景 二.概念 1.定义 2.方法 2.1.排序方法 2.2.查找/替换方法 三.斗地主实例 3.1.代码结构 3.2.常量定义 3.3.单只牌类 3.4.玩家类 3.5.主程序 四.深入理 ...

  2. GIT 仓库的搭建

    1.安装并配置必要的依赖关系 在CentOS 7(和RedHat / Oracle / Scientific Linux 7)上,以下命令还将在系统防火墙中打开HTTP和SSH访问. yum inst ...

  3. Java学习之第二天

    一.流程控制 1.顺序结构:自上而下,依次执行(从上到下,一直走下去) 2.选择结构:(1)if .if—else.嵌套if (2)switch(mod){ case 1:执行代码 case 2:执行 ...

  4. HashMap(一)之源码分析基本功

    1. 位运算 参考 java中位运算^,&,<<,>>,<<<,>>>总结 2. 关键字 transient 理解一下这个关键字,顺 ...

  5. abstract class 和 interface 有什么区别?

    声明方法的存在而不去实现它的类被叫做抽象类(abstract class),它用于要创建一个体现某些基本行为的类,并为该类声明方法,但不能在该类中实现该类的情况.不能创建abstract 类的实例.然 ...

  6. sed中使用shell变量

    假设希望在 file_to_modified 文件最后新增一行以下信息:传入 shell 脚本文件的第一个参数,以及当前时间(YYYY-MM-DD HH:MMS) date "+%Y-%m- ...

  7. eval5: TypeScript编写的JavaScript解释器

    eval5是基于TypeScript编写的JavaScript解释器,100%支持ES5语法. 项目地址:https://github.com/bplok20010/eval5 使用场景 浏览器环境中 ...

  8. 2019-02-02 Python学习之多线程

    1.主线程和次线程 若主线程结束则次线程也会结束 如何避免主线程先结束: 结尾处加上 while True: pass e.g. import win32api #引用系统函数 import _thr ...

  9. MongoDB 逻辑备份工具mongodump

    mongodump是官方提供的一个对数据库进行逻辑导出的备份工具,导出文件为BSON二进制格式,无法使用文本编辑工具直接查看.mongodump可以导出mongod或者mongos实例的数据,从集群模 ...

  10. 【JMeter_15】JMeter逻辑控制器__仅一次控制器<Once Only Controller>

    仅一次控制器<Once Only Controller> 业务逻辑: 在每个线程内,该控制器下的内容只会被执行一遍,无论循环多少次,都只执行一遍.<嵌套在循环控制器之内时是个例外,每 ...