前言

  使用python进行网页数据的爬取现在已经很常见了,而对天气数据的爬取更是入门级的新手操作,很多人学习爬虫都从天气开始,本文便是介绍了从中国天气网爬取天气数据,能够实现输入想要查询的城市,返回该城市未来一周的天气情况,保存为csv文件,并对数据图形化展示分析。最后附完整代码。

  1、使用模块

  Python3。主要使用到了csv、sys、urllib.request和BeautifulSoup4模块,其中csv模块是为了对csv文件的处理,urllib.request可以构造http请求,BeautifulSoup4可以解析页面信息。在使用这些模块之前,如果不存在需要进行安装,可打开cmd使用pip进行安装。当然,还需要一个城市名与城市code对应的文件,便于我们输入城市后找到对应的code进行相应的天气信息提取。这里点击文件内容cityinfo,可以查看到整理好的城市代码,将该页面内容复制保存为.py文件,然后放入同路径导入即可。

  2、根据输入城市从城市代码文件提取到相应的城市代码

  cityname = input("请输入你想要查询天气的城市:")

  if cityname in cityinfo.city:

  citycode = cityinfo.city[cityname]

  else:

  sys.exit()

  3、制作请求头,得到请求的应答内容,即页面信息

  url = 'http://www.weather.com.cn/weather/' + citycode + '.shtml'

  header = ("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36") # 设置头部信息

  http_handler = urllib.request.HTTPHandler()

  opener = urllib.request.build_opener(http_handler) # 修改头部信息

  opener.addheaders = [header]

  request = urllib.request.Request(url) # 制作请求

  response = opener.open(request) # 得到应答包

  html = response.read() # 读取应答包

  html = html.decode('utf-8') # 设置编码,否则会乱码

  其中,设置头部信息header是为了防止某些网站设置了反爬虫,在chrome浏览器下,头部信息header可在浏览器中按f12然后点击network,找到一个请求流,点击请求流后可以看到相应的头部信息。

  4、根据返回的页面进行数据的筛选

  final = [] # 初始化一个列表保存数据

  bs = BeautifulSoup(html, "html.parser") # 创建BeautifulSoup对象

  body = bs.body # 获取body部分数据

  data = body.find('div', {'id': '7d'})

  ul = data.find('ul')

  li = ul.find_all('li')

  #所有的标签获取内容都根据在页面的所在位置进行筛选,如图所示,我们要查找的未来七天的天气情况都包含在id为7d的div标签中,七天的天气又在这个div的ul中,该div仅有一个ul,因此可使用find方法,每一天的天气又在该ul的li中,且有多个li,则必须使用find_all()方法,找到所有的li,不能使用find方法。

  5、爬取数据

  i = 0 # 控制爬取的天数

  lows = [] # 保存低温

  highs = [] # 保存高温

  for day in li: # 便利找到的每一个li

  if i < 7:

  temp = []

  date = day.find('h1').string # 得到日期

  temp.append(date)

  inf = day.find_all('p') # 获取天气,遍历li下面的p标签 有多个p需要使用find_all 而不是find

  temp.append(inf[0].string)

  temlow = inf[1].find('i').string # 最低气温

  if inf[1].find('span') is None: # 天气预报有时候可能没有最高气温,需要做一个判断

  temhigh = None

  temperate = temlow

  else:

  temhigh = inf[1].find('span').string # 最高气温

  temhigh = temhigh.replace('℃', '')

  temperate = temhigh + '/' + temlow

  temp.append(temperate)

  final.append(temp)

  i = i + 1

  这里是从每个li中获取到每天的天气情况,控制在7天,通过li标签下面的各数据位置进行相应的提取,要注意提取标签的数量,如果在当前标签下有多个相同的提取标签,要使用find_all()而不是find,然后用[n]进行相应的数据提取

  在提取温度时要注意一个问题,中国天气网一般都会显示最高气温和最低气温,但有时候只会显示一个温度,无最高气温,这时就要做一个判断,否则脚本会出错。然后将天气拼接成一个字符串,和其他数据一起放入final 列表中

  6、写入csv文件

  with open('weather.csv', 'a', errors='ignore', newline='') as f:

  f_csv = csv.writer(f)

  f_csv.writerows([cityname])

  f_csv.writerows(final)

  最后看到的csv文件中存储的天气数据如下图所示:

  7、使用pygal绘图,使用该模块前需先安装pip install pygal,然后导入import pygal

  bar = pygal.Line() # 创建折线图

  bar.add('最低气温', lows) #添加两线的数据序列

  bar.add('最高气温', highs) #注意lows和highs是int型的列表

  bar.x_labels = daytimes

  bar.x_labels_major = daytimes[::30]

  bar.x_label_rotation = 45

  bar.title = cityname+'未来七天气温走向图' #设置图形标题

  bar.x_title = '日期' #x轴标题

  bar.y_title = '气温(摄氏度)' # y轴标题

  bar.legend_at_bottom = True

  bar.show_x_guides = False

  bar.show_y_guides = True

  bar.render_to_file('temperate1.svg') # 将图像保存为SVG文件,可通过浏览器查看

  最终生成的图形如下图所示,直观的显示了天气情况:

  8、完整代码

  import csv

  import sys

  import urllib.request

  from bs4 import BeautifulSoup # 解析页面模块

  import pygal

  import cityinfo

  cityname = input("请输入你想要查询天气的城市:")

  if cityname in cityinfo.city:

  citycode = cityinfo.city[cityname]

  else:

  sys.exit()

  url = 'http://www.weather.com.cn/weather/' + citycode + '.shtml'

  header = ("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36") # 设置头部信息

  http_handler = urllib.request.HTTPHandler()

  opener = urllib.request.build_opener(http_handler) # 修改头部信息

  opener.addheaders = [header]

  request = urllib.request.Request(url) # 制作请求

  response = opener.open(request) # 得到应答包

  html = response.read() # 读取应答包

  html = html.decode('utf-8') # 设置编码,否则会乱码

  # 根据得到的页面信息进行初步筛选过滤

  final = [] # 初始化一个列表保存数据

  bs = BeautifulSoup(html, "html.parser") # 创建BeautifulSoup对象

  body = bs.body

  data = body.find('div', {'id': '7d'})

  print(type(data))

  ul = data.find('ul')

  li = ul.find_all('li')

  # 爬取自己需要的数据

  i = 0 # 控制爬取的天数

  lows = [] # 保存低温

  highs = [] # 保存高温

  daytimes = [] # 保存日期

  weathers = [] # 保存天气

  for day in li: # 便利找到的每一个li

  if i < 7:无锡妇科医院哪家好 http://www.ytsgfk120.com/

  temp = [] # 临时存放每天的数据

  date = day.find('h1').string # 得到日期

  #print(date)

  temp.append(date)

  daytimes.append(date)

  inf = day.find_all('p') # 遍历li下面的p标签 有多个p需要使用find_all 而不是find

  #print(inf[0].string) # 提取第一个p标签的值,即天气

  temp.append(inf[0].string)

  weathers.append(inf[0].string)

  temlow = inf[1].find('i').string # 最低气温

  if inf[1].find('span') is None: # 天气预报可能没有最高气温

  temhigh = None

  temperate = temlow

  else:

  temhigh = inf[1].find('span').string # 最高气温

  temhigh = temhigh.replace('℃', '')

  temperate = temhigh + '/' + temlow

  # temp.append(temhigh)

  # temp.append(temlow)

  lowStr = ""

  lowStr = lowStr.join(temlow.string)

  lows.append(int(lowStr[:-1])) # 以上三行将低温NavigableString转成int类型并存入低温列表

  if temhigh is None:

  highs.append(int(lowStr[:-1]))

  else:

  highStr = ""

  highStr = highStr.join(temhigh)

  highs.append(int(highStr)) # 以上三行将高温NavigableString转成int类型并存入高温列表

  temp.append(temperate)

  final.append(temp)

  i = i + 1

  # 将最终的获取的天气写入csv文件

  with open('weather.csv', 'a', errors='ignore', newline='') as f:

  f_csv = csv.writer(f)

  f_csv.writerows([cityname])

  f_csv.writerows(final)

  # 绘图

  bar = pygal.Line() # 创建折线图

  bar.add('最低气温', lows)

  bar.add('最高气温', highs)

  bar.x_labels = daytimes

  bar.x_labels_major = daytimes[::30]

  # bar.show_minor_x_labels = False # 不显示X轴最小刻度

  bar.x_label_rotation = 45

  bar.title = cityname+'未来七天气温走向图'

  bar.x_title = '日期'

  bar.y_title = '气温(摄氏度)'

  bar.legend_at_bottom = True

  bar.show_x_guides = False

  bar.show_y_guides = True

  bar.render_to_file('temperate.svg')

python爬虫爬取天气数据并图形化显示的更多相关文章

  1. python爬虫——爬取网页数据和解析数据

    1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序.只要浏览器能够做的事情,原则上,爬虫都能够做到. 2 ...

  2. 使用python爬虫爬取股票数据

    前言: 编写一个爬虫脚本,用于爬取东方财富网的上海股票代码,并通过爬取百度股票的单个股票数据,将所有上海股票数据爬取下来并保存到本地文件中 系统环境: 64位win10系统,64位python3.6, ...

  3. python爬虫----爬取阿里数据银行websocket接口

    业务需求:爬取阿里品牌数据银行的自定义模块==>>>人群透视==>>>查看报告==>>数据 发现:数据通过websocket接口传递,此类型接口的详细理 ...

  4. 吴裕雄--天生自然PYTHON爬虫:安装配置MongoDBy和爬取天气数据并清洗保存到MongoDB中

    1.下载MongoDB 官网下载:https://www.mongodb.com/download-center#community 上面这张图选择第二个按钮 上面这张图直接Next 把bin路径添加 ...

  5. 毕设之Python爬取天气数据及可视化分析

    写在前面的一些P话:(https://jq.qq.com/?_wv=1027&k=RFkfeU8j) 天气预报我们每天都会关注,我们可以根据未来的天气增减衣物.安排出行,每天的气温.风速风向. ...

  6. Python脚本:爬取天气数据并发邮件给心爱的Ta

    第一部分:爬取天气数据 # 在函数调用 get_weather(url = 'https://www.tianqi.com/foshan') 的 url中更改城市,foshan为佛山市 1 impor ...

  7. 使用Python爬虫爬取网络美女图片

    代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...

  8. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  9. python爬虫—爬取英文名以及正则表达式的介绍

    python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一.  爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...

随机推荐

  1. 小学四则运算口算练习app

    目标: 第一次尝试做APP,这次做的东西不是很麻烦,做出一个口算练习的加减乘除的页面,使用者做题,设有答案页,进行核对! 核心部分是出题页面的程序,还有答案页的程序.不设置登录注册页面.冲刺时间:一周 ...

  2. 全面分析:APP中的消息功能设计

    一.定义 APP的“消息”模块,是通过APP或手机这个客户端,围绕某个产品的功能进行交流.沟通的重要方式.这种沟通,一方是运营人员或商家,也可以是产品或系统本身,为方便说明笔者这里姑且统一简称为B端, ...

  3. SPA项目开发之登录注册

    CMD安装所需要的pom依赖 npm install element-ui -S npm install axios -S npm install qs -S npm install vue-axio ...

  4. 剑指offer15 二进制中1的个数

    题目:请实现一个函数,输入一个整数,输出该数二进制表示中1的个数.例如,把9表示成二进制是1001,有2位是1.因此,如果输入9则函数输出2. int Number(int n) { ; while ...

  5. 洛谷 p1516 青蛙的约会 题解

    dalao们真是太强了,吊打我无名蒟蒻 我连题解都看不懂,在此篇题解中,我尽量用语言描述,不用公式推导(dalao喜欢看公式的话绕道,这篇题解留给像我一样弱的) 进入正题 如果不会扩展欧里几德的话请先 ...

  6. Oracle_本地计算机上的OracleOraDb11g_home1TNSListener 服务启动后停止

    这个IP地址要写对,写成本机IP4的地址

  7. 《Modern PHP》读书笔记

    这本书适合你吗?     我认为每个有一定PHP开发经验的人都应该读读这本书,因为正如书中的前言所说: “网上有成千上万的PHP教程,其中大多数都已经过时了,展示的是陈旧的实践方式.可是,谷歌的搜索结 ...

  8. linux 系统时间 EST CST

    早上本来要做一些实验的,基于时间的.date 查看时间,发现时间不对.用 pool.ntp.org 去同步发现时间还是一样的,并且没有报错.如是开启另外一台时间对的linux服务器进行对比.发现一个是 ...

  9. leetcode 13. Integer to Roman

    使用eval,特别处理6个case var romanToInt = function (s) { const map = { 'I': 1, 'V': 5, 'X': 10, 'L': 50, 'C ...

  10. ArcSOC进程数不断增长导致oracle processes溢出原因分析

    现场出现了一个问题,oracle运行一段时间之后,process个数会溢出,然后新的连接会失败.通过分析,发现Arcgis Server 的ArcSOC进程在不段增长.ArcSOC是arcgis se ...