1、下载MongoDB

官网下载:https://www.mongodb.com/download-center#community

上面这张图选择第二个按钮

上面这张图直接Next

把bin路径添加到path中,如下图:

在安装路径下自己创建一个文件mongo.conf,配置内容如下:

#数据库路径
dbpath=E:\mongodb\data
#日志输出文件路径
logpath=E:\mongodb\log\mongo.log
#错误日志采用追加模式
logappend=true
#启用日志文件,默认启用
journal=true
#这个选项可以过滤掉一些无用的日志信息,若需要调试请使用设置为false
quiet=true
#端口号默认为27017
port=27017

启动MongoDB服务

打开cmd命令行护着用Windows+R键打开,输入cmd

进入mongo安装路径的bin目录下

输入如下命令启动MongoDB:mongod --dbpath "E:\mongodb\data"

当你点击回车的时候,出现上面界面,说明已经成功了。

配置本地windows mongodb 服务

这样可设置为 开机自启动,可直接手动启动关闭,可通过命令行net start MongoDB 启动。该配置会大大方便。也不要在进入bin的目录下启动了

在mongodb新建配置文件mongo.config,这个是和bin目录同级的,该配置文件内容在上面可以找到。

用管理员身份打开cmd,左上角会出现管理员三个字,然后一次进入你的bin的目录下G:\mongodb\bin,这个一定要有管理员的身份去打开,否则执行下面命令会一直报错

输入:mongod --dbpath "E:\mongodb\data" --logpath "E:\mongodb\log\mongo.log" --install --serviceName "MongoDB"

如果输入次命令出现错误的话,先删除服务sc delete MongoDB,再次输入上个命令就好了

这样的话,mongodb服务Windows已经配置好了,我们可以不用进入bin的目录下启动MongoDB了

在浏览器输入http://localhost:27017,如果在浏览器中出现下面一段英文说明成功了

接下来在pycharm安装mongo plugo

安装好后重启IDE

重启后在右边能看到

创建一个mongo server

测试连接成功,点击OK保存设置就可以了。

下面这段代码将爬取到的天气数据放到MongoDB中。

  1. import time
  2. import pymongo
  3. import requests
  4.  
  5. client = pymongo.MongoClient('localhost',27017)
  6. #在MongoDB中新建名为weather的数据库
  7. book_weather = client['weather']
  8. #在weather库中创建名为sheet_weather_3的表
  9. sheet_weather = book_weather['sheet_weather_3']
  10.  
  11. #爬取天气数据
  12. url = 'https://cdn.heweather.com/china-city-list.txt'
  13. response = requests.get(url)
  14. response.encoding='utf8'
  15. data = response.text
  16. data_1 = data.split('\n')
  17. #去除前三行不要的数据
  18. for i in range(3):
  19. data_1.remove(data_1[0])
  20.  
  21. temp = 1
  22. for item in data_1:
  23. url = 'https://free-api.heweather.net/s6/weather/forecast?location='+item[1:13]+'&key=232ab5d4b88e46bcb8bd8c06d49ebf91'
  24. strhtml = requests.get(url)
  25. time.sleep(3)
  26. dic = strhtml.json()
  27. if(temp>3):
  28. #向sheet_weather_3表写入当前这条数据
  29. sheet_weather.insert_one(dic)else:
  30. temp+=1

运行代码

可以看到:爬取到的数据都以json的格式保存到mongodb数据库了。

接下来查询Mongodb数据库。代码如下:

  1. import pymongo
  2.  
  3. client = pymongo.MongoClient('localhost',27017)
  4. book_weather = client['weather']
  5. sheet_weather = book_weather['sheet_weather_3']
  6. #查找HeWeather6.basic.admin_area值为北京的数据。
  7. for item in sheet_weather.find({'HeWeather6.basic.admin_area':'北京'}):
  8. print(item)

接下来查询最大气温大于0度的城市名称。代码如下:

  1. import pymongo
  2.  
  3. client = pymongo.MongoClient('localhost',27017)
  4. book_weather = client['weather']
  5. sheet_weather = book_weather['sheet_weather_3']
  6. for item in sheet_weather.find():
  7. #因为数据是预测3天的,因此这里需要循环3此
  8. for i in range(3):
  9. #取出最大气温值
  10. tmp_max = item['HeWeather6'][0]['daily_forecast'][i]['tmp_max']
  11. #使用update方法,将表中最低气温数据修改数据值
  12. sheet_weather.update_one({'_id':item['_id']},{'$set':{'HeWeather6.0.daily_forecast.{}.tmp_max'.format(i):int(tmp_max)}})
  13.  
  14. #找出最高气温不小于0度的城市
  15. for item in sheet_weather.find({'HeWeather6.daily_forecast.tmp_max':{'$gte':0}}):
  16. print(item['HeWeather6'][0]['basic']['admin_area'])

可以看出北京这几天的天气最高气温都是大于零度的。

mongodb中比较符:

小于:$lt

小于等于:$lte

大于:$gt

大于等于:$gte

吴裕雄--天生自然PYTHON爬虫:安装配置MongoDBy和爬取天气数据并清洗保存到MongoDB中的更多相关文章

  1. 吴裕雄--天生自然PYTHON爬虫:使用BeautifulSoup解析中国旅游网页数据

    import requests from bs4 import BeautifulSoup url = "http://www.cntour.cn/" strhtml = requ ...

  2. 吴裕雄--天生自然PYTHON爬虫:使用Selenium爬取大型电商网站数据

    用python爬取动态网页时,普通的requests,urllib2无法实现.例如有些网站点击下一页时,会加载新的内容,但是网页的URL却没有改变(没有传入页码相关的参数),requests.urll ...

  3. 吴裕雄--天生自然PYTHON爬虫:使用Scrapy抓取股票行情

    Scrapy框架它能够帮助提升爬虫的效率,从而更好地实现爬虫.Scrapy是一个为了抓取网页数据.提取结构性数据而编写的应用框架,该框架是封装的,包含request异步调度和处理.下载器(多线程的Do ...

  4. 吴裕雄--天生自然PYTHON爬虫:爬虫攻防战

    我们在开发者模式下不仅可以找到URL.Form Data,还可以在Request headers 中构造浏览器的请求头,封装自己.服务器识别浏览器访问的方法就是判断keywor是否为Request h ...

  5. 吴裕雄--天生自然PYTHON爬虫:爬取某一大型电商网站的商品数据(效率优化以及代码容错处理)

    这篇博文主要是对我的这篇https://www.cnblogs.com/tszr/p/12198054.html爬虫效率的优化,目的是为了提高爬虫效率. 可以根据出发地同时调用多个CPU,每个CPU运 ...

  6. 吴裕雄--天生自然PYTHON爬虫:用API爬出天气预报信息

    天气预报网址:https://id.heweather.com/,这个网站是需要注册获取一个个人认证后台密钥key的,并且每个人都有访问次数的限制,这个key就是访问API的钥匙. 这个key现在是要 ...

  7. 吴裕雄--天生自然python爬虫:使用requests模块的get和post方式抓取中国旅游网站和有道翻译网站翻译内容数据

    import requests url = 'http://www.cntour.cn/' strhtml = requests.get(url) print(strhtml.text) URL='h ...

  8. 吴裕雄--天生自然python学习笔记:pandas模块读取 Data Frame 数据

    读取行数据 读取一个列数据的语法为: 例如,读取所有学生自然科目的成绩 : import pandas as pd datas = [[65,92,78,83,70], [90,72,76,93,56 ...

  9. 吴裕雄--天生自然python数据清洗与数据可视化:MYSQL、MongoDB数据库连接与查询、爬取天猫连衣裙数据保存到MongoDB

    本博文使用的数据库是MySQL和MongoDB数据库.安装MySQL可以参照我的这篇博文:https://www.cnblogs.com/tszr/p/12112777.html 其中操作Mysql使 ...

随机推荐

  1. 大数据计算引擎之Flink Flink CEP复杂事件编程

    原文地址: 大数据计算引擎之Flink Flink CEP复杂事件编程 复杂事件编程(CEP)是一种基于流处理的技术,将系统数据看作不同类型的事件,通过分析事件之间的关系,建立不同的时事件系序列库,并 ...

  2. centos8下gz,bz2,zip压缩解压缩

    for gz 1.制作压缩包 [root@192 mnt]# tar czf mydir.tar.gz mydir1/ 2.解压gz 压缩包 [root@192 mnt]# tar xvf mydir ...

  3. Vue中组件之间的通信方式

    vue是数据驱动视图更新的框架, 所以对于vue来说组件间的数据通信非常重要,那么组件之间如何进行数据通信的呢? 本文会介绍组件间通信的8种方式如下图所示, 并介绍在不同的场景下如何选择有效方式实现的 ...

  4. Vue——路由回退至指定页面

    先来引出一下遇到的问题:在做一个移动端支付页面,在付款页面点击支付按钮,支付失败时跳转至支付失败提示页面:支付成功时跳转至支付成功页面.在支付成功页面下,如果用户点击手机自带的“返回”键,就又会跳转至 ...

  5. comsol日常联系

  6. Update(stage3):第1节 redis组件:4、安装(略);5、数据类型(略);6、javaAPI操作;

    第三步:redis的javaAPI操作 操作string类型数据 操作hash列表类型数据 操作list类型数据 操作set类型的数据 详见代码

  7. 时隔两天,三星再称GalaxyFold已准备就绪,王自如的脸还好吗?

    编辑 | 禾斗 出品 | 于见(mpyujian) 据消息人士透露,三星已经完成对其有缺陷的折叠智能手机进行了重新设计,Galaxy Fold准备适时再度推出,但问题是,作为消费者,我们准备好了吗? ...

  8. cmake 环境安装与使用

    CMake是一个跨平台的安装(编译)工具,可以用简单的语句来描述所有平台的安装(编译过程).他能够输出各种各样的makefile或者project文件,能测试编译器所支持的C++特性,类似UNIX下的 ...

  9. 几个原生js知识

    1.document.documentElement 返回根节点 html. 2.原生方法获取一个对象的某个样式的值. function getStyle(obj, attr) { if(obj.cu ...

  10. login() got an unexpected keyword argument 'extra_context'

    环境:xadmin   django2.0  python3.7.4 操作登录login()或者注销logout()报以上错误的解决办法如下: 在xadmin的views/website.py中 修改 ...