level 2:
10、案例:编写爬虫爬取豆瓣电影排行榜(电影名称,评分),保存为csv文件
a、用numpy加载csv数据
b、把评分列转换成float64类型
c、计算电影的平均评分
d、求评分最高的电影
e、求评分在9分以上的电影
"""

import requests
from lxml import etree
import csv
import numpy as np
def getHtml():
url = 'https://movie.douban.com/chart'
headers = {
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:67.0) Gecko/20100101 Firefox/67.0",
'Cookie':'ll="118237"; bid=kQ4wCGaUHxM; dbcl2="198098900:5Dr+gGK65ck"; ck=u-be; _pk_id.100001.4cf6=842ffa65a9a6b8b3.1560771548.1.1560771681.1560771548.; _pk_ses.100001.4cf6=*; __yadk_uid=ACadYi5zL218X3UjCuwIiXTk7lThAmup; __utma=30149280.26375845.1560771555.1560771555.1560771555.1; __utmb=30149280.2.10.1560771555; __utmc=30149280; __utmz=30149280.1560771555.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1679117071.1560771555.1560771555.1560771555.1; __utmb=223695111.0.10.1560771555; __utmc=223695111; __utmz=223695111.1560771555.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0; _vwo_uuid_v2=D0397C64E4418CF03F84A9F99DED3AE28|9c841c774e9ad1066dc8a2ca931d9a9a; __utmt=1; __utmv=30149280.19809'
}
# 1.请求网页源代码
strHtml = requests.get(url,headers=headers).text
# print(strHtml)
"""
页面分析之标题:
<a class="nbg" href="https://movie.douban.com/subject/27060077/" title="绿皮书">
<a class="nbg" href="https://movie.douban.com/subject/27053945/" title="我们">
页面分析之评分:
<span class="rating_nums">8.9</span>
<span class="rating_nums">6.6</span>
"""
#2. 数据提取
html = etree.HTML(strHtml)
# 获取到电影名称
tittle = html.xpath('//tr[@class="item"]//a/@title')
print(tittle)
# 获取到评分
grade = html.xpath('//span[@class="rating_nums"]/text()')
print(grade)
# 3.处理数据(使用拉链函数,让数据一一对应)
list=[]
res=zip(tittle,grade)
for i in res:
# 将元组数据保存进列表中
list.append(i)
# print(list)
# 4.保存成csv文件
with open('./doubandianying.csv','w',) as f:
csv_f = csv.writer(f)
# 添加第一行
csv_f.writerow(["title","grade"])
# 将数据遍历存储
for row in list:
csv_f.writerow(row)

def loadTxt():
filePath = './doubandianying.csv'
res=np.loadtxt(
filePath,
delimiter=',',
dtype=str,
usecols=(0,1),
skiprows=1
)
return res

def chage():
filePath = './doubandianying.csv'
res = np.loadtxt(
filePath,
delimiter=',',
dtype=str,
usecols=(1),
skiprows=1
)
res = res.astype(np.float)
return res

def mean(gradeFloat):
mean = np.mean(gradeFloat)
return mean

def movie(gradeFloat):
index = np.argmax(gradeFloat)
# print(index)
filePath = './doubandianying.csv'
title = np.loadtxt(
filePath,
delimiter=',',
dtype=str,
usecols=(0),
skiprows=1
)
# print(title)
return title[index]
# index = np.argmin(gradeFloat)

def movies(gradeFloat):

res = gradeFloat[(gradeFloat>9)]
print(res)

if __name__ == '__main__':
# 1.爬取数据
getHtml()

# 2.加载数据
lt = loadTxt()
print(lt)

# 3.将分数列转换成浮点类型
gradeFloat = chage()
print(gradeFloat)
print(type(gradeFloat))

# 4.计算电影的平均分
gradeMean = mean(gradeFloat)
print(gradeMean)

# 5.评分最高的电影
movieFirst = movie(gradeFloat)
print(movieFirst)

# 6. q求评分高于9分以上的电影 (无)
movies = movies(gradeFloat)

01爬取豆瓣网电影数据进行numpy的练习的更多相关文章

  1. 基础爬虫,谁学谁会,用requests、正则表达式爬取豆瓣Top250电影数据!

    爬取豆瓣Top250电影的评分.海报.影评等数据!   本项目是爬虫中最基础的,最简单的一例: 后面会有利用爬虫框架来完成更高级.自动化的爬虫程序.   此项目过程是运用requests请求库来获取h ...

  2. Python3爬取豆瓣网电影信息

      # -*- coding:utf-8 -*- """ 一个简单的Python爬虫, 用于抓取豆瓣电影Top前250的电影的名称 Language: Python3.6 ...

  3. 实例学习——爬取豆瓣网TOP250数据

    开发环境:(Windows)eclipse+pydev 网址:https://book.douban.com/top250?start=0 from lxml import etree #解析提取数据 ...

  4. requests爬取豆瓣top250电影信息

    ''' 1.爬取豆瓣top250电影信息 - 第一页: https://movie.douban.com/top250?start=0&filter= - 第二页: https://movie ...

  5. 爬取豆瓣网图书TOP250的信息

    爬取豆瓣网图书TOP250的信息,需要爬取的信息包括:书名.书本的链接.作者.出版社和出版时间.书本的价格.评分和评价,并把爬取到的数据存储到本地文件中. 参考网址:https://book.doub ...

  6. 基于爬取百合网的数据,用matplotlib生成图表

    爬取百合网的数据链接:http://www.cnblogs.com/YuWeiXiF/p/8439552.html 总共爬了22779条数据.第一次接触matplotlib库,以下代码参考了matpl ...

  7. Python-爬虫实战 简单爬取豆瓣top250电影保存到本地

    爬虫原理 发送数据 获取数据 解析数据 保存数据 requests请求库 res = requests.get(url="目标网站地址") 获取二进制流方法:res.content ...

  8. 爬虫入门(四)——Scrapy框架入门:使用Scrapy框架爬取全书网小说数据

    为了入门scrapy框架,昨天写了一个爬取静态小说网站的小程序 下面我们尝试爬取全书网中网游动漫类小说的书籍信息. 一.准备阶段 明确一下爬虫页面分析的思路: 对于书籍列表页:我们需要知道打开单本书籍 ...

  9. python3爬取豆瓣top250电影

    需求:爬取豆瓣电影top250的排名.电影名称.评分.评论人数和一句话影评 环境:python3.6.5 准备工作: 豆瓣电影top250(第1页)网址:https://movie.douban.co ...

  10. 003.[python学习] 简单抓取豆瓣网电影信息程序

    声明:本程序仅用于学习爬网页数据,不可用于其它用途. 本程序仍有很多不足之处,请读者不吝赐教. 依赖:本程序依赖BeautifulSoup4和lxml,如需正确运行,请先安装.下面是代码: #!/us ...

随机推荐

  1. 单实例Primary快速搭建Standby RAC参考手册(19.16 ADG)

    环境:Single Instance -> RAC Single Instance: db_name=demo db_unique_name=demo instance_name=demo se ...

  2. 创建型模式 - 原型模式Prototype

    孩子生来没娘的NT审核机制,又开始说我涉及到广告了,我涉及到什么广告了?我接着发. 学习而来,代码是自己敲的.也有些自己的理解在里边,有问题希望大家指出. 所属:创建型模式  原型模式 一般会和 工场 ...

  3. Python实用代码片段(1)-rot13加密

    Python之禅:THIS.PY 你安装了python之后,能在Lib目录下找到一个this.py的文件,就是此处的内容. s = """Gur Mra bs Clgub ...

  4. mysql19-锁

    1.什么是锁 锁是计算机协调多个进程或线程并发访问某一资源的机制.在数据库中,除传统的计算资源(如CPU.RAM.I/O等)的争用以外,数据也是一种供许多用户共享的资源.如何保证数据并发访问的一致性. ...

  5. 解决centos7 yum和wget都不能使用

    1.前言 因为卸载了centos 7.9.2009 内置自带的python2.7.5,导致yum无法使用,但是又没有安装wget,两者不能相互安装导致死循环 2.安装wget 找到自己对应的系统版本, ...

  6. Ubuntu18.4安装g2o

    1.安装依赖项: sudo apt-get install cmake libeigen3-dev libsuitesparse-dev qtdeclarative5-dev qt5-qmake li ...

  7. CMakeList汇总

    cmake_minimum_required(VERSION 2.8.3) PROJECT (HELLO) #工程名 set(CMAKE_BUILD_TYPE "Debug")se ...

  8. Zstack EPICS Archiver在小课题组的使用经验

    https://www.zstack.io/product/portfolio_comparison/ https://epics-controls.org/resources-and-support ...

  9. Istio 升级后踩的坑

    背景 前段时间我们将 istio 版本升级到 1.12 后导致现有的应用监控有部分数据丢失(页面上显示不出来). 一个是应用基础信息丢失. 再一个是应用 JVM 数据丢失. 接口维度的监控数据丢失. ...

  10. kali linux破解wifi密码-超详细过程

    前期准备VMware Workstation虚拟机在虚拟机安装好kail linunx系统无线网卡(芯片为3070或者1887L都支持Linux)一.打开终端,用airmon-ng命令查看如果出现无法 ...