一、实验对象

实验对象为星巴克在全球的门店数据,我们可以使用pandas对其进行简单的分析,如分析每个国家星巴克的数量,根据门店数量对国家进行排序等。

二、数据分析

1、读取数据并获取数据行列数

首先读取数据:

  1. import numpy as np
  2. import pandas as pd
  3. starbucks = pd.read_csv("D:\\directory.csv")
  4. print "数据的列标签如下:"
  5. print starbucks.columns
  6. print "每列的数据类型:"
  7. print starbucks.dtypes
  8. print "文件行数:"
  9. print len(starbucks.index)
  10. print "文件列数:"
  11. print starbucks.columns.size

输出:

  1. 数据的列标签如下:
  2. Index([u'Brand', u'Store Number', u'Store Name', u'Ownership Type',
  3. u'Street Address', u'City', u'State/Province', u'Country', u'Postcode',
  4. u'Phone Number', u'Timezone', u'Longitude', u'Latitude'],
  5. dtype='object')
  6. 每列的数据类型:
  7. Brand object
  8. Store Number object
  9. Store Name object
  10. Ownership Type object
  11. Street Address object
  12. City object
  13. State/Province object
  14. Country object
  15. Postcode object
  16. Phone Number object
  17. Timezone object
  18. Longitude float64
  19. Latitude float64
  20. dtype: object
  21. 文件行数:
  22. 25600
  23. 文件列数:
  24. 13

可以看到文件共有25600条数据,每条数据有13列。

2、查看数据

  1. #查看文件的前五行数据
  2. print starbucks.head()

输出:



可以通过DataFrame.head(n)来获取数据帧的前n行数据,未指定n则返回前5行,同样的函数还有DataFrame.tail(n)。上图中有些数据为NaN,如果NaN对数据处理有影响的话可以使用DataFrame.fillna(value)将NaN替换成value,或者使用DataFrame.dropna()删除含有NaN的行。本文将不对NaN做处理。

3、按照星巴克数量由多到少对国家排序

要实现这个功能需要用到DataFrame.groupby()函数,相当于sql中的group by。在本例中可以使用starbucks.groupby(["Country"])来对星巴克按国家分组,然后使用starbucks.groupby(["Country"]).size()求得每个国家有多少星巴克。

  1. df = starbucks.groupby(["Country"]).size().reset_index()

输出:

  1. Country
  2. AD 1
  3. AE 144
  4. AR 108
  5. AT 18
  6. AU 22
  7. AW 3
  8. AZ 4
  9. BE 19
  10. BG 5
  11. BH 21
  12. BN 5
  13. BO 4
  14. BR 102
  15. BS 10
  16. CA 1468
  17. CH 61
  18. CL 96
  19. CN 2734
  20. CO 11
  21. CR 11
  22. CW 3
  23. CY 10
  24. CZ 28
  25. DE 160
  26. DK 21
  27. EG 31
  28. ES 101
  29. FI 8
  30. FR 132
  31. GB 901
  32. ...
  33. LU 2
  34. MA 9
  35. MC 2
  36. MX 579
  37. MY 234
  38. NL 59
  39. NO 17
  40. NZ 24
  41. OM 12
  42. PA 5
  43. PE 89
  44. PH 298
  45. PL 53
  46. PR 24
  47. PT 11
  48. QA 18
  49. RO 27
  50. RU 109
  51. SA 102
  52. SE 18
  53. SG 130
  54. SK 3
  55. SV 11
  56. TH 289
  57. TR 326
  58. TT 3
  59. TW 394
  60. US 13608
  61. VN 25
  62. ZA 3
  63. Length: 73, dtype: int64

然后我们将上一步的结果使用reset_index()方法封装成一个新的DataFrame,然后对这个DataFrame排序即可。

  1. #根据每个国家的国家名和星巴克数量重建为一个DataFrame
  2. df = starbucks.groupby(["Country"]).size().reset_index()
  3. #查看df的前5行数据
  4. print df.head()
  5. #修改列名(将“0”改为“Nums”)
  6. df.columns=["Country", "Nums"]
  7. #按照星巴克数量由多到少对国家排序
  8. df.sort_values(by=["Nums"], ascending=False).head()

输出:

  1. Country 0
  2. 0 AD 1
  3. 1 AE 144
  4. 2 AR 108
  5. 3 AT 18
  6. 4 AU 22
  7. Country Nums
  8. 70 US 13608
  9. 17 CN 2734
  10. 14 CA 1468
  11. 37 JP 1237
  12. 39 KR 993

可以看到,美国的星巴克最多,有13608家,其次是中国、加拿大、日本、韩国。由于篇幅限制只显示了排序后的5行,可以去掉head()显示全部数据。

4、按星巴克数量多少对中国城市排序

首先要在所有国家的数据中选择中国的数据,可以使用布尔索引实现这一目的:

  1. #选择中国的数据
  2. df = starbucks[starbucks["Country"]=="CN"]
  3. #统计每个城市的星巴克数量
  4. df.groupby(["City"]).size()

输出:

  1. City
  2. Admiralty 2
  3. Causeway Bay 5
  4. Central 1
  5. Chaiwan 1
  6. Changshu 1
  7. Changzhou 1
  8. Fortress Hill 1
  9. Hangzhou 2
  10. Hong Kong 104
  11. Jiaxing 2
  12. Jinhua 1
  13. Kowloon 19
  14. Kowloon Bay 1
  15. Kowloon Tong 1
  16. Lantau Island 2
  17. Macau 13
  18. Mong Kok 2
  19. N.T. 2
  20. Nanjing 1
  21. Nantong 4
  22. New Territories 7
  23. Ningbo 3
  24. Quarry Bay 3
  25. ShangHai 2
  26. Shanghai 2
  27. Shantin 1
  28. Stanley 1
  29. Suzhou 3
  30. Tai Koo Shing 1
  31. Tin Hau 1
  32. ...
  33. 萧山市 1
  34. 蚌埠市 1
  35. 衡阳市 3
  36. 衢州市 3
  37. 襄樊市 1
  38. 襄阳市 2
  39. 西宁市 3
  40. 西安市 40
  41. 诸暨市 2
  42. 贵阳 8
  43. 贵阳市 1
  44. 连云港 1
  45. 连云港市 3
  46. 邢台市 1
  47. 邯郸 1
  48. 郑州市 18
  49. 重庆市 41
  50. 金华市 11
  51. 银川市 2
  52. 镇江市 9
  53. 长春市 10
  54. 长沙市 26
  55. 阳江市 1
  56. 青岛市 28
  57. 靖江市 2
  58. 鞍山市 3
  59. 马鞍山 3
  60. 高邮市 1
  61. 黄石市 1
  62. 龙岩市 2
  63. Length: 197, dtype: int64

可以看到数据不是很规范,城市名称既有中文又有英文,而且上海被存储为ShangHaiShanghai。对于上海的问题,我们将拼音全部改为小写即可;对于中文和拼音混用的问题,可以使用相应的python库(如库pinyin)将中文转换为拼音后作统计。

首先安装库pinyin,如果是在命令行里运行的python,直接pip install pinyin,安装成功后import pinyin即可。我是在jupyter notebook里面写的,外部pip安装的模块无法导入,所以使用下面的方法(或者使用conda命令安装):

  1. import pip
  2. pip.main(['install', 'pinyin'])

安装后导入并做相应的处理:

  1. import pinyin
  2. #选择中国的数据
  3. df = starbucks[starbucks["Country"]=="CN"]
  4. #需要拷贝一下,不然会出现“A value is trying to be set on a copy of a slice from a DataFrame.”的警告
  5. df1 = df.copy()
  6. #将城市名改为小写
  7. df1["City"] = df1["City"].apply(lambda x:x.lower())
  8. df2 = df1.copy()
  9. #将汉字城市名改为小写拼音
  10. df2["City"] = df2["City"].apply(lambda x:pinyin.get(x, format="strip", delimiter="")[0:-3]) #去掉“市”的拼音
  11. #统计每个城市的星巴克数量
  12. df2.groupby(["City"]).size()

输出:

  1. City
  2. admira 2
  3. anshan 3
  4. bangbu 1
  5. baoding 3
  6. baoji 1
  7. baotou 4
  8. beihai 1
  9. beijing 234
  10. causeway 5
  11. cent 1
  12. chai 1
  13. chang 1
  14. changchun 10
  15. changsha 26
  16. changshu 6
  17. changz 1
  18. changzhou 26
  19. chengde 1
  20. chengdu 98
  21. cixi 5
  22. dali 1
  23. dalian 25
  24. danzhou 1
  25. daqing 2
  26. deyang 2
  27. dezhou 2
  28. dongguan 31
  29. dongyang 1
  30. dongying 1
  31. fenghua 2
  32. ...
  33. yancheng 6
  34. yangjiang 1
  35. yangzhong 1
  36. yangzhou 12
  37. yanji 1
  38. yantai 8
  39. yichang 4
  40. yinchuan 2
  41. yingkou 2
  42. yiwu 2
  43. yixing 3
  44. yuen l 2
  45. yueyang 2
  46. yuyao 1
  47. zhangjia 1
  48. zhangjiag 1
  49. zhangjiagang 1
  50. zhangzhou 1
  51. zhanjiang 4
  52. zhaoqing 1
  53. zhengzhou 18
  54. zhenjiang 9
  55. zhongqing 41
  56. zhongshan 11
  57. zhous 1
  58. zhoushan 5
  59. zhuhai 14
  60. zhuji 2
  61. zhuzhou 2
  62. zibo 5
  63. Length: 192, dtype: int64

这里使用到了DataFrame.apply(func)方法,该方法将函数func应用到整个DataFrame上,也可以通过指定axis参数来指定每一行或每一列的数据应用函数func。

接下来使用reset_index方法将上一步得到的数据封装到一个新的DataFrame中排序即可。

  1. df3 = df2.groupby(["City"]).size().reset_index()
  2. #更改列索引名称
  3. df3.columns = ["City", "Nums"]
  4. print df3.sort_values(by=["Nums"], ascending=False).head()

输出:

  1. City Nums
  2. 121 shanghai 542
  3. 7 beijing 234
  4. 46 hangzhou 117
  5. 126 shenzhen 113
  6. 36 guangzhou 106

可以看到在中国,上海的星巴克最多,有542家,其次的是北京、杭州、深圳和广州,去掉.head()可以查看所有城市的数据。

三、总结

本文主要按照星巴克数量对国家和中国的城市进行排序,用到的知识有:

  • 使用DataFrame.groupby()方法对DataFrame按照一列或多列分组;
  • 使用布尔索引选择数据;
  • 使用DataFrame.reset_index()方法重新指定索引(也就是把原DataFrame的行索引也当做数据并重新指定索引),该方法返回一个新的DataFrame;
  • 通过对DataFrame.columns的赋值,重新指定列标签;
  • 使用DataFrame.apply(func)方法,将函数func应用到整个DataFrame上,也可以通过指定axis参数来指定每一行或每一列的数据应用函数func。
  • 使用DataFrame.sort()方法对DataFrame按照某一列或者某几列进行排序。

我们也可以看到一些pandas的操作可以与SQL操作练习起来:

1、Where语句

在上文中我们使用布尔索引选择了中国的数据df = starbucks[starbucks["Country"]=="CN"],这一点很像SQL里面的where语句select * from starbucks where Country="CN"

2、Select语句

starbucks有很多列,如Country,City,Brand,Postcode等,如果我们要从所有列中选择两列Country和City,则pandas可以使用df = starbucks[["Country", "City"]],与之对应的是SQL中的select语句select Country, City from starbucks;

3、Group by语句

上文中通过国家分组,pandas使用DataFrame.groupby()方法starbucks.groupby(["Country"]),对应的为SQL中的select * from starbucks group by Country

pandas实战——对星巴克数据的分析的更多相关文章

  1. 如何获取(GET)一杯咖啡——星巴克REST案例分析

    英文原文:How to GET a Cup of Coffee 我们已习惯于在大型中间件平台(比如那些实现CORBA.Web服务协议栈和J2EE的平台)之上构建分布式系统了.在这篇文章里,我们将采取另 ...

  2. 使用bs4中的方法爬取星巴克数据

    import urllib.request # 请求url url = 'https://www.starbucks.com.cn/menu/' # 模拟浏览器发出请求 response = urll ...

  3. pyecharts实现星巴克门店分布可视化分析

    项目介绍 使用pyecharts对星巴克门店分布进行可视化分析: 全球门店分布/拥有星巴克门店最多的10个国家或地区: 拥有星巴克门店最多的10个城市: 门店所有权占比: 中国地区门店分布热点图. 数 ...

  4. 《Wireshark数据包分析实战》 - http背后,tcp/ip抓包分析

    作为网络开发人员,使用fiddler无疑是最好的选择,方便易用功能强. 但是什么作为爱学习的同学,是不应该止步于http协议的,学习wireshark则可以满足这方面的需求.wireshark作为抓取 ...

  5. Spark大型项目实战:电商用户行为分析大数据平台

    本项目主要讲解了一套应用于互联网电商企业中,使用Java.Spark等技术开发的大数据统计分析平台,对电商网站的各种用户行为(访问行为.页面跳转行为.购物行为.广告点击行为等)进行复杂的分析.用统计分 ...

  6. Python实战——基于股票的金融数据量化分析

    说明:本文只是通过自己的已学知识对股票数据进行了一个简单的量化分析,只考虑了收盘情况,真实的量化交易中仅仅考虑收盘情况是不够的,还有很多的复杂因素,而且仅仅三年数据是不足以来指导真实的股票交易的,因此 ...

  7. 用实战玩转pandas数据分析(一)——用户消费行为分析(python)

      CD商品订单数据的分析总结.根据订单数据(用户的消费记录),从时间维度和用户维度,分析该网站用户的消费行为.通过此案例,总结订单数据的一些共性,能通过用户的消费记录挖掘出对业务有用的信息.对其他产 ...

  8. iOS开发——项目实战总结&数据持久化分析

    数据持久化分析 plist文件(属性列表) preference(偏好设置) NSKeyedArchiver(归档) SQLite 3 CoreData 当存储大块数据时你会怎么做? 你有很多选择,比 ...

  9. wireshark数据包分析实战 第一章

    1,数据包分析工具:tcpdump.wireshark.前者是命令行的,后者是图形界面的. 分析过程:收集数据.转换数据(二进制数据转换为可读形式).分析数据.tcpdump不提供分析数据,只将最原始 ...

随机推荐

  1. Redis总体 概述,安装,方法调用

    1 什么是redis redis是一个key-value存储系统.和Memcached类似,它支持存储的value类型相对更多,包括string(字符串).list(链表).set(集合)和zset( ...

  2. springboot 以jar方式在linux后台运行

    linux命令如下: nohup java -jar 自己的springboot项目.jar >日志文件名.log 2>&1 & 命令解释: nohup:不挂断地运行命令, ...

  3. Android SDK更新失败对策

    Fetching https://dl-ssl.google.com/android/repository/addons_list-2.xml Failed to fetch URL https:// ...

  4. ConcrrentSkipListMap介绍和原理分析

    一.前言: JDK为我们提供了很多Map接口的实现,使得我们可以方便地处理Key-Value的数据结构. 当我们希望快速存取<Key, Value>键值对时我们可以使用HashMap. 当 ...

  5. 莫队-小Z的袜子

    ----普通莫队 首先清楚概率怎么求假设我们要求从区间l到r中拿出一对袜子的概率sum[i]为第i种袜子在l到r中的数量 $$\frac{\sum_{i=l}^{r} {[sum[i] \times ...

  6. layui-laypage模块代码详解

    /** layui-v2.4.0 MIT License By https://www.layui.com */;layui.define(function(e) { "use strict ...

  7. Treats for the Cows 区间DP POJ 3186

    题目来源:http://poj.org/problem?id=3186 (http://www.fjutacm.com/Problem.jsp?pid=1389) /** 题目意思: 约翰经常给产奶量 ...

  8. 【四校联考】【比赛题解】FJ NOIP 四校联考 2017 Round 7

    此次比赛为厦门一中出题.都是聚劳,不敢恭维. 莫名爆了个0,究其原因,竟然是快读炸了……很狗,很难受. 话不多说,来看看题: [T1] 题意: 样例: PS:1<=h[i]<=100000 ...

  9. python基础之命名空间

    前言 命名空间通俗的理解就是对象或变量的作用范围,在python中分为局部命令空间.模块命名空间和build-in全局命名空间. 局部命名空间 局部命名空间即在一个函数或一个类中起作用的变量或引用的字 ...

  10. select()函数用法三之poll函数

    poll是Linux中的字符设备驱动中有一个函数,Linux 2.5.44版本后被epoll取代,作用是把当前的文件指针挂到等待队列,和select实现功能差不多. poll()函数:这个函数是某些U ...