1. 数据分析的任务:数据读写,数据准备(清洗,修整,规范化,重塑,切片切块,变形),转换,建模计算,呈现(模型/数据)

2. 数据集:

bit.ly的1.usa.gov数据:URL缩短服务bit.ly和美国政府usa.gov合作从.gov或.mil用户那里收集的匿名数据

  1. # -*- coding:utf-8 -*-
  2. #导入json模块,将json字符串转换为python字典
  3. import json
  4. from collections import defaultdict
  5. from collections import Counter
  6. from pandas import DataFrame, Series
  7. import pandas as pd
  8. import numpy as np
  9. import matplotlib.pyplot as plt
  10.  
  11. path = "E:/Programming/Python/PythonDataAnalysis/datasets/usagov_bitly/example.txt"
  12. #list comprehension
  13. records = [json.loads(line) for line in open(path)]
  14. #对时区计数, 同时保证tz必须在records中
  15. time_zones = [rec['tz'] for rec in records if 'tz' in rec.keys()]
  16. #--------------方法1:------------
  17. #时区计数
  18. def get_counts(sequence):
  19. counts = {}
  20. for x in sequence:
  21. if x in counts:
  22. counts[x] += 1
  23. else:
  24. counts[x] = 1
  25. return counts
  26. #取得前n个最常使用的时区
  27. def top_counts(count_dict,n = 10):
  28. value_key_pairs = [(count,tz) for tz, count in count_dict.items()]
  29. value_key_pairs.sort()
  30. return value_key_pairs[-n:]
  31. counts = get_counts(time_zones)
  32. print(counts)
  33. top_counts = top_counts(counts)
  34. print(top_counts)
  35. #--------------方法2:------------
  36. def get_counts2(sequence):
  37. counts = defaultdict(int)
  38. for x in sequence:
  39. counts[x] += 1
  40. return counts
  41. #--------------方法3:------------
  42. #引入collections的Counter对象
  43. def get_counts3(time_zones,n=10):
  44. counts = Counter(time_zones)
  45. return counts.most_common(n)
  46.  
  47. top_counts3 = get_counts3(time_zones,10)
  48. print(top_counts3)
  49. #--------------方法3:------------
  50. #用pandas对时区进行计数
  51. #将records转换为DataFrame对象
  52. frame = DataFrame(records)
  53. #frame['tz']返回的对象有一个value_counts方法
  54. tz_counts = frame['tz'].value_counts()
  55. print(tz_counts[:10])
  56. #fillna()函数填补空缺值NA
  57. clean_tz = frame['tz'].fillna("Missing")
  58. print(clean_tz)
  59. #空字符串为Unknown
  60. clean_tz[clean_tz == ''] = "Unknown"
  61. tz_counts = clean_tz.value_counts()
  62. print(tz_counts[:10])
  63. #利用counts的plot方法
  64. tz_counts[:10].plot(kind = "barh",rot=0)
  65. plt.show()
  66. #用户浏览器分析
  67. results = Series([x.split()[0] for x in frame.a.dropna()])
  68. #打印前8的浏览器
  69. print(results.value_counts()[:8])
  70. cframe = frame[frame.a.notnull()]
  71. operating_system = np.where(cframe['a'].str.contains("Windows"),"Windows","Not Windows")
  72. windows = 0
  73. nonWindows = 0
  74. for op in operating_system:
  75. if op == "Windows":
  76. windows += 1
  77. else:
  78. nonWindows += 1
  79. print("windows:",windows,"nonWindows:",nonWindows)
  80. #使用windows/nonwindows给时区分组
  81. by_tz_os = cframe.groupby(['tz',operating_system])
  82. agg_counts = by_tz_os.size().unstack().fillna(0)
  83. print(agg_counts[:10])
  84. #选取最常见的时区
  85. indexer = agg_counts.sum(1).argsort()
  86. print(indexer)
  87. count_subset = agg_counts.take(indexer)[-10:]
  88. print(count_subset)
  89. #绘制windows/nonwindows 堆叠条形图
  90. count_subset.plot(kind="barh",stacked=True)
  91. #不加这句语句,在Ipython中可以显示但是脚本运行不显示
  92. plt.show()
  93. #规范化
  94. normed_subset = count_subset.div(count_subset.sum(1),axis = 0)
  95. normed_subset.plot(kind = "barh",stacked=True)
  96. plt.show()

MovieLens 1M数据集:20世纪90年末到21世纪初6000名用户提供的4000部电影评分100万条数据,分为3个表:电影评分,电影元数据(类型,年代),用户的人口统计学数据(年龄,右边,性别,职业)

  1. # -*- coding: utf-8 -*-
  2. import pandas as pd
  3. import os
  4. #数据读取,读成3个表
  5. path = 'E:/Programming/Python/PythonDataAnalysis/datasets/movielens/'
  6. unames = ['user_id','gender','age','occupation','zip']
  7. upath = os.path.join(path,'users.dat')
  8. users = pd.read_table(upath,sep = "::",header=None,names=unames,engine='python')
  9. rnames = ['user_id',"movie_id","rating","timestamp"]
  10. ratings = pd.read_table(path+'ratings.dat',sep = "::",header=None,names=rnames,engine='python')
  11. mnames = ['movie_id','title','genres']
  12. movies = pd.read_table(path+'movies.dat',sep ="::",header=None,names=mnames,engine='python')
  13. #数据表整合
  14. data = pd.merge(pd.merge(ratings,users),movies)
  15. print(data[:10])
  16. print(data.ix[0])
  17. #按性别计算每部电影的得分,index 中是标签,columns中是列标签
  18. mean_ratings = data.pivot_table('rating',index = 'title',columns = "gender",aggfunc='mean')
  19. print(mean_ratings[:10])
  20. #过滤掉评分不足250条的电影
  21. ratings_by_title = data.groupby('title').size()
  22. print(ratings_by_title[:10])
  23. active_titles = ratings_by_title[ratings_by_title >= 250]
  24. print(active_titles)
  25. #按照评论>=250的index筛选
  26. mean_ratings = mean_ratings.ix[active_titles.index]
  27. top_female_ratings = mean_ratings.sort_index(by='F',ascending=False)
  28. print(top_female_ratings[:10])
  29. #计算男性女性得分分歧最大的电影
  30. mean_ratings['diff'] = mean_ratings['M'] - mean_ratings['F']
  31.  
  32. sorted_by_diff = mean_ratings.sort_index(by = 'diff')
  33. #分歧最大且女性更喜欢的电影
  34. print(sorted_by_diff[:15])
  35. #对结果反序取出前15行,男性观众更喜欢的电影
  36. print(sorted_by_diff[::-1][:15])
  37. #分歧最大的电影,计算方差或者标准差
  38. rating_std_by_title = data.groupby('title')['rating'].std()
  39. #使用active_title进行过滤
  40. rating_std_by_title = rating_std_by_title.ix[active_titles]
  41. rating_std_by_title.order(ascending=False)
  42. print(rating_std_by_title[:15])

1880-2010年间婴儿名字频率数据

  1. # -*- coding:utf-8 -*-
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. import numpy as np
  5. path = 'E:/Programming/Python/PythonDataAnalysis/datasets/babynames/'
  6. names1880 = pd.read_csv(path+'yob1880.txt',names = ['name','sex','births'],engine='python')
  7. #按照sex对数据进行简单分组
  8. names1880.groupby('sex').births.sum()
  9. #将单个文件中的数据整合到一个数据表中
  10. years = range(1880,2011)
  11. pieces = []
  12. columns = ['name','sex','birth']
  13. for year in years:
  14. subpath = 'yob%d.txt' % year
  15. frame = pd.read_csv(path+subpath,names = columns)
  16. frame['year'] = year
  17. pieces.append(frame)
  18. names = pd.concat(pieces,ignore_index = True)
  19. #使用pivot_table()函数进行聚合
  20. total_births = names.pivot_table('birth',index = 'year',columns = 'sex',aggfunc = sum)
  21. print(total_births.tail())
  22. #插入prop列存放指定的婴儿数相对于总出生数的比例
  23. def add_prop(group):
  24. births = group.birth.astype(float)
  25. group['prop'] = births/births.sum()
  26. return group
  27.  
  28. names = names.groupby(['year','sex']).apply(add_prop)
  29. #取出每个sex/year组合的前1000个名字
  30. def get_top1000(group):
  31. return group.sort_values(by='birth',ascending=False)[1:1000]
  32. grouped = names.groupby(['year','sex'])
  33. top1000 = grouped.apply(get_top1000)
  34. #接下来的'命名趋势'分析针对这top1000个数据集
  35. #取出男性
  36. boys = top1000[top1000.sex == 'M']
  37. #取出女性
  38. girls = top1000[top1000.sex == 'F']
  39. total_births = top1000.pivot_table('birth',index = 'year',columns = 'name',aggfunc = sum)
  40. subset = total_births[['John','Harry','Mary','Marilyn']]
  41. subset.plot(subplots = True,figsize = (12,10),grid=False,title = "Number of births per year")
  42. plt.show()
  43. #观察名字多样性变化
  44. table = top1000.pivot_table('prop',index = 'year',columns = 'sex',aggfunc = sum)
  45. table.plot(title = "sum of table1000.prop by year and sex",yticks = np.linspace(0,1.2,13),xticks = range(1880,2020,10))
  46. plt.show()
  47. # 名字最后一个字母的变化

  

[读书笔记] Python数据分析 (二) 引言的更多相关文章

  1. [读书笔记] Python 数据分析 (十二)高级NumPy

    da array: 一个快速而灵活的同构多维大数据集容器,可以利用这种数组对整块的数据进行一些数学运算 数据指针,系统内存的一部分 数据类型 data type/dtype 指示数据大小的元组 str ...

  2. [读书笔记] Python数据分析 (三) IPython

    1. 什么是IPython IPyhton 本身没有提供任何的计算或者数据分析功能,在交互式计算和软件开发者两个方面最大化地提高生产力,execute-explore instead of edit- ...

  3. [读书笔记] Python数据分析 (一) 准备工作

    1. python中数据结构:矩阵,数组,数据框,通过关键列相互联系的多个表(SQL主键,外键),时间序列 2. python 解释型语言,程序员时间和CPU时间衡量,高频交易系统 3. 全局解释器锁 ...

  4. [读书笔记] Python数据分析 (四) 数组和矢量计算

    Numpy:高性能计算和数学分析的基础包 ndarray, 一个具有矢量算术运算和复杂广播能力的快速且节省空间的多维数组 用于对数组数据进行快速运算的标准数学函数 用于读写磁盘数据的工具和用于操作内存 ...

  5. [读书笔记] Python数据分析 (五) pandas入门

    pandas: 基于Numpy构建的数据分析库 pandas数据结构:Series, DataFrame Series: 带有数据标签的类一维数组对象(也可看成字典) values, index 缺失 ...

  6. [读书笔记] Python 数据分析 (八)画图和数据可视化

    ipython3 --pyplot pyplot: matplotlib 画图的交互使用环境

  7. [读书笔记] Python 数据分析 (十一)经济和金融数据应用

    resample: 重采样函数,可以按照时间来提高或者降低采样频率,fill_method可以使用不同的填充方式. pandas.data_range 的freq参数枚举: Alias Descrip ...

  8. 《Linux内核设计与实现》读书笔记——第一、 二章

    <Linux内核设计与实现>读书笔记--第一. 二章 标签(空格分隔): 20135321余佳源 第一章 Linux内核简介 1.Unix内核特点 十分简洁:仅提供几百个系统调用并且有明确 ...

  9. 《Linux内核设计与实现》读书笔记(十二)- 内存管理【转】

    转自:http://www.cnblogs.com/wang_yb/archive/2013/05/23/3095907.html 内核的内存使用不像用户空间那样随意,内核的内存出现错误时也只有靠自己 ...

随机推荐

  1. Project Euler 23 Non-abundant sums( 整数因子和 )

    题意: 完全数是指真因数之和等于自身的那些数.例如,28的真因数之和为1 + 2 + 4 + 7 + 14 = 28,因此28是一个完全数. 一个数n被称为亏数,如果它的真因数之和小于n:反之则被称为 ...

  2. IntelliJ IDEA 2017.1.6 x64 的破解

    方式一 现在用这个 http://idea.imsxm.com/好使 步骤如下,点击help按钮,选择Register 点击license server   修改下面的服务器激活地址 方式二 由于Je ...

  3. 【hihocoder 1312】搜索三·启发式搜索(启发式搜索写法)

    [题目链接]:http://hihocoder.com/problemset/problem/1312?sid=1092363 [题意] [题解] 定义一个A*函数 f = step+val 这里的v ...

  4. [Beginning SharePoint Designer 2010]Chapter4 发布页面

    本章概要: 1.SharePoint中的Web内容管理 2.SharePoint发布系统的特性 3.SharePoint发布页面的组成 4.母板页 5.如何构建页面布局和他们潜在的内容类型

  5. 安装ftp碰到的问题及解决方法

    1   CRT显示乱码:     本地windows机器.改动SecureCRT的设置.找到"选项"->"会话选项"->"外观" ...

  6. HDU 1874 畅通project续 (最短路径)

    畅通project续 Time Limit: 3000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others) Total ...

  7. svn 服务器的搭建

     SVN服务器运行模式:模式1:svn服务器单独运行  监听: 3690端口    访问: svn://IP模式2: svn 服务器+ apache   : 80 端口  访问: http://IP  ...

  8. UVA - 11021 - Tribles 递推概率

    GRAVITATION, n.“The tendency of all bodies to approach one another with a strengthproportion to the ...

  9. linux下的静态库创建与查看,及如何查看某个可执行依赖于哪些动态库

    linux下的静态库创建与查看,及如何查看某个可执行依赖于哪些动态库   创建静态库:ar -rcs test.a *.o查看静态库:ar -tv test.a解压静态库:ar -x test.a 查 ...

  10. phpmyadmin客户端多服务器配置

    修改libraries/config.default.php 545行,添加 $cfg['Servers']['2'] = $cfg['Servers'][$i];$cfg['Servers']['2 ...