一、统计数据频率

 1. values_counts

pd.value_counts(df.column_name)
df.column_name.value_counts() Series.value_counts(normalize=False, sort=True, ascending=False, bins=None, dropna=True)[source]
Return a Series containing counts of unique values.

  参数详解

normalize : boolean, default False
If True then the object returned will contain the relative frequencies of the unique values. sort : boolean, default True
Sort by values. ascending : boolean, default False
Sort in ascending order. bins : integer, optional
Rather than count values, group them into half-open bins, a convenience for pd.cut, only works with numeric data. dropna : boolean, default True
Don’t include counts of NaN.

  参数示例讲解

index = pd.Index([3, 1, 2, 3, 4, np.nan])
index.value_counts()
Out[144]:
3.0 2
4.0 1
2.0 1
1.0 1
dtype: int64
index.value_counts(normalize=True)
Out[145]:
3.0 0.4
4.0 0.2
2.0 0.2
1.0 0.2
dtype: float64
index.value_counts(bins=3)
Out[146]:
(2.0, 3.0] 2
(0.996, 2.0] 2
(3.0, 4.0] 1
dtype: int64
index.value_counts(dropna=False)
Out[148]:
3.0 2
NaN 1
4.0 1
2.0 1
1.0 1
dtype: int64 
In [21]:  data=pd.DataFrame(pd.Series([1,2,3,4,5,6,11,1,1,1,1,2,2,2,2,3]).values.reshape(4,4),columns=['a','b','c','d'])

In [22]: data
Out[22]:
a b c d
0 1 2 3 4
1 5 6 11 1
2 1 1 1 2
3 2 2 2 3 In [23]: pd.value_counts(data.a)
Out[23]:
1 2
2 1
5 1
Name: a, dtype: int64 In [26]: pd.value_counts(data.a).sort_index()
Out[26]:
1 2
2 1
5 1
Name: a, dtype: int64 In [27]: pd.value_counts(data.a).sort_index().index
Out[27]: Int64Index([1, 2, 5], dtype='int64') In [28]: pd.value_counts(data.a).sort_index().values
Out[28]: array([2, 1, 1], dtype=int64)

values_count实例

 2.类别中属性的个数

# 方式一
cat_uniques = []
for cat in cat_features:
cat_uniques.append(len(train[cat].unique()))
uniq_values_in_categories = pd.DataFrame.from_items([('cat_name', cat_features), ('unique_values', cat_uniques)]) # 方式二
list(map(lambda x: len(train[x]),cat_featrues))

 3.唯一值

二、数据去重

    def drop_duplicates(self, subset=None, keep='first', inplace=False):
"""
Return DataFrame with duplicate rows removed, optionally only
considering certain columns Parameters
----------
subset : column label or sequence of labels, optional
Only consider certain columns for identifying duplicates, by
default use all of the columns
keep : {'first', 'last', False}, default 'first'
- ``first`` : Drop duplicates except for the first occurrence.
- ``last`` : Drop duplicates except for the last occurrence.
- False : Drop all duplicates.
inplace : boolean, default False
Whether to drop duplicates in place or to return a copy Returns
-------
deduplicated : DataFrame
"""

  1. duplicated()方法
  • 查看列是否重复
dataframe.colname.duplicated()
  • 查看整行是否重复
dataframe.duplicated()
  • 查看subset是否重复
dataframe.duplicated(subset = [])
  1. drop_duplicats()方法
    用于丢弃重复项
dataframe.drop_duplicats()
  1. 参数keep
    keep可以为first和last,表示是选择最前一项还是最后一项保留。
dataframe.duplicated(keep = "first")
dataframe.duplicated(keep = "last")

也可以设置布尔类型,当设为False时候,重复项将都被显示。

dataframe.duplicated(keep = "False")

三、数据类型转换

四、聚合方法

import pandas as pd
from matplotlib import pyplot as plt
import numpy as np
pd.set_option('display.max_columns',None)
df = pd.read_csv('911.csv')
print(df.head(1))
lat lng desc \
0 40.297876 -75.581294 REINDEER CT & DEAD END; NEW HANOVER; Station ...
zip title timeStamp twp \
0 19525.0 EMS: BACK PAINS/INJURY 2015-12-10 17:10:52 NEW HANOVER
addr e
0 REINDEER CT & DEAD END 1
df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 249737 entries, 0 to 249736
Data columns (total 9 columns):
lat 249737 non-null float64
lng 249737 non-null float64
desc 249737 non-null object
zip 219391 non-null float64
title 249737 non-null object
timeStamp 249737 non-null object
twp 249644 non-null object
addr 249737 non-null object
e 249737 non-null int64
dtypes: float64(3), int64(1), object(5)
memory usage: 17.1+ MB
#获取分类
temp_list = df.title.str.split(':').tolist()
cate_list = list(set([i[0] for i in temp_list]))
cate_list
Out[152]: ['Fire', 'Traffic', 'EMS']
#构造全为0的数组
zeros_df = pd.DataFrame(np.zeros((df.shape[0],len(cate_list))),columns=cate_list)
#赋值
for cate in cate_list:
zeros_df[cate][df.title.str.contains(cate)] = 1
print(zeros_df)
Fire Traffic EMS
0 0.0 0.0 1.0
1 0.0 0.0 1.0
2 1.0 0.0 0.0
3 0.0 0.0 1.0
4 0.0 0.0 1.0
5 0.0 0.0 1.0
6 0.0 0.0 1.0
7 0.0 0.0 1.0
8 0.0 0.0 1.0
9 0.0 1.0 0.0
10 0.0 1.0 0.0
11 0.0 1.0 0.0
12 0.0 1.0 0.0
13 0.0 1.0 0.0
14 0.0 1.0 0.0
15 0.0 1.0 0.0
16 0.0 0.0 1.0
17 0.0 0.0 1.0
18 0.0 0.0 1.0
19 0.0 1.0 0.0
20 0.0 1.0 0.0
21 0.0 1.0 0.0
22 1.0 0.0 0.0
23 0.0 1.0 0.0
24 0.0 1.0 0.0
25 0.0 0.0 1.0
26 0.0 0.0 1.0
27 1.0 0.0 0.0
28 0.0 1.0 0.0
29 0.0 1.0 0.0
... ... ...
249707 0.0 1.0 0.0
249708 1.0 0.0 0.0
249709 0.0 0.0 1.0
249710 0.0 1.0 0.0
249711 0.0 1.0 0.0
249712 0.0 0.0 1.0
249713 1.0 0.0 0.0
249714 1.0 0.0 0.0
249715 0.0 1.0 0.0
249716 0.0 0.0 1.0
249717 0.0 0.0 1.0
249718 1.0 0.0 0.0
249719 0.0 0.0 1.0
249720 0.0 0.0 1.0
249721 0.0 0.0 1.0
249722 0.0 1.0 0.0
249723 0.0 0.0 1.0
249724 0.0 0.0 1.0
249725 0.0 0.0 1.0
249726 1.0 0.0 0.0
249727 1.0 0.0 0.0
249728 0.0 1.0 0.0
249729 0.0 0.0 1.0
249730 0.0 0.0 1.0
249731 0.0 1.0 0.0
249732 0.0 0.0 1.0
249733 0.0 0.0 1.0
249734 0.0 0.0 1.0
249735 1.0 0.0 0.0
249736 0.0 1.0 0.0
[249737 rows x 3 columns]
sum_ret = zeros_df.sum(axis=0)
print(sum_ret)
Fire 37432.0
Traffic 87465.0
EMS 124844.0
dtype: float64

不同类型紧急情况统计

df = pd.read_csv('911.csv')
# print(df.head(1))
# print(df.info())
#获取分类
temp_list = df.title.str.split(':').tolist()
cate_list = [i[0] for i in temp_list]
df['cate'] = pd.DataFrame(np.array(cate_list).reshape(df.shape[0],1))
print(df.groupby(by='cate').count()['title'])
cate
EMS 124840
Fire 37432
Traffic 87465
Name: title, dtype: int64

实例2

五、分布分析

pd.cut(data['col_names'], bins, labels=None)

 实例

import numpy
import pandas
from pandas import read_csv
data = read_csv('E:/python/data_analysis/data/dis-cut.csv')
bins = [data['年龄'].min()-1,20,30,40,max(data.年龄)+1]
labels = ['20岁及以下','21岁到30岁','31岁到40岁','41岁以上']
age_cut = pandas.cut(data.年龄,bins,labels=labels)
data['年龄分层'] = age_cut
result = data.groupby(by=['年龄分层'])['年龄'].agg(['size','mean'])
result.rename(columns= {'size': '人数','mean': '平均年龄'})
Out[171]:
人数 平均年龄
年龄分层
20岁及以下 2061 19.302280
21岁到30岁 46858 25.759081
31岁到40岁 8729 33.095773
41岁以上 1453 50.625602

 六、交叉分析

import pandas
from pandas import read_csv
data = read_csv('E:/python/data_analysis/data/pivot_table.csv')
bins = [data['年龄'].min() - 1, 20, 30, 40, max(data.年龄) + 1]
labels = ['20岁及以下', '21岁到30岁', '31岁到40岁', '41岁以上']
age_cut = pandas.cut(data.年龄, bins, labels=labels)
data['年龄分层'] = age_cut
r1 = data.pivot_table(
values=['年龄'],
index=['年龄分层'],
columns=['性别'],
aggfunc=[numpy.size, numpy.mean]
)
r2 = data.pivot_table(
values=['年龄'],
index=['年龄分层'],
columns=['性别'],
aggfunc=[numpy.std],
)
print(r1.index)
print(r1['size']['年龄']['女'])
print(r1.join(r2))
CategoricalIndex(['41岁以上', '21岁到30岁', '31岁到40岁', '20岁及以下'], categories=['20岁及以下', '21岁到30岁', '31岁到40岁', '41岁以上'], ordered=True, name='年龄分层', dtype='category')
年龄分层
41岁以上 111
21岁到30岁 2903
31岁到40岁 735
20岁及以下 567
Name: 女, dtype: int64
size mean std
年龄 年龄 年龄
性别 女 男 女 男 女 男
年龄分层
41岁以上 111 1950 18.972973 19.321026 1.708053 1.044185
21岁到30岁 2903 43955 25.954874 25.746149 2.453642 2.361298
31岁到40岁 735 7994 33.213605 33.084939 2.316704 2.200319
20岁及以下 567 886 51.691358 49.943567 6.761848 7.914171

交叉分析pivot_table案例

import pandas as pd
import numpy as np
data = pd.DataFrame({'Sample': range(1, 11), 'Gender': ['Female', 'Male', 'Female', 'Male', 'Male', 'Male', 'Female', 'Female', 'Male', 'Female'],
'Handedness': ['Right-handed', 'Left-handed', 'Right-handed', 'Right-handed', 'Left-handed', 'Right-handed', 'Right-handed', 'Left-handed', 'Right-handed', 'Right-handed']})
#假设我们想要根据性别和用手习惯对这段数据进行#统计汇总。虽然可以用pivot_table()实现该功#能,但是pandas.crosstab()函数会更方便:
# 方法一:用pivot_table
# 其实我觉的一点都不麻烦ε=(´ο`*)))唉
data.pivot_table(index=['Gender'], columns='Handedness', aggfunc=len, margins=True)
Out[173]:
Sample
Handedness Left-handed Right-handed All
Gender
Female 1 4 5
Male 2 3 5
All 3 7 10
# 方法二:用crosstab
pd.crosstab(data.Gender, data.Handedness, margins=True)
Out[174]:
Handedness Left-handed Right-handed All
Gender
Female 1 4 5
Male 2 3 5
All 3 7 10

交叉分析crosstab案例

  • 透视表pivot_table()是一种进行分组统计的函数,参数aggfunc决定统计类型;
  • 交叉表crosstab()是一种特殊的pivot_table(),专用于计算分组频率。

具体使用参照 https://www.cnblogs.com/onemorepoint/p/8425300.html

七、格式化输出

pandas dataframe数据全部输出,数据太多也不用省略号表示。

pd.set_option('display.max_columns',None)

或者

with option_context('display.max_rows', 10, 'display.max_columns', 5):
代码逻辑

 八、索引

  

Pandas系列(十三)-其他常用功能的更多相关文章

  1. Harbor 学习分享系列4 - Harbor常用功能实验

    前言 本文为Harbor技术分享系列的第4部分也是初级部分的完结篇,下个阶段作者将会进阶分享,更多详细的内容将会将会在文中介绍. 云盘链接 链接:https://pan.baidu.com/s/1PT ...

  2. Python常用功能函数总结系列

    Python常用功能函数系列总结(一) 常用函数一:获取指定文件夹内所有文件 常用函数二:文件合并 常用函数三:将文件按时间划分 常用函数四:数据去重 Python常用功能函数系列总结(二) 常用函数 ...

  3. Pandas常用功能

    在使用Pandas之前,需要导入pandas库 import pandas  as pd #pd作为pandas的别名 常用功能如下: 代码 功能1 .DataFrame()   创建一个DataFr ...

  4. 《BI那点儿事》浅析十三种常用的数据挖掘的技术

    一.前沿 数据挖掘就是从大量的.不完全的.有噪声的.模糊的.随机的数据中,提取隐含在其中的.人们事先不知道的但又是潜在有用的信息和知识的过程.数据挖掘的任务是从数据集中发现模式,可以发现的模式有很多种 ...

  5. 浅析十三种常用的数据挖掘的技术&五个免费开源的数据挖掘软件

    一.前 沿 数据挖掘就是从大量的.不完全的.有噪声的.模糊的.随机的数据中,提取隐含在其中的.人们事先不知道的但又是潜在有用的信息和知识的过程.数据挖掘的任务是从数据集中发现模式,可以发现的模式有很多 ...

  6. 封装一个简单好用的打印Log的工具类And快速开发系列 10个常用工具类

    快速开发系列 10个常用工具类 http://blog.csdn.net/lmj623565791/article/details/38965311 ------------------------- ...

  7. Keil的使用方法 - 常用功能(一)

    Ⅰ.概述 学习一门软件的开发,开发工具的掌握可以说尤为重要.由于Keil集成开发工具支持多种MCU平台的开发,是市面上比较常见的,也是功能比较强大一款IDE.所以,对于大多数人说,选择Keil几乎是单 ...

  8. 从零开始学习jQuery (十) jQueryUI常用功能实战

    一.摘要 本系列文章将带您进入jQuery的精彩世界, 其中有很多作者具体的使用经验和解决方案,  即使你会使用jQuery也能在阅读中发现些许秘籍. 本文是实战篇. 使用jQueryUI完成制作网站 ...

  9. IOS开发-OC学习-常用功能代码片段整理

    IOS开发-OC学习-常用功能代码片段整理 IOS开发中会频繁用到一些代码段,用来实现一些固定的功能.比如在文本框中输入完后要让键盘收回,这个需要用一个简单的让文本框失去第一响应者的身份来完成.或者是 ...

  10. Fiddler抓取https请求 & Fiddler抓包工具常用功能详解

    Fiddler抓取https请求 & Fiddler抓包工具常用功能详解   先来看一个小故事: 小T在测试APP时,打开某个页面展示异常,于是就跑到客户端开发小A那里说:“你这个页面做的有问 ...

随机推荐

  1. SQLServer之存储过程简介

    存储过程定义 存储的过程 (存储过程(数据库引擎)) 是存储在数据库中的可执行对象. 存储过程分类 系统存储过程   系统存储过程是 SQL Server系统自身提供的存储过程,可以作为命令执行各种操 ...

  2. PostgreSql 查询表结构和说明

    select (select relname from pg_class where oid=a.attrelid) relname , () as comment from pg_class whe ...

  3. SQLServer之修改视图

    修改视图注意事项 修改先前创建的视图. 其中包括索引视图. ALTER VIEW不影响相关的存储过程或触发器,并且不会更改权限. 如果原来的视图定义是使用 WITH ENCRYPTION 或 CHEC ...

  4. 炫龙炎魔T1笔记本 Win7 系统安装

    系统链接:https://pan.baidu.com/s/1T5FdJf1jhTj78vEBYCXxyA 密码:rl7m 1.制作系统盘(下载文件中有教程),插好U盘,重启计算机 2.按F2进入BOS ...

  5. MySQL的Limit详解

    问题:数据库查询语句,如何只返回一部分数据? Top子句 TOP 子句用于规定要返回的记录的数目.对于拥有数千条记录的大型表来说,TOP 子句是非常有用的. 在SQL Server数据库中语法为: S ...

  6. he

    弄好这个网站---to thi tha think 好这个---, 很温馨 那时候我还在看. 前一段时候看yibenhaoshu,走出来的才是理性,所以现在才是理性的看待的. 回头再看看两年前的事情, ...

  7. Eclipse安装Gradle插件

    1.window下安装Gradle见https://www.cnblogs.com/felixzh/p/9203271.html2.eclipse中依次打开help>Install new so ...

  8. Go语言中定时器cron的基本使用

    安装:go get github.com/robfig/cron  如果出不去就用gopm 例子: package main import ( "fmt" "github ...

  9. stm32之不定长接收

    使用STM32CUBE_MAX配置工程,可以简化编程工作量,但是这样我们会遇到一些麻烦,比如利用串口接收不知道长度的数据的时候,我们可能会无从下手,前段时间看到他人程序中的串口不定长接收,此次特意总结 ...

  10. 关于for循环与setTimeout的延迟

    在for循环中使用setTimeout时,想使其每个setTimeout在上一个setTimeout的基础上进行延时,使用传入数组方式设置时间时,发现实际是按照每次设置的setTimeout的延时执行 ...