Pandas:表计算与数据分析
目录
一、pandas简单介绍
1、pandas是一个强大的Python数据分析的工具包。
2、pandas是基于NumPy构建的。
3、pandas的主要功能
- 具备对其功能的数据结构DataFrame、Series
- 集成时间序列功能
- 提供丰富的数学运算和操作
- 灵活处理缺失数据
4、安装方法:pip install pandas
5、引用方法:import pandas as pd
二、Series
Series是一种类似于一位数组的对象,由一组数据和一组与之相关的数据标签(索引)组成。
创建方式:
pd.Series([4,7,-5,3])
pd.Series([4,7,-5,3],index=['a','b','c','d'])
pd.Series({'a':1, 'b':2})
pd.Series(0, index=['a','b','c','d’])
三、Series特性
Series支持数组的特性:
- 从ndarray创建Series:Series(arr)
- 与标量运算:sr*2
- 两个Series运算:sr1+sr2
- 索引:sr[0], sr[[1,2,4]]
- 切片:sr[0:2](切片依然是视图形式)
- 通用函数:np.abs(sr)
- 布尔值过滤:sr[sr>0]
统计函数:
- mean() #求平均数
- sum() #求和
- cumsum() #累加
Series支持字典的特性(标签):
- 从字典创建Series:Series(dic),
- in运算:’a’ in sr、for x in sr
- 键索引:sr['a'], sr[['a', 'b', 'd']]
- 键切片:sr['a':'c']
- 其他函数:get('a', default=0)等
In [12]: s = pd.Series(0,index=['a','b','c','d']) In [13]: s.a
Out[13]: 0 In [14]: v = pd.Series({'a':1,'b':2}) In [15]: v.a
Out[15]: 1 In [16]: v.b
Out[16]: 2 In [17]: v[0]
Out[17]: 1 In [18]: s*2
Out[18]:
a 0
b 0
c 0
d 0
dtype: int64 In [19]: v*2
Out[19]:
a 2
b 4
dtype: int64
四、整数索引
整数索引的pandas对象往往会使新手抓狂。
例:
- sr = np.Series(np.arange(4.))
- sr[-1]
如果索引是整数类型,则根据整数进行数据操作时总是面向标签的。
- loc属性 以标签解释
- iloc属性 以下标解释
五、pandas:Series数据对齐
pandas在运算时,会按索引进行对齐然后计算。如果存在不同的索引,则结果的索引是两个操作数索引的并集。 例:
sr1 = pd.Series([12,23,34], index=['c','a','d'])
sr2 = pd.Series([11,20,10], index=['d','c','a',])
sr1+sr2
sr3 = pd.Series([11,20,10,14], index=['d','c','a','b'])
sr1+sr3 如何在两个Series对象相加时将缺失值设为0?
sr1.add(sr2, fill_value=0)
灵活的算术方法:add, sub, div, mul
六、pandas:Series缺失数据
1、缺失数据:使用NaN(Not a Number)来表示缺失数据。其值等于np.nan。内置的None值也会被当做NaN处理。
2、处理缺失数据的相关方法:
- dropna() 过滤掉值为NaN的行
- fillna() 填充缺失数据
- isnull() 返回布尔数组,缺失值对应为True
- notnull() 返回布尔数组,缺失值对应为False
3、过滤缺失数据:sr.dropna() 或 sr[data.notnull()]
4、填充缺失数据:fillna(0)
七、pandas:DataFrame
DataFrame是一个表格型的数据结构,含有一组有序的列。
DataFrame可以被看做是由Series组成的字典,并且共用一个索引。
创建方式:
- pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]})
- pd.DataFrame({'one':pd.Series([1,2,3],index=['a','b','c']), 'two':pd.Series([1,2,3,4],index=['b','a','c','d'])})
- ……
csv文件读取与写入:
- df.read_csv('E:\算法\day110 Numpy、Pandas模块\601318.csv')
- df.to_csv()
八、pandas:DataFrame查看数据
查看数据常用属性及方法:
index 获取索引
T 转置
columns 获取列索引
values 获取值数组
describe() 获取快速统计 DataFrame各列name属性:列名
rename(columns={})
九、pandas:DataFrame索引和切片
1、DataFrame有行索引和列索引。
2、DataFrame同样可以通过标签和位置两种方法进行索引和切片。
3、DataFrame使用索引切片:
- 方法1:两个中括号,先取列再取行。 df['A'][0]
- 方法2(推荐):使用loc/iloc属性,一个中括号,逗号隔开,先取行再取列。
loc属性:解释为标签
iloc属性:解释为下标
向DataFrame对象中写入值时只使用方法2
行/列索引部分可以是常规索引、切片、布尔值索引、花式索引任意搭配。(注意:两部分都是花式索引时结果可能与预料的不同)
通过标签获取:
df['A']
df[['A', 'B']]
df['A'][0]
df[0:10][['A', 'C']]
df.loc[:,['A','B']] #行是所有的行,列取是A和B的
df.loc[:,'A':'C']
df.loc[0,'A']
df.loc[0:10,['A','C']] 通过位置获取:
df.iloc[3]
df.iloc[3,3]
df.iloc[0:3,4:6]
df.iloc[1:5,:]
df.iloc[[1,2,4],[0,3]]、 通过布尔值过滤:
df[df['A']>0]
df[df['A'].isin([1,3,5])]
df[df<0] = 0
十、pandas:DataFrame数据对齐与缺失数据
DataFrame对象在运算时,同样会进行数据对齐,行索引与列索引分别对齐。
结果的行索引与列索引分别为两个操作数的行索引与列索引的并集。
DataFrame处理缺失数据的相关方法:
- dropna(axis=0,where=‘any’,…) 过滤掉值为NaN的行
- fillna() 填充缺失数据
- isnull() 返回布尔数组,缺失值对应为True
- notnull() 返回布尔数组,缺失值对应为False
十一、pandas:其他常用方法
- mean #求平均值
- sum #求和
- sort_index #按行或列索引排序
- sort_values #按值排序
- apply(func,axis=0) #axis=0指的是逐行,axis=1指的是逐列。
df.apply(lamada x:x.mean()) #按列求平均
df.apply(lamada x:x['high']+x["low"])/2,axis=1) #按列求平均(最高价和最低价的平均)
df.apply(lamada x:x['high']+x["low"])/2,axis=1) #按列求平均(最高价和最低价的平均)
- applymap(func) #将函数应用在DataFrame各个元素上
- map(func) #将函数应用在Series各个元素上
十二、pandas:时间对象处理
时间序列类型:
时间戳:特定时刻
固定时期:如2017年7月
时间间隔:起始时间-结束时间
Python标准库:datetime
datetime.datetime.timedelta # 表示 时间间隔
dt.strftime() #f:format吧时间对象格式化成字符串
strptime() #吧字符串解析成时间对象p:parse
灵活处理时间对象:dateutil包
dateutil.parser.parse('2018/1/29')
成组处理时间对象:pandas
pd.to_datetime(['2001-01-01', '2002-02-02'])
产生时间对象数组:date_range
- start 开始时间
- end 结束时间
- periods 时间长度
- freq 时间频率,默认为'D',可选H(our),W(eek),B(usiness),S(emi-)M(onth),(min)T(es), S(econd), A(year),…
十三、pandas:时间序列
1、时间序列就是以时间对象为索引的Series或DataFrame。
2、datetime对象作为索引时是存储在DatetimeIndex对象中的。
3、时间序列特殊功能:
- 传入“年”或“年月”作为切片方式
- 传入日期范围作为切片方式
- 丰富的函数支持:resample(), strftime(), ……
- 批量转换为datetime对象:to_pydatetime()
十四、pandas:从文件读取
1、时间序列就是以时间对象作为索引
- 读取文件:从文件名、URL、文件对象中加载数据
- read_csv 默认分隔符为csv
- read_table 默认分隔符为\t
- read_excel 读取excel文件
2、读取文件函数主要参数:
- sep 指定分隔符,可用正则表达式如'\s+'
- header=None 指定文件无列名
- name 指定列名
- index_col 指定某列作为索引
- skip_row 指定跳过某些行
- na_values 指定某些字符串表示缺失值
- parse_dates 指定某些列是否被解析为日期,布尔值或列表
df = pd.read_csv("601318.csv") #默认以,为分隔符
- pd.read_csv("601318.csv",sep='\s+') #匹配空格,支持正则表达式
- pd.read_table("601318.csv",sep=',') #和df = pd.read_csv("601318.csv") 一样
- pd.read_excle("601318.xlsx") #读Excel文件
sep:指定分隔符
header = NOne,就会吧默认的表名去除 了
df.rename(column={0:'a',1:"b"}) #修改列名
pd.read_csv(index_col=0) #第0列
如果想让时间成为索引
pd.read_csv(index_col='date') #时间列
pd.read_csv(index_col='date',parse_datas=True) #时间列
parse_datas转换为时间对象,设为true是吧所有能转的都转
pd.read_csv(index_col='date',parse_datas=['date']) #知识吧date的那一列转换成时间对象 na_values=['None'] #吧表里面为None的转换成NaN,是吧字符串转换成缺失值
na_rep() #是吧缺失值nan转换成字符串 cols #指定输出的列,传入列表
十五、pandas:写入到文件
1、写入到文件:
- to_csv
2、写入文件函数的主要参数:
- sep
- na_rep 指定缺失值转换的字符串,默认为空字符串
- header=False 不输出列名一行
- index=False 不输出行索引一列
- cols 指定输出的列,传入列表
3、其他文件类型:json, XML, HTML, 数据库
4、pandas转换为二进制文件格式(pickle):
- save
- load
十六、pandas:数据分组与聚合
分组
df = pd.DateFrame({
'data1':np.random.uniform(10,20,5),
'data2':np.random.uniform(-10,10,5),
'key1':list("sbbsb")
'key2':
})
df.groupby('key1').mean() #做平均
df.groupby('key1').sum() #做平均
df.groupby(['key1','key2']).mean() #做平均 支持分层索引,按多列分组 df.groupby(len).mean() #传一个函数的时候,x是每一个行的索引
df.groupby(lambda x:len(x)).mean() #传一个函数的时候,x是每一个行的索引 df.groupby.groups() #取得多有的组
df.groupby.get_group() #取得一个组 聚合
df.groupby('key1').max()[['data1','data2']] #去掉key2的data1,data2,花式索引
df.groupby('key1').max()[['data1','data2']]- df.groupby('key1').min()[['data1','data2']] #去掉key2 df.groupby('key1').agg(lamada x:x.max()-x.min()) 既想看最大也可看最小
df.groupby('key1').agg([np.max,np.min])
不同的列不一样的聚合
df.groupby('key1').agg({'data1':'min','data2':'max'}) #键是列名,值是 a=_219 #219行的代码
a.resample('3D'),mean() #3D 3天,3M就是三周 数据合并
- 数据拼接
df = df.copy()
pd.concat([df,df2,df3],ignore_index=True) #不用之前的索引,
pd.concat([df,df2,df3],axis=1) #列
pd.concat([df,df2,df3],keys=['a','b','c']) #不用之前的索引,
df2.appeng(df3)
- 数据连接
如果不指定on,默认是行索引进行join
pd.merge(df,df3,on='key1')
pd.merge(df,df3,on='['key1','key2'])
Pandas:表计算与数据分析的更多相关文章
- Pandas模块:表计算与数据分析
目录 Pandas之Series Pandas之DataFrame 一.pandas简单介绍 1.pandas是一个强大的Python数据分析的工具包.2.pandas是基于NumPy构建的. 3.p ...
- MySQL_关于用嵌套表计算的可以不用 20161205
计算求和类的指标,其实用不到嵌套表,比如计算各城市产品分类的订单额. 如果要计算不重复的指标 比如一个用户一天下了多个订单 用这样的表计算一天有多少用户下单 这个用户肯定是去重的 下多个订单也应该视为 ...
- excel表计算和计算器计算结果不一致
excel表计算和计算器计算结果不一致 : 建议安装完excel进行精度设置:
- Pandas统计计算和描述
Pandas统计计算和描述 示例代码: import numpy as np import pandas as pd df_obj = pd.DataFrame(np.random.randn(5,4 ...
- Python的GPU编程实例——近邻表计算
技术背景 GPU加速是现代工业各种场景中非常常用的一种技术,这得益于GPU计算的高度并行化.在Python中存在有多种GPU并行优化的解决方案,包括之前的博客中提到的cupy.pycuda和numba ...
- Tableau学习Step5一表计算、详细级别表达式、动作、外接python
Tableau学习Step5一表计算.详细级别表达式.动作.外接python 本文首发于博客冰山一树Sankey,去博客浏览效果更好. ) Tableau学习Step4一数据解释.异常值监测.参数使用 ...
- 使用pandas,numpy进行数据分析建模的一些常用命令
1.读取文件为pandas格式: import pandas as pd import numpy as np dataset = pd.read_csv("C:/Users/Adminis ...
- python pandas 豆瓣电影 top250 数据分析
豆瓣电影top250数据分析 数据来源(豆瓣电影top250) 爬虫代码比较简单 数据较为真实,可以进行初步的数据分析 可以将前面的几篇文章中的介绍的数据预处理的方法进行实践 最后用matplotli ...
- python科学计算和数据分析常用库
NumPy NumPy最强大的是n维数组,该库还包含基本的线性代数函数.傅立叶变换.随机函数和其他底层语言(如Fortran.C和C++)集成的工具. SciPy SciPy建立在NumPy基础上,它 ...
随机推荐
- wireshark捕获到的TCP包图示
wireshark抓到的包与对应的协议层如下图所示: wireshark捕获到的TCP包中的每个字段如下图所示:
- mysql中开启慢查询日志
开启慢查询日志,需要在配置文件my.ini中配置. long_query_time = 1 #设置慢查询时间,配置是下划线log-slow-queries = d:\mysql5\logs\mysql ...
- Node.js小白开路(一)-- 全局变量篇
全局内容是有点类似于我们在浏览器编程的时候的window对象的,当时在node之中虽然我们编写的变量会自动的给出上下文环境(模块),但是全局变量的存在还是大大的帮助了我们编程时候的便捷性.我们可以在任 ...
- Intent Flag启动模式P203
Activity启动模式:点此查看 Intent intent = new Intent(); /** * Intent.FLAG_ACTIVITY_NEW_TASK * 使用一个新的Task来启动一 ...
- boost 部分编译
完整编译boost库需要很长时间,而且我们不一定会用到所有的库. 那么如何只编译只需要的库呢? 解压boost源码,进入解压后的目录 ./bootstrap.sh生成bjam ./bjam --bui ...
- SQL—数据分析
留存分析——左连接 矩阵分析——group by 结构分析:分析每种产品占据总销售量的比例 排序分析
- N位N进制里有多少个N
32位二进制里有多少个1 https://blog.csdn.net/zhangsj1007/article/details/81411063 有这样一道计算机问题"32位二进制里面有多少个 ...
- 【策略】一致性Hash算法
转载请说明出处:http://blog.csdn.net/cywosp/article/details/23397179 一致性哈希算法在1997年由麻省理工学院提出的一种分布式哈希(DHT) ...
- CODEVS4650 破损的键盘
传送门 题目大意:一个字符串,将[]内的字符提前. 题解:链表,数组元素高效交换 cur表示目前元素插入下标为cur的元素后面. 所以,假设目前把下标为i的元素插到cur后面. 那么,next[i]= ...
- python SQLAlchemy自动生成models文件
1.安装SQLAcodegen pip install sqlacodegen 2.执行 sqlacodegen mysql://root:123456@127.0.0.1:3306/test > ...