pandas简介

pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

Series:一维数组,与Numpy中的一维array类似。二者与Python基本的数据结构List也很相近,其区别是:List中的元素可以是不同的数据类型,而Array和Series中则只允许存储相同的数据类型,这样可以更有效的使用内存,提高运算效率。 Time- Series:以时间为索引的Series。 DataFrame:二维的表格型数据结构。很多功能与R中的data.frame类似。可以将DataFrame理解为Series的容器。以下的内容主要以DataFrame为主。 Panel :三维的数组,可以理解为DataFrame的容器。

Series

Series数据结构是一种类似于一维数组的对象,是由一组数据(各种Numpy数据类型)以及一组与之相关的标签(即索引)组成。

创建Series

多数情况下,Series数据结构是我们直接从DataFrame数据结构中截取出来的,但也可以自己创建Series。语法如下:

s = pd.Series(data, index=index)

其中data可以是不同的内容:

  • 字典
  • ndarray
  • 标量

index 是轴标签列表,根据不同的情况传入的内容有所不同。

由ndarray构建

如果data是ndarray,则索引的长度必须与数据相同。如果没有入索引,将创建一个值为[0,...,len(data)-1]的索引。

>>> ser = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])
>>> ser
a -0.063364
b 0.907505
c -0.862125
d -0.696292
e 0.000751
dtype: float64
>>> ser.index
Index(['a', 'b', 'c', 'd', 'e'], dtype='object')
>>> ser.index[[True,False,True,True,True]]
Index(['a', 'c', 'd', 'e'], dtype='object')
>>> pd.Series(np.random.randn(5))
0 -0.854075
1 -0.152620
2 -0.719542
3 -0.219185
4 1.206630
dtype: float64
>>> np.random.seed(100)
>>> ser=pd.Series(np.random.rand(7))
>>> ser
0 0.543405
1 0.278369
2 0.424518
3 0.844776
4 0.004719
5 0.121569
6 0.670749
dtype: float64
>>> import calendar as cal
>>> monthNames=[cal.month_name[i] for i in np.arange(1,6)]
>>> monthNames
['January', 'February', 'March', 'April', 'May']
>>> months=pd.Series(np.arange(1,6),index=monthNames);
>>> months
January 1
February 2
March 3
April 4
May 5
dtype: int32

由字典构建

若data是一个dict,如果传递了索引,则索引中与标签对应的数据中的值将被列出。否则,将从dict的排序键构造索引(如果可能)。

>>> d = {'a' : 0., 'b' : 1., 'c' : 2.}
>>> pd.Series(d)
a 0.0
b 1.0
c 2.0
dtype: float64
>>> pd.Series(d, index=['b', 'c', 'd', 'a'])
b 1.0
c 2.0
d NaN
a 0.0
dtype: float64
>>> stockPrices = {'GOOG':1180.97,'FB':62.57,'TWTR': 64.50, 'AMZN':358.69,'AAPL':500.6}
>>> stockPriceSeries=pd.Series(stockPrices,index=['GOOG','FB','YHOO','TWTR','AMZN','AAPL'],name='stockPrices')
>>> stockPriceSeries
GOOG 1180.97
FB 62.57
YHOO NaN
TWTR 64.50
AMZN 358.69
AAPL 500.60
Name: stockPrices, dtype: float64

注:NaN(not a number)是Pandas的标准缺失数据标记。

>>> stockPriceSeries.name
'stockPrices'
>>> stockPriceSeries.index
Index(['GOOG', 'FB', 'YHOO', 'TWTR', 'AMZN', 'AAPL'], dtype='object')
>>> dogSeries=pd.Series('chihuahua',index=['breed','countryOfOrigin','name', 'gender'])
>>> dogSeries
breed chihuahua
countryOfOrigin chihuahua
name chihuahua
gender chihuahua
dtype: object

由标量创建

如果数据是标量值,则必须提供索引。将该值重复以匹配索引的长度。

>>> pd.Series(5., index=['a', 'b', 'c', 'd', 'e'])
a 5.0
b 5.0
c 5.0
d 5.0
e 5.0
dtype: float64

除了上述之外,类ndarray的对象传入后也会转换为ndarray来创建Series

>>> ser = pd.Series([5,4,2,-3,True])
>>> ser
0 5
1 4
2 2
3 -3
4 True
dtype: object
>>> ser.values
array([5, 4, 2, -3, True], dtype=object)
>>> ser.index
RangeIndex(start=0, stop=5, step=1)
>>> ser2 = pd.Series([5, 4, 2, -3, True], index=['b', 'e', 'c', 'a', 'd'])
>>> ser2
b 5
e 4
c 2
a -3
d True
dtype: object
>>> ser2.index
Index(['b', 'e', 'c', 'a', 'd'], dtype='object')
>>> ser2.values
array([5, 4, 2, -3, True], dtype=object)

索引

Series is ndarray-like

Series与ndarray非常相似,是大多数NumPy函数的有效参数。包括像切片这样的索引操作。

>>> ser = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])
>>> ser
a -0.231872
b 0.207976
c 0.935808
d 0.179578
e -0.577162
dtype: float64
>>> ser[0]
-0.2318721969038312
>>> ser[:3]
a -0.231872
b 0.207976
c 0.935808
dtype: float64
>>> ser[ser >0]
b 0.207976
c 0.935808
d 0.179578
dtype: float64
>>> ser[ser > ser.median()]
b 0.207976
c 0.935808
dtype: float64
>>> ser[ser > ser.median()]=1
>>> ser
a -0.231872
b 1.000000
c 1.000000
d 0.179578
e -0.577162
dtype: float64
>>> ser[[4, 3, 1]]
e -0.577162
d 0.179578
b 1.000000
dtype: float64
>>> np.exp(ser)
a 0.793047
b 2.718282
c 2.718282
d 1.196713
e 0.561490
dtype: float64

Series is dict-like

Series同时也像一个固定大小的dict,可以通过索引标签获取和设置值:

>>> ser['a']
-0.2318721969038312
>>> ser['e'] = 12.
>>> ser
a -0.231872
b 1.000000
c 1.000000
d 0.179578
e 12.000000
dtype: float64
>>> 'e' in ser
True
>>> 'f' in ser
False

注:如果引用了未包含的标签,则会引发异常:

使用get方法,未包含的索引则会返回None,或者特定值。和dict的操作类似。

>>> print(ser.get('f'))
None
>>> ser.get('f', np.nan)
nan

矢量化操作&标签对齐

在进行数据分析时,通常没必要去使用循环,而是使用矢量化的操作方式。

>>> ser + ser
a -0.463744
b 2.000000
c 2.000000
d 0.359157
e 24.000000
dtype: float64
>>> ser * 2
a -0.463744
b 2.000000
c 2.000000
d 0.359157
e 24.000000
dtype: float64
>>> np.exp(ser)
a 0.793047
b 2.718282
c 2.718282
d 1.196713
e 162754.791419
dtype: float64

Series和ndarray之间的一个主要区别是,Series之间的操作会自动对齐基于标签的数据。

>>> ser
a -0.231872
b 1.000000
c 1.000000
d 0.179578
e 12.000000
dtype: float64
>>> ser[1:] + ser[:-1]
a NaN
b 2.000000
c 2.000000
d 0.359157
e NaN
dtype: float64

未对齐Series之间的操作结果将包含所涉及的索引的并集。如果在其中一个Seires中找不到标签,结果将被标记为NaN。

注意:通常不同索引对象之间的操作的默认结果产生索引的并集,以避免信息丢失。

因为尽管数据丢失,但拥有索引标签也可以作为计算的重要信息。当然也可以选择通过dropna功能删除丢失数据的标签。

属性

名称属性:

>>> s = pd.Series(np.random.randn(5), name='something')
>>> s
0 -0.533373
1 -0.225402
2 -0.314919
3 0.422997
4 -0.438827
Name: something, dtype: float64
>>> s.name
'something'

在多数情况下,series名称会被自动分配,例如在获取1D切片的DataFrame时。(后续DataFrame操作将会讲解到)

>>> s2 = s.rename("different")
>>> s2
0 -0.533373
1 -0.225402
2 -0.314919
3 0.422997
4 -0.438827
Name: different, dtype: float64

这里需要注意的是,s和s2是指向不同的对象的。

通过索引属性获取索引

>>> s2.index
RangeIndex(start=0, stop=5, step=1)

索引对象也有一个name属性

>>> s.index.name = "index_name"
>>> s
index_name
0 -0.533373
1 -0.225402
2 -0.314919
3 0.422997
4 -0.438827
Name: something, dtype: float64

通过值索引获取值

>>> s.values
array([-0.53337271, -0.22540212, -0.31491934, 0.42299678, -0.43882681])

DataFrame

DataFrame 是可以包含不同类型的列且带索引的二维数据结构,类似于SQL表,或者Series的字典集合。

创建DataFrame

DataFrame 是被使用最多的Pandas的对象,和Series类似,创建DataFrame时,也接受许多不同类的参数。

From dict of Series or dicts

>>>d = {'one' : pd.Series([1., 2., 3.], index=['a', 'b', 'c']),
'two' : pd.Series([1., 2., 3., 4.], index=['a', 'b', 'c', 'd'])}
>>>df = pd.DataFrame(d)
>>>df
one two
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN 4.0
>>>pd.DataFrame(d, index=['d', 'b', 'a'])
one two
d NaN 4.0
b 2.0 2.0
a 1.0 1.0
pd.DataFrame(d, index=['d', 'b', 'a'], columns=['two', 'three'])
two three
d 4.0 NaN
b 2.0 NaN
a 1.0 NaN

可以通过访问索引和列属性分别访问行和列标签。

>>> df.index
Index(['a', 'b', 'c', 'd'], dtype='object')
>>> df.columns
Index(['one', 'two'], dtype='object')

From dict of ndarrays / lists

ndarrays必须都是相同的长度。如果传递了索引,它的长度也必须与数组一样长。如果没有传递索引,结果将是range(n),其中n是数组长度。

>>> d = {'one' : [1., 2., 3., 4.],
... 'two' : [4., 3., 2., 1.]}
>>> pd.DataFrame(d)
one two
0 1.0 4.0
1 2.0 3.0
2 3.0 2.0
3 4.0 1.0
>>> pd.DataFrame(d, index=['a', 'b', 'c', 'd'])
one two
a 1.0 4.0
b 2.0 3.0
c 3.0 2.0
d 4.0 1.0

From structured or record array

这种情况和从数组的字典集合创建是一样的。

类型简略字符参数:

'b'     boolean
'i' (signed) integer
'u' unsigned integer
'f' floating-point
'c' complex-floating point
'm' timedelta
'M' datetime
'O' (Python) objects
'S', 'a' (byte-)string
'U' Unicode
'V' raw data (void)
# 例子:
>>> dt = np.dtype('f8') # 64位浮点,注意8为字节
>>> dt = np.dtype('c16') # 128位复数
>>> dt = np.dtype("a3, 3u8, (3,4)a10") //3字节字符串、3个64位整型子数组、3*4的10字节字符串数组,注意8为字节
>>> dt = np.dtype((void, 10)) #10位
>>> dt = np.dtype((str, 35)) # 35字符字符串
>>> dt = np.dtype(('U', 10)) # 10字符unicode string
>>> dt = np.dtype((np.int32, (2,2))) # 2*2int子数组
>>> dt = np.dtype(('S10', 1)) # 10字符字符串
>>> dt = np.dtype(('i4, (2,3)f8, f4', (2,3))) # 2x3结构子数组
# 使用astype,不可直接更改对象的dtype值
>>> b = np.array([1., 2., 3., 4.])
>>> b.dtype
dtype(‘float64‘)
>>> c = b.astype(int)
>>> c
array([1, 2, 3, 4])
>>> c.shape
(8,)
>>> c.dtype
dtype(‘int32‘)
>>> data = np.zeros((2,), dtype=[('A', 'i4'),('B', 'f4'),('C', 'a10')])
# i4:定义一个big-endian int 4*8=32位的数据类型
>>> data
array([(0, 0., b''), (0, 0., b'')],
dtype=[('A', '<i4'), ('B', '<f4'), ('C', 'S10')])
>>> data.shape
(2,)
>>> data[:] = [(1,2.,'Hello'), (2,3.,"World")]
>>> data
array([(1, 2., b'Hello'), (2, 3., b'World')],
dtype=[('A', '<i4'), ('B', '<f4'), ('C', 'S10')])
>>> pd.DataFrame(data, index=['first', 'second'])
A B C
first 1 2.0 b'Hello'
second 2 3.0 b'World'
>>> pd.DataFrame(data, columns=['C', 'A', 'B'])
C A B
0 b'Hello' 1 2.0
1 b'World' 2 3.0

注意:DataFrame和 2-dimensional NumPy ndarray 并不是完全一样的。

除了以上的构造方法之外还有很多其他的构造方法,但获取DataFrame的主要方法是读取表结构的文件,其他构造方法就不一一列出。

>>> d = {'one' : pd.Series([1., 2., 3.], index=['a', 'b', 'c']),'two' : pd.Series([1., 2., 3., 4.], index=['a', 'b', 'c', 'd'])}
>>> df = pd.DataFrame(d)
>>> df
one two
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN 4.0
>>> df.index
Index(['a', 'b', 'c', 'd'], dtype='object')
>>> df.index.values
array(['a', 'b', 'c', 'd'], dtype=object)
>>> df.columns
Index(['one', 'two'], dtype='object')
>>> df.columns.values
array(['one', 'two'], dtype=object)
>>> stockSummaries={
... 'AMZN': pd.Series([346.15,0.59,459,0.52,589.8,158.88],index=['Closing price','EPS','Shares Outstanding(M)','Beta', 'P/E','Market Cap(B)']),
... 'GOOG': pd.Series([1133.43,36.05,335.83,0.87,31.44,380.64],index=['Closing price','EPS','Shares Outstanding(M)','Beta','P/E','Market Cap(B)']),
... 'FB': pd.Series([61.48,0.59,2450,104.93,150.92],index=['Closing price','EPS','Shares Outstanding(M)','P/E', 'Market Cap(B)']),
... 'YHOO': pd.Series([34.90,1.27,1010,27.48,0.66,35.36],index=['Closing price','EPS','Shares Outstanding(M)','P/E','Beta', 'Market Cap(B)']),
... 'TWTR':pd.Series([65.25,-0.3,555.2,36.23],index=['Closing price','EPS','Shares Outstanding(M)','Market Cap(B)']),
... 'AAPL':pd.Series([501.53,40.32,892.45,12.44,447.59,0.84],index=['Closing price','EPS','Shares Outstanding(M)','P/E','Market Cap(B)','Beta'])}
>>> stockDF=pd.DataFrame(stockSummaries)
>>> stockDF
AAPL AMZN FB GOOG TWTR YHOO
Beta 0.84 0.52 NaN 0.87 NaN 0.66
Closing price 501.53 346.15 61.48 1133.43 65.25 34.90
EPS 40.32 0.59 0.59 36.05 -0.30 1.27
Market Cap(B) 447.59 158.88 150.92 380.64 36.23 35.36
P/E 12.44 589.80 104.93 31.44 NaN 27.48
Shares Outstanding(M) 892.45 459.00 2450.00 335.83 555.20 1010.00
>>> stockDF=pd.DataFrame(stockSummaries,index=['Closing price','EPS','Shares Outstanding(M)','P/E', 'Market Cap(B)','Beta'])
>>> stockDF
AAPL AMZN FB GOOG TWTR YHOO
Closing price 501.53 346.15 61.48 1133.43 65.25 34.90
EPS 40.32 0.59 0.59 36.05 -0.30 1.27
Shares Outstanding(M) 892.45 459.00 2450.00 335.83 555.20 1010.00
P/E 12.44 589.80 104.93 31.44 NaN 27.48
Market Cap(B) 447.59 158.88 150.92 380.64 36.23 35.36
Beta 0.84 0.52 NaN 0.87 NaN 0.66
>>> stockDF=pd.DataFrame(stockSummaries,columns=['FB','TWTR','SCNW'])
>>> stockDF
FB TWTR SCNW
Closing price 61.48 65.25 NaN
EPS 0.59 -0.30 NaN
Market Cap(B) 150.92 36.23 NaN
P/E 104.93 NaN NaN
Shares Outstanding(M) 2450.00 555.20 NaN

DataFrame列操作

DataFrame列的选取,设置和删除列的工作原理与类似的dict操作相同。

>>> df['one']
a 1.0
b 2.0
c 3.0
d NaN
Name: one, dtype: float64
>>> df
one two
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN 4.0
>>> df['three'] = df['one'] * df['two']
>>> df
one two three
a 1.0 1.0 1.0
b 2.0 2.0 4.0
c 3.0 3.0 9.0
d NaN 4.0 NaN
>>> df['flag'] = df['one'] > 2
>>> df
one two three flag
a 1.0 1.0 1.0 False
b 2.0 2.0 4.0 False
c 3.0 3.0 9.0 True
d NaN 4.0 NaN False

DataFram的列可以像使用dict一样被删除或移出。

>>> del df['two']
>>> df
one three flag
a 1.0 1.0 False
b 2.0 4.0 False
c 3.0 9.0 True
d NaN NaN False
>>> three = df.pop('three')
>>> df
one flag
a 1.0 False
b 2.0 False
c 3.0 True
d NaN False

当赋予的值为标量时,会自动在列里广播填充。

>>> df['foo'] = 'bar'
>>> df
one flag foo
a 1.0 False bar
b 2.0 False bar
c 3.0 True bar
d NaN False bar

如果传入的是Series并且索引不完全相同,那么会默认按照索引对齐。

>>> df['one_trunc'] = df['one'][:2]
>>> df
one flag foo one_trunc
a 1.0 False bar 1.0
b 2.0 False bar 2.0
c 3.0 True bar NaN
d NaN False bar NaN

也可以插入原始的ndarrays,但其长度必须与DataFrame索引的长度相匹配。

默认情况下,直接的赋值操作列插入到最后的位置。insert方法可用于插入列中的特定位置:

>>> df.insert(1, 'bar', df['one'])
>>> df
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
b 2.0 2.0 False bar 2.0
c 3.0 3.0 True bar NaN
d NaN NaN False bar NaN

分配列

>>> df_sample = pd.DataFrame({'A': range(1, 11), 'B': np.random.randn(10)})
>>> df_sample
A B
0 1 -0.501413
1 2 -1.658703
2 3 -1.007577
3 4 -0.508734
4 5 0.781488
5 6 -0.654381
6 7 0.041172
7 8 -0.201917
8 9 -0.870813
9 10 0.228932
>>> df_sample.assign(ln_A = lambda x: np.log(x.A), abs_B = lambda x: np.abs(x.B))
A B abs_B ln_A
0 1 -0.501413 0.501413 0.000000
1 2 -1.658703 1.658703 0.693147
2 3 -1.007577 1.007577 1.098612
3 4 -0.508734 0.508734 1.386294
4 5 0.781488 0.781488 1.609438
5 6 -0.654381 0.654381 1.791759
6 7 0.041172 0.041172 1.945910
7 8 -0.201917 0.201917 2.079442
8 9 -0.870813 0.870813 2.197225
9 10 0.228932 0.228932 2.302585

需要注意的是,传入的参数是以字典类型的方式传入的。如果希望保证顺序的话,可以多次使用assign。

>>> newcol = np.log(df_sample['A'])
>>> newcol
0 0.000000
1 0.693147
2 1.098612
3 1.386294
4 1.609438
5 1.791759
6 1.945910
7 2.079442
8 2.197225
9 2.302585
Name: A, dtype: float64
>>> df_sample.assign(ln_A=newcol)
A B ln_A
0 1 -0.501413 0.000000
1 2 -1.658703 0.693147
2 3 -1.007577 1.098612
3 4 -0.508734 1.386294
4 5 0.781488 1.609438
5 6 -0.654381 1.791759
6 7 0.041172 1.945910
7 8 -0.201917 2.079442
8 9 -0.870813 2.197225
9 10 0.228932 2.302585

索引

Operation Syntax Result
Select column df[col] Series
Select row by label df.loc[label] Series
Select row by integer location df.iloc[loc] Series
Slice rows df[5:10] DataFrame
Select rows by boolean vector df[bool_vec] DataFrame

关于索引的函数

  • loc[行号,[列名]]——通过行标签索引行数据
  • iloc[行位置,列位置]——通过行号索引行数据
  • ix——通过行标签或者行号索引行数据(基于loc和iloc 的混合)

例子

>>> df
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
b 2.0 2.0 False bar 2.0
c 3.0 3.0 True bar NaN
d NaN NaN False bar NaN
>>> df.loc['b']
one 2
bar 2
flag False
foo bar
one_trunc 2
Name: b, dtype: object
>>> df.loc[['a','c'],['one','bar']]
one bar
a 1.0 1.0
c 3.0 3.0
>>> df.loc[:,['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN NaN

iloc的例子

# df.iloc[行位置,列位置]
>>> df.loc[['a','c'],['one','bar']]
one bar
a 1.0 1.0
c 3.0 3.0
>>> df.loc[:,['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN NaN
>>> df.iloc[1,1]#选取第二行,第二列的值,返回的为单个值
2.0
>>> df.iloc[[0,2],:]#选取第一行及第三行的数据
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
c 3.0 3.0 True bar NaN
>>> df.iloc[0:2,:]#选取第一行到第三行(不包含)的数据
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
b 2.0 2.0 False bar 2.0
>>> df.iloc[:,1]#选取所有记录的第一列的值,返回的为一个Series
a 1.0
b 2.0
c 3.0
d NaN
Name: bar, dtype: float64
>>> df.iloc[1,:]#选取第一行数据,返回的为一个Series
one 2
bar 2
flag False
foo bar
one_trunc 2
Name: b, dtype: object

ix的例子

>>> df.ix[0:3,['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
>>> df.ix[['a','b'],['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0

注意:在Pandas 0.20版本开始就不推荐使用.ix,只推荐使用基于标签的索引.loc 和基于位置的索引.iloc 。

数据对齐

DataFrame对象之间在列和索引(行标签)之间自动数据对齐。并且,运算的结果对象是列和行标签的并集。

>>> df = pd.DataFrame(np.random.randn(10, 4), columns=['A', 'B', 'C', 'D'])
>>> df
A B C D
0 -0.408040 -0.103925 1.567179 0.497025
1 1.155872 1.838612 1.535727 0.254998
2 -0.844157 -0.982943 -0.306098 0.838501
3 -1.690848 1.151174 -1.029337 -0.510992
4 -2.360271 0.103595 1.738818 1.241876
5 0.132413 0.577794 -1.575906 -1.292794
6 -0.659920 -0.874005 -0.689551 -0.535480
7 1.527953 0.647206 -0.677337 -0.265019
8 0.746106 -3.130785 0.059622 -0.875211
9 1.064878 -0.573153 -0.803278 1.092972
>>> df2 = pd.DataFrame(np.random.randn(7, 3), columns=['A', 'B', 'C'])
>>> df2
A B C
0 0.651278 2.160525 -0.639130
1 -0.333688 -0.437602 -1.905795
2 -1.229019 0.794899 -1.160508
3 0.546056 1.163258 0.658877
4 0.523689 1.327156 1.112524
5 -1.074630 0.343416 0.985438
6 0.736502 -2.080463 -0.298586
>>> df + df2
A B C D
0 0.243238 2.056600 0.928049 NaN
1 0.822185 1.401010 -0.370068 NaN
2 -2.073177 -0.188045 -1.466606 NaN
3 -1.144793 2.314432 -0.370460 NaN
4 -1.836581 1.430751 2.851342 NaN
5 -0.942217 0.921210 -0.590468 NaN
6 0.076582 -2.954467 -0.988137 NaN
7 NaN NaN NaN NaN
8 NaN NaN NaN NaN
9 NaN NaN NaN NaN

在DataFrame和Series之间进行操作时,默认行为是使DataFrame列上的Series索引对齐,从而逐行广播。

>>> df.iloc[0]
A -0.803278
B 1.092972
C 0.651278
D 2.160525
Name: 0, dtype: float64
>>> df - df.iloc[0]
A B C D
0 0.000000 0.000000 0.000000 0.000000
1 0.164148 -1.426659 -1.088879 -4.066320
2 -0.425741 -0.298073 -1.811786 -1.614469
3 1.966537 -0.434095 -0.127588 -0.833369
4 1.915803 -2.167601 -0.307861 -1.175087
5 1.539780 -3.173434 -0.949864 -3.889736
6 0.806788 0.841624 -0.433718 -0.349443
7 -1.746116 -1.298589 -0.641914 -4.381350
8 -0.062220 -1.208825 -0.536867 -2.218942
9 1.425466 -2.731549 -0.348400 -0.083648

在使用时间序列数据等一些特殊情况下,也可以以列方式进行广播:

>>> index = pd.date_range('1/1/2000', periods=8)
>>> df = pd.DataFrame(np.random.randn(8, 3), index=index, columns=list('ABC'))
>>> df
A B C
2000-01-01 -1.285993 -0.625756 0.341711
2000-01-02 -0.130773 -1.091650 0.074539
2000-01-03 1.248248 -0.450343 -0.347523
2000-01-04 -0.317490 1.012952 -0.838197
2000-01-05 -1.041325 -0.087286 1.153089
2000-01-06 1.067939 0.570342 -0.272996
2000-01-07 -0.160398 -0.013020 0.621867
2000-01-08 1.374179 0.779654 -1.554635

运算

四则运算

add 用于加法的方法 (+)
sub 用于减法的方法 (-)
div 用于除法的方法 (/)
mul 用于乘法的方法 (*) >>> df.sub(df["A"],axis=0)
A B C
2000-01-01 0.0 0.660237 1.627704
2000-01-02 0.0 -0.960877 0.205312
2000-01-03 0.0 -1.698591 -1.595771
2000-01-04 0.0 1.330443 -0.520706
2000-01-05 0.0 0.954039 2.194413
2000-01-06 0.0 -0.497597 -1.340935
2000-01-07 0.0 0.147378 0.782264
2000-01-08 0.0 -0.594525 -2.928814
>>> df.sub(df['A'], axis=0)
A B C
2000-01-01 0.0 0.660237 1.627704
2000-01-02 0.0 -0.960877 0.205312
2000-01-03 0.0 -1.698591 -1.595771
2000-01-04 0.0 1.330443 -0.520706
2000-01-05 0.0 0.954039 2.194413
2000-01-06 0.0 -0.497597 -1.340935
2000-01-07 0.0 0.147378 0.782264
2000-01-08 0.0 -0.594525 -2.928814

逻辑运算

逻辑运算,与NumPy相似。

>>> df1 = pd.DataFrame({'a' : [1, 0, 1], 'b' : [0, 1, 1] }, dtype=bool)
>>> df2 = pd.DataFrame({'a' : [0, 1, 1], 'b' : [1, 1, 0] }, dtype=bool)
>>> df1
a b
0 True False
1 False True
2 True True
>>> df2
a b
0 False True
1 True True
2 True False
>>> df1 & df2
a b
0 False False
1 False True
2 True False
df1 | df2
a b
0 True True
1 True True
2 True True
>>> df1 ^ df2
a b
0 True True
1 True False
2 False True
>>> -df1  # 相当于 ~df1
a b
0 False True
1 True False
2 False False
  • if-then... :An if-then on one column
  • if-then-else :Add another line with different logic, to do the -else
>>> d={'a':pd.Series([1,2,3,4,5],index=(np.arange(5))),
... 'b':pd.Series([2,3,4,5,6],index=(np.arange(5))),
... 'c':pd.Series([3,4,5,6,7],index=(np.arange(5)))};
>>> df3 = pd.DataFrame(d)
>>> df3
a b c
0 1 2 3
1 2 3 4
2 3 4 5
3 4 5 6
4 5 6 7
# if-then...
>>> df3.loc[df3.a>3,'c']=30;
>>> df3
a b c
0 1 2 3
1 2 3 4
2 3 4 5
3 4 5 30
4 5 6 30
# if-then-else
>>> df3['logic'] = np.where(df3['a'] > 3,'high','low')
>>> df3
a b c logic
0 1 2 3 low
1 2 3 4 low
2 3 4 5 low
3 4 5 30 high
4 5 6 30 high >>> df_mask = pd.DataFrame({'a' : [True] * 5, 'b' : [False] * 5}) #做标志
>>> df_mask
a b
0 True False
1 True False
2 True False
3 True False
4 True False
>>> df3.where(df_mask,-100) # 根据标志赋值
a b c logic
0 1 -100 -100 -100
1 2 -100 -100 -100
2 3 -100 -100 -100
3 4 -100 -100 -100
4 5 -100 -100 -100

数学统计

方法 说明
sr.unique Series去重
sr.value_counts() Series统计频率,并从大到小排序,DataFrame没有这个方法
sr.describe() 返回基本统计量和分位数
df.describe() 按各列返回基本统计量和分位数
df.count() 求非NA值得数量
df.max() 求最大值
df.min() 求最大值
df.sum(axis=0) 按各列求和
df.mean() 按各列求平均值
df.median() 求中位数
df.var() 求方差
df.std() 求标准差
df.mad() 根据平均值计算平均绝对利差
df.cumsum() 求累计和
sr1.corr(sr2) 求相关系数
df.cov() 求协方差矩阵
df1.corrwith(df2) 求相关系数
pd.cut(array1, bins) 求一维数据的区间分布
pd.qcut(array1, 4) 按指定分位数进行区间划分,4可以替换成自定义的分位数列表
df['col1'].groupby(df['col2']) 列1按照列2分组,即列2作为key
df.groupby('col1') DataFrame按照列col1分组
grouped.aggreagte(func) 分组后根据传入函数来聚合
grouped.aggregate([f1, f2,...]) 根据多个函数聚合,表现成多列,函数名为列名
grouped.aggregate([('f1_name', f1), ('f2_name', f2)]) 重命名聚合后的列名
grouped.aggregate({'col1':f1, 'col2':f2,...}) 对不同的列应用不同函数的聚合,函数也可以是多个
df.pivot_table(['col1', 'col2'],
rows=['row1', 'row2'],
aggfunc=[np.mean, np.sum]
fill_value=0,margins=True)
根据row1, row2对col1, col2做分组聚合,聚合方法可以指定多种,并用指
pd.crosstab(df['col1'], df['col2']) 交叉表,计算分组的频率

转置

>>> df[:5].T
2000-01-01 00:00:00 2000-01-02 00:00:00 2000-01-03 00:00:00 2000-01-04 00:00:00 2000-01-05 00:00:00
A 0.388901 0.159726 1.576600 -0.993827 -1.297079
B 0.232477 -0.904435 -0.628984 1.015665 0.825678
C -1.254728 -0.195899 0.450605 -0.541170 0.043319

排序

方法 说明
sort_index() 对索引进行排序,默认是升序
sort_index(ascending=False) 对索引进行降序排序
sort_values() 对Series的值进行排序,默认是按值的升序进行排序的
sort_values(ascending=False) 对Seires的值进行降序排序
df.sort_values(by=[列,列]) 按指定列的值大小顺序进行排序
df.sort_values(by=[行],axis=1) 按指定行值进行排序
df.rank() 计算排名rank值

Pandas详解一的更多相关文章

  1. 学机器学习,不会数据处理怎么行?—— 二、Pandas详解

    在上篇文章学机器学习,不会数据处理怎么行?—— 一.NumPy详解中,介绍了NumPy的一些基本内容,以及使用方法,在这篇文章中,将接着介绍另一模块——Pandas.(本文所用代码在这里) Panda ...

  2. (转)Python科学计算之Pandas详解,pythonpandas

    https://www.cnblogs.com/linux-wangkun/p/5903380.html-------pandas 学习(1): pandas 数据结构之Series https:// ...

  3. pandas | 详解DataFrame中的apply与applymap方法

    本文始发于个人公众号:TechFlow,原创不易,求个关注 今天是pandas数据处理专题的第5篇文章,我们来聊聊pandas的一些高级运算. 在上一篇文章当中,我们介绍了panads的一些计算方法, ...

  4. 【笔记】Pandas分类数据详解

    [笔记]Pandas分类数据详解 Pandas  Pandas分类数据详解|轻松玩转Pandas(5) 参考:Pandas分类数据详解|轻松玩转Pandas(5)

  5. Pandas基本功能详解

    Pandas基本功能详解 Pandas  Pandas基本功能详解 |轻松玩转Pandas(2) 参考:Pandas基本功能详解 |轻松玩转Pandas(2)

  6. 【python】详解numpy库与pandas库axis=0,axis= 1轴的用法

    对数据进行操作时,经常需要在横轴方向或者数轴方向对数据进行操作,这时需要设定参数axis的值: axis = 0 代表对横轴操作,也就是第0轴: axis = 1 代表对纵轴操作,也就是第1轴: nu ...

  7. Pandas 数据分析——超好用的 Groupby 详解

    在日常的数据分析中,经常需要将数据根据某个(多个)字段划分为不同的群体(group)进行分析,如电商领域将全国的总销售额根据省份进行划分,分析各省销售额的变化情况,社交领域将用户根据画像(性别.年龄) ...

  8. python pandas字符串函数详解(转)

     pandas字符串函数详解(转)——原文连接见文章末尾 在使用pandas框架的DataFrame的过程中,如果需要处理一些字符串的特性,例如判断某列是否包含一些关键字,某列的字符长度是否小于3等等 ...

  9. Pandas 常见操作详解

    Pandas 常见操作详解 很多人有误解,总以为Pandas跟熊猫有点关系,跟gui叔创建Python一样觉得Pandas是某某奇葩程序员喜欢熊猫就以此命名,简单介绍一下,Pandas的命名来自于面板 ...

随机推荐

  1. non-member function cannot have cv-qualifier

    Q: non-member function unsigned int abs(const T&) cannot have cv-qualifier. template<typename ...

  2. 爬虫处理网站的bug---小于号未转化为实体符

    1.发现BUG 爬取 chinadrugtrials 详情页的公示的试验信息时候, 发现程序在某些地方跑断掉了,如下: 经排查发现,原来这是网页的bug-----极少数详情页面的某些文字中的小于号,未 ...

  3. java集合复制和反转

    1.for循环方法: 2.System.arraycopy()方法: 3.Arrays.copyOf()方法: 4.Object.clone()方法: + View code /** * @autho ...

  4. __attribute__ 机制详解

    GNU C 的一大特色就是__attribute__ 机制.__attribute__ 可以设置函数属性(Function Attribute).变量属性(Variable Attribute)和类型 ...

  5. JAVA记录-redis缓存机制介绍(一)

    1.redis介绍 Redis 简介 Redis 是完全开源免费的,遵守BSD协议,是一个高性能的key-value数据库. Redis 与其他 key - value 缓存产品有以下三个特点: Re ...

  6. vs2017_enterprise正式版离线安装包bt下载

    vs2017_enterprise正式版离线安装包bt下载 点击这里下载种子 磁力链接 安装前请先打开certificates目录,安装里面的三个证书 离线下载教程 : https://docs.mi ...

  7. CentOS6.8下搭建zookeeper web界面查看工具node-zk-browser

    zookeeper的web界面查看工具Node-ZK-Browser的界面是用nodejs写的今天试着搭建了下. 1. 安装nodejs [root@localhost product]# pwd / ...

  8. 9 Web开发——springmvc自动配置原理

    官方文档目录: https://docs.spring.io/spring-boot/docs/2.1.0.RELEASE/reference/htmlsingle/#boot-features-sp ...

  9. writen.c

    #include <unistd.h> #include <errno.h> ssize_t writen(int fd, const void *vptr, size_t n ...

  10. mysql 架构~多写模式MGR

    一  简介:今天咱们来聊聊MGR的单主切换和新节点加入二 单主模式下变成多主:  1 3306  STOP group_replication;  set global group_replicati ...