我的Python分析成长之路11
数据预处理
如何对数据进行预处理,提高数据质量,是数据分析中重要的问题。
1.数据合并
堆叠合并数据,堆叠就是简单地把两个表拼在一起,也被称为轴向链接,绑定或连接。依照轴的方向,数据堆叠可分为横向堆叠和纵向堆叠。
1.横向堆叠,即将两个表在x轴向拼接在一起。可以使用concat函数完成。
pandas.concat(obj,axis=0,join="outer",join_axes=None,ignore_index=False,keys=None,levels=None,names=None)
obj:需要拼接党的pandas对象
axis:连接的轴,axis=0为纵向,axis=1为横向
join: inner(交集)或outer(并集)
ignore_index:表示是否不保留连接轴上的索引
当axis=1是表示横向连接,当两张表索引不完全一样时,可以使用参数选择内连接和外连接。在内连接情况下,仅仅返回索引重叠部分,在外连接情 况下,则显示索引的并集部分数据,不足部分就使用空值填补。
2.纵向堆叠,是将两个数据表在y轴方向上拼接。concat函数和append方法两者都可以纵向堆叠。即axis=0 当数据表的列名不完全相同时,可以使用 join参数,inner 取的是列名交集的列,outer返回的是两者列名并集所代表的的列。
import numpy as np
s1 = pd.Series([1,2],index=["a","b"])
s2 = pd.Series([3,4,5],index=["c",'d',"e"])
s3 = pd.Series([6,7],index=["f","g"])
s4 = pd.concat([s1,s2,s3]) #默认按列连接
print(s4)
s5 = pd.concat([s1,s2,s3],axis=1) #按横向连接
print(s5) #没有重叠部分用缺失值填充
print(pd.concat([s1,s4],axis=1,join="inner")) #值保留重叠部分
df1= pd.DataFrame(np.arange(6).reshape(3,2),index=["a","b","c"],columns=["one","two"])
df2 = pd.DataFrame(5+np.arange(4).reshape(2,2),index=["a","c"],columns=["three","four"])
print(pd.concat([df1,df2],axis=1,keys=["level1","level2"]))
print(pd.concat({"level1":df1,"level2":df2},axis=1))
3.除了concat函数,append方法也可以纵向合并两张表,使用append的前提是两张表的列名一定要一样。
pandas.DataFrame.append(self,other,ignore_index=False,verify_integrity=False)
other:接受其他dataframe
ignore_index:接受boolean,如果为True,就会对DataFrame使用新的索引
df1= pd.DataFrame(np.arange(6).reshape(3,2),index=["a","b","c"],columns=["one","two"])
df2 = pd.DataFrame(5+np.arange(4).reshape(2,2),index=["a","c"],columns=["one","two"])
print(df1.append(df2))
2.主键合并数据
主键合并,即通过一个或多个键将两个数据集的行连接起来,针对两张不同字段的表,将其根据某几个字段一一对应拼接起来,结果集的列数为两个 原数据的列数和减去连接数的数量。
1.merge函数
pandas.merge(left,right,how="inner",no=None,left_on=None,right_on=None,left_index=False,right_index=False,sort=False)
left:添加的新数据1
right:添加的新数据2
how:连接方式inner,outer,left,right
on :表示两个连接的主键(必须一致)
left_on:表示left参数接受数据用于合并的主键
right_on:表示right参数接受数据用于合并的主键
left_index:是否将left参数接受数据的Index作为连接主键
right_index:是否将right参数接受数据的index作为连接主键
sort:表示是否根据连接键对合并后的数据进行排序
suffixes:接受tuple表示用于追加到left和right参数接收数据列名相同的后缀
pd.DataFrame({"key":["b",'b',"a","c"],"data1":np.arange(4)})
df2 = pd.DataFrame({"key":["a","b","d"],"data2":np.arange(3)})
print(pd.merge(df1,df2,on="key")) #主键必须相同,且保留公共部分
print(pd.merge(df1,df2,how='outer')) #用nan填充
df3 = pd.DataFrame({"key1":["b",'b',"a","c"],"data1":np.arange(4)})
df4 = pd.DataFrame({"key2":["a","b","d"],"data2":np.arange(3)})
print(pd.merge(df3,df4,left_on="key1",right_on="key2")) #如果两个主键不同就分别接受主键
print(pd.merge(df3,df4,left_on="key1",right_on="key2",how="outer"))
2.join函数
join函数也可以实现主键合并,但是两个主键的名字必须相同.pd.DataFrame.join(self,other,on=None,how="left",lsuffix=",rsuffix=",sort=False)
other:接受另一个dataFrame
on:连接的键
how:left:左连接,right:右连接,inner:内连接,outer:外连接
sort:键对合并后是否排序
3.重叠合并数据
数据分析和处理中偶尔会出现两份数据的内容几乎一致的情况,但在某些特征在一张表的数据是完整的,在另一张的数据是缺失的。
combine_first进行重叠数据合并
pandas.DataFrame.combine_first(other) 接受另外一个dataframe
df3 = pd.DataFrame({"key1":[np.nan,'b',"a","c"],"data1":[1,np.nan,2,np.nan]})
df4 = pd.DataFrame({"key1":["a",np.nan,"d",np.nan],"data1":[np.nan,1,np.nan,3]})
print(df3.combine_first(df4)) #用df4中的值重叠填充df3中的缺失值
3.清洗数据
数据重复会导致方差减小,数据分布发生较大变化。缺失会导致样本信息减少,不仅增加了分析的难度,而且会导致数据分析的结果产生偏差。异常 值则会产生“伪回归”,因此需要对数据进行检测,查询是否有重复值、缺失值和异常值,并且对这些数据进行适当的处理。
1.检测和处理重复值
对重复数据进行处理前,需要分析重复数据产生的原因和去除这部分数据后可能造成的不良影响。常见的数据重复分为两种:记录重复,即一个或多 个特征的某几条记录的值完全相同,特征重复:存在一个或多个特征名称不同,但数据完全相同。
一、记录重复
1.利用list去重 2.利用set的特性去重 3.利用drop_duplicates()去重 pd.DateFrame.drop_duplicates(subset=None,keep="frist",inplace=False) subset: 接受要去重的列,keep:去重后保留哪一个,“first”:保留第一个,“last”:保留最后一个,“false”:只要有重复都不保留, inplace:表示是否在原表上操作
import pandas as pd
lists=[1,2,3,2,5]
print(pd.Series(lists).drop_duplicates()) #利用pandas.drop_duplicates()去重
print(set(lists)) #利用set去重 def req(lists):
#定义去重函数,利用list去重
new_lists =[]
for i in lists:
if i not in new_lists:
new_lists.append(i)
return new_lists
print(req(lists))
二、特征重复
对于数值型数据,我们可以使用相似度矩阵去重
data.corr(method="") method: spearman kendall
对于类别型数据: dataFrame.equals()
def FeatureEqual(df):
dfequal = pd.DataFrame([],index=df.columns,columns=df.columns)
for i in df.columns:
for j in df.columns:
dfequal.loc[i:j]=dfequal[:,i].equals(dfequal[:,j])
return dfequal
dfequal = FeatureEqual() #调用函数得特征重复的值
l = dfequal.shape[0]
list2 =[] #记录需要去重的列
for m in range(l):
for n in range(m+1,l):
if dfequal.iloc[m:n] and (dfequal.columns[n] not in list2):
list2.append(dfequal.columns[n])
print("需要去重的列:",list2)
df.drop(list2,axis=1,inplace=True) #然后去重
2.检测与处理缺失值
数据中的某个或某些特征不是完整的,这些值称为缺失值。pandas中isnull和notnull分别判断是否缺失值
对于缺失值处理方法:
一.删除法:df.dropna(axis=0,how="any",thresh=None,subset=None,inplace=False) axis=0删除行 axis=1 删除列
import pandas as pd
import numpy as np
df = pd.DataFrame({"one":[1,2,3,np.nan],"two":[np.nan,4,5,6],"three":[10,9,7,8]})
print(df)
print(df.dropna(axis=0))#删除缺失行
print(df.dropna(axis=1)) #删除缺失列
print(df.dropna(axis=0,how="all")) #删除全为缺失值的行
print(df.dropna(axis=0,thresh=2)) #保留含有2个即以上非缺失值的行
二、替换法
用一个特定的值替换缺失值,当缺失值为数值型时,利用其均值、众数、中位数等描述其集中趋势的统计量来代替缺失值;当缺失值为类别型数据时, 利用其众数来替换。
df.fillna(value=None,method=None,axis=None,inplace=False,limit=None)
value:替换缺失值的值,
method:backfill或biff使用下一个非缺失值来填充,ffill或firstfill 使用上一个非缺失值来填充
axis :轴线
inplace:是否在原表上进行
limit:表示填充缺失值的上限
·
print(df.fillna(method="ffill",axis=0)) #利用上一个非缺失值填充缺失值
print(df.fillna(df.mean(),axis=0)) #利用列向的均值来填充缺失值
from sklearn.preprocessing import Imputer #利用Impute类来实现
imr = Imputer(strategy="median",axis=1)
df = imr.fit_transform(df.values)
print(df)
print(type(df))
3.插值法
删除法简单易行,但是会引起数据结构变动,样本减少。替换法使用难度低,但是会影响数据的标准差,导致信息量变动。利用插值法
插值法:1.线性插值2.多项式插值3.样条插值
import numpy as np
import scipy.interpolate as sci
x = np.array([1,2,3,4,7,8,9])
y1 = np.array([2,8,18,32,50,128,162])
y2 = np.array([3,5,7,9,11,17,19])
linearvalue1 = sci.interp1d(x,y1,kind="linear")
linearvalue2 = sci.interp1d(x,y2,kind="linear")
print("当x为6、7时,使用线性插值y1为:",linearvalue1([5,6]))
print("当x为6、7时,使用线性插值y2为:",linearvalue2([5,6]))
linearvalue3 = sci.lagrange(x,y1)
linearvalue4 = sci.lagrange(x,y2)
print("当x为6、7时,使用拉格朗日插值y1为:",linearvalue3([5,6]))
print("当x为6、7时,使用拉格朗日插值y2为:",linearvalue4([5,6]))
linearvalue5 = sci.spline(x,y1,xnew=np.array([5,6]))
linearvalue6 = sci.spline(x,y2,xnew=np.array([5,6]))
print("当x为5、6时,使用样条插值",linearvalue5)
print("当x为5、5时,使用样条插值",linearvalue6)
检测异常值方法:
1.3δ原则
3δ原则又称拉依达准则.先假设一组检测数据只含有随机误差,对原始数据进行计算处理得到标准差,然后按一定的概率确定一个区间,认为误差超过 这个区间就属于异常。不过,这种处理方法仅适用于对正态或近视正态分布的样本数据进行处理。几乎处于(μ-3δ,μ+3δ)
2.使用箱型图分析
异常值被定义为QL-1.5QR或大于QL+1.5QR的值,QL为下四分位,QR为上四分位,IQR为上四分数QR与下四分位QL的差
def Outrange(serl):
outbool = (serl.mean()-3*serl.std()>serl)|(serl.mean()+3*serl.std()<serl)
index = np.arange(serl.shape[0])
outrange = serl.iloc[index][outbool]
return outrange
Outrange(serl) #调用 获得异常
import matplotlib.pyplot as plt
plt.figure(figsize=(10,8))
p = plt.boxplot(x) #使用箱型图来检测异常值
outrange = p['fliers'][0].get_ydata() #获得异常值
4.标准化数据
1.离差标准化数据
将数据缩放到[0,1]
2.标准差标准化
将数据变化为均值为0,方差为1,
3.小数定标标准化
通过移动小数位数,将数据缩放到[-1,1],移动的小数位数取决于数据绝对值的最大值。
def MinMaxScale(x): #离差标准化
x = (x-x.min())/(x.max()-x.min())
return x
from sklearn.preprocessing import MinMaxScaler #机器学习库中调用 但是为
mms = MinMaxScaler()
mms.fit_transform(X)
def Standscale(x):
x = (x-x.mean())/x.std()
return x
std = Standscale(x)
from sklearn.preprocessing import StandardScaler
std = StandardScaler()
std.fit_transform(x)
def decimalscale(x): #小数位标准化数据
x = x/10**np.ceil(np.log(x.abs().max()))
return x
decimalscale(x)
5.转化数据
对于类别型数据,可以用机器学习库类标编码的技术、独热编码,指的是创建一个新的虚拟特征,虚拟特征的每一各代表类别型数据的一个值。还有使用pandas.get_dummies()
pandas.get_dummies(data,prefix=None,prefix_sep="_",dummy_na=False,columns=None,sparse=False,drop_first=False)
import pandas as pd
from sklearn.preprocessing import LabelEncoder
le = LabelEncoder()
x = le.fit_transform(x)
from sklearn.preprocessing import OneHotEncoder
ohe = OneHotEncoder()
ohe.fit_transform(x)
pd.get_dummies(x)
离散化连续型数据方法
1.等宽法 将数据的值域分成相同宽度的区间,区间个数由数据本身或用户来确定
pandas.cut(x,bins) bins:离散化后类别的数目
2.等频法
def SamRateCut(data,k): #自定义等频法
w = data.quantile(0.1+1/k,1/k)
data = pd.cut(data,w)
return data
SamRateCut(data,k) #调用
我的Python分析成长之路11的更多相关文章
- 我的Python分析成长之路6
模块:本质就是.py结尾的文件.从逻辑上组织python代码. 包: 本质就是一个目录,带有__init__.py文件,从逻辑上组织模块. 模块的分类: 1.标准库(内置的模块) 2.开源库(第三方库 ...
- 我的Python分析成长之路8
Numpy数值计算基础 Numpy:是Numerical Python的简称,它是目前Python数值计算中最为基础的工具包,Numpy是用于数值科学计算的基础模块,不但能够完成科学计算的任而且能够用 ...
- 我的Python分析成长之路7
类 一.编程范式: 1.函数式编程 def 2.面向过程编程 (Procedural Programming) 基本设计思路就是程序一开始是要着手解决一个大的问题,然后把一个大问题分解成很多个 ...
- 我的Python分析成长之路10
matplot数据可视化基础 制作提供信息的可视化(有时称作绘图)是数据分析中最重要任务之一. 1.图片(画布)与子图 plt.figure :创建一张空白的图片,可以指定图片的大小.像素. figu ...
- 我的Python分析成长之路9
pandas入门 统计分析是数据分析的重要组成部分,它几乎贯穿整个数据分析的流程.运用统计方法,将定量与定性结合,进行的研究活动叫做统计分析.而pandas是统计分析的重要库. 1.pandas数据结 ...
- 我的Python分析成长之路2
2018-12-29 一.python数据类型: 1.数字 int(整形) float(浮点型) complex(复数型) 2.布尔值(bool) 真或假 True or False 3.字符 ...
- 我的Python分析成长之路1
Python是什么? ...
- 我的Python分析成长之路5
一.装饰器: 本质是函数,装饰其他函数,为其他函数添加附加功能. 原则: 1.不能修改被装饰函数的源代码. 2.不能修改被装饰函数的调用方式. 装饰器用到的知识: 1.函数即变量 (把函数体赋值给 ...
- 我的Python分析成长之路4
一.函数 1.什么是函数?:函数是带名字的代码块,调用函数,只要调用函数名就可以. 2.函数的性质:1.减少重复代码 2.使程序变得可扩展 3.使程序变得易维护 3.编程范示: 1.面向对象编程 ...
随机推荐
- scrapy框架中Item Pipeline用法
scrapy框架中item pipeline用法 当Item 在Spider中被收集之后,就会被传递到Item Pipeline中进行处理 每个item pipeline组件是实现了简单的方法的pyt ...
- hibernate Day2 笔记
1.主键生成策略 <!--映射配置文件 >映射配置文件名称和位置没法有固定要求 >映射配置文件中的name属性值写实体类相关内容 -- class 标签name属性值实体类全路径 - ...
- base64 正则表达式 ,判断图片是base64还是图片链接
base64正则表达式 在这里看到https://segmentfault.com/q/1010000009628242/a-1020000009629647 var reg = /^\s*data: ...
- Github开源项目单
以下涉及到的数据统计与 2019 年 5 月 1 日 12 点,数据来源:https://github.com/trending/java?since=monthly . 下面的内容从 Java 学习 ...
- JAVA本地项目手机访问
http://192.168.40.56:7082/carloan/#newOrderView ipconfig 找到本地ip,然后把localhost改成本地ip就行
- File "<stdin>" , line 1
写了一个hello.py,仅有一句,print 'hello world', 运行 Python hello.py 出错,提示: File "<stdin>" , li ...
- jQuery选择器手册
jQuery选择器手册 选择器 实例 选取 * $("*") 所有元素 #id $("#lastname") id="lastname" 的 ...
- 【R语言进行数据挖掘】决策树和随机森林
1.使用包party建立决策树 这一节学习使用包party里面的函数ctree()为数据集iris建立一个决策树.属性Sepal.Length(萼片长度).Sepal.Width(萼片宽度).Peta ...
- windows下Mongodb和Memcached安装笔记
MongoDB安装: D:\ProgramFiles\MongoDBServer3.2\bin\mongod --dbpath D:\mongoData D:\ProgramFiles\MongoDB ...
- 面向对象编程OOP-2
用ES6的方法 实现类的继承 //类的定义 class Animal { //ES6中新型构造器 constructor(name,age) { this.name = name; this.age= ...