1. 降维技术

1.1 降维的必要性

1. 多重共线性--预测变量之间相互关联。多重共线性会导致解空间的不稳定,从而可能导致结果的不连贯。2. 高维空间本身具有稀疏性。一维正态分布有68%的值落于正负标准差之间,而在十维空间上只有0.02%。

3. 过多的变量会妨碍查找规律的建立。

4. 仅在变量层面上分析可能会忽略变量之间的潜在联系。例如几个预测变量可能落入仅反映数据某一方面特征的一个组内。

1. 2 降维的目的:

1. 减少预测变量的个数

2. 确保这些变量是相互独立的

3. 提供一个框架来解释结果

1. 3 降维的方法:

  • 主成分分析(PCA)
    • 从原来的坐标系转换到了新的坐标系,新坐标系的选择是由数据本身决定的
    • 第一个新坐标轴选择的是原始数据中方差最大的方向,第二个新坐标轴的选择和第一个坐标轴正交且具有最大方差的方向
    • 该过程一直重复,重复次数为原始数据中特征的数目。 
    • 我们会发现,大部分方差都包含在最前面的几个新坐标轴中。因此,我们可以忽略余下的坐标轴,即对数据进行了降维处理
  • 因子分析(Factor Analysis)

    • 我们假设在观察数据的生成中有一些观察不到的隐变量( latentvariable)。
    • 假设观察数据是这些隐变量和某些噪声的线性组合。那么隐变量的数据可能比观察数据的数目少,也就是说通过找到隐变量就可以实现数据的降维。
    • 因子分析已经应用于社会科学、金融和其他领域中了。
  • 独立成分分析(Independent Component Analysis ICA)

    • 假设数据是从N个数据源生成的,这一点和因子分析有些类似,假设数据为多个数据源的混合观察结果。
    • 这些数据源之间在统计上是相互独立的,而在PCA中只假设数据是不相关的。
    • 同因子分析一样,如果数据源的数目少于观察数据的数目,则可以实现降维过程。

2. PCA

数学推倒过程:http://blog.codinglabs.org/articles/pca-tutorial.html

具体的细节,Andrew Ng的网页教程:http://deeplearning.stanford.edu/wiki/index.php/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90 ,写得很详细。

2.1 优势:

通过PCA进行降维处理,我们就可以同时获得SVM和决策树的优点:

  • 一方面,得到了和决策树一样简单的分类器,同时分类间隔和SVM— 样好。
  • 另外,由于只需要考虑一维信息,因此数据就可以通过比SVM 简单得多的很容易采用的规则进行区分

 

2.2 实现:

 import numpy as np
from numpy import linalg as la
import matplotlib.pyplot as plt def pca(data,topNfeat = 999999):
# data = np.array(data)
# 1.计算各属性的平均值
meanValues = np.mean(data, axis=0)
# 2.减去平均值
meanRemoved = data - meanValues
# 3. 计算协方差矩阵的特征值和特征向量
covData = np.cov(meanRemoved, rowvar=False)
eigVal, eigVects = la.eig(covData)
# 4. 将特征值的索引从大到小排序
eigValInd = np.argsort(eigVal) # 从小到大
eigValInd = eigValInd[: -(topNfeat + 1) : -1] # 逆序:从大到小
# 5. 保留topNfeat个最大的特征向量
redEigVects = eigVects[:, eigValInd]
# 6. 将数据转换到上述topNfeat个特征向量构建的新空间中
lowDData = np.dot(meanRemoved, redEigVects)
# 7. 重构
reconData = np.dot(lowDData, redEigVects.T) + meanValues
return lowDData, reconData data = np.loadtxt('testSet.txt', delimiter='\t')
lowDData, reconData = pca(data, 2) # 画出原始数据/降维数据
fig = plt.figure()
plt.scatter(data[:, 0].flatten(), data[:, 1], marker='^', s=90)
plt.scatter(reconData[:, 0].flatten(), reconData[:, 1].flatten(), marker='o', s=50, c='red')
plt.show()

2.3 选择主成分个数

文章写到这里还没有完,应用PCA的时候,对于一个1000维的数据,我们怎么知道要降到几维的数据才是合理的?即n要取多少,才能保留最多信息同时去除最多的噪声?一般,我们是通过方差百分比来确定n的,这一点在Ufldl教程中说得很清楚,并且有一条简单的公式,下面是该公式的截图:

所以代码修改:

 import numpy as np
from numpy import linalg as la
import matplotlib.pyplot as plt
from sklearn import preprocessing
def calculateN(eigVal, percentage):
# 根据百分比确认选择特征向量的个数n的值
eigValSorted = np.sort(eigVal) #升序
eigValSorted = eigValSorted[-1::-1] #逆序(从大到小)
eigValSum = sum(eigValSorted)
num = 0
tmpSum = 0
for i in eigValSorted:
tmpSum += i
num +=1
if tmpSum >= eigValSum * percentage:
return num def pca(data,percentage = 0.99):
# data = np.array(data)
# 1.计算各属性的平均值
meanValues = np.mean(data, axis=0)
# 2.减去平均值
meanRemoved = data - meanValues
# 3. 计算协方差矩阵的特征值和特征向量
covData = np.cov(meanRemoved, rowvar=False) # 按列存放
eigVal, eigVects = la.eig(covData) # 4.计算要特征向量的个数n
n = calculateN(eigVal, percentage=percentage)
print(n) # 4. 将n个特征值的索引从大到小排序
eigValInd = np.argsort(eigVal) # 从小到大
eigValInd = eigValInd[-1:-(n+1):-1] # 逆序:从大到小 # 5. 保留n个最大的特征向量
redEigVects = eigVects[:, eigValInd]
# 6. 将数据转换到上述topNfeat个特征向量构建的新空间中
lowDData = np.dot(meanRemoved, redEigVects)
# 7. 重构
reconData = np.dot(lowDData, redEigVects.T) + meanValues
return lowDData, reconData # 画出原始数据/降维数据
def plotData(data, reconData):
fig = plt.figure()
plt.scatter(data[:, 0].flatten(), data[:, 1], marker='^', s=90)
plt.scatter(reconData[:, 0].flatten(), reconData[:, 1].flatten(), marker='o', s=50, c='red')
plt.show() def replaceWithMean():
data = np.loadtxt('D:\\学习\\机器学习实战(中+英+源码)_FILES\\machinelearninginaction\\Ch13\\secom.data', delimiter=' ')
impute = preprocessing.Imputer()
data = impute.fit_transform(data)
return data data = replaceWithMean()
lowDData, reconData = pca(data)
plotData(data, reconData)

ps:

《机器学习实战》学习笔记——第13章 PCA的更多相关文章

  1. #Python学习笔记:1-3章 (基于《python编程,从入门到实践)

    第1-3章 这个文档是记录我学习python时一些学习笔记以及一些想法也可以称作复习笔记 第一章:起步这一章主要是从第一个"hello world"程序到python环境的搭建与配 ...

  2. 【机器学习实战学习笔记(2-2)】决策树python3.6实现及简单应用

    文章目录 1.ID3及C4.5算法基础 1.1 计算香农熵 1.2 按照给定特征划分数据集 1.3 选择最优特征 1.4 多数表决实现 2.基于ID3.C4.5生成算法创建决策树 3.使用决策树进行分 ...

  3. 【机器学习实战学习笔记(1-1)】k-近邻算法原理及python实现

    笔者本人是个初入机器学习的小白,主要是想把学习过程中的大概知识和自己的一些经验写下来跟大家分享,也可以加强自己的记忆,有不足的地方还望小伙伴们批评指正,点赞评论走起来~ 文章目录 1.k-近邻算法概述 ...

  4. java JDK8 学习笔记——第13章 时间与日期

    第十三章 时间与日期 13.1 认识时间与日期 13.1.1 时间的度量 1.格林威治标准时间GMT 格林威治标准时间的正午是太阳抵达天空最高点之时.现在已经不作为标准时间使用. 2.世界时UT世界时 ...

  5. <<Python基础课程>>学习笔记 | 文章13章 | 数据库支持

    备注:本章介绍了比较简单,只是比较使用样品,主要假设是把握连接,利用数据库.和SQLite做演示样本 ------ Python数据库API 为了解决Python中各种数据库模块间的兼容问题,如今已经 ...

  6. 【机器学习实战学习笔记(1-2)】k-近邻算法应用实例python代码

    文章目录 1.改进约会网站匹配效果 1.1 准备数据:从文本文件中解析数据 1.2 分析数据:使用Matplotlib创建散点图 1.3 准备数据:归一化特征 1.4 测试算法:作为完整程序验证分类器 ...

  7. TensorFlow技术解析与实战学习笔记(13)------Mnist识别和卷积神经网络AlexNet

    一.AlexNet:共8层:5个卷积层(卷积+池化).3个全连接层,输出到softmax层,产生分类. 论文中lrn层推荐的参数:depth_radius = 4,bias = 1.0 , alpha ...

  8. 机器学习实战 - 读书笔记(13) - 利用PCA来简化数据

    前言 最近在看Peter Harrington写的"机器学习实战",这是我的学习心得,这次是第13章 - 利用PCA来简化数据. 这里介绍,机器学习中的降维技术,可简化样品数据. ...

  9. 机器学习实战 - 读书笔记(11) - 使用Apriori算法进行关联分析

    前言 最近在看Peter Harrington写的"机器学习实战",这是我的学习心得,这次是第11章 - 使用Apriori算法进行关联分析. 基本概念 关联分析(associat ...

随机推荐

  1. Sublime Text 2 安装Package Control和插件的两种方法

    缘起 前几天系统刚刚还原了,重装完Sublime Text2再安装插件的时候可能是由于公司的网络环境的问题,各种报错,将解决方法记录下来.系统环境:Win7 x64 + Sublime Text2. ...

  2. PNG格式小图标的CSS任意颜色赋色技术

    一.眼见为实 CSS可以修改图片的颜色,没错,可以,眼见为实!您可以狠狠地点击这里:png小图标CSS赋色demo 上面的不是很黑的是原始图标,是个PNG图片,下面这个是可以赋色的: 下面,我们随意选 ...

  3. IIS-Server is too busy _解决方法

    httpRuntime Server Too Busy 修改方法:修改服务器.net配置“machine.config"文件,该文件位于Windows系统目录下,如“C:\WINDOWS \Micro ...

  4. github管理代码

    1.首先去github官网申请一个账号 github官网 2.登录github,并新建一个库: 点击: 进去之后,这里填写库名,可以随便填写:  然后直接点击: 3.本地连接github 1)安装gi ...

  5. 使用 Windows AIK 创建自定的客户端系统WIM文件

    Windows 7/2008 的AIK 3.0下载页面:地址链接 1.8G [3.1补充包为1.4G] 安装3.0后,升级为3.1方法: xcopy E:\ "C:\Program File ...

  6. 微分方程——基本概念和常微分方程的发展史

    1.2 基本概念和常微分方程的发展史 自变量.未知函数均为实值的微分方程称为实值微分方程:未知函数取复值或变量及未知函数均取复值时称为复值微分方程.若无特别声明,以下均指实变量的实值微分方程. 1.2 ...

  7. 小调网 经典电影 豆瓣评分 tampermonkey脚本

    // ==UserScript== // @name 小调网 // @namespace http://tampermonkey.net/ // @version 0.1 // @descriptio ...

  8. CPA

    CPA.CPS.CPM.CPT.CPC 是什么 网络营销之所以越来越受到重视一个主要的原因就是因为“精准”.相比较传统媒体的陈旧广告形式,网络营销能为广告主带来更为确切的效果与回报,更有传统媒体所没有 ...

  9. 【转】抛弃EF,20分构建一个属于自己的ORM框架

    链接:http://www.cnblogs.com/irenebbkiss/p/4157364.html

  10. Android 日常开发总结的技术经验 60 条

    1. 全部Activity可继承自BaseActivity,便于统一风格与处理公共事件,构建对话框统一构建器的建立,万一需要整体变动,一处修改到处有效. 2. 数据库表段字段常量和SQL逻辑分离,更清 ...