cs229_part7】的更多相关文章

PCA 问题背景 回顾一下我们特征选择中的问题.如果特征非常多,而且有一些特征是重复的,那么我们可以想办法剔除掉一些无用的特征.那里我们提到一个计算互信息的方法.那么这里换一种降维方法. 比如说这样的一种比较极端的情况,我们数据是二维的,但是很明显能看的出来有一个维度对于分类是没有任何作用的,那我们可以把这个数据投影到x轴上面,变成这样: 这样我们就把二维的数据降到了一维. 当然这只是一种比较极端的情况,但是对于任意情况也是可以推广的.比如上面这个情况,投到x轴是最好的情况,而投到y轴上是最差的…
重要说明 这个系列是以cs229为参考,梳理下来的有关机器学习传统算法的一些东西.所以说cs229的有些内容我会暂时先去掉放在别的部分里面,也会加上很多重要的,但是cs229没有讲到的东西.而且本系列大部分时间在自讲自话,如果看不懂的话,还是以原版课程为重. 课程资源 课程主页 网易公开课翻译的课程视频 cs229课件翻译 cs229练习题解答 重要参考资料 <统计机器学习>- 李航 <机器学习>- 周志华 个人笔记 cs229_part7 cs229_part6 cs229_pa…