首页
Python
Java
IOS
Andorid
NodeJS
JavaScript
HTML5
【
第四十一篇 入门机器学习——Numpy的基本操作——聚合操作
】的更多相关文章
第四十一篇 入门机器学习——Numpy的基本操作——聚合操作
No.1. 对向量元素求和使用np.sum,也可以使用类似big_array.sum()的方式 No.2. 对向量元素求最小值使用np.min,求最大值使用np.max,也可以使用类似big_array.min()和big_array.max()的方式 No.3. 求矩阵中元素的和.最大值.最小值 No.4. 对矩阵的行求和或列求和.求行或列的最大值及最小值 No.5. 求矩阵或向量中所有元素的积 No.6. 求矩阵或向量的平均值np.mean,求矩阵或向量的中位数np.median No.7.…
第四十三篇 入门机器学习——Numpy的基本操作——Fancy Indexing
No.1. 通过索引快速访问向量中的多个元素 No.2. 用索引对应的元素快速生成一个矩阵 No.3. 通过索引从矩阵中快速获取多个元素 No.4. 获取矩阵中感兴趣的行或感兴趣的列,重新组成矩阵 No.5. 比较运算符运用于向量 No.6. 比较运算符运用于矩阵 No.7. 比较运算符与其他方法的结合使用 No.8. 把比较运算作为特殊索引来获取向量中的元素或获取矩阵的某些行或列…
第四十二篇 入门机器学习——Numpy的基本操作——索引相关
No.1. 使用np.argmin和np.argmax来获取向量元素中最小值和最大值的索引 No.2. 使用np.random.shuffle将向量中的元素顺序打乱,操作后,原向量发生改变:使用np.sort将乱序的向量进行排序,并将顺序的向量进行返回,原向量不发生改变 如果要将原来的乱序向量转化成顺序向量,需要使用x.sort,效果如下: No.3. 对矩阵中的元素进行排序 No.4. 使用np.argsort返回从小到大每个元素的索引值组成的向量 No.5. 使用np.partition返回…
第三十九篇 入门机器学习——Numpy.array的基础操作——合并与分割向量和矩阵
No.1. 初始化状态 No.2. 合并多个向量为一个向量 No.3. 合并多个矩阵为一个矩阵 No.4. 借助vstack和hstack实现矩阵与向量的快速合并.或多个矩阵快速合并 No.5. 分割向量 No.6. 分割矩阵 No.7. 使用vsplit和hsplit对矩阵进行快速垂直分割及水平分割 No.8. 分割的应用:从矩阵中抽出最后一列,然后将其转化成向量…
第四十篇 入门机器学习——Numpy.array的基本操作——向量及矩阵的运算
No.1. Numpy.array相较于Python原生List的性能优势 No.2. 将向量或矩阵中的每个元素 + 1 No.2. 将向量或矩阵中的所有元素 - 1 No.3. 将向量或矩阵中的所有元素 * 2 No.4. 将向量或矩阵中的所有元素 / 2 或 // 2 No.5. 幂运算 No.6. 取余 No.7. 取绝对值 No.8. 三角函数 No.9. 取e的x方 No.10. 取任意数的x方 No.11. 取以e为底x的对数 No.12. 取以任意数为底x的对数 No.13. 矩阵…
第三十八篇 入门机器学习——Numpy.array的基本操作——查看向量或矩阵
No.1. 初始化状态 No.2. 通过ndim来查看数组维数,向量是一维数组,矩阵是二维数组 No.3. 通过shape来查看向量中元素的个数或矩阵中的行列数 No.4. 通过size来查看数组中的总的元素的个数,不管数组是几维数组 No.5. 简单数据访问 No.6. 切片访问 No.7. 修改子矩阵中的元素,原矩阵会同时发生改变:修改原矩阵中的元素,子矩阵也会同时发生改变 No.8. 创建与原矩阵不关联的子矩阵 No.9. 通过reshape来将一个向量转化成矩阵并返回,原向量不发生改变:…
第三十七篇 入门机器学习——Numpy基础
No.1. 查看numpy版本 No.2. 为了方便使用numpy,在导入时顺便起个别名 No.3. numpy.array的基本操作:创建.查询.修改 No.4. 用dtype查看当前元素的数据类型 No.5. 创建一个存储浮点型元素的数组 No.6. 用np.zeros来创建0数组或0矩阵,默认创建浮点型数组 No.7. 为np.zeros指定参数,创建整型数组 No.8. 通过np.zeros创建二维数组或者矩阵 No.9. 用np.ones创建全为1的多维数组或矩阵 No.10. 用np…
Numpy 中的聚合操作
# 导包 import numpy as np sum np.random.seed(10) L = np.random.random(100) sum(L) np.sum(L) min np.min(L) max np.max(L) 多维度聚合 X = np.arange(16).reshape(4,-1) """ array([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8, 9, 10, 11], [12, 13, 14, 15]]) "&…
第四十九篇 入门机器学习——数据归一化(Feature Scaling)
No.1. 数据归一化的目的 数据归一化的目的,就是将数据的所有特征都映射到同一尺度上,这样可以避免由于量纲的不同使数据的某些特征形成主导作用. No.2. 数据归一化的方法 数据归一化的方法主要有两种:最值归一化和均值方差归一化. 最值归一化的计算公式如下: 最值归一化的特点是,可以将所有数据都映射到0-1之间,它适用于数据分布有明显边界的情况,容易受到异常值(outlier)的影响,异常值会造成数据的整体偏斜. 均值方差归一化的计算公式如下: 均值方差归一化的特点是,可以将数据归…
第四十六篇 入门机器学习——kNN - k近邻算法(k-Nearest Neighbors)
No.1. k-近邻算法的特点 No.2. 准备工作,导入类库,准备测试数据 No.3. 构建训练集 No.4. 简单查看一下训练数据集大概是什么样子,借助散点图 No.5. kNN算法的目的是,假如有新的数据加入,需要判断这个新的数据属于数据集中的哪一类 我们添加一个新的数据,重新绘制散点图 No.6. kNN的实现过程——计算x到训练数据集中每个点的距离 No.7. kNN的实现过程——使用argsort来获取距离x由近到远的点的索引组成的向量,进行保存 No.8. kNN的实现过程——指定…