CS231n 2016 通关 第二章-KNN】的更多相关文章

KNN作业要求: 1.掌握KNN算法原理 2.实现具体K值的KNN算法 3.实现对K值的交叉验证 1.KNN原理见上一小节 2.实现KNN 过程分两步: 1.计算测试集与训练集的距离 2.通过比较label出现比例的方式,确定选取的最终label 代码分析: cell1 - cell5 对数据的预处理 cell6创建KNN类,初始化类的变量,此处是传递测试数据和训练数据 cell7实现包含两个循环的KNN算法: 通过计算单一的向量与矩阵之间的距离(在之前的cell中,已经将图像转换成列:32*3…
  课程内容全纪录: 1.讲解图像分类的难点 1.光照强度 2.主体变形 3.主体与背景咬合 4.主体与背景相接近 5.同类别间存在区别 2.KNN 1.最近邻算法 2.Knn 3.hyperparameter 的 cross-validation 3.线性分类器   全解析: 1.图像分类的难点示意图     2.KNN 首先是KNN中用到的距离计算公式,L1和L2如下: 图示KNN的计算过程: 图中有种类 a o,当需要确定c属于哪个种类时,可以使用KNN 计算c到所有a和所有o的距离,L1…
第一节视频的主要内容: Fei-Fei Li 女神对Computer Vision的整体介绍.包括了发展历史中的重要事件,其中最为重要的是1959年测试猫视觉神经的实验. In 1959 Harvard neurophysiologists David H. HubelOffsite Link and Torsten WieselOffsite Link, inserted a microelectrodeOffsite Link into the primary visual cortexOf…
本章节讲解 参数更新 dropout ========================================================================================= 上节内容回顾与总结: 模型过程: 激活函数:注意理解各个函数的优缺点 数据预处理: 权重参数初始化:Xavier方法,使用较多. batch normalization : cross validation :比较loss 结果,选择合适学习率 ==================…
1===本节课对应视频内容的第三讲,对应PPT是Lecture3 2===本节课的收获 ===熟悉SVM及其多分类问题 ===熟悉softmax分类问题 ===了解优化思想 由上节课即KNN的分析步骤中,了解到做图像分类的主要步骤 ===根据数据集建立模型 ===得到loss function ===根据loss function 对参数做优化 ============================================================================…
在上一次总结中,总结了NN的基本结构. 接下来的几次课,对一些具体细节进行讲解. 比如激活函数.参数初始化.参数更新等等. ========================================================================================= 首先,课程做 一个小插曲: 经常使用已经训练好的模型>>Finetune network 具体例子: 使用现成模型,修改部分层,使用现成的参数做初始参数. 以caffe为例,其提供了很多现成的模…
在上次的分享中,介绍了模型建立与使用梯度下降法优化参数.梯度校验,以及一些超参数的经验. 本节课的主要内容: 1==链式法则 2==深度学习框架中链式法则 3==全连接神经网络 ========================================================================================= 1.链式法则 目前我们所处的阶段: 学习了SVM softmax两个模型或者算法,需要优化w>>梯度下降. 上述公式的计算图例: 由上述计算…
Dropout的作用: cell  1 - cell 2 依旧 cell 3 Dropout层的前向传播 核心代码: train 时: if mode == 'train': ########################################################################### # TODO: Implement the training phase forward pass for inverted dropout. # # Store the…
BN层在实际中应用广泛. 上一次总结了使得训练变得简单的方法,比如SGD+momentum RMSProp Adam,BN是另外的方法. cell 1 依旧是初始化设置 cell 2 读取cifar-10数据 cell 3 BN的前传 # Check the training-time forward pass by checking means and variances # of features both before and after batch normalization # Sim…
要求:实现任意层数的NN. 每一层结构包含: 1.前向传播和反向传播函数:2.每一层计算的相关数值 cell 1 依旧是显示的初始设置 # As usual, a bit of setup import time import numpy as np import matplotlib.pyplot as plt from cs231n.classifiers.fc_net import * from cs231n.data_utils import get_CIFAR10_data from…