Cs231n-assignment 1作业笔记】的更多相关文章

CS231n的课后作业非常的好,这里记录一下自己对作业一些笔记. 一.第一个是KNN的代码,这里的trick是计算距离的三种方法,核心的话还是python和machine learning中非常实用的向量化操作,可以大大的提高计算速度. import numpy as np class KNearestNeighbor(object):#首先是定义一个处理KNN的类 """ a kNN classifier with L2 distance """…
CS231n之线性分类器 斯坦福CS231n项目实战(二):线性支持向量机SVM CS231n 2016 通关 第三章-SVM与Softmax cs231n:assignment1——Q3: Implement a Softmax classifier cs231n线性分类器作业:(Assignment 1 ): 二 训练一个SVM: steps: 完成一个完全向量化的SVM损失函数 完成一个用解析法向量化求解梯度的函数 再用数值法计算梯度,验证解析法求得结果 使用验证集调优学习率与正则化强度…
目录 目录结构 zabbix-web.yaml zabbix-backup.yaml zabbix-nfs.yaml zabbix-mysql.yaml zabbix-server.yaml zabbix 应用监控作业笔记 2台web(Nginx+PHP).1台MySQL.1台NFS.1台Rsync(所有的.conf监控项一样,模板不一样) 1.自定义监控项.自定义触发器.自定义动作 2.如何制作模板,模板的导出与导入 ##### 使用Ansible统一 ​ 安装Zabbix-Agent ​ 配…
cs231n assignment 2 20210913 - 20211005. 目录 cs231n assignment 2 fully-connected nets 基本思想 编程细节 复习multiclass svm loss和softmax loss multiclass svm loss & derivative softmax loss & derivative batch normalization 基本思想 编程细节 dropout 基本思想 编程细节 convolutio…
cs231n assignment 1 20210804 - 20210808. 目录 cs231n assignment 1 总结 KNN 思想 cross-validation 编程细节 SVM 思想 代码中的预处理 multi-class svm loss 正则项 编程细节 softmax 思想 编程细节 two layers net 思想 epoch是什么 编程细节 feathers 思想 总结 建立模型的步骤: __init__(self):在注释中约定模型的参数超参数. 写出[los…
安装anaconda,下载assignment作业代码 作业代码数据集等2018版基于python3.6 下载提取码4put 本课程内容参考: cs231n官方笔记地址 贺完结!CS231n官方笔记授权翻译总集篇发布 CS231n课程笔记翻译:图像分类笔记(上) numpy参考:CS231n课程笔记翻译:Python Numpy教程 以下文字部分转载自: CS231n——图像分类(KNN实现) 课程作业基于python3.6.5对应的anaconda 修改了输入输出 图像分类   目标:已有固定…
第二个作业难度很高,但做(抄)完之后收获还是很大的.... 一.Fully-Connected Neural Nets 首先是对之前的神经网络的程序进行重构,目的是可以构建任意大小的全连接的neural network,这里用模块化的思想构建整个代码,具体思路如下: #前向传播 def layer_forward(x, w): """ Receive inputs x and weights w """ # 做前向计算 z = # 需要存储的中间…
可以参考:cs231n assignment1 SVM 完整代码 231n作业   多类 SVM 的损失函数及其梯度计算(最好)https://blog.csdn.net/NODIECANFLY/article/details/82927119  (也不错) 作业部分: 完成结构化SVM的损失梯度的理论计算 完成梯度计算的循环形式的代码 svm_loss_naive 完成向量化梯度计算的代码 svm_loss_vectorized 完成随机梯度下降法的代码,在linear_classifier.…
一.参数更新策略     1.SGD 也就是随机梯度下降,最简单的更新形式是沿着负梯度方向改变参数(因为梯度指向的是上升方向,但是我们通常希望最小化损失函数).假设有一个参数向量x及其梯度dx,那么最简单的更新的形式是: x += - learning_rate * dx 其中learning_rate是一个超参数,表示的是更新的幅度.这是一个重要的参数,lr过大可能会出现loss异常的情况,过小会使训练时间过长,后面也会介绍lr参数更新的一些trick. 2. Momentum  又被成为动量…
终于来到了最终的大BOSS,卷积神经网络~ 这里我想还是主要关注代码的实现,具体的CNN的知识点想以后在好好写一写,CNN的代码关键就是要加上卷积层和池话层. 一.卷积层 卷积层的前向传播还是比较容易的,我们主要关注的是反向传播,看下图就知道了: def conv_forward_naive(x, w, b, conv_param): stride, pad = conv_param['stride'], conv_param['pad'] N, C, H, W = x.shape F, C,…