参考自http://deeplearning.stanford.edu/wiki/index.php/Neural_Networks 神经元模型 h(x)= f(W'x)f(z)一般会用sigmoid函数f(z) = 1/(1+exp(-z)) 或tanh函数f(z) = (exp(z)-exp(-z))/(exp(z)+exp(-z)), 两个函数样子类似,区别是sidmoid的值域0~1,tanh在-1~1注意sigmoid函数的导数特征f'(z)=f(z)(1-f(z))或tanh函数f'…
论文笔记系列-Neural Network Search :A Survey 论文 笔记 NAS automl survey review reinforcement learning Bayesian Optimization evolutionary algorithm  注:本文主要是结合自己理解对原文献的总结翻译,有的部分直接翻译成英文不太好理解,所以查阅原文会更直观更好理解. 本文主要就Search Space.Search Strategy.Performance Estimatio…
完整代码及其数据,请移步小编的GitHub地址 传送门:请点击我 如果点击有误:https://github.com/LeBron-Jian/DeepLearningNote 在整理这些知识点之前,我建议先看一下原论文,不然看我这个笔记,感觉想到哪里说哪里,如果看了论文,还有不懂的,正好这篇博客就是其详细解析,包括源码解析. 我翻译的链接: 深度学习论文翻译解析(五):Siamese Neural Networks for One-shot Image Recognition 下面开始: 1,S…
+ mu) * v # 位置更新变了形式 对于NAG(Nesterov's Accelerated Momentum)的来源和数学公式推导,我们推荐以下的拓展阅读: Yoshua Bengio的Advances in optimizing Recurrent Networks,Section 3.5. Ilya Sutskever's thesis (pdf)在section 7.2对于这个主题有更详尽的阐述. 学习率退火 在训练深度网络的时候,让学习率随着时间退火通常是有帮助的.可以这样理解:…
tensorflow中使用mnist数据集训练全连接神经网络 ——学习曹健老师“人工智能实践:tensorflow笔记”的学习笔记, 感谢曹老师 前期准备:mnist数据集下载,并存入data目录: 文件列表:四个文件,分别为训练和测试集数据 Four files are available on 官网  http://yann.lecun.com/exdb/mnist/ : train-images-idx3-ubyte.gz:  training set images (9912422 by…
神经网络推荐博客: 深度学习概述 神经网络基础之逻辑回归 神经网络基础之Python与向量化 浅层神经网络 深层神经网络 前言 首先声明,以下内容绝大部分转自知乎智能单元,他们将官方学习笔记进行了很专业的翻译,在此我会直接copy他们翻译的笔记,有些地方会用红字写自己的笔记,本文只是作为自己的学习笔记.本文内容官网链接:Optimization Note , 1) # 含3个数字的随机输入向量(3x1) h1 = f(np.dot(W1, x) + b1) # 计算第一个隐层的激活数据(4x1)…
This example shows how to use Neural Network Toolbox™ to train a deep neural network to classify images of digits. Neural networks with multiple hidden layers can be useful for solving classification problems with complex data, such as images. Each l…
完整代码及其数据,请移步小编的GitHub地址 传送门:请点击我 如果点击有误:https://github.com/LeBron-Jian/DeepLearningNote 这里结合网络的资料和MobileNet论文,捋一遍MobileNet,基本代码和图片都是来自网络,这里表示感谢,参考链接均在后文.下面开始. MobileNet论文写的很好,有想法的可以去看一下,我这里提供翻译地址: 深度学习论文翻译解析(十七):MobileNets: Efficient Convolutional Ne…
这是价值学习高级技巧第三篇,前两篇主要是针对 TD 算法的改进,而Dueling Network 对 DQN 的结构进行改进,能够大幅度改进DQN的效果. Dueling Network 的应用范围不限于 DQN,本文只介绍其在 DQN上的应用. 12. Dueling Network 12.1 优势函数 Advantage Function. 回顾一些基础概念: 折扣回报: \(U_t = R_t + \gamma \cdot R_{t+1} + \gamma^2R+...\) 动作价值函数:…
看了很多关于卷积神经网络的论文和资料 可是我发现一个问题,就是pooling会出现一个问题 我能找到的代码里面都是用的均值子采样,如果改成最大或最小,或P范数都会在学习训练的时候遇到不知道怎么处理的问题 刚刚看到一篇关于反卷积的文章,其中就解决了max,min,median这一类的问题,就是在正向pooling的时候,记下这些max,min,median的位置,然后在BP的时候误差反馈的时候把误差放在记下的位置. pooling 是否真的有必要?…