神经网络(3)---如何表示hypothesis,如何表示我们的model
大脑中的神经元
我们的大脑都充满了上图所示的神经元,神经元有一个细胞体(cell body),还有一些input wires,专业词汇叫做树突(dendrite),它们从其它地方接收输入信息,神经元还有一个output wire,专业词汇叫做轴突(Axon),用来给其它的神经元发送信号。简单说来,神经元就是一个计算单元,它从input wires那儿接收输入,经过一些计算后,然后能过output wire(轴突)将输出传送给其它神经元。
大脑中的一系列神经元是如何交流的
神经元之间是通过小脉冲电流(spikes)来进行交流的,如果一个神经元想要发送信息,它发送的是小脉冲电流,通过轴突传送给与其连接的其它神经元的树突,这个神经元接收到信息后,经过计算,再通过自己的轴突,将信息传送给其它的神经元。
我们的知觉与肌肉也是这样工作的,如果你想要移动你的一块肌肉,你的神经元将电流传给你的肌肉,导致肌肉收缩。我们的眼睛也可以传递电流给我们大脑中的神经元的树突,这样引起人体的知觉。
Neuron Model: Logistic Unit(单个的神经元)
中间的红色的小圆圈可以看做the body of neuron,feed the neuron a few inputs通过input wires,然后the neuron做一些计算,然后输出值在output wire.做的计算是hΘ(x)=1/(1+e-ΘTx).
当我们画一个神经网络时,有时我们只画x1,x2,x3这三个结点,有时我们会另外增加一个x0的结点,这个x0结点有时称为the bias unit(neuron),因为x0=1,有时候我们会画上它,有时候不画,取决于对具体的问题来说哪个更方便。
在神经网络的另一个专业词汇是sigmoid(logistic) activation function:它是g(z)=1/(1+e-z).
Θ参数在神经网络中有时称为weights of a model = parameters of model.
神经元网络
神经网络是一系列的神经元紧紧结合在一起,在这个神经网络里面,第一层也称为input layer,最后一层也称为output layer,它是一个输出最后结果的神经元;中间的第二层称为the hidden layer,任何不是input layer和output layer的层都叫做hidden layer。
神经网络是如何计算的
我们用ai(j)表示activation of unit i in layer j。a1(2)表示the activation of the first unit in layer 2.activation是指它会接收输入然后进行输出。
Θ(j)为我们的参数,它为一个weights的矩阵,控制function mapping from layer j to layer j+1.
a1(2)的值,a2(2)的值,a3(2)的值计算如上图所示,这儿我们有3个input units和3个hidden units,Θ(1)的维度是3*4的矩阵。
一般来说,如果我们在第j层有sj个units,在j+1层有sj+1个units,则Θ(j)的维度是sj+1*(sj+1)。
最后一个结点的计算如上图所示的hθ(x),Θ(2)表示参数矩阵,控制第2层到第三层的计算.
神经网络(3)---如何表示hypothesis,如何表示我们的model的更多相关文章
- Stanford机器学习笔记-4. 神经网络Neural Networks (part one)
4. Neural Networks (part one) Content: 4. Neural Networks (part one) 4.1 Non-linear Classification. ...
- (5keras自带的模型之间的关系)自己动手,编写神经网络程序,解决Mnist问题,并网络化部署
其中: 1.VGG 网络以及从 2012 年以来的 AlexNet 都遵循现在的基本卷积网络的原型布局:一系列卷积层.最大池化层和激活层,最后还有一些全连接的分类层. 2.ResNet 的作者将 ...
- Python之TensorFlow的卷积神经网络-5
一.卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度 ...
- 用Keras搭建神经网络 简单模版(六)——Autoencoder 自编码
import numpy as np np.random.seed(1337) from keras.datasets import mnist from keras.models import Mo ...
- (转)word2vec前世今生
word2vec 前世今生 2013年,Google开源了一款用于词向量计算的工具——word2vec,引起了工业界和学术界的关注.首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效 ...
- NLP之——Word2Vec详解
2013年,Google开源了一款用于词向量计算的工具--word2vec,引起了工业界和学术界的关注.首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练:其次,该工具得到的训 ...
- word2vec前世今生
word2vec前世今生 2013年,Google开源了一款用于词向量计算的工具--word2vec,引起了工业界和学术界的关注.首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地 ...
- word2vec预训练词向量
NLP中的Word2Vec讲解 word2vec是Google开源的一款用于词向量计算 的工具,可以很好的度量词与词之间的相似性: word2vec建模是指用CBoW模型或Skip-gram模型来计算 ...
- Word2Vec详解
Word2Vec详解 word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练:其次,该工具得到的训练结果--词向量(word embedding),可以很好地度量词与词之间的相似性.随着 ...
随机推荐
- spring springboot websocket 不能注入( @Autowired ) service bean 报 null 错误
spring 或 springboot 的 websocket 里面使用 @Autowired 注入 service 或 bean 时,报空指针异常,service 为 null(并不是不能被注入). ...
- jquery设置滚动条样式
HTML结构 下面是该滚动条插件工作所必须的HTML结构: <div id="about" class="nano"> <div cl ...
- Acuntetix的安装与使用
1.下载软件压缩包文件,首先点击"Acunetix.Web.12.0.180911134.Retail.exe"安装最新版原程序 2.阅读并同意软件安装协议 3.设置登录信息,包括 ...
- PAT(B) 1043 输出PATest(Java)统计
题目链接:1043 输出PATest (20 point(s)) 题目描述 给定一个长度不超过 104 的.仅由英文字母构成的字符串.请将字符重新调整顺序,按 PATestPATest- 这样的 ...
- Python中turtle库的使用
Turtle图形库 Turtle库是Python内置的图形化模块,属于标准库之一,位于Python安装目录的lib文件夹下,常用函数有以下几种: 画笔控制函数 penup():抬起画笔: pendow ...
- Linux or Mac 重启网络
Mac sudo ifconfig en0 down sudo ifconfig en0 up Linux /etc/init.d/networking restart
- linux查看系统未被挂载的磁盘空间的方法
原文URL:https://www.cnblogs.com/lemon-flm/p/7597403.html 解决AWS 挂载.解决挂载完重启就消失等问题 linux上的盘和window的有区别,磁盘 ...
- AtCoder Grand Contest 034
A:如果C在D左侧,显然先让B到达终点再让A走即可,否则先判断一下A是否可以在某处超过B.也就是先判断一下起点与终点之间是否有连续的障碍,若有则无解:然后若C在D左侧输出Yes,否则判断B和D之间是否 ...
- hdu1501 记忆化搜索。。。
Problem Description Given three strings, you are to determine whether the third string can be formed ...
- AQS独占式同步队列入队与出队
入队 Node AQS同步队列和等待队列共用同一种节点结构Node,与同步队列相关的属性如下. prev 前驱结点 next 后继节点 thread 入队的线程 入队节点的状态 INITIAl 0 初 ...