零.说明:

本文的所有代码均可在 DML 找到,欢迎点星星。

注.CNN的这份代码非常慢,基本上没有实际使用的可能,所以我只是发出来,代表我还是实践过而已

一.引入:

CNN这个模型实在是有些年份了,最近随着深度学习的兴起又开始焕发青春了,把imagenet测试的准确度提高了非常多,一个是Alex的工作,然后最近好像Zeiler又有突破性的成果,可惜这些我都没看过,主要是imagenet的数据太大了,我根本没有可能跑得动,所以学习的积极性有些打折扣。不说那么多,还是先实现一个最基础的CNN再说吧:

二.实现:

好吧,基本是根据DeepLearnToolbox的结构按照 Notes on Convolutional Neural Networks 来写的,大家可以先看这里的代码讲解:【面向代码】学习
Deep Learning(三)Convolution Neural Network(CNN)

本来是想根据Notes那篇文章来写的,只是最后发现如果给subsampling层加上sigmoid之后整个结构就不收敛了~~~,我用numeric_grad_check检测发现梯度计算也是对的,不明所以~~~这份代码我也上传了(old),不过下面的代码最后就只能改成稍简化版的,貌似通常情况下CNN的pooling(subsampling)层也是没有sigmoid的,先这样吧,这个东西理解起来简单还是写了我两个下午……伤……

代码: DML/CNN/cnn.py

  1. from __future__ import division
  2. import numpy as np
  3. import scipy as sp
  4. from scipy.signal import convolve as conv
  5. from dml.tool import sigmoid,expand,showimage
  6. from numpy import rot90
  7. '''
  8. this algorithm have refered to the DeepLearnToolBox(https://github.com/rasmusbergpalm/DeepLearnToolbox)
  9. also:[1]:"Notes on Convolutional Neural Networks" Jake Bouvrie 2006 - How to implement CNNs
  10. I want to implement as [1] described,where the subsampling layer have sigmoid function
  11. but finally it does not converge,but I can pass the gradcheck!!
  12. (this version is dml/CNN/cnn.py.old ,if you can figure out what is wrong in the code,PLEASE LET ME KNOW)
  13. at last I changed code back to simple version,delete the sigmoid in 's' layer
  14. ps:this code in python is too slow!don't use it do anything except reading.
  15. '''
  16. class LayerC:
  17. def __init__(self,types='i',out=0,scale=0,kernelsize=0):
  18. self.types=types
  19. self.a=None
  20. self.b=None
  21. self.d=None
  22. if (types=='i'):
  23. pass
  24. elif (types=='c'):
  25. self.out=out
  26. self.kernelsize=kernelsize
  27. self.k=None
  28. elif (types=='s'):
  29. self.scale=scale
  30. self.Beta={}
  31. self.dBeta={}
  32.  
  33. class CNNC:
  34. def __init__(self,X,y,layers,opts):
  35. self.X=np.array(X)
  36. self.y=np.array(y)
  37. self.layers=layers
  38. self.opts=opts
  39. inputmap = 1
  40. mapsize = np.array(self.X[0].shape)
  41.  
  42. for i in range(len(self.layers)):
  43. if self.layers[i].types=='s':
  44. mapsize = mapsize / self.layers[i].scale
  45. assert np.sum(np.floor(mapsize)== mapsize)==mapsize.size
  46. self.layers[i].b={}
  47. self.layers[i].db={}
  48. for j in range(inputmap):
  49. self.layers[i].b.setdefault(j,0)
  50. self.layers[i].db.setdefault(j,0)
  51. self.layers[i].Beta.setdefault(j,1)
  52. self.layers[i].dBeta.setdefault(j,0.0)
  53. pass
  54. if self.layers[i].types=='c':
  55. mapsize = mapsize - self.layers[i].kernelsize + 1
  56. fan_out = self.layers[i].out*self.layers[i].kernelsize**2
  57. self.layers[i].k={}
  58. self.layers[i].dk={}
  59. self.layers[i].b={}
  60. self.layers[i].db={}
  61. for j in range(self.layers[i].out):
  62.  
  63. fan_in = inputmap*self.layers[i].kernelsize**2
  64. for t in range(inputmap):
  65. self.layers[i].k.setdefault(t,{})
  66. self.layers[i].k[t].setdefault(j)
  67. self.layers[i].k[t][j]=(np.random.rand(self.layers[i].kernelsize,self.layers[i].kernelsize)-
  68. 0.5)*2*np.sqrt(6/(fan_out+fan_in))
  69. self.layers[i].dk.setdefault(t,{})
  70. self.layers[i].dk[t].setdefault(j)
  71. self.layers[i].dk[t][j]=np.zeros(self.layers[i].k[t][j].shape)
  72. self.layers[i].b.setdefault(j,0)
  73. self.layers[i].db.setdefault(j,0)
  74. inputmap=self.layers[i].out
  75. if self.layers[i].types=='i':
  76. pass
  77. fvnum = np.prod(mapsize)*inputmap;
  78. onum = self.y.shape[0];
  79. self.ffb=np.zeros((onum,1))
  80. self.ffW=(np.random.rand(onum, fvnum)-0.5)*2*np.sqrt(6/(onum+fvnum))
  81. def cnnff(self,x):
  82. #print x
  83. self.layers[0].a={}
  84. self.layers[0].a.setdefault(0)
  85. self.layers[0].a[0]=x.copy()
  86. inputmap=1
  87. n=len(self.layers)
  88.  
  89. for l in range(1,n):
  90. if self.layers[l].types=='s':
  91. for j in range(inputmap):
  92.  
  93. temp=np.ones((self.layers[l].scale,self.layers[l].scale))/(self.layers[l].scale**2)
  94. z=conv(self.layers[l-1].a[j],np.array([temp]), 'valid')
  95. z=np.array(z)[:,::self.layers[l].scale,::self.layers[l].scale]
  96.  
  97. if self.layers[l].a==None:
  98. self.layers[l].a={}
  99. self.layers[l].a.setdefault(j)
  100. self.layers[l].a[j] =z
  101.  
  102. if self.layers[l].types=='c':
  103. if self.layers[l].a==None:
  104. self.layers[l].a={}
  105. for j in range(self.layers[l].out): #for each outmaps
  106. z = np.zeros(self.layers[l-1].a[0].shape - np.array([0,self.layers[l].kernelsize-1,self.layers[l].kernelsize-1]))
  107. for i in range(inputmap): #cumulate from inputmaps
  108. z+=conv(self.layers[l-1].a[i],np.array([self.layers[l].k[i][j]]),'valid')
  109. self.layers[l].a.setdefault(j)
  110. self.layers[l].a[j]=sigmoid(z+self.layers[l].b[j])
  111. inputmap = self.layers[l].out
  112.  
  113. self.fv=None
  114. for j in range(len(self.layers[n-1].a)):
  115. sa=self.layers[n-1].a[j].shape
  116. p=self.layers[n-1].a[j].reshape(sa[0],sa[1]*sa[2]).copy()
  117. if (self.fv==None):
  118. self.fv=p
  119. else:
  120. self.fv=np.concatenate((self.fv,p),axis=1)
  121. self.fv=self.fv.transpose()
  122. self.o=sigmoid(np.dot(self.ffW,self.fv) + self.ffb)
  123.  
  124. def cnnbp(self,y):
  125. n=len(self.layers)
  126. self.e=self.o-y
  127. self.L=0.5*np.sum(self.e**2)/self.e.shape[1]
  128. self.od=self.e*(self.o*(1-self.o))
  129.  
  130. self.fvd=np.dot(self.ffW.transpose(),self.od)
  131. if self.layers[n-1].types=='c':
  132. self.fvd=self.fvd*(self.fv*(1-self.fv))
  133. sa=self.layers[n-1].a[0].shape
  134. fvnum=sa[1]*sa[2]
  135. for j in range(len(self.layers[n-1].a)):
  136. if self.layers[n-1].d==None:
  137. self.layers[n-1].d={}
  138. self.layers[n-1].d.setdefault(j)
  139. self.layers[n-1].d[j]=self.fvd[(j*fvnum):((j+1)*fvnum),:].transpose().reshape(sa[0],sa[1],sa[2])
  140.  
  141. for l in range(n-2,-1,-1):
  142. if self.layers[l].types=='c':
  143. for j in range(len(self.layers[l].a)):
  144. if self.layers[l].d==None:
  145. self.layers[l].d={}
  146. self.layers[l].d.setdefault(j)
  147. self.layers[l].d[j]=self.layers[l].a[j]*(1-self.layers[l].a[j])*
  148. np.kron(self.layers[l+1].d[j],np.ones(( self.layers[l+1].scale,self.layers[l+1].scale))/(self.layers[l+1].scale**2))
  149.  
  150. elif self.layers[l].types=='s':
  151. for j in range(len(self.layers[l].a)):
  152. if self.layers[l].d==None:
  153. self.layers[l].d={}
  154. self.layers[l].d.setdefault(j)
  155. z=np.zeros(self.layers[l].a[0].shape)
  156. for i in range(len(self.layers[l+1].a)):
  157. rotated=np.array([rot90(self.layers[l+1].k[j][i],2)])
  158. z=z+conv(self.layers[l+1].d[i],rotated,'full')
  159. self.layers[l].d[j]=z
  160.  
  161. for l in range(1,n):
  162. m=self.layers[l].d[0].shape[0]
  163. if self.layers[l].types=='c':
  164. for j in range(len(self.layers[l].a)):
  165. for i in range(len(self.layers[l-1].a)):
  166. #self.layers[l].dk[i][j]=rot90(conv(self.layers[l-1].a[i],rot90(self.layers[l].d[j],2),'valid'),2)
  167. self.layers[l].dk[i][j]=self.layers[l].dk[i][j]*0
  168. for t in range(self.layers[l].d[0].shape[0]):
  169. self.layers[l].dk[i][j]+=rot90(conv(self.layers[l-1].a[i][t],rot90(self.layers[l].d[j][t],2),'valid'),2)
  170.  
  171. self.layers[l].dk[i][j]=self.layers[l].dk[i][j]/m
  172. self.layers[l].db[j]=np.sum(self.layers[l].d[j])/m
  173. self.dffW=np.dot(self.od,self.fv.transpose())/self.od.shape[1]
  174. self.dffb = np.mean(self.od,1).reshape(self.ffb.shape);
  175.  
  176. def cnnapplygrads(self,alpha=0.1):
  177. n=len(self.layers)
  178. for l in range(1,n):
  179. if self.layers[l].types=='c':
  180. for j in range(len(self.layers[l].a)):
  181. for i in range(len(self.layers[l-1].a)):
  182. self.layers[l].k[i][j]-=alpha*self.layers[l].dk[i][j]
  183. self.layers[l].b[j]-=alpha*self.layers[l].db[j]
  184. pass
  185.  
  186. self.ffW-=alpha*self.dffW
  187. self.ffb-=alpha*self.dffb
  188.  
  189. def train(self):
  190. m=self.X.shape[0]
  191. batchsize=self.opts['batchsize']
  192. numbatches = m/batchsize
  193. print numbatches
  194. self.rL = []
  195. for i in range(self.opts['numepochs']):
  196. print 'the %d -th epoch is running'% (i+1)
  197. kk=np.random.permutation(m)
  198. for j in range(numbatches):
  199. print 'the %d -th batch is running , totally %d batchs'% ((j+1),numbatches)
  200. batch_x=self.X[kk[(j)*batchsize:(j+1)*batchsize],:,:].copy()
  201. batch_y=self.y[:,kk[(j)*batchsize:(j+1)*batchsize]].copy()
  202. self.cnnff(batch_x)
  203. self.cnnbp(batch_y)
  204. self.cnnapplygrads(alpha=self.opts['alpha'])
  205.  
  206. if len(self.rL)==0:
  207. self.rL.append(self.L)
  208. else:
  209. p=self.rL[len(self.rL)-1]
  210. self.rL.append(p*0.99+0.1*self.L)
  211. print self.L
  212. def gradcheck(self,test_x,test_y):
  213. #github上有这部分代码
  214.  
  215. def test(self,test_x,test_y):
  216. self.cnnff(np.array(test_x))
  217. p=self.o.argmax(axis=0)
  218. bad= np.sum(p!=np.array(test_y).argmax(axis=0))
  219. print p,np.array(test_y).argmax(axis=0)
  220. print bad
  221. print np.array(test_y).shape[1]
  222. er=bad/np.array(test_y).shape[1]
  223. print er
  224. def pred(self,test_x):
  225. self.cnnff(np.array(test_x))
  226. p=self.o.argmax(axis=0)
  227. return p

三.测试

因为python跑这个实在是太慢了,主要原因我觉得是convolution函数(我用的scipy.signal.convolve)比matlab里慢太多了,所以跑MNIST以50为一个patch跑SGD一轮要二三十分钟,所以建议不要使用这份代码,你可以去用DeepLearnToolbox比这都快……

使用代码来测试:test/CNN_test/test_cnn.py

  1. layers=[LayerC('i'),
  2. LayerC('c',out=6,kernelsize=5),
  3. LayerC('s',scale=2),
  4. LayerC('c',out=12,kernelsize=5),
  5. LayerC('s',scale=2)]
  6. opts={}
  7. opts['batchsize']=40
  8. opts['numepochs']=1
  9. opts['alpha']=1
  10.  
  11. a=CNNC(X,groundTruth,layers,opts)
  12. #a.gradcheck(test_x[1:3,:,:],test_groundTruth[:,1:3])
  13. a.train()
  14. a.test(test_x,test_groundTruth)

这是一轮的结果,89.99%的准确度,应该还是正常的:

卷积神经网络CNN(Convolutional Neural Networks)没有原理只有实现的更多相关文章

  1. 卷积神经网络(Convolutional Neural Networks)CNN

     申明:本文非笔者原创,原文转载自:http://www.36dsj.com/archives/24006 自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural ...

  2. 小白也能弄懂的卷积神经网络(Convolutional Neural Networks )

    本系列主要是讲解卷积神经网络 - Convolutional Neural Networks 的系列知识,本系列主要帮助大家入门,我相信这是所有入门深度学习的初学者都必须学习的知识,这里会用更加直接和 ...

  3. 卷积神经网络LeNet Convolutional Neural Networks (LeNet)

    Note This section assumes the reader has already read through Classifying MNIST digits using Logisti ...

  4. 卷积神经网络(Convolutional Neural Network,CNN)

    全连接神经网络(Fully connected neural network)处理图像最大的问题在于全连接层的参数太多.参数增多除了导致计算速度减慢,还很容易导致过拟合问题.所以需要一个更合理的神经网 ...

  5. 【转载】 卷积神经网络(Convolutional Neural Network,CNN)

    作者:wuliytTaotao 出处:https://www.cnblogs.com/wuliytTaotao/ 本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可,欢迎 ...

  6. “卷积神经网络(Convolutional Neural Network,CNN)”之问

    目录 Q1:CNN 中的全连接层为什么可以看作是使用卷积核遍历整个输入区域的卷积操作? Q2:1×1 的卷积核(filter)怎么理解? Q3:什么是感受野(Receptive field)? Q4: ...

  7. 卷积神经网络CNN学习笔记

    CNN的基本结构包括两层: 特征提取层:每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征.一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来: 特征映射层:网络的每个计算层由多 ...

  8. paper 162:卷积神经网络(CNN)解析

    卷积神经网络(CNN)解析: 卷积神经网络CNN解析 概揽 Layers used to build ConvNets 卷积层Convolutional layer 池化层Pooling Layer ...

  9. 卷积神经网络CNN的原理(一)---基本概念

    什么是卷积神经网络呢?这个的确是比较难搞懂的概念,特别是一听到神经网络,大家脑海中第一个就会想到复杂的生物学,让人不寒而栗,那么复杂啊.卷积神经网络是做什么用的呢?它到底是一个什么东东呢? 卷积神经网 ...

随机推荐

  1. NOIP提高组2004 合并果子题解

    NOIP提高组2004 合并果子题解 描述:在一个果园里,多多已经将所有的果子打了下来,而且按果子的不同种类分成了不同的堆.多多决定把所有的果子合成一堆. 每一次合并,多多可以把两堆果子合并到一起,消 ...

  2. POJ 1329 Circle Through Three Points(三角形外心)

    题目链接 抄的外心模版.然后,输出认真一点.1Y. #include <cstdio> #include <cstring> #include <string> # ...

  3. GUI之绘画控制

    一.绘制的动力 GUI的绘画是根据消息动作驱动的 主循环应该是 二.绘制的过程 绘画过程应该是这样的: 首先窗口存在上下层关系-> 在绘制时应该从底部窗口开始绘制,逐一绘制 下面是一些特殊的窗口 ...

  4. Rational Rose 2007 破解版安装过程

    Rational Rose 2007 破解版安装过程 首先通过网站将软件下载,然后依照以下步骤进行: 选择第二项,下一步 一直点击next,出现如下,可以修改安装的目的文件夹 设置完路径之后出现如下, ...

  5. spring mvc 拦截器 拦截子目录

    项目中碰到这一个问题: 对于/user/loginpage,/user/login这一类的url,放行: 对于/user/{userId}/xxx(xxx不为空)的操作,需要拦截,url-patter ...

  6. java设计模式。。。转载

    maowang I am a slow walker,but I never walk backwards! 博客园 首页 新随笔 联系 订阅 管理 随笔 - 125  文章 - 0  评论 - 12 ...

  7. 对JS原型的一些理解

    一.首先给出一道经典的原型题目: var F = function(){}; Object.prototype.a = function(){}; Function.prototype.b = fun ...

  8. Top Deep Learning Projects in github

    Top Deep Learning Projects A list of popular github projects related to deep learning (ranked by sta ...

  9. webform连接ACCESS数据库

    1.先建立一个名叫mydb.accdb的access数据库 2.他它复制到webform中,放在App_Data文件夹下. 3.在App_Code文件夹下建好封装语句,查询方法,连接语句,其中stud ...

  10. c# 集合及特殊集合

    1.ArrayList集合 习题:输入人数,输入分数,存到集合里面,之后再读取出来,求平均分,排序打印. 2.Stack 集合 3.Queue    队列集合 每日一语:脚跟立定以后,你必须拿你的力量 ...