直接放代码了。。。

实现的是x1+x2=y的预测,但梯度下降很慢。。。233333,gpu运行时间很快!!

  1. //
  2. // main.cpp
  3. // bp
  4. //
  5. // Created by jzc on 2018/4/18.
  6. // Copyright © 2018年 jzc. All rights reserved.
  7. //
  8. #include <stdio.h>
  9. #include <iostream>
  10. #include <time.h>
  11. #include <stdlib.h>
  12. #include <math.h>
  13. #include <fstream>
  14. #include <cuda_runtime.h>
  15. using namespace std;
  16. #define DATASIZE 10000
  17. #define TESTSIZE 100
  18. #define NEURESIZE 50
  19. #define RW 0.1
  20. #define EPOCH 1000
  21. #define E 2.71828
  22. //打印设备信息
  23. void printDeviceProp(const cudaDeviceProp &prop)
  24. {
  25. printf("Device Name : %s.\n", prop.name);
  26. printf("totalGlobalMem : %ld.\n", prop.totalGlobalMem);
  27. printf("sharedMemPerBlock : %ld.\n", prop.sharedMemPerBlock);
  28. printf("regsPerBlock : %d.\n", prop.regsPerBlock);
  29. printf("warpSize : %d.\n", prop.warpSize);
  30. printf("memPitch : %ld.\n", prop.memPitch);
  31. printf("maxThreadsPerBlock : %d.\n", prop.maxThreadsPerBlock);
  32. printf("maxThreadsDim[0 - 2] : %d %d %d.\n", prop.maxThreadsDim[], prop.maxThreadsDim[], prop.maxThreadsDim[]);
  33. printf("maxGridSize[0 - 2] : %d %d %d.\n", prop.maxGridSize[], prop.maxGridSize[], prop.maxGridSize[]);
  34. printf("totalConstMem : %ld.\n", prop.totalConstMem);
  35. printf("major.minor : %d.%d.\n", prop.major, prop.minor);
  36. printf("clockRate : %d.\n", prop.clockRate);
  37. printf("textureAlignment : %ld.\n", prop.textureAlignment);
  38. printf("deviceOverlap : %d.\n", prop.deviceOverlap);
  39. printf("multiProcessorCount : %d.\n", prop.multiProcessorCount);
  40. }
  41.  
  42. //CUDA 初始化
  43. bool InitCUDA()
  44. {
  45. int count;
  46.  
  47. //取得支持Cuda的装置的数目
  48. cudaGetDeviceCount(&count);
  49.  
  50. if (count == ) {
  51. fprintf(stderr, "There is no device.\n");
  52. return false;
  53. }
  54.  
  55. int i;
  56.  
  57. for (i = ; i < count; i++) {
  58.  
  59. cudaDeviceProp prop;
  60. cudaGetDeviceProperties(&prop, i);
  61. //打印设备信息
  62. printDeviceProp(prop);
  63.  
  64. if (cudaGetDeviceProperties(&prop, i) == cudaSuccess) {
  65. if (prop.major >= ) {
  66. break;
  67. }
  68. }
  69. }
  70.  
  71. if (i == count) {
  72. fprintf(stderr, "There is no device supporting CUDA 1.x.\n");
  73. return false;
  74. }
  75.  
  76. cudaSetDevice(i);
  77.  
  78. return true;
  79. }
  80. void init(int num,int range,double a[],double offset){
  81. for(int i=;i<num;i++){
  82. a[i] = (double)(rand()%(range*)/1000.0) - offset;
  83. }
  84. }
  85.  
  86. void getM(int num,double a[],double m[]){
  87. m[] = m[] = 0.0;
  88. for(int i=;i<num;i++){
  89. if(a[i]<m[]){
  90. m[] = a[i];
  91. }else if(a[i]>m[]){
  92. m[] = a[i];
  93. }
  94. }
  95. }
  96.  
  97. void normalize(int num,double a[],double m[]){
  98. for(int i =;i<num;i++){
  99. a[i] = (a[i]-m[]+)/(m[]-m[]+);
  100. }
  101. }
  102.  
  103. void renorm(int num,double a[],double m[]){
  104. for(int i =;i<num;i++){
  105. a[i] = a[i]*(m[]-m[]+) + m[] - ;
  106. }
  107. }
  108.  
  109. void printArray(int num,double a[]){
  110. for(int i=;i<num;i++){
  111. printf("%6.4lf ",a[i]);
  112. if((i+)%==){
  113. cout<<endl;
  114. }
  115. }
  116. }
  117.  
  118. __global__ static void hidenLayer(double x1,double x2,double w1[],double w2[],double yh[]){
  119. /*for(int i=0;i<NEURESIZE;i++){
  120. yh[i] = w1[i]*x1 + w2[i]*x2;
  121. yh[i] = 1/(1+pow(E,0-yh[i]));
  122. }*/
  123. const int tid = threadIdx.x;
  124. int i =tid;
  125. yh[i] = w1[i]*x1 + w2[i]*x2;
  126. yh[i] = /(+pow(E,-yh[i]));
  127. }
  128.  
  129. double outLayer(double yh[],double v[]){
  130. double y2;
  131. for(int i=;i<NEURESIZE;i++){
  132. y2 += yh[i] * v[i];
  133. }
  134. y2 = /(+pow(E,-y2));
  135. return y2;
  136.  
  137. }
  138.  
  139. __global__ static void update(double x1[],double x2[],double yh[],double v[],double w1[],double w2[],double *loss){
  140. const int tid = threadIdx.x;
  141. int i = tid;
  142. /*for(int i=0;i<NEURESIZE;i++){
  143. w1[i] += x1[i] * (1-x1[i]) * loss * RW;
  144. w2[i] += x2[i] * (1-x2[i]) * loss * RW;
  145. v[i] += yh[i] * loss * RW;
  146. }*/
  147. w1[i] += x1[i] * (-x1[i]) * (*loss) * RW;
  148. w2[i] += x2[i] * (-x2[i]) * (*loss) * RW;
  149. v[i] += yh[i] * (*loss) * RW;
  150. }
  151.  
  152. /*double test(double w1[],double w2[],double v[],double m1[],double m2[],double my[]){
  153. double tx1[TESTSIZE],tx2[TESTSIZE],ty[TESTSIZE],tyh[NEURESIZE],ty2[TESTSIZE];
  154. double avLoss = 0.0;
  155.  
  156. init(TESTSIZE,10,tx1,0.0);
  157. init(TESTSIZE,10,tx2,0.0);
  158.  
  159. for(int i=0;i<TESTSIZE;i++){
  160. ty[i] = tx1[i] + tx2[i];
  161. }
  162. normalize(TESTSIZE,tx1,m1);
  163. normalize(TESTSIZE,tx2,m2);
  164. for(int q=0;q<TESTSIZE;q++){
  165. hidenLayer(tx1[q],tx2[q],w1,w2,tyh);
  166. ty2[q] = outLayer(tyh,v);
  167. }
  168.  
  169. renorm(TESTSIZE,ty2,my);
  170. for(int i=0;i<TESTSIZE;i++){
  171. if(i<10){
  172. printf("%2d y=%2.4f y2=%2.4f\n",i,ty[i],ty2[i]);
  173. }
  174. avLoss += pow(ty[i]-ty2[i],2);
  175. }
  176. avLoss /= TESTSIZE;
  177. //cout<<avLoss<<endl;
  178. return avLoss;
  179. }*/
  180.  
  181. int main(){
  182. ofstream outf;
  183. outf.open("trainloss.txt");
  184. srand( (unsigned)time(NULL) );
  185. long starttime = clock();
  186. double x1[DATASIZE],x2[DATASIZE],y[DATASIZE],y2[DATASIZE];
  187. double w1[NEURESIZE],w2[NEURESIZE],v[NEURESIZE],yh[NEURESIZE];
  188. double m1[],m2[],my[];
  189. double cLoss,realLoss,minTrainLoss = 1.0,minTestLoss = 1.0;
  190. init(DATASIZE,,x1,0.0);
  191. init(DATASIZE,,x2,0.0);
  192. init(NEURESIZE,,w1,1.0);
  193. init(NEURESIZE,,w2,1.0);
  194. init(NEURESIZE,,v,1.0);
  195.  
  196. for(int i=;i<DATASIZE;i++){
  197. y[i] = x1[i] + x2[i];
  198. }
  199.  
  200. //CUDA 初始化
  201. if (!InitCUDA()) {
  202. return ;
  203. }
  204. //cudaMalloc 取得一块显卡内存
  205. double *x1_g,*x2_g,*y_g,*y2_g;
  206. double *w1_g,*w2_g,*v_g,*yh_g;
  207. double *cLoss_g;
  208. cudaMalloc((void**)&x1_g, sizeof(double)* DATASIZE);
  209. cudaMalloc((void**)&x2_g, sizeof(double)* DATASIZE);
  210. cudaMalloc((void**)&y_g, sizeof(double)* DATASIZE);
  211. cudaMalloc((void**)&y2_g, sizeof(double)* DATASIZE);
  212. cudaMalloc((void**)&w1_g, sizeof(double)* NEURESIZE);
  213. cudaMalloc((void**)&w2_g, sizeof(double)* NEURESIZE);
  214. cudaMalloc((void**)&v_g, sizeof(double)* NEURESIZE);
  215. cudaMalloc((void**)&yh_g, sizeof(double)* NEURESIZE);
  216. cudaMalloc((void**)&cLoss_g, sizeof(double));
  217.  
  218. //cudaMemcpy 将产生的随机数复制到显卡内存中
  219. //cudaMemcpyHostToDevice - 从内存复制到显卡内存
  220. //cudaMemcpyDeviceToHost - 从显卡内存复制到内存
  221. cudaMemcpy(w1_g,w1, sizeof(double)*NEURESIZE, cudaMemcpyHostToDevice);
  222. cudaMemcpy(w2_g,w2, sizeof(double)*NEURESIZE, cudaMemcpyHostToDevice);
  223. cudaMemcpy(v_g,v, sizeof(double)*NEURESIZE, cudaMemcpyHostToDevice);
  224. cudaMemcpy(x1_g,x1, sizeof(double)*DATASIZE, cudaMemcpyHostToDevice);
  225. cudaMemcpy(x2_g,x2, sizeof(double)*DATASIZE, cudaMemcpyHostToDevice);
  226. cudaMemcpy(y_g,y, sizeof(double)*DATASIZE, cudaMemcpyHostToDevice);
  227. cudaMemcpy(yh_g,yh, sizeof(double)*NEURESIZE, cudaMemcpyHostToDevice);
  228. cudaMemcpy(cLoss_g,&cLoss, sizeof(double), cudaMemcpyHostToDevice);
  229.  
  230. getM(DATASIZE,x1,m1);
  231. getM(DATASIZE,x2,m2);
  232. getM(DATASIZE,y,my);
  233. normalize(DATASIZE,x1,m1);
  234. normalize(DATASIZE,x2,m2);
  235. normalize(DATASIZE,y,my);
  236.  
  237. for(int j=;j<EPOCH;j++){
  238. double tLoss = 0.0;
  239. for(int i=;i<DATASIZE;i++){
  240. hidenLayer<< < , NEURESIZE, >> >(x1_g[i],x2_g[i],w1_g,w2_g,yh_g);
  241. cudaMemcpy(yh,yh_g, sizeof(double)*NEURESIZE, cudaMemcpyDeviceToHost);
  242. cudaMemcpy(v,v_g, sizeof(double)*NEURESIZE, cudaMemcpyDeviceToHost);
  243. y2[i] = outLayer(yh,v);
  244. cLoss = y2[i] * (-y2[i]) * (y[i]-y2[i]);
  245. cudaMemcpy(cLoss_g,&cLoss, sizeof(double), cudaMemcpyHostToDevice);
  246. update<< < , NEURESIZE, >> >(x1_g,x2_g,yh_g,v_g,w1_g,w2_g,cLoss_g);
  247. cudaMemcpy(&cLoss,cLoss_g, sizeof(double)*NEURESIZE, cudaMemcpyDeviceToHost);
  248. cLoss = pow(cLoss,);
  249. cLoss = cLoss*(my[]-my[]+);
  250. tLoss += cLoss;
  251. }
  252. tLoss /= DATASIZE;
  253. if(tLoss<minTrainLoss){
  254. minTrainLoss = tLoss;
  255. }
  256. printf("EPOCH--%d, trainLoss--%0.4f\n",j,tLoss);
  257. outf<<j<<"\t"<<tLoss<<endl;
  258.  
  259. /*cudaMemcpy(w1,w1_g, sizeof(double)*NEURESIZE, cudaMemcpyDeviceToHost);
  260. cudaMemcpy(w2,w2_g, sizeof(double)*NEURESIZE, cudaMemcpyDeviceToHost);
  261. cudaMemcpy(v,v_g, sizeof(double)*NEURESIZE, cudaMemcpyDeviceToHost);
  262. double avLoss = test(w1,w2,v,m1,m2,my);
  263. printf("EPOCH--%d, avLoss--%0.4f\n",j,avLoss);
  264. if(avLoss<minTestLoss){
  265. minTestLoss = avLoss;
  266. }*/
  267. cout<<"------------------"<<endl;
  268. }
  269. printf("minTrainLoss--%0.4f\n",minTrainLoss);
  270. //printf("minTestLoss--%0.4f\n",minTestLoss);
  271. outf.close();
  272.  
  273. //Free
  274. cudaFree(x1_g);
  275. cudaFree(x2_g);
  276. cudaFree(y_g);
  277. cudaFree(w1_g);
  278. cudaFree(w2_g);
  279. cudaFree(v_g);
  280. cudaFree(yh_g);
  281. cudaFree(cLoss_g);
  282.  
  283. long endtime = clock()-starttime;
  284. float execution_time = (float)endtime / ( * );
  285. cout << "total time cost: " << execution_time<<endl;
  286.  
  287. return ;
  288. }

c++和cuda混合编程 实现传统神经网络的更多相关文章

  1. mpi和cuda混合编程的正确编译

    针对大数据的计算,很多程序通过搭建mpi集群进行加速,并取得了很好的效果.算法内部的加速,当前的并行化趋势是利用GPU显卡进行算法加速.针对并行性非常好的算法,GPU加速效果将远大于集群带来的加速效果 ...

  2. 【原创】Matlab.NET混合编程技巧之直接调用Matlab内置函数

                  本博客所有文章分类的总目录:[总目录]本博客博文总目录-实时更新    Matlab和C#混合编程文章目录 :[目录]Matlab和C#混合编程文章目录 在我的上一篇文章[ ...

  3. Matlab.NET混合编程技巧之——直接调用Matlab内置函数(附源码)

    原文:[原创]Matlab.NET混合编程技巧之--直接调用Matlab内置函数(附源码) 在我的上一篇文章[原创]Matlab.NET混编技巧之——找出Matlab内置函数中,已经大概的介绍了mat ...

  4. CUDA+OpenGL混合编程

    CUDA+OpenGL混合编程示例: #include <stdio.h> #include <stdlib.h> #include "GL\glew.h" ...

  5. [转载:]C#与Fortran混合编程之本地调用Fortran动态链接库

    前言 C#发展到现在,已是一门相当完善的语言,他基于C语言风格,演化于C++.并依靠强大的.NET底层框架.C#可以用来快速构建桌面及Web应用.然而在我们的实际工作中,尽管C#已经非常完善,但还是不 ...

  6. Matlab与.NET基于类型安全的接口混合编程入门

    原文:[原创]Matlab与.NET基于类型安全的接口混合编程入门 如果这些文章对你有用,有帮助,期待更多开源组件介绍,请不要吝啬手中的鼠标. [原创分享]Matlab.NET混编调用Figure窗体 ...

  7. Matlab与.NET混合编程解决人脸识别问题

    原文:[原创]Matlab与.NET混合编程解决人脸识别问题 如果这些文章对你有用,有帮助,期待更多开源组件介绍,请不要吝啬手中的鼠标. [原创分享]Matlab.NET混编调用Figure窗体 ht ...

  8. 通过混合编程分析的方法和机器学习预测Web应用程序的漏洞

    通过混合编程分析的方法和机器学习预测Web应用程序的漏洞 由于时间和资源的限制,web软件工程师需要支持识别出有漏洞的代码.一个实用的方法用来预测漏洞代码可以提高他们安全审计的工作效率.在这篇文章中, ...

  9. Android程序中,内嵌ELF可执行文件-- Android开发C语言混合编程总结

    前言 都知道的,Android基于Linux系统,然后覆盖了一层由Java虚拟机为核心的壳系统.跟一般常见的Linux+Java系统不同的,是其中有对硬件驱动进行支持,以避开GPL开源协议限制的HAL ...

随机推荐

  1. Net core 2.x 升级 3.0 使用自带 System.Text.Json 时区 踩坑经历

    .Net Core 3.0 更新的东西很多,这里就不多做解释了,官方和博园大佬写得很详细 关于 Net Core 时区问题,在 2.1 版本的时候,因为用的是 Newtonsoft.Json,配置比较 ...

  2. 'adb' 不是内部或外部命令,也不是可运行的程序 或批处理文件—解决方法

    Windows键 + R → 输入cmd → 输入adb,提示“adb不是内部或外部命令,也不是可运行的程序 或批处理文件“,错误信息如下: 解决方法: 此电脑(右击)→ 属性 → 高级系统设置 → ...

  3. 2019.7月-前端面试总结(H5+C3+JS+ES6+Vue+浏览器)

    第二次面试 HTML HTML5中的新标签,举例一下 canvas绘画,本地离线存储localStorage,sessionStorage,video和audio元素,语义化元素,表单类型(date, ...

  4. Android笔记(四十三) Android中的数据存储——SQLite(五)delete

    SQLite通过delete()方法删除数据 delete()方法参数说明: delete()方法参数 对应sql部分 描述 table delte from table_name 要删除的表 whe ...

  5. 更改jupyter-notebook启动时的默认目录

    1.找到jupyter_notebook_config.py: 默认Windows: C:\Users\USERNAME\.jupyter\jupyter_notebook_config.py 2.找 ...

  6. js基础知识4

    原文链接:https://book.apeland.cn/details/361/#3.getElementsByClassName()方法 DOM介绍 1.文档:DOM中的”D” ​ DOM是”Do ...

  7. ICS2019-Linux汇编实验指导

    ICS2019-Linux汇编实验指导 环境配好了? 开始调试 一. 首先安装NASM 1. 先判断系统是否已经安装了nasm 打开终端,执行  whereis nasm :如果显示nasm: /us ...

  8. Jmeter 中正则表达式提取器Regular Expression Extractor

    正则表达式提取器点击后置处理器中Post Processors 中的正则表达式提取器 Regular Expression Extractor Appy to: 表示作用于哪一个请求Main samp ...

  9. GooglePlay测试支付遇到的问题

    推荐谷歌安装器,可以方便地安装谷歌框架及服务 问题列表 1.测试支付时出现:需要验证身份.您需要登录自己google账号 解决:我是使用VPN,VPN地区是日本,但我在google后台设置的发布(下载 ...

  10. Immediate Decodability UVA-644(qsort排序 + 模拟)

    #include<iostream> #include<cstdio> #include<cstring> #include<algorithm> us ...