博主因为工作其中的须要,開始学习 GPU 上面的编程,主要涉及到的是基于 GPU 的深度学习方面的知识,鉴于之前没有接触过 GPU 编程。因此在这里特地学习一下 GPU 上面的编程。有志同道合的小伙伴。欢迎一起交流和学习,我的邮箱:
caijinping220@gmail.com

使用的是自己的老古董笔记本上面的 Geforce 103m 显卡,尽管显卡相对于如今主流的系列已经很的弱。可是对于学习来说,还是能够用的。本系列博文也遵从由简单到复杂。记录自己学习的过程。


0. 文件夹

1. 数组平方和并行化

GPU 编程入门到精通(三)之 第一个 GPU 程序 中讲到了怎样利用
CUDA5.5 在 GPU 中执行一个程序。通过程序的执行。我们看到了 GPU 确实能够作为一个运算器。可是,我们在前面的样例中并没有正真的发挥 GPU 并行处理程序的能力。也就是说之前的样例仅仅利用了 GPU 的一个线程,没有发挥程序的并行性。

先来说说 CUDA5.5 中 GPU 的架构。

它是由 grid 组成。每一个 grid 又能够由 block 组成,而每一个 block 又能够细分为 thread。所以,线程是我们处理的最小的单元了。

接下来的样例通过改动前一个样例,把数组切割成若干个组(每一个组由一个线程实现),每一个组计算出一个和,然后在 CPU 中将分组的这几个和加在一起,得到终于的结果。这样的思想叫做归约

事实上和分治思想几乎相同,就是先将大规模问题分解为小规模的问题,最后这些小规模问题整合得到终于解。

因为我的 GPU 支持的块内最大的线程数是 512 个,即
cudaGetDeviceProperties
中的
maxThreadsPerBlock
属性。

怎样获取这个属性。请參看 GPU 编程入门到精通(二)之 执行第一个程序 这一章节。

我们使用 512 个线程来实现并行加速。

好了,接下来就是敲代码的时候了。

1.1. 改动代码

  • 首先,在程序头部添加一个关于线程数量的宏定义:

      // ======== define area ========
    #define DATA_SIZE 1048576 // 1M
    #define THREAD_NUM 512 // thread num

    当中,DATA_SIZE 表示处理数据个数, THREAD_NUM 表示我们将要使用 512 个线程。

  • 其次,改动 GPU 部分的内核函数

      const int size = DATA_SIZE / THREAD_NUM;
    const int tid = threadIdx.x;
    int tmp_sum = 0; for (int i = tid * size; i < (tid + 1) * size; i++) {
    tmp_sum += data[i] * data[i];
    }
    sum[tid] = tmp_sum;
    }

    此内核程序的目的是把输入的数据分摊到 512 个线程上去计算部分和,而且 512 个部分和存放到 sum 数组中,最后在 CPU 中对 512 个部分和求和得到终于结果。

    此处对数据的遍历方式请注意一下,我们是依据顺序给每个线程的,也就是例如以下表格所看到的:

    线程编号 数据下标
    0 0 ~ 2047
    … … … …
    511 1046528 ~ 1048575
  • 然后,改动主函数部分

    主函数部分,仅仅须要把 sum 改成数组就能够,而且设置一下调用 GPU 内核函数的方式。

      // malloc space for datas in GPU
    cudaMalloc((void**) &sum, sizeof(int) * THREAD_NUM); // calculate the squares's sum
    squaresSum<<<1, THREAD_NUM, 0>>>(gpuData, sum, time);
  • 最后,在 CPU 内添加部分和求和的代码

      // print result
    int tmp_result = 0;
    for (int i = 0; i < THREAD_NUM; ++i) {
    tmp_result += result[i];
    }
    printf("(GPU) sum:%d time:%ld\n", tmp_result, time_used);

1.2. 编译执行

编译后,执行结果例如以下所看到的:

2. 性能分析

经过改动以后的程序,比之前的快了将近 36 倍(能够參考博文
GPU 编程入门到精通(三)之 第一个 GPU 程序 进行比較),可见并行化处理还是存在优势的。

只是细致想一下,我们使用了 512 个线程。 但是性能怎么才提升了 36 倍,不应该是 512 倍吗???

这里就涉及到内存的存取模式了,显卡上面的内存是 DRAM,是效率最高的存取方式,它是一种连续的存取方式。 前面我们的程序确实的连续读取的呀,都挨个读取了。怎么还是没有达到预期的效果呢???

这里还须要考虑 thread 的运行方式。GPU 编程入门到精通(三)之 第一个 GPU 程序 中说到,当一个
thread 在等待内存数据的时候, GPU 就会切换到下一个 thread。

所以。实际运行的顺序类似于 thread0 —> thread1 —> … … —> thread511。

这就导致了同一个 thread 在读取内存是连续的。 可是对于总体而言,运行的过程中读取就不是连续的了(这里自己细致想想,就明确了)。所以,正确的做法例如以下表格所看到的:

线程编号 数据下标
0 0 ~ 512
… … … …
511 511 ~ 1023

依据这个原理,改动内核函数例如以下:

for (int i = tid; i < DATA_SIZE; i += THREAD_NUM) {
tmp_sum += data[i] * data[i];
}

编译执行后结果例如以下所看到的:

改动后程序。比之前的又快了 13 倍左右,可见。对内存的读取方式对于性能的影响非常大。

至此。并行化后的程序较未并行化之前的程序,速度上快了 493 倍左右,可见,基本上发挥了 512 个线程的优势。

让我们再来分析一下性能:

此 GPU 消耗的时钟周期: 1595788 cycles
GeForce G 103M 的 clockRate: 1.6 GHz
所以能够计算出 GPU 上执行时间是: 时钟周期 / clockRate = 997.3675 us
1 M 个 int 型数据有 4M Byte 的数据量,实际使用的 GPU 内存带宽是:数据量 / 执行时间 = 4.01 GB/s

再来看看我的 GPU GeForce 103m 的内存带宽:执行 SDK 文件夹以下 /samples/1_Utilities/bandwidthTest

执行后结果例如以下所看到的:

通过与系统參数的对照,能够知道,基本上达到了系统的极限性能。




这一篇博文介绍了怎样通过利用线程达到程序的并行计算。而且通过优化内存读取方式,实现对程序的优化。通过这个程序,能够学会使用 CUDA 线程的一般流程。下一部分。将进一步分析程序可优化的一些细节。

欢迎大家和我一起讨论和学习 GPU 编程。

caijinping220@gmail.com

http://blog.csdn.net/xsc_c

GPU 编程入门到精通(四)之 GPU 程序优化的更多相关文章

  1. GPU 编程入门到精通(五)之 GPU 程序优化进阶

    博主因为工作其中的须要,開始学习 GPU 上面的编程,主要涉及到的是基于 GPU 的深度学习方面的知识.鉴于之前没有接触过 GPU 编程.因此在这里特地学习一下 GPU 上面的编程. 有志同道合的小伙 ...

  2. GPU 编程入门到精通(三)之 第一个 GPU 程序

    博主因为工作其中的须要.開始学习 GPU 上面的编程,主要涉及到的是基于 GPU 的深度学习方面的知识,鉴于之前没有接触过 GPU 编程,因此在这里特地学习一下 GPU 上面的编程.有志同道合的小伙伴 ...

  3. 微博,and java 多线程编程 入门到精通 将cpu 的那个 张振华

    http://down.51cto.com/data/2263476  java 多线程编程 入门到精通  将cpu 的那个 张振华 多个用户可以同时用一个 vhost,但是vhost之间是隔离的. ...

  4. cg语言学习&&阳春白雪GPU编程入门学习

    虽然所知甚少,但康大的<GPU编程与Cg编程之阳春白雪下里巴人>确实带我入了shader的门,在里面我第一次清晰地知道了“语义”的意思,非常感谢. 入门shader,我觉得可以先读3本书: ...

  5. Python基本语法[二],python入门到精通[四]

    在上一篇博客Python基本语法,python入门到精通[二]已经为大家简单介绍了一下python的基本语法,上一篇博客的基本语法只是一个预览版的,目的是让大家对python的基本语法有个大概的了解. ...

  6. VS2010/MFC编程入门之三十四(菜单:VS2010菜单资源详解)

    上一节讲了标签控件Tab Control以后,常用控件的内容就全部讲完了,当然并没有包括所有控件,主要是一些很常用很重要的控件.本节开始鸡啄米将为大家讲解菜单的概念及使用. 菜单简介 菜单在界面设计中 ...

  7. C语言编程入门之--第四章C语言基本数据类型

      导读:C语言程序中经常涉及一些数学计算,所以要熟悉其基本的数据类型.数据类型学习起来比较枯燥,不过结合之前的内存概念,以及本节的字节概念,相信数据类型也就不难理解了.本章从二进制的基本概念开始,然 ...

  8. MyBatis从入门到精通(四):MyBatis XML方式的基本用法之增删改

    最近在读刘增辉老师所著的<MyBatis从入门到精通>一书,很有收获,于是将自己学习的过程以博客形式输出,如有错误,欢迎指正,如帮助到你,不胜荣幸! 1. insert用法 1.1 简单的 ...

  9. iOS开发-UI 从入门到精通(四)

    一.UITextField 1.UITextField是什么? (1)UITextField(输入框):是控制文本输入和显示的控件.在App中UITextField出现频率也比较高: (2)iOS系统 ...

随机推荐

  1. Fully Digital Implemented Delta-Sigma Analog to Digital Converter

    http://www.design-reuse.com/articles/14886/fully-digital-implemented-delta-sigma-analog-to-digital-c ...

  2. Apache服务器和tomcat服务器有什么区别?

    Apache与Tomcat都是Apache开源组织开发的用于处理HTTP服务的项目,两者都是免费的,都可以做为独立的 Web服务器运行.Apache是Web服务器而Tomcat是Java应用服务器. ...

  3. ORACLE的VARCHAR2是字节还是字符

    往Oracle一个表的VACHAR2(20)字段中插入七个汉字,提示错误:插入的值太大. 改成插入六个汉字,又可以. 于是百度,原来这与ORACLE的字符集设置有关.(以前的项目都是设置成的ZHS16 ...

  4. 2014 百度之星 题解 1004 Labyrinth

    Problem Description 度度熊是一仅仅喜欢探险的熊,一次偶然落进了一个m*n矩阵的迷宫,该迷宫仅仅能从矩阵左上角第一个方格開始走,仅仅有走到右上角的第一个格子才算走出迷宫,每一次仅仅能 ...

  5. 怎样解决MySQL数据库主从复制延迟的问题

    像Facebook.开心001.人人网.优酷.豆瓣.淘宝等高流量.高并发的网站,单点数据库很难支撑得住,WEB2.0类型的网站中使用MySQL的居多,要么用MySQL自带的MySQL NDB Clus ...

  6. poj 3264 Balanced Lineup 题解

    Balanced Lineup Time Limit: 5000MS   Memory Limit: 65536KB   64bit IO Format: %I64d & %I64u Subm ...

  7. sql数据库出现可疑

    USE master GO SP_CONFIGURE 'allow updates',1 RECONFIGURE WITH OVERRIDE GO UPDATE SYSDATABASES SET ST ...

  8. Web开发者需养成的8个好习惯

    优秀的Web开发人员工作效率更高,因为他们拥有丰富的经验和良好的习惯.作者Gregor Dorfbauer分享了用于Web开发中的8个好习惯,这些良好的工作习惯不仅能提高效率,还能让您创建更加优秀的应 ...

  9. PHP登入网站抓取并且抓取数据

    有时候需要登入网站,然后去抓取一些有用的信息,人工做的话,太累了.有的人可以很快的做到登入,但是需要在登入后再去访问其他页面始终都访问不了,因为他们没有带Cookie进去而被当做是两次会话.下面看看代 ...

  10. 【Python】Django CSRF问题

    参考资料: Django Ajax CSRF 认证:http://www.ziqiangxuetang.com/django/django-csrf.html Python Post遇到csrftok ...