未经允许请不要转载,原作者:zhxfl,http://www.cnblogs.com/zhxfl/p/5287644.html

目录:

一、简介

二、环境配置

三、运行demo

四、硬件配置建议

五、其他

一、简介

深度学习多机多卡集群已经成为主流,相对于caffe和mxnet这两个比较活跃的开源,purine显得更值得在高校的学生细读,因为purine的代码显得更加短小精悍,作者的C++功力也相当浑厚,其采用的思想也是非常有价值和启发性的。但是purine已经停止维护,所以其实并不适合企业用户,但是依然有很大的学术价值,特别适合高校研究软件体系结构,深度学习,甚至机器学习GPU集群性能优化等方向的学生阅读。

二、环境配置

2.1、支持C++11

由于purine使用了C++11的标准,所以在ubuntu执行安装gcc-4.8和g++-4.8的命令,此外,为了避免多个版本冲突的问题,可以把其他版本的都卸载掉,免得要去管理和切换编译器的版本。这里我选的是gcc-4.8

  1. sudo apt-get --yes --force-yes remove gcc-4.6 g++-4.6 gcc-4.7 g++-4.7 gcc-4.9 g++-4.9
  2. sudo apt-get update
  3. sudo apt-get --yes --force-yes install gcc-4.8 g++-4.8
  4. sudo apt-get --yes --force-yes install gfortran

2.2、安装CUDA和CUDNN

这里我使用的是CUDA-7.0版本,目前知道的是支持的版本有(6.5,7.0,7.5)。需要注意的是,如果安装了其他版本的CUDA,需要先卸载原来版本的CUDA才能安装新的,避免冲突。
卸载CUDA的方法如下:

  1. sudo perl /usr/local/cuda/bin/uninstall_cuda_7..pl

卸载完原来版本的CUDA之后,需要卸载ubuntu自带的驱动,因为CUDA的安装包中已经自带了相应的驱动。

  1. sudo apt-get --yes --force-yes remove nvidia*

由于桌面会占用驱动导致CUDA无法安装显卡驱动,所以在安装CUDA之前,需要先关闭桌面,再执行CUDA的安装包,cuda的安装包可以从官方网站下载:https://developer.nvidia.com/cuda-downloads

  1. sudo /etc/init.d/lightdm stop
  2. sudo sh ./cuda_7..18_linux.run

接下来需要配置cudnn,cudnn是NVIDIA官方维护的深度学习加速库,在某种程度上将,这个库的性能是最快的,所以purine也借用了cudnn来优化性能。cudnn下载前要先注册和申请,稍微比较麻烦一点,地址如下:https://developer.nvidia.com/cudnn,我使用的是cudnn7.0的版本,直接解压然后把对应的文件拷贝到cuda的安装目录即可。

  1. sudo tar -xvf ./cudnn-7.0-linux-x64-v3.-prod.tgz
  2. sudo mv ./cuda/include/* /usr/local/cuda/include/
  3. sudo mv ./cuda/lib64/* /usr/local/cuda/lib64/
  4. sudo rm -rf cuda/

2.3、安装libuv

libuv是一个异步编程的C++库,通过libuv可以很容易实现“事件”,“线程同步”,“线程等待”,“线程池”等逻辑。libuv是个开源库,可以现在源码下来编译:https://github.com/libuv/libuv,我使用的是1.x的版本。

先安装libuv依赖库:

  1. sudo apt-get --yes --force-yes install aptitude
  2. sudo apt-get --yes --force-yes install libtool automake autoconf autogen

解压下载的安装包进行编译和安装:

  1. echo "Install libuv"
  2. rm -rf ./libuv-.x.zi
  3. sudo unzip libuv-.x.zip
  4. cd ./libuv-.x/
  5. sudo sh autogen.sh
  6. sudo ./configure/
  7. sudo make -j4
  8. sudo make install
  9. cd ../
  10. rm -rf ./libuv-.x/

2.4、CMake安装

CMake是一个跨平台组织编译依赖的工具,可以下载源码进行安装编译,建议使用3.3.2或者以上的版本,一方面是因为我验证过了,第二方面是因为CMAKE对CUDA的支持较晚,建议不要使用3.3.2以下的版本,避免做无用功,CMAKE下载地址https://cmake.org/

  1. echo "cmake install"
  2. rm -rf ./cmake-3.3.
  3. sudo tar -xvf ./cmake-3.3..tar.gz
  4. cd ./cmake-3.3./
  5. ./configure
  6. make -j
  7. sudo make install
  8. cd ../
  9. rm -rf ./cmake-3.3.

2.5、安装opencv

opencv是一个图像处理的库,caffe和purine依赖于这个库,建议选择3.0以上的版本,http://opencv.org/downloads.html,这里我使用的是3.0版本,并且使用源码进行编译,此外,建议关闭WITH_CUDA 和 WITH_IPP,因为这两个实际上在purine的项目里面用不上,命令如下:

  1. echo "Install opencv"
  2. sudo apt-get remove libopencv-dev
  3. rm -rf opencv-3.0./
  4. sudo unzip ./opencv-3.0..zip
  5. cd ./opencv-3.0./
  6. cmake -D WITH_CUDA=OFF -D WITH_IPP=OFF .
  7. make -j
  8. sudo make install
  9. cd ../
  10. rm -rf opencv-3.0./

2.6、安装MPI

MPI是一套并行编程的接口,其主要是依赖于SPMD(单个程序,多个数据流,具体到集群就是每个节点所处理的逻辑都是一样的,但是数据流不一样)思想进行编程设计的,由于purine只支持mpich,所以我使用的版本是mpich-3.2b4,地址如下:https://www.mpich.org/2015/07/25/mpich-3-2b4-released/

  1. echo "Install mpich"
  2. rm -rf ./mpich-.2b4/
  3. tar -xvf ./mpich-.2b4.tar.gz
  4. cd ./mpich-.2b4/
  5. ./configure
  6. make -j
  7. sudo make install
  8. cd ../
  9. rm -rf ./mpich-.2b4/

2.7、其他依赖:

  1. #sudo apt-get --yes --force-yes install libprotobuf-dev libleveldb-dev libsnappy-dev libboost-all-dev libhdf5-serial-dev libgflags-dev libgoogle-glog-dev liblmdb-dev protobuf-compiler
  2. sudo apt-get --yes --force-yes install libprotobuf-dev libgflags-dev libgoogle-glog-dev liblmdb-dev protobuf-compiler libboost-dev
  3. sudo apt-get --yes --force-yes install libatlas-base-dev libatlas3gf-base
  4. sudo apt-get install libatlas-base-dev libatlas3gf-base

三、运行demo

3.1 编译

先从git上把代码拉下来,原作者的官网在https://github.com/purine/purine2,但是原来git上的工程不能编译通过,其发布的CMakeList.txt有一些bug导致无法编译。也可以使用我fork的分支https://github.com/zhxfl/purine2,我的分支将cmakelist.txt做了修改保证其能正常编译。我后续还在上面做了不少改进的尝试,不过都是增量维护的,并没有曲解作者的初衷,所以可以放心使用我的分支代码。

  1. git clone https://github.com/zhxfl/purine2

代码下载下来之后,使用下面命令进行编译,如果这里"cmake ."命令没有顺利通过,可以联系我"zhxfl##mail.ustc.edu.cn",将“##”替换为@,可能是我前面描述少了导致某些依赖出了问题。

  1. cd purine2/
  2. cmake .
  3. make -j2

3.2 demo数据库制作

这里选用cifar-10数据集,运行

  1. ~/tmp/purine2/data/cifar-/get_cifar10.sh

到purine根目录下执行cifar10_data生成数据库,代码如下,这里强调一下,因为代码利用的是相对目录,所以必须在purine2/目录下执行,执行完毕之后会在purine2/data/cifar-10目录下会生成两个数据库文件cifar-10-train-lmdb和cifar-10-test-lmdb两个目录。

  1. ./test/cifar10_data

3.3 单机多卡

运行demo之前,需要先配置两个文件,parallel_config文件中加入

  1. 64
    0 1 64

这三个参数分别表示(机器编号,显卡标号,迭代对应的batch_size)

接下来要配置一下HOSTFILE文件,填入本机的IP地址,一个地址一行,接下来使用如下命令启动purine运行,该命令表示启动两个进程,

  1. mpirun -n -hostfile HOSTFILE ./test/nin_cifar10

3.4 多机多卡

1、在进行多机多卡之前,在不同机器之间配置一下ssh无密码认证

2、确认不同机器之间已经可以无密码认证之后,先配置一下每台机器上的hosts文件,给每个机器取一个名字,比如我们有两个节点,分别为A,B,其中A上面有两块显卡。那么parallel_config文件配置如下:

  1.  

HOSTFILE

  1. A
  2. B

将这两个配置文件拷贝到不同机器的purine目录下,这里要保证每台机器都有purine目录,并且其可执行文件都是一样的,此外,由于我们没有分布式文件系统,所以必须保证每台机器上都有数据。

接下来执行如下命令:

  1. mpirun -n -hostfile HOSTFILE ./test/nin_cifar10

此外,所有log都保存在系统/tmp/目录下

四、硬件配置建议

如果是用于学术研究而不是商业化,推荐一个经济实惠的硬件方案:

1、显卡:titianx显卡2个,gtx98ti也可以,

2、主板可以选可以插几块显卡的,一般也就几千块钱,如“技嘉LGA2011-3 GA-X99”

机箱和电源什么让供应商配就行了,整个解决方案可以控制在2,3w之间。

五、其他

如果你不是研究集群性能的,只是有做做实验,甚至希望在windows上进行开发和研究,

可以考虑我们实验室的其他开源CUDA-CNNCUDA-MCDNN,我们大部分修改算法的尝试都是在这两个项目上进行的。

如果有其他问题,可以联系我:zhxfl##mail.ustc.edu.cn

深度学习多机多卡解决方案-purine的更多相关文章

  1. 【PyTorch深度学习】学习笔记之PyTorch与深度学习

    第1章 PyTorch与深度学习 深度学习的应用 接近人类水平的图像分类 接近人类水平的语音识别 机器翻译 自动驾驶汽车 Siri.Google语音和Alexa在最近几年更加准确 日本农民的黄瓜智能分 ...

  2. 深度学习论文TOP10,2019一季度研究进展大盘点

    9012年已经悄悄过去了1/3. 过去的100多天里,在深度学习领域,每天都有大量的新论文产生.所以深度学习研究在2019年开了怎样一个头呢? Open Data Science对第一季度的深度学习研 ...

  3. 深度学习读书笔记之RBM(限制波尔兹曼机)

    深度学习读书笔记之RBM 声明: 1)看到其他博客如@zouxy09都有个声明,老衲也抄袭一下这个东西 2)该博文是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的 ...

  4. 5700刀打造3卡1080Ti深度学习机器【转】

    本文转载自:https://www.jianshu.com/p/ca2e003bf77e   5700美刀,打造3x1080Ti实验室GPU深度学习机器 最近为公司搭建了一台实验用的深度学习主机,在网 ...

  5. Hadoop 2.0 上深度学习的解决方案

    原文连接:https://www.paypal-engineering.com/tag/data-science/ 摘要:伴随着数据的爆炸性增长和成千上万的机器集群,我们需要使算法可以适应在如此分布的 ...

  6. 机器学习(Machine Learning)&深度学习(Deep Learning)资料【转】

    转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...

  7. 机器学习(Machine Learning)与深度学习(Deep Learning)资料汇总

    <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...

  8. MXNet设计笔记之:深度学习的编程模式比较

    市面上流行着各式各样的深度学习库,它们风格各异.那么这些函数库的风格在系统优化和用户体验方面又有哪些优势和缺陷呢?本文旨在于比较它们在编程模式方面的差异,讨论这些模式的基本优劣势,以及我们从中可以学到 ...

  9. 让AI简单且强大:深度学习引擎OneFlow技术实践

    本文内容节选自由msup主办的第七届TOP100summit,北京一流科技有限公司首席科学家袁进辉(老师木)分享的<让AI简单且强大:深度学习引擎OneFlow背后的技术实践>实录. 北京 ...

随机推荐

  1. EasyUI datagrid 分页Json字符串格式

    //EasyUI datagrid 分页Json字符串格式 //{"total":xx,"rows":[{...},{...}]} total:总数 rows: ...

  2. [Firefly引擎][学习笔记三][已完结]所需模块封装

    原地址:http://www.9miao.com/question-15-54671.html 学习笔记一传送门学习笔记二传送门 学习笔记三导读:        笔记三主要就是各个模块的封装了,这里贴 ...

  3. linux 深入检测io详情的工具iopp

    1.为什么推荐iopp iotop对内核及python版本都有一定要求,有时候无法用上,这时候就可以使用iopp作为替代方案.在有些情况下可能无法顺利使用iotop,这时候就可以选择iopp了.它的作 ...

  4. MYSQL 优化建议

    转自 http://coolshell.cn/articles/1846.html MYSQL 优化建议20条 1. 为查询缓存优化你的查询 大多数的MySQL服务器都开启了查询缓存.这是提高性最有效 ...

  5. RabbitMQ消息队列(一): Detailed Introduction 详细介绍(转)

    1. 历史 RabbitMQ是一个由erlang开发的AMQP(Advanced Message Queue )的开源实现.AMQP 的出现其实也是应了广大人民群众的需求,虽然在同步消息通讯的世界里有 ...

  6. 锋利的JQuery-Jquery选择器

    1.css选择器 标签选择器:a{...} id选择器:#note{...} 类选择器:div.note{..}..dream{...} 群组选择器:td,p,div,a{...} 后代选择器: #l ...

  7. JS判断是否出现滚动条

    http://www.cnblogs.com/yazdao/archive/2010/12/06/1897742.html 该博文是想用JS检测浏览器是否出滚动条. 这边想到一个比较取巧的方法, 假如 ...

  8. [转] android自动化测试之MonkeyRunner使用实例(三)

    一.使用CMD命令打开模拟器 运行monkeyrunner之前必须先运行相应的模拟器或连上设备,不然monkeyrunner无法连接设备. 1.1  用Elipse打开Android模拟器或在CMD中 ...

  9. Android开发之少去踩坑,多走捷径【转】

    作者:gzjay,腾讯MIG无线产品部 高级工程师 最近一朋友提了几个Android问题让我帮忙写个小分享,我觉得对新人还是挺有帮助的,所以有了这个小分享. 1.目前, Android APP开发完成 ...

  10. 1650. Billionaires(线段树)

    1650 简单题 线段树的单点更新 就是字符串神马的 有点小繁琐 开两个map 一个存城市 一个存名字 #include <iostream> #include<cstdio> ...