GPU计算

默认情况下,pytorch将数据保存在内存,而不是显存.

查看显卡信息

  1. nvidia-smi

我的机器输出如下:

  1. Fri Jan 3 16:20:51 2020
  2. +-----------------------------------------------------------------------------+
  3. | NVIDIA-SMI 418.67 Driver Version: 418.67 CUDA Version: 10.1 |
  4. |-------------------------------+----------------------+----------------------+
  5. | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
  6. | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
  7. |===============================+======================+======================|
  8. | 0 GeForce GTX 105... Off | 00000000:01:00.0 Off | N/A |
  9. | N/A 42C P0 N/A / N/A | 1670MiB / 4042MiB | 0% Default |
  10. +-------------------------------+----------------------+----------------------+
  11. +-----------------------------------------------------------------------------+
  12. | Processes: GPU Memory |
  13. | GPU PID Type Process name Usage |
  14. |=============================================================================|
  15. | 0 1572 G /usr/lib/xorg/Xorg 601MiB |
  16. | 0 4508 G compiz 231MiB |
  17. | 0 4935 G ...equest-channel-token=592189694510481540 486MiB |
  18. | 0 5574 G ...quest-channel-token=4527142888685015556 328MiB |
  19. | 0 10049 G ...passed-by-fd --v8-snapshot-passed-by-fd 21MiB |
  20. +-----------------------------------------------------------------------------+

单卡,gtx 1050,4g显存.

查看gpu是否可用

  1. torch.cuda.is_available()

查看gpu数量

  1. torch.cuda.device_count()

查看当前gpu号

  1. torch.cuda.current_device()

查看设备名

  1. torch.cuda.get_device_name(device_id)

把tensor复制到显存

使用.cuda()可以将CPU上的Tensor转换(复制)到GPU上。如果有多块GPU,我们用.cuda(i)来表示第 \(i\) 块GPU及相应的显存(\(i\)从0开始)且cuda(0)cuda()等价。

  1. x=x.cuda()

直接在显存上存储数据

  1. device = torch.device('cuda')
  2. x = torch.tensor([1, 2, 3], device=device)
  3. 或者
  4. x = torch.tensor([1,2,3]).to(device)

如果对在GPU上的数据进行运算,那么结果还是存放在GPU上。

  1. y = x**2
  2. y

输出:

  1. tensor([1, 4, 9], device='cuda:0')

需要注意的是,存储在不同位置中的数据是不可以直接进行计算的。即存放在CPU上的数据不可以直接与存放在GPU上的数据进行运算,位于不同GPU上的数据也是不能直接进行计算的。

  1. z = y + x.cpu()

会报错:

  1. z=y+x.cpu()
  2. RuntimeError: expected device cuda:0 and dtype Long but got device cpu and dtype Long

完整代码

  1. import torch
  2. from torch import nn
  3. is_gpu = torch.cuda.is_available()
  4. gpu_nums = torch.cuda.device_count()
  5. gpu_index = torch.cuda.current_device()
  6. print(is_gpu,gpu_nums,gpu_index)
  7. device_name = torch.cuda.get_device_name(gpu_index)
  8. print(device_name)
  9. x=torch.Tensor([1,2,3])
  10. print(x)
  11. x=x.cuda(gpu_index)
  12. print(x)
  13. print(x.device)
  14. device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
  15. x = torch.tensor([1, 2, 3], device=device)
  16. x = torch.tensor([1,2,3]).to(device)
  17. print(x)
  18. y=x**2
  19. print(y)
  20. #z=y+x.cpu()

模型的gpu计算

Tensor类似,PyTorch模型也可以通过.cuda转换到GPU上。我们可以通过检查模型的参数的device属性来查看存放模型的设备。

检查模型参数存放设备:

  1. net = nn.Linear(3,1)
  2. print(type(net.parameters()))
  3. print(list(net.parameters())[0].device)

输出

  1. <class 'generator'>
  2. cpu

在gpu上做运算.通过.cuda()将模型计算放到gpu.相应的,传给模型的输入也必须是gpu显存上的数据.

  1. net = nn.Linear(3,1)
  2. print(type(net.parameters()))
  3. print(list(net.parameters())[0].device)
  4. net=net.cuda()
  5. x=torch.tensor([1,2,3]).cuda()
  6. net(x)

总结:

  • PyTorch可以指定用来存储和计算的设备,如使用内存的CPU或者使用显存的GPU。在默认情况下,PyTorch会将数据创建在内存,然后利用CPU来计算。
  • PyTorch要求计算的所有输入数据都在内存或同一块显卡的显存上。

从头学pytorch(十三):使用GPU做计算的更多相关文章

  1. 从头学pytorch(一):数据操作

    跟着Dive-into-DL-PyTorch.pdf从头开始学pytorch,夯实基础. Tensor创建 创建未初始化的tensor import torch x = torch.empty(5,3 ...

  2. 从头学pytorch(十五):AlexNet

    AlexNet AlexNet是2012年提出的一个模型,并且赢得了ImageNet图像识别挑战赛的冠军.首次证明了由计算机自动学习到的特征可以超越手工设计的特征,对计算机视觉的研究有着极其重要的意义 ...

  3. 从头学pytorch(三) 线性回归

    关于什么是线性回归,不多做介绍了.可以参考我以前的博客https://www.cnblogs.com/sdu20112013/p/10186516.html 实现线性回归 分为以下几个部分: 生成数据 ...

  4. 从头学pytorch(二) 自动求梯度

    PyTorch提供的autograd包能够根据输⼊和前向传播过程⾃动构建计算图,并执⾏反向传播. Tensor Tensor的几个重要属性或方法 .requires_grad 设为true的话,ten ...

  5. 从头学pytorch(六):权重衰减

    深度学习中常常会存在过拟合现象,比如当训练数据过少时,训练得到的模型很可能在训练集上表现非常好,但是在测试集上表现不好. 应对过拟合,可以通过数据增强,增大训练集数量.我们这里先不介绍数据增强,先从模 ...

  6. 从头学pytorch(十二):模型保存和加载

    模型读取和存储 总结下来,就是几个函数 torch.load()/torch.save() 通过python的pickle完成序列化与反序列化.完成内存<-->磁盘转换. Module.s ...

  7. 从头学pytorch(十四):lenet

    卷积神经网络 在之前的文章里,对28 X 28的图像,我们是通过把它展开为长度为784的一维向量,然后送进全连接层,训练出一个分类模型.这样做主要有两个问题 图像在同一列邻近的像素在这个向量中可能相距 ...

  8. 从头学pytorch(十九):批量归一化batch normalization

    批量归一化 论文地址:https://arxiv.org/abs/1502.03167 批量归一化基本上是现在模型的标配了. 说实在的,到今天我也没搞明白batch normalize能够使得模型训练 ...

  9. 从头学pytorch(二十):残差网络resnet

    残差网络ResNet resnet是何凯明大神在2015年提出的.并且获得了当年的ImageNet比赛的冠军. 残差网络具有里程碑的意义,为以后的网络设计提出了一个新的思路. googlenet的思路 ...

随机推荐

  1. 【NLP面试QA】激活函数与损失函数

    目录 Sigmoid 函数的优缺点是什么 ReLU的优缺点 什么是交叉熵 为什么分类问题的损失函数为交叉熵而不能是 MSE? 多分类问题中,使用 sigmoid 和 softmax 作为最后一层激活函 ...

  2. coding++:SpringBoot-事务注解详解

    @Transactional spring 事务注解 1.简单开启事务管理 @EnableTransactionManagement // 启注解事务管理,等同于xml配置方式的 <tx:ann ...

  3. SpringBoot 集成多数据源

    一个项目中怎么划分数据库,可以通过具体业务需求. 项目中数据源怎么如何划分,通过注解的方式@Datasource(ref="") 在方法上指定,会连接指定的数据源,这种方式比较繁琐 ...

  4. IOS 常用的宏定义(#define)

    开发中经常用到的常量定义(随时更行): 与UIView相关 //获取View的frame属性 #define GetViewWidth(view) view.frame.size.width #def ...

  5. 面试都在问的微服务、服务治理、RPC、下一代微服务框架... 一文带你彻底搞懂!

    文章每周持续更新,「三连」让更多人看到是对我最大的肯定.可以微信搜索公众号「 后端技术学堂 」第一时间阅读(一般比博客早更新一到两篇) 单体式应用程序 与微服务相对的另一个概念是传统的单体式应用程序( ...

  6. WiX 简介

    最近研究了一下WIX打包,简单总结一下,方便自己以后查阅,也希望能给需要的人一些提示和帮助. WiX 简介 Windows Installer XML (WiX ) 平台是一组工具与规范,使您能够创建 ...

  7. CDN加速小水管动态应用技巧

    不得不说现在大陆和HK的云主机都是小水管模式,由于硬件的快速发展在这种小水管的情况下很难发挥出用户硬件资源的能力,当然可以加水管但费用很高,更多时候会浪费带宽:这个时候我们想到CDN加速,这种资源的好 ...

  8. iOS - scrollView与headerView的视差滚动实现思路

    假设场景:viewController里面有一个scrollView,该scrollView有一个headerView.现在需要将scrollView的滚动contentOffset与headerVi ...

  9. 简单记录下RestTemplate 中postForObject调用例子

    学无止境! 今天无意中做了下RestTemplate调用demo,简单的尝试了下一个项目调用另一个项目接口示例 在A项目中创建可访问controller 然后在B项目中进行调用 调用成功

  10. PTA数据结构与算法题目集(中文) 7-41PAT排名汇总 (25 分)

    PTA数据结构与算法题目集(中文)  7-41PAT排名汇总 (25 分) 7-41 PAT排名汇总 (25 分)   计算机程序设计能力考试(Programming Ability Test,简称P ...