深度学习60分钟入门

来源于这里

本文目标:

  • 在高层次上理解PyTorch的Tensor库和神经网络
  • 训练一个小型的图形分类神经网络

本文示例运行在ipython中。

什么是PyTorch

PyTorch是由Torch7团队开发的,从名字就可以看出,它跟Torch的不同之处在于PyTorch使用了Python作为开发语言。所谓“Python first”,同样说明它是一个以Python优先的深度学习框架,不仅能够实现强大的GPU加速,同时还支持动态神经网络。

PyTorch既可以看做加入了GPU支持的numpy,同时也可以看成一个拥有自动求导功能的强大的深度神经网络。

入门

Tensor(向量)

Tensor与NumPy的ndarras类似,此外Tensor还可用于GPU加速运算。

from __future__ import print_function
import torch

创建一个为初始化的5x3的矩阵:

x = torch.empty(5,3)
print(x)

输出:

tensor([[0.0000e+00, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, -0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00],
[1.4013e-45, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00]])

创建一个随机初始化的矩阵:

x = torch.rand(5,3)
print(x)

输出:

tensor([[0.1633, 0.3415, 0.6341],
[0.9496, 0.6820, 0.7831],
[0.2327, 0.0311, 0.6763],
[0.5513, 0.6381, 0.1251],
[0.4553, 0.0795, 0.5904]])

创建一个由0填充,数据类型为long的矩阵:

x = torch.zeros(5,3,dtype=torch.long)
print(x)

输出:

tensor([[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0]])

由给定的数据直接创建一个Tensor:

x = torch.tensor([5.5,3])
print(x)

输出:

tensor([5.5000, 3.0000])

根据已存在的Tensor创建一个新的Tensor。除非用户提供新值,否则输入的Tensor的属性将被复用:

x = x.new_ones(5,3,dtype=torch.double)
print(x) x = torch.randn_like(x,dtype=torch.float)
print(x)

输出:

tensor([[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.]], dtype=torch.float64)
tensor([[-1.2001, -0.3921, 1.1179],
[-1.5787, 0.4377, -0.2543],
[-0.2502, -0.4977, 1.1637],
[ 0.4006, 1.3536, 0.6846],
[-0.1242, 0.5019, -0.9795]])

获取大小:

print(x.size())

输出:

torch.Szie([5,3])

troch.Size实际是一个元组,所以支持元组的所有操作。

Operations(操作)

数学运算有多种语法。在下面的例子中,我们已加法运算为例。

加法:语法 1

y = torch.rand(5,3)
print('y = ',y)
print('x + y = ',x+y)

输出:

y =  tensor([[0.2520, 0.5938, 0.5229],
[0.1242, 0.9339, 0.4859],
[0.3769, 0.4005, 0.2906],
[0.4649, 0.2526, 0.7136],
[0.0941, 0.9550, 0.4462]])
x+y = tensor([[-0.9482, 0.2017, 1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

加法:语法 2

print('x+y = ',torch.add(x,y))

输出:

x+y =  tensor([[-0.9482,  0.2017,  1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

加法:提供一个输出的Tensor作为参数:

result = torch.empty(5,3)
torch.add(x,y,out=result)
print(result)

输出:

tensor([[-0.9482,  0.2017,  1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

加法:替代

y.add_(x)
print(y)

输出:

tensor([[-0.9482,  0.2017,  1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

任何替换原Tensor的操作都是以“_”为后缀的。例如 x.copy_(y),x.t_(),都会改变x

你可以使用标准的NumPy索引来获取元素:

print(x)
print(x[:,1])

输出:

tensor([[-1.2001, -0.3921,  1.1179],
[-1.5787, 0.4377, -0.2543],
[-0.2502, -0.4977, 1.1637],
[ 0.4006, 1.3536, 0.6846],
[-0.1242, 0.5019, -0.9795]])
tensor([-0.3921, 0.4377, -0.4977, 1.3536, 0.5019])

重置大小:如果你想改变Tensor的大小或者形状,你可以使用torch.view

x = torch.rand(4,4)
y = x.view(16)
z = x.view(-1,8) # -1为占位符,其大小是从其它维度推断出来的
print(x.size(),y.size(),z.size())
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])

如果你的Tensor只有一个元素,那么可以使用.item()获取到Python数字类型的值:

x = torch.randn(1)
print(x)
print(x.item())

输出:

tensor([0.6787])
0.678749144077301

进阶阅读:

100+向量操作,包括转置、索引、切片、数学运算、线性代数、随机数等,详见这里

NumPy Bridge

将一个Torch Tensor转换成NumPy array是非常简单的,反之亦然。转换后的Torch Tensor和NumPy array共享底层的内存地址(如果Torch Tensor在CPU上),即修改一个,另一个也会改变。

将torch tensor转NumPy array
a = torch.ones(5)
print(a)

输出:

tensor([1., 1., 1., 1., 1.])
b = a.numpy()
print(b)

输出:

[1. 1. 1. 1. 1.]

tensor值改变,numpy array的值也改变:

a.add_(1)
print(a)
print(b)

输出:

tensor([2., 2., 2., 2., 2.])
[2. 2. 2. 2. 2.]
将NumPy array 转Torch tensor

接下来展示如何将NumPy array转换为 Torch tensor

import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a,1,out=a)
print(a)
print(b)

输出:

[2. 2. 2. 2. 2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

除了CharTensor外,所有CPU上的Tensor都支持转成NumPy array并返回。

CUDA Tensors

Tensors可以使用.to方法移动到任何设备上。

# let us run this cell only if CUDA is available
# We will use ``torch.device`` objects to move tensors in and out of GPU
if torch.cuda.is_available():
device = torch.device("cuda") # a CUDA device object
y = torch.ones_like(x, device=device) # directly create a tensor on GPU
x = x.to(device) # or just use strings ``.to("cuda")``
z = x + y
print(z)
print(z.to("cpu", torch.double)) # ``.to`` can also change dtype together!

输出:

tensor([2.0897], device='cuda:0')
tensor([2.0897], dtype=torch.float64)

[PyTorch入门之60分钟入门闪击战]之入门的更多相关文章

  1. [PyTorch入门之60分钟入门闪击战]之训练分类器

    训练分类器 目前为止,你已经知道如何定义神经网络.计算损失和更新网络的权重.现在你可能在想,那数据呢? What about data? 通常,当你需要处理图像.文本.音频或者视频数据时,你可以使用标 ...

  2. [PyTorch入门之60分钟入门闪击战]之神经网络

    神经网络 来源于这里. 神经网络可以使用torch.nn包构建. 现在你对autograd已经有了初步的了解,nn依赖于autograd定义模型并区分它们.一个nn.Module包含了层(layers ...

  3. [PyTorch入门之60分钟入门闪击战]之自动推倒

    AUTOGRAD: AUTOMATIC DIFFERENTIATION(自动分化) 来源于这里. autograd包是PyTorch中所有神经网络的核心.首先我们先简单地了解下它,然后我们将训练我们的 ...

  4. 【PyTorch深度学习60分钟快速入门 】Part4:训练一个分类器

      太棒啦!到目前为止,你已经了解了如何定义神经网络.计算损失,以及更新网络权重.不过,现在你可能会思考以下几个方面: 0x01 数据集 通常,当你需要处理图像.文本.音频或视频数据时,你可以使用标准 ...

  5. 【PyTorch深度学习60分钟快速入门 】Part0:系列介绍

      说明:本系列教程翻译自PyTorch官方教程<Deep Learning with PyTorch: A 60 Minute Blitz>,基于PyTorch 0.3.0.post4 ...

  6. 【PyTorch深度学习60分钟快速入门 】Part5:数据并行化

      在本节中,我们将学习如何利用DataParallel使用多个GPU. 在PyTorch中使用多个GPU非常容易,你可以使用下面代码将模型放在GPU上: model.gpu() 然后,你可以将所有张 ...

  7. 【PyTorch深度学习60分钟快速入门 】Part2:Autograd自动化微分

      在PyTorch中,集中于所有神经网络的是autograd包.首先,我们简要地看一下此工具包,然后我们将训练第一个神经网络. autograd包为张量的所有操作提供了自动微分.它是一个运行式定义的 ...

  8. 【PyTorch深度学习60分钟快速入门 】Part1:PyTorch是什么?

      0x00 PyTorch是什么? PyTorch是一个基于Python的科学计算工具包,它主要面向两种场景: 用于替代NumPy,可以使用GPU的计算力 一种深度学习研究平台,可以提供最大的灵活性 ...

  9. 【PyTorch深度学习60分钟快速入门 】Part3:神经网络

      神经网络可以通过使用torch.nn包来构建. 既然你已经了解了autograd,而nn依赖于autograd来定义模型并对其求微分.一个nn.Module包含多个网络层,以及一个返回输出的方法f ...

随机推荐

  1. 计量经济与时间序列_ACF自相关与PACF偏自相关算法解析(Python,TB(交易开拓者))

    1   在时间序列中ACF图和PACF图是非常重要的两个概念,如果运用时间序列做建模.交易或者预测的话.这两个概念是必须的. 2   ACF和PACF分别为:自相关函数(系数)和偏自相关函数(系数). ...

  2. goweb-goweb基础

    goweb DNS工作原理 在浏览器中输入www.qq.com域名,操作系统会先检查自己本地的hosts文件是否有这个网址映射关系,如果有,就先调用这个IP地址映射,完成域名解析. 如果hosts里没 ...

  3. Centos7.6环境中安装zabbix3.4

    官网链接:https://www.zabbix.com/documentation/3.4/zh/manual/installation/install_from_packages 部署环境 虚拟机服 ...

  4. LFW Face Database下载

    http://vis-www.cs.umass.edu/lfw/ Download the database: All images as gzipped tar file (173MB, md5su ...

  5. Django框架篇

    Django框架 1.HTTP超文本传输协议 8中请求方法 GET , POST ,HEAD ,PUT ,DELETE , TRACE ,OPTIONS ,CONNCT 状态码 1xx ;服务器收到请 ...

  6. Codeforces1304D Shortest and Longest LIS

    前置扯淡 %%@\(wucstido\),思路是在是巧妙---link Description 给一个长度为\(n\)由 \(<\) 和 \(>\)组成的字符串,表示序列中相邻位置的数的大 ...

  7. iso镜像文件的挂载和yum库的搭建

    挂载镜像文件 1.上传镜像文件到服务器(或电脑)的某一目录下   如:(/media/rpm_pack/rhel...iso) 2.root 用户下创建镜像文件挂载目录 mkdir  /mnt/vcd ...

  8. SQLServer 安装提示需要重启计算机的解决方案

    处理方法:在开始-程序-运行中(或者直接windows+R件同时),输入regedit回车,在注册表中找到HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Con ...

  9. 吴裕雄--天生自然C语言开发:位域

    struct { unsigned int widthValidated; unsigned int heightValidated; } status; struct { unsigned ; un ...

  10. EF 执行存储过程