1. 张量

 

1.1. 概述

 

张量(tensor)是pytorch中的一种较为基础的数据结构,类比于numpy中的ndarrays,在pytorch中,张量可以在GPU中进行运算

 

通过以下命令,我们导入pytorch和numpy:

In [1]:
import torch
import numpy as np
 

1.2. 张量初始化

 

1.2.1. 直接生成张量

In [2]:
data = [[1, 2], [3, 4]]
x_data = torch.tensor(data)
In [3]:
x_data
Out[3]:
tensor([[1, 2],
[3, 4]])
 

1.2.2. ndarrays转化

In [4]:
np_array = np.array(data)
x_np = torch.from_numpy(np_array)
In [5]:
x_np
Out[5]:
tensor([[1, 2],
[3, 4]])
 

1.2.3. 通过已有张量生成

 

继承结构与数据类型:

In [6]:
x_ones = torch.ones_like(x_data)
In [7]:
x_ones
Out[7]:
tensor([[1, 1],
[1, 1]])
 

继承结构,改变数据类型:

In [8]:
x_rand = torch.rand_like(x_data, dtype=torch.float)
In [9]:
x_rand
Out[9]:
tensor([[0.9849, 0.3644],
[0.0800, 0.2939]])
 

1.2.4. 指定维数生成张量

 

用元组类型的数据指定维数:

In [10]:
shape = (2, 3)
 

生成张量:

In [11]:
torch.ones(shape)
Out[11]:
tensor([[1., 1., 1.],
[1., 1., 1.]])
In [12]:
torch.zeros(shape)
Out[12]:
tensor([[0., 0., 0.],
[0., 0., 0.]])
In [13]:
torch.rand(shape)
Out[13]:
tensor([[0.1744, 0.3771, 0.7969],
[0.7098, 0.9853, 0.3950]])
 

1.3. 张量属性

 

维数:

In [14]:
x_data.shape
Out[14]:
torch.Size([2, 2])
 

数据类型:

In [15]:
x_data.dtype
Out[15]:
torch.int64
 

存储设备:

In [16]:
x_data.device
Out[16]:
device(type='cpu')
 

1.4. 张量计算

 

GPU对于张量的计算更快,检测GPU是否可用:

In [17]:
torch.cuda.is_available()
Out[17]:
False
 

显然,对于笔者设备来说,由于没有显卡,GPU加速是不可用的,如果设备GPU可用,可以将CPU中的数据导入GPU:

In [18]:
if torch.cuda.is_available():
tensor = x_data.to('cuda')
 

1.4.1. 索引和切片

In [19]:
tensor = torch.ones((3, 4))
In [20]:
tensor
Out[20]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
 

类比于ndarrays,tensor也可理解为是一个多维数组,以下表示将tensor变量的第一行、第一列变为0:

In [21]:
tensor[1, 1] = 0
In [22]:
tensor
Out[22]:
tensor([[1., 1., 1., 1.],
[1., 0., 1., 1.],
[1., 1., 1., 1.]])
 

以下表示将tensor变量的第三列变为0:

In [23]:
tensor[:, 3] = 0
In [24]:
tensor
Out[24]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

1.4.2. 张量的拼接

In [25]:
tensor1 = torch.ones((3, 4))
tensor2 = torch.zeros((3, 4))
 

使用torch.cat()方法,指定维数进行拼接:

In [26]:
torch.cat([tensor1, tensor2], dim=1)
Out[26]:
tensor([[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.]])
In [27]:
torch.cat([tensor1, tensor2], dim=0)
Out[27]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]])
In [28]:
torch.cat([tensor1, tensor2], dim=-1)
Out[28]:
tensor([[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.]])
In [29]:
torch.cat([tensor1, tensor2], dim=-2)
Out[29]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]])
In [30]:
torch.cat([tensor1, tensor2, tensor], dim=-2)
Out[30]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

此处实验 dim = 2 时,有:

In [31]:
torch.cat([tensor1, tensor2], dim=2)
 
---------------------------------------------------------------------------
IndexError Traceback (most recent call last)
<ipython-input-31-dc57fe12e880> in <module>
----> 1 torch.cat([tensor1, tensor2], dim=2) IndexError: Dimension out of range (expected to be in range of [-2, 1], but got 2)
 

根据官网示例,此处dim的取值主要是0和1:

 
x = torch.randn(2, 3)
torch.cat((x, x, x), 0)
torch.cat((x, x, x), 1)
 

综上,dim的取值有 -2、-1、0、1,然而-2、-1与0、1的意思似乎是一样的

 

1.4.3. 张量的乘积与矩阵乘法

 

逐个元素相乘:

In [32]:
tensor.mul(tensor)
Out[32]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

等价于:

In [33]:
tensor * tensor
Out[33]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

张量与张量的矩阵乘法:

In [34]:
tensor.matmul(tensor.T)
Out[34]:
tensor([[3., 2., 3.],
[2., 2., 2.],
[3., 2., 3.]])
 

等价于:

In [35]:
tensor @ tensor.T
Out[35]:
tensor([[3., 2., 3.],
[2., 2., 2.],
[3., 2., 3.]])
 

1.4.4. 自动赋值运算

 

自增运算:

In [36]:
tensor
Out[36]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
In [37]:
tensor.add_(5)
Out[37]:
tensor([[6., 6., 6., 5.],
[6., 5., 6., 5.],
[6., 6., 6., 5.]])
In [38]:
tensor
Out[38]:
tensor([[6., 6., 6., 5.],
[6., 5., 6., 5.],
[6., 6., 6., 5.]])
 

复制运算:

In [39]:
tensor.copy_(tensor1)
Out[39]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
In [40]:
tensor
Out[40]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
 

注意:自动赋值运算可以节省内存,但是会导致一些中间过程的问题

 

1.5. Tensor与Numpy的转换

 

1.5.1. Tensor转换为Numpy

In [41]:
tensor
Out[41]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
In [42]:
np_t = tensor.numpy()
In [43]:
np_t
Out[43]:
array([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]], dtype=float32)
In [44]:
tensor.add_(5)
Out[44]:
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
In [45]:
np_t
Out[45]:
array([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]], dtype=float32)
 

可见:Tensor和Numpy共用内存,一个改变时另一个也改变

 

1.5.2. Numpy转Tensor

In [46]:
np_t
Out[46]:
array([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]], dtype=float32)
In [47]:
tensor
Out[47]:
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
In [48]:
t_np = torch.from_numpy(np_t)
In [49]:
t_np
Out[49]:
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
In [50]:
np.add(np_t, 1, out=np_t)
Out[50]:
array([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]], dtype=float32)
In [51]:
t_np
Out[51]:
tensor([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]])
In [52]:
np.add(np_t, 1)
Out[52]:
array([[8., 8., 8., 8.],
[8., 8., 8., 8.],
[8., 8., 8., 8.]], dtype=float32)
In [53]:
t_np
Out[53]:
tensor([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]])
 

可见:np.add()指定out=时才会重新赋值

 

1.6. 参考资料:

pytorch学习笔记一之张量的更多相关文章

  1. [PyTorch 学习笔记] 1.3 张量操作与线性回归

    本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/linear_regression.py 张量的操作 拼 ...

  2. [PyTorch 学习笔记] 1.2 Tensor(张量)介绍

    本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/tensor_introduce1.py https: ...

  3. Pytorch学习笔记(二)---- 神经网络搭建

    记录如何用Pytorch搭建LeNet-5,大体步骤包括:网络的搭建->前向传播->定义Loss和Optimizer->训练 # -*- coding: utf-8 -*- # Al ...

  4. Pytorch学习笔记(一)---- 基础语法

    书上内容太多太杂,看完容易忘记,特此记录方便日后查看,所有基础语法以代码形式呈现,代码和注释均来源与书本和案例的整理. # -*- coding: utf-8 -*- # All codes and ...

  5. 【pytorch】pytorch学习笔记(一)

    原文地址:https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html 什么是pytorch? pytorch是一个基于p ...

  6. [PyTorch 学习笔记] 1.4 计算图与动态图机制

    本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/computational_graph.py 计算图 深 ...

  7. [PyTorch 学习笔记] 2.2 图片预处理 transforms 模块机制

    PyTorch 的数据增强 我们在安装PyTorch时,还安装了torchvision,这是一个计算机视觉工具包.有 3 个主要的模块: torchvision.transforms: 里面包括常用的 ...

  8. [PyTorch 学习笔记] 4.3 优化器

    本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson4/optimizer_methods.py https: ...

  9. 【深度学习】Pytorch 学习笔记

    目录 Pytorch Leture 05: Linear Rregression in the Pytorch Way Logistic Regression 逻辑回归 - 二分类 Lecture07 ...

  10. Pytorch学习笔记(二)——Tensor

    一.对Tensor的操作 从接口的角度讲,对Tensor的操作可以分为两类: (1)torch.function (2)tensor.function 比如torch.sum(a, b)实际上和a.s ...

随机推荐

  1. 爬了10000张NASA关于火星探索的图片,我发现了一个秘密

    前言 最近,我使用爬虫技术,爬取了美国航空航天局,也就是你电影里经常见到的 NASA, 火星探索的相关图片,有 10000 张吧. 嗯嗯,小事情,小事情. 完事儿之后,有点小激动,于是就有了这篇文章, ...

  2. 铁威马NAS如何开启二次验证提高系统安全性

    想到登录TNAS时更安全?直接开启OTP二次验证,通过 TNAS mobile生成的一次性密码登录NAS存储,简单设置,提升TOS系统访问安全性给你TNAS双重保护. 1.首先,确认你的TOS系统在5 ...

  3. 9、IDEA回退Git版本

    转载自 在工作中有时候会要求我们将以前提交的代码新开一个分支,而把之前提交的分支回退到以前某个版本. 1.通过IDEA查看Git历史记录,复制当前版本号. 2.记录当前版本号后,再复制你要回退的版本号 ...

  4. [seaborn] seaborn学习笔记11-绘图实例(3) Drawing example(3)

    11 绘图实例(3) Drawing example(3)(代码下载) 本文主要讲述seaborn官网相关函数绘图实例.具体内容有: Plotting a diagonal correlation m ...

  5. (二)elasticsearch 源码目录

    在阅读源码之前,我们先来看看整个项目的结构:(同(一)elasticsearch 编译和启动,我们使用版本7.4.0作为示例) .ci,持续集成配置 .github, 里面有 PULL_REQUEST ...

  6. 我曾经用“UC震惊部”震碎了很多人的三观

    Hi,欢迎大家在有空的时候做客[江涛学编程],这里是2023年的第9篇原创文章,今天写的这篇是当事人对昨天上热搜的统一回复. 我没有曾经跨过山河大海,我也没有曾经穿越人山人海,但我曾经用"U ...

  7. [数据结构]Hash Table(哈希表)

    Hash Table基本概念 散列函数:一个把查找表中的关键字映射成该关键字对应的地址的函数,记为Hash(key)=Addr. 散列函数可能会把两个或者两个以上的关键字映射到同一个地址,称这种情况为 ...

  8. Spring MVC复习 —— 搭建Spring MVC项目

    Spring MVC复习 -- 搭建Spring MVC项目   摘要:这篇笔记是关于Spring MVC的复习,内容是如何搭建Spring MVC项目.   让我们快速的搭建一个Spring MVC ...

  9. angular11报错Can't bind to 'ngForOf' since it isn't a known property of 'tr'. 三种排查办法以及解决方案

    当你遇到Can't bind to 'ngForOf' since it isn't a known property of 'tr'. (" //无法绑定到"ngforof&qu ...

  10. angular配置多个系统 配置动态路由,缩短模块初次加载时间,快速打开界面,优化用户访问体验

    1.配置一个文件,返回系统名称 2.配置routes-routing.module.ts 引入文件 const system = 服务.getsystem() const allROUTES: {UR ...