一、Tensor

a)       张量是torch的基础数据类型

b)       张量的核心是坐标的改变不会改变自身性质。

c)        0阶张量为标量(只有数值,没有方向的量),因为它不随坐标的变化发生改变

d)       一阶张量为矢量(即向量),他也不随坐标变化而发生变化

e)       二阶张量为矩阵

f)         生成tensor时的通用参数

                     i.            转换数值类型:
常见生成tensor的参数:dtype。Tensor默认的分量构成为float64
比如生成由长整型构成的全为0的tensor:torch.zeros(2,3,dtype=torch.long)

                   
ii.           
指定存放容器:

参数:device。可赋值:cpu/gpu

g)      
创建未初始化的张量:empty(raw, col)

h)      
创建随机初始化的张量:rand(raw,col)

i)        
创建分量均为0的张量:zeros(raw,col)

j)        
直接根据数据创建向量:tensor(factor)。factor是一个用数字构成的list,只能写一个list,即tensor函数只能生成向量

k)       其他的张量生成函数:

l)      
获取维度信息:x.size()。输出结果为元组

m)      
x.new_*(size):创建一个tensor,复制x的dtype和device。星号位置可以写任意的tensor生成函数。可以赋值强行修改dtype和device

n)       
*_like(tensor):创建一个size和tensor一样的张量。。星号位置可以写任意的tensor生成函数

二、算术(这里的x、y均为张量)

a)      
加法:

                    
i.           
x+y

                   
ii.           
torch.add(x,y, result=var)。如果设定了result参数,那么加法的结果会储存在var中,此时就不用再写z=torch.add()了

                 
iii.           
y.add_(x)

b)      
矩阵运算:

                    
i.           
torch.mul(a, b)是矩阵a和b对应位相乘,a和b的维度必须相等,比如a的维度是(1, 2),b的维度是(1, 2),返回的仍是(1,
2)的矩阵

                   
ii.           
torch.mm(a, b)是矩阵a和b矩阵相乘,比如a的维度是(1, 2),b的维度是(2, 3),返回的就是(1, 3)的矩阵

  c)     线代运算:

    

  d)  非相同形状的tensor的运算处理:广播机制

    i.  广播机制的定义:先适当复制元素使这两个 Tensor 形状相同后再按元素运算

    ii.  由于 x 和 y 分别是1行2列和3行1列的矩阵,如果要计算 x + y ,那么 x 中第⼀行的2个元素被广播 (复制)到了了第二行和第三行,而 y 中第一列的3个元素被广播(复制)到了第二列。
      如此,就可以对2个3行2列的矩阵按元素相加。

 x = torch.arange(1, 3).view(1, 2)
print(x)
y = torch.arange(1, 4).view(3, 1)
print(y)
print(x + y) tensor([[1, 2]])
tensor([[1], [2], [3]])
tensor([[2, 3], [3, 4], [4, 5]])

  

三、索引

a)      
索引出来的结果与原数据共享内存,也即修改一个,另⼀个会跟着修改

b)      
X[:,0]是numpy中数组的一种写法,torch也是类似的。表示对一个二维数组,取该二维数组第一维中的所有数据,第二维中取第0个数据,直观来说,X[:,0]就是取所有行的第0个数据,
X[:,1] 就是取所有行的第1个数据。

c)       
[m,n]:索引的数字为第m项到第n-1项

d)       其余索引:

  index_select():

input:要筛选的tensor

dim的参数:0或1。参数0表示按行索引,1表示按列进行索引

index:用tensor表示
例子:

import torch
input_tensor = torch.tensor([1,2,3,4,5])
print(input_tensor.index_select(0,torch.tensor([0,2,4]))) input_tensor = torch.tensor([[1,2,3,4,5],[6,7,8,9,10]])
print(input_tensor.index_select(0,torch.tensor([1])))
print(input_tensor.index_select(1,torch.tensor([1])))

      输出为:

tensor([1, 3, 5])

tensor([[ 6,  7,  8,  9, 10]])

tensor([[2],
[7]])

四、改变tensor形状

  a)       tensor.view(size)

  b)       注意 view() 返回的新tensor与源tensor共享内存(其实是同一个tensor),也即更改其中的⼀个,另外一个也会跟着改变。(顾名思义,view仅仅是改变了对这个张量的观察角度)

 y = x.view(15)
z = x.view(-1, 5) # -1所指的维度可以根据其他维度的值推出来
print(x.size(), y.size(), z.size())
torch.Size([5, 3]) torch.Size([15]) torch.Size([3, 5])

  c)        如何不影响本体改变shape呢?
      使用clone()函数先对本体克隆,再使用view。使用 clone 还有一个好处是会被记录在计算图中,即梯度回传到副本时也会传到源 Tensor

x_cp = x.clone().view(15)
x -= 1
print(x)
print(x_cp)
tensor([[ 0.6035, 0.8110, -0.0451], [ 0.8797, 1.0482, -0.0445], [-0.7229, 2.8663, -0.5655], [ 0.1604, -0.0254, 1.0739], [ 2.2628, -0.9175, -0.2251]])
tensor([1.6035, 1.8110, 0.9549, 1.8797, 2.0482, 0.9555, 0.2771, 3.8663, 0.4345,
1.1604, 0.9746, 2.0739, 3.2628, 0.0825, 0.7749])

五、内存的使用

  a)  前面提到的索引和view并不会开辟新的内存。所以一个变动其他的也会变。但是加法会开辟一个新内存

  b)  使用python自带的id函数可以查看内存地址

 x = torch.tensor([1, 2])
y = torch.tensor([3, 4])
id_before = id(y)
y = y + x
print(id(y) == id_before) False

六、数据转换

  a)       item():将标量tensor转换成python number

 x = torch.randn(1)
print(x)
print(x.item()) tensor([2.3466])
2.3466382026672363

  b)  与numpy的转换

    i.  numpy():将tensor转化成numpy数组

 a = torch.ones(5)
b = a.numpy()
print(a, b)
a += 1
print(a, b)
b += 1
print(a, b) tensor([1., 1., 1., 1., 1.]) [1. 1. 1. 1. 1.]
tensor([2., 2., 2., 2., 2.]) [2. 2. 2. 2. 2.]
tensor([3., 3., 3., 3., 3.]) [3. 3. 3. 3. 3.]

    ii.  from_numpy():将numpy数组转化成tensor

 import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
print(a, b)
a += 1
print(a, b)
b += 1
  print(a, b) [1. 1. 1. 1. 1.] tensor([1., 1., 1., 1., 1.], dtype=torch.float64)
[2. 2. 2. 2. 2.] tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
[3. 3. 3. 3. 3.] tensor([3., 3., 3., 3., 3.], dtype=torch.float64)

    iii.  根据上面的例子,我们可以发现,numpy和tensor之间的相互转换是共用内存的。一个改变,另一个也改变

    iv.  tensor():不共用内存将numpy转变成tensor

 c = torch.tensor(a) #这里的a沿用ii中例子的结果
a += 1
print(a, c) [4. 4. 4. 4. 4.] tensor([3., 3., 3., 3., 3.], dtype=torch.float64)

七、处理器的变化

  使用to()使tensor在CPU与GPU之间相互移动

 # 以下代码只有在PyTorch GPU版本上才会执行
if torch.cuda.is_available():
device = torch.device("cuda") #创建device在GPU。cuda是一个英伟达开发的并行
y = torch.ones_like(x, device=device) # 直接创建一个在GPU上的tensor
x = x.to(device) #等价于 .to("cuda")
z = x + y
print(z)
print(z.to("cpu", torch.double)) # to()还可以同时更更改数据类型

【动手学pytorch】pytorch的基础操作的更多相关文章

  1. 前端学PHP之PDO基础操作

    × 目录 [1]创建PDO [2]使用PDO [3]事务处理 前面的话 PDO(php data object)扩展类库为php访问数据库定义了轻量级的.一致性的接口,它提供了一个数据库访问抽象层,这 ...

  2. 动手学servlet(二) servlet基础

    1.我们来试着向一个servlet提交一个表单,现在webcontent下新建一个login.html页面,其中action对应servelt类名,代码如下: <!DOCTYPE HTML PU ...

  3. 小白学习之pytorch框架(2)-动手学深度学习(begin-random.shuffle()、torch.index_select()、nn.Module、nn.Sequential())

    在这向大家推荐一本书-花书-动手学深度学习pytorch版,原书用的深度学习框架是MXNet,这个框架经过Gluon重新再封装,使用风格非常接近pytorch,但是由于pytorch越来越火,个人又比 ...

  4. 小白学 Python 数据分析(5):Pandas (四)基础操作(1)查看数据

    在家为国家做贡献太无聊,不如跟我一起学点 Python 人生苦短,我用 Python 前文传送门: 小白学 Python 数据分析(1):数据分析基础 小白学 Python 数据分析(2):Panda ...

  5. 小白学 Python(23):Excel 基础操作(上)

    人生苦短,我选Python 前文传送门 小白学 Python(1):开篇 小白学 Python(2):基础数据类型(上) 小白学 Python(3):基础数据类型(下) 小白学 Python(4):变 ...

  6. 小白学 Python(24):Excel 基础操作(下)

    人生苦短,我选Python 前文传送门 小白学 Python(1):开篇 小白学 Python(2):基础数据类型(上) 小白学 Python(3):基础数据类型(下) 小白学 Python(4):变 ...

  7. 小白学 Python 数据分析(6):Pandas (五)基础操作(2)数据选择

    人生苦短,我用 Python 前文传送门: 小白学 Python 数据分析(1):数据分析基础 小白学 Python 数据分析(2):Pandas (一)概述 小白学 Python 数据分析(3):P ...

  8. 小白学 Python 数据分析(17):Matplotlib(二)基础操作

    人生苦短,我用 Python 前文传送门: 小白学 Python 数据分析(1):数据分析基础 小白学 Python 数据分析(2):Pandas (一)概述 小白学 Python 数据分析(3):P ...

  9. PyTorch中的CUDA操作

      CUDA(Compute Unified Device Architecture)是NVIDIA推出的异构计算平台,PyTorch中有专门的模块torch.cuda来设置和运行CUDA相关操作.本 ...

  10. php之文件基础操作

    在php中对文件的基础操作非常的简单,php提供的函数粗略的用了一遍. file_get_contents():可以获取文件的内容获取一个网络资源的内容,这是php给我封装的一个比较快捷的读取文件的内 ...

随机推荐

  1. Element-UI Table 实现筛选数据功能

    最近产品提出了一个筛选数据的功能,要求在表头里实现一个下拉框进行筛选. 首先, Element-ui 的官方文档,el-table-column 下有一个 filters , 用于数据的筛选和过滤, ...

  2. 解决phpinfo 和php -v版本不一致的问题

    解决方法:参考博文 http://blog.csdn.net/laomengnevergiveup/article/details/52104862

  3. Docker commit 命令

    docker commit :从容器创建一个新的镜像. 语法 docker commit [OPTIONS] CONTAINER [REPOSITORY[:TAG]] OPTIONS说明: -a :提 ...

  4. 关于list

    //问题一: List<string> list = new List<string>(); list = null; //这样写可以使用,但是当list值为null时会报未将 ...

  5. 树莓派—raspbian软件源

    零.一键换源 2018.05.18更新:新的默认源为raspbian.raspberrypi.org 因此一键换源相应改为 sudo sed -i 's#://raspbian.raspberrypi ...

  6. Django(九)模型:dj查询数据库的函数(方法)

    一.查询函数 通过模型类.objects属性可以调用如下函数,实现对模型类对应的数据表的查询. 函数表 函数名 功能 返回值 说明 get 返回表中满足条件的一条且只能有一条数据. 返回值是一个模型类 ...

  7. Docker入门以及漏洞环境搭建(10.23 第二十五天)

    Docker:开源的应用程序容器引擎,使用Go语言.借助于docker打包的应用程序,将这些应用程序 包含在容器里面,在容器中实现虚拟化,容器使用的是沙箱机制,相互独立,占用资源非常少. Docker ...

  8. POJ1088:滑雪

    滑雪 Time Limit: 1000MS   Memory Limit: 65536K Total Submissions: 82112   Accepted: 30706 Description ...

  9. sourceTree 生成公钥和私钥 然后拉项目代码

    第一步 用sourceTree生成公钥pub和私钥文件ppk    打开sourceTree -> 工具 -> 创建或导入ssh密钥 -> 点击generate -> 上面会显 ...

  10. sqlserver插入图片数据

    -- 插入 insert into [CHOLPOR].[dbo].[t_image](id, name) select '1', BulkColumn from openrowset(bulk N' ...