pytorch学习笔记一之张量
1. 张量¶
1.1. 概述¶
张量(tensor)是pytorch中的一种较为基础的数据结构,类比于numpy中的ndarrays,在pytorch中,张量可以在GPU中进行运算
通过以下命令,我们导入pytorch和numpy:
import torch
import numpy as np
1.2. 张量初始化¶
1.2.1. 直接生成张量¶
data = [[1, 2], [3, 4]]
x_data = torch.tensor(data)
x_data
tensor([[1, 2],
[3, 4]])
1.2.2. ndarrays转化¶
np_array = np.array(data)
x_np = torch.from_numpy(np_array)
x_np
tensor([[1, 2],
[3, 4]])
1.2.3. 通过已有张量生成¶
继承结构与数据类型:
x_ones = torch.ones_like(x_data)
x_ones
tensor([[1, 1],
[1, 1]])
继承结构,改变数据类型:
x_rand = torch.rand_like(x_data, dtype=torch.float)
x_rand
tensor([[0.9849, 0.3644],
[0.0800, 0.2939]])
1.2.4. 指定维数生成张量¶
用元组类型的数据指定维数:
shape = (2, 3)
生成张量:
torch.ones(shape)
tensor([[1., 1., 1.],
[1., 1., 1.]])
torch.zeros(shape)
tensor([[0., 0., 0.],
[0., 0., 0.]])
torch.rand(shape)
tensor([[0.1744, 0.3771, 0.7969],
[0.7098, 0.9853, 0.3950]])
1.3. 张量属性¶
维数:
x_data.shape
torch.Size([2, 2])
数据类型:
x_data.dtype
torch.int64
存储设备:
x_data.device
device(type='cpu')
1.4. 张量计算¶
GPU对于张量的计算更快,检测GPU是否可用:
torch.cuda.is_available()
False
显然,对于笔者设备来说,由于没有显卡,GPU加速是不可用的,如果设备GPU可用,可以将CPU中的数据导入GPU:
if torch.cuda.is_available():
tensor = x_data.to('cuda')
1.4.1. 索引和切片¶
tensor = torch.ones((3, 4))
tensor
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
类比于ndarrays,tensor也可理解为是一个多维数组,以下表示将tensor变量的第一行、第一列变为0:
tensor[1, 1] = 0
tensor
tensor([[1., 1., 1., 1.],
[1., 0., 1., 1.],
[1., 1., 1., 1.]])
以下表示将tensor变量的第三列变为0:
tensor[:, 3] = 0
tensor
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
1.4.2. 张量的拼接¶
tensor1 = torch.ones((3, 4))
tensor2 = torch.zeros((3, 4))
使用torch.cat()方法,指定维数进行拼接:
torch.cat([tensor1, tensor2], dim=1)
tensor([[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.]])
torch.cat([tensor1, tensor2], dim=0)
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]])
torch.cat([tensor1, tensor2], dim=-1)
tensor([[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.]])
torch.cat([tensor1, tensor2], dim=-2)
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]])
torch.cat([tensor1, tensor2, tensor], dim=-2)
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
此处实验 dim = 2 时,有:
torch.cat([tensor1, tensor2], dim=2)
---------------------------------------------------------------------------
IndexError Traceback (most recent call last)
<ipython-input-31-dc57fe12e880> in <module>
----> 1 torch.cat([tensor1, tensor2], dim=2)
IndexError: Dimension out of range (expected to be in range of [-2, 1], but got 2)
根据官网示例,此处dim的取值主要是0和1:
x = torch.randn(2, 3)
torch.cat((x, x, x), 0)
torch.cat((x, x, x), 1)
综上,dim的取值有 -2、-1、0、1,然而-2、-1与0、1的意思似乎是一样的
1.4.3. 张量的乘积与矩阵乘法¶
逐个元素相乘:
tensor.mul(tensor)
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
等价于:
tensor * tensor
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
张量与张量的矩阵乘法:
tensor.matmul(tensor.T)
tensor([[3., 2., 3.],
[2., 2., 2.],
[3., 2., 3.]])
等价于:
tensor @ tensor.T
tensor([[3., 2., 3.],
[2., 2., 2.],
[3., 2., 3.]])
1.4.4. 自动赋值运算¶
自增运算:
tensor
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
tensor.add_(5)
tensor([[6., 6., 6., 5.],
[6., 5., 6., 5.],
[6., 6., 6., 5.]])
tensor
tensor([[6., 6., 6., 5.],
[6., 5., 6., 5.],
[6., 6., 6., 5.]])
复制运算:
tensor.copy_(tensor1)
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
tensor
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
注意:自动赋值运算可以节省内存,但是会导致一些中间过程的问题
1.5. Tensor与Numpy的转换¶
1.5.1. Tensor转换为Numpy¶
tensor
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
np_t = tensor.numpy()
np_t
array([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]], dtype=float32)
tensor.add_(5)
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
np_t
array([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]], dtype=float32)
可见:Tensor和Numpy共用内存,一个改变时另一个也改变
1.5.2. Numpy转Tensor¶
np_t
array([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]], dtype=float32)
tensor
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
t_np = torch.from_numpy(np_t)
t_np
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
np.add(np_t, 1, out=np_t)
array([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]], dtype=float32)
t_np
tensor([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]])
np.add(np_t, 1)
array([[8., 8., 8., 8.],
[8., 8., 8., 8.],
[8., 8., 8., 8.]], dtype=float32)
t_np
tensor([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]])
可见:np.add()指定out=时才会重新赋值
1.6. 参考资料:¶
pytorch学习笔记一之张量的更多相关文章
- [PyTorch 学习笔记] 1.3 张量操作与线性回归
本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/linear_regression.py 张量的操作 拼 ...
- [PyTorch 学习笔记] 1.2 Tensor(张量)介绍
本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/tensor_introduce1.py https: ...
- Pytorch学习笔记(二)---- 神经网络搭建
记录如何用Pytorch搭建LeNet-5,大体步骤包括:网络的搭建->前向传播->定义Loss和Optimizer->训练 # -*- coding: utf-8 -*- # Al ...
- Pytorch学习笔记(一)---- 基础语法
书上内容太多太杂,看完容易忘记,特此记录方便日后查看,所有基础语法以代码形式呈现,代码和注释均来源与书本和案例的整理. # -*- coding: utf-8 -*- # All codes and ...
- 【pytorch】pytorch学习笔记(一)
原文地址:https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html 什么是pytorch? pytorch是一个基于p ...
- [PyTorch 学习笔记] 1.4 计算图与动态图机制
本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/computational_graph.py 计算图 深 ...
- [PyTorch 学习笔记] 2.2 图片预处理 transforms 模块机制
PyTorch 的数据增强 我们在安装PyTorch时,还安装了torchvision,这是一个计算机视觉工具包.有 3 个主要的模块: torchvision.transforms: 里面包括常用的 ...
- [PyTorch 学习笔记] 4.3 优化器
本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson4/optimizer_methods.py https: ...
- 【深度学习】Pytorch 学习笔记
目录 Pytorch Leture 05: Linear Rregression in the Pytorch Way Logistic Regression 逻辑回归 - 二分类 Lecture07 ...
- Pytorch学习笔记(二)——Tensor
一.对Tensor的操作 从接口的角度讲,对Tensor的操作可以分为两类: (1)torch.function (2)tensor.function 比如torch.sum(a, b)实际上和a.s ...
随机推荐
- 爬了10000张NASA关于火星探索的图片,我发现了一个秘密
前言 最近,我使用爬虫技术,爬取了美国航空航天局,也就是你电影里经常见到的 NASA, 火星探索的相关图片,有 10000 张吧. 嗯嗯,小事情,小事情. 完事儿之后,有点小激动,于是就有了这篇文章, ...
- 铁威马NAS如何开启二次验证提高系统安全性
想到登录TNAS时更安全?直接开启OTP二次验证,通过 TNAS mobile生成的一次性密码登录NAS存储,简单设置,提升TOS系统访问安全性给你TNAS双重保护. 1.首先,确认你的TOS系统在5 ...
- 9、IDEA回退Git版本
转载自 在工作中有时候会要求我们将以前提交的代码新开一个分支,而把之前提交的分支回退到以前某个版本. 1.通过IDEA查看Git历史记录,复制当前版本号. 2.记录当前版本号后,再复制你要回退的版本号 ...
- [seaborn] seaborn学习笔记11-绘图实例(3) Drawing example(3)
11 绘图实例(3) Drawing example(3)(代码下载) 本文主要讲述seaborn官网相关函数绘图实例.具体内容有: Plotting a diagonal correlation m ...
- (二)elasticsearch 源码目录
在阅读源码之前,我们先来看看整个项目的结构:(同(一)elasticsearch 编译和启动,我们使用版本7.4.0作为示例) .ci,持续集成配置 .github, 里面有 PULL_REQUEST ...
- 我曾经用“UC震惊部”震碎了很多人的三观
Hi,欢迎大家在有空的时候做客[江涛学编程],这里是2023年的第9篇原创文章,今天写的这篇是当事人对昨天上热搜的统一回复. 我没有曾经跨过山河大海,我也没有曾经穿越人山人海,但我曾经用"U ...
- [数据结构]Hash Table(哈希表)
Hash Table基本概念 散列函数:一个把查找表中的关键字映射成该关键字对应的地址的函数,记为Hash(key)=Addr. 散列函数可能会把两个或者两个以上的关键字映射到同一个地址,称这种情况为 ...
- Spring MVC复习 —— 搭建Spring MVC项目
Spring MVC复习 -- 搭建Spring MVC项目 摘要:这篇笔记是关于Spring MVC的复习,内容是如何搭建Spring MVC项目. 让我们快速的搭建一个Spring MVC ...
- angular11报错Can't bind to 'ngForOf' since it isn't a known property of 'tr'. 三种排查办法以及解决方案
当你遇到Can't bind to 'ngForOf' since it isn't a known property of 'tr'. (" //无法绑定到"ngforof&qu ...
- angular配置多个系统 配置动态路由,缩短模块初次加载时间,快速打开界面,优化用户访问体验
1.配置一个文件,返回系统名称 2.配置routes-routing.module.ts 引入文件 const system = 服务.getsystem() const allROUTES: {UR ...