Tensors类似于numpy的ndarrays,但是可以在GPU上使用来加速计算。

一、Tensors的构建


from __future__ import print_function
import torch
构建未初始化的5x3矩阵:
x = torch.Tensor(5, 3)
print(x)

输出结果:

 -2.9226e-26  1.5549e-41  1.5885e+14
0.0000e+00 7.0065e-45 0.0000e+00
7.0065e-45 0.0000e+00 4.4842e-44
0.0000e+00 4.6243e-44 0.0000e+00
1.5810e+14 0.0000e+00 1.6196e+14
[torch.FloatTensor of size 5x3]

构造一个随机初始化的矩阵:

x = torch.rand(5, 3)
print(x)

输出结果:

 0.8168  0.4588  0.8139
0.7271 0.3067 0.2826
0.1570 0.2931 0.3173
0.8638 0.6364 0.6177
0.2296 0.1411 0.1117
[torch.FloatTensor of size 5x3]

查看size:

print(x.size())

输出结果:

torch.Size([5, 3])

torch.Size 实际上上一个tuple, 因而支持基于tuple的所有运算。

二、Tensor的运算操作

Tensor的运算操作语法有很多种,以下一一演示。

语法1:

y = torch.rand(5, 3)
print(x + y)

输出结果:

 0.9616  0.8727  1.6763
1.4781 0.7961 1.2082
0.6717 0.9821 0.6129
1.2544 1.0118 1.2720
1.0912 0.3207 0.4200
[torch.FloatTensor of size 5x3]

 语法2:

print(torch.add(x, y))

输出结果:

 0.9616  0.8727  1.6763
1.4781 0.7961 1.2082
0.6717 0.9821 0.6129
1.2544 1.0118 1.2720
1.0912 0.3207 0.4200
[torch.FloatTensor of size 5x3]

语法3:

result = torch.Tensor(5, 3)
torch.add(x, y, out=result)
print(result)

输出结果:

 0.9616  0.8727  1.6763
1.4781 0.7961 1.2082
0.6717 0.9821 0.6129
1.2544 1.0118 1.2720
1.0912 0.3207 0.4200
[torch.FloatTensor of size 5x3]

语法4:

# adds x to y
y.add_(x)
print(y)

输出结果:

 0.9616  0.8727  1.6763
1.4781 0.7961 1.2082
0.6717 0.9821 0.6129
1.2544 1.0118 1.2720
1.0912 0.3207 0.4200
[torch.FloatTensor of size 5x3]

任何一个会改变 tensor的操作都会加上下划线,例如x.copy_(y)和x.t_().

语法5:

print(x[:, 1])

输出结果:

 0.4588
0.3067
0.2931
0.6364
0.1411
[torch.FloatTensor of size 5]

任何numpy标准库中的索引操作都可以用于tensor

三、Tensor与numpy的互相转化

1.从torch Tensor 到 numpy Array

构建Tensor

a = torch.ones(5)
print(a)

输出结果:

 1
1
1
1
1
[torch.FloatTensor of size 5]

转化为 Array

b = a.numpy()
print(b)

输出结果:

[ 1.  1.  1.  1.  1.]

对Tensor 进行加法操作:

a.add_(1)
print(a)
print(b)

输出结果:

 2
2
2
2
2
[torch.FloatTensor of size 5] [ 2. 2. 2. 2. 2.]

可以看到对Tensor进行的加法操作映射到了对应Arrayy当中,二者共用内存,属于浅拷贝。

2.从numpy Array到 torch Tensor

构建和转化的方法与前者类似:

import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)

输出结果:

[ 2.  2.  2.  2.  2.]

 2
2
2
2
2
[torch.DoubleTensor of size 5]

可以看到对Array进行的加法操作同样映射到了对应Tensor当中,二者共用内存,也属于浅拷贝。

四、GPU运算

tensor可以使用CUDA函数移动到GPU上:
if torch.cuda.is_available():
x = x.cuda()
y = y.cuda()
x + y

输出结果:

  0.4457  1.3248  1.9033
0.8010 1.4461 1.0481
1.2691 1.8655 0.4001
0.6913 0.2979 0.2352
1.0372 1.0988 1.2159
[torch.cuda.FloatTensor of size 5x3 (GPU 0)]
 

PyTorch教程之Tensors的更多相关文章

  1. PyTorch教程之Training a classifier

    我们已经了解了如何定义神经网络,计算损失并对网络的权重进行更新. 接下来的问题就是: 一.What about data? 通常处理图像.文本.音频或视频数据时,可以使用标准的python包将数据加载 ...

  2. PyTorch教程之Neural Networks

    我们可以通过torch.nn package构建神经网络. 现在我们已经了解了autograd,nn基于autograd来定义模型并对他们有所区分. 一个 nn.Module模块由如下部分构成:若干层 ...

  3. PyTorch教程之Autograd

    在PyTorch中,autograd是所有神经网络的核心内容,为Tensor所有操作提供自动求导方法. 它是一个按运行方式定义的框架,这意味着backprop是由代码的运行方式定义的. 一.Varia ...

  4. [转]搬瓦工教程之九:通过Net-Speeder为搬瓦工提升网速

    搬瓦工教程之九:通过Net-Speeder为搬瓦工提升网速 有的同学反映自己的搬瓦工速度慢,丢包率高.这其实和你的网络服务提供商有关.据我所知一部分上海电信的同学就有这种问题.那么碰到了坑爹的网络服务 ...

  5. jQuery EasyUI教程之datagrid应用(三)

    今天继续之前的整理,上篇整理了datagrid的数据显示及其分页功能 获取数据库数据显示在datagrid中:jQuery EasyUI教程之datagrid应用(一) datagrid实现分页功能: ...

  6. jQuery EasyUI教程之datagrid应用(二)

    上次写到了让数据库数据在网页datagrid显示,我们只是单纯的实现了显示,仔细看的话显示的信息并没有达到我们理想的效果,这里我们丰富一下: 上次显示的结果是这样的 点击查看上篇:jQuery Eas ...

  7. jQuery EasyUI教程之datagrid应用(一)

    最近一段时间都在做人事系统的项目,主要用到了EasyUI,数据库操作,然后抽点时间整理一下EasyUI的内容. 这里我们就以一个简洁的电话簿软件为基础,具体地说一下datagrid应用吧 datagr ...

  8. kali linux 系列教程之metasploit 连接postgresql可能遇见的问题

    kali linux 系列教程之metasploit 连接postgresql可能遇见的问题 文/玄魂   目录 kali linux 下metasploit 连接postgresql可能遇见的问题. ...

  9. kali Linux系列教程之BeFF安装与集成Metasploit

    kali Linux系列教程之BeFF安装与集成Metasploit 文/玄魂 kali Linux系列教程之BeFF安装与集成Metasploit 1.1 apt-get安装方式 1.2 启动 1. ...

随机推荐

  1. 知名渗透测试利器分享 - Appscan下载

    安全测试应该是测试中非常重要的一部分,但他常常最容易被忽视掉. 尽管国内经常出现各种安全事件,但没有真正的引起人们的注意.不管是开发还是测试都不太关注产品的安全.当然,这也不能怪我们苦B的" ...

  2. 接口测试 mock server 工具moco学习笔记

    看过乙醇分享的接口测试,自己练习了moco,这里呢,吧一些练习的笔记坐下记录,方便自己查阅. 开源地址https://github.com/dreamhead/moco  ,  到QuickStart ...

  3. 利用jmeter+JAVA对RPC的单接口(dubbo接口等)进行性能测试

    建立JAVA项目 建立maven项目,加入Jmeter所需要的JAR包依赖. POM.xml  加入如下: <dependency> <groupId>org.apache.j ...

  4. 在Intellij IDEA中使用Debug

    Debug用来追踪代码的运行流程,通常在程序运行过程中出现异常,启用Debug模式可以分析定位异常发生的位置,以及在运行过程中参数的变化.通常我们也可以启用Debug模式来跟踪代码的运行流程去学习三方 ...

  5. RPC框架实现思路浅析

    第一部分,设计分析 远程调用要解决的主要问题: 1,序列化 : 如何将对象转化为二进制数据进行传输,如何将二进制数据转化对象 2,数据的传输(协议,第三方框架) 3,服务的注册/发现,单点故障,分布式 ...

  6. Java 生产图片验证码

    import java.awt.Color;import java.awt.Font;import java.awt.Graphics;import java.awt.Graphics2D;impor ...

  7. 【集美大学1411_助教博客】团队作业5——测试与发布(Alpha版本)

    同学们好像都进入了状态,任务都完成的不错,测试与发布是一个软件的非常重要的环节,每年双11前夕是阿里巴巴加班最严重的时期,这是因为他们在不断的测试,因为他们不想在双11到来之时有任何差池.所以无论你的 ...

  8. [转载] java中静态代码块的用法 static用法详解

    一.java 静态代码块 静态方法区别 一般情况下,如果有些代码必须在项目启动的时候就执行的时候,需要使用静态代码块,这种代码是主动执行的;需要在项目启动的时候就初始化,在不创建对象的情况下,其他程序 ...

  9. 201521123103 《Java学习笔记》 第七周学习总结

    一.本周学习总结 1.以你喜欢的方式(思维导图或其他)归纳总结集合相关内容. 二.书面作业 1.ArrayList代码分析 1.1 解释ArrayList的contains源代码 源代码如下: pub ...

  10. 201521123032 《Java程序设计》第6周学习总结

    1. 本周学习总结 1.1 面向对象学习暂告一段落,请使用思维导图,以封装.继承.多态为核心概念画一张思维导图,对面向对象思想进行一个总结. 2. 书面作业 1. clone方法 1.1 Object ...