什么是pytorch?
Pytorch是基于python的科学计算包,为两类受众提供服务
- 作为Numpy的替换,让你可以使用GPU的算力
- 作为一个深度学习计算平台提供最大的计算灵活性与速度
开始体验pytorch的基础功能
Tensor:
tensor与Numpy的高维数据概念类似,可以在GPU上进行计算
import torch
建立一个5*3的未初始化的tensor
x=torch.empty(5,3)
print(x)
out:
tensor(1.00000e-07 *
[[-0.0000, 0.0000, 0.0000],
[ 0.0000, 9.4713, 0.0000],
[ 9.4201, 0.0000, 0.0000],
[ 0.0000, -0.0000, 0.0000],
[-0.0000, 0.0000, -0.0000]])
建立一个随机初始化的tensor
x=torch.rand(5,3)
print(x)
out:
tensor([[ 0.7816, 0.8146, 0.9424],
[ 0.0888, 0.5530, 0.9181],
[ 0.8362, 0.1937, 0.0084],
[ 0.2004, 0.2818, 0.8674],
[ 0.6464, 0.4978, 0.8994]])
建立一个tensor用0填充并使用long类型
x=torch.zeros(5,3,dtype=torch.long)
print(x)
out:
tensor([[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0]])
直接从数据创建tensor
torch.tensor([5.5,3])
print(x)
out:
tensor([ 5.5000, 3.0000])
我们也可以基于现有的tensor建立新的tensor,这样新的tensor会复用之前的属性,比如类型等
x=torch.new_ones(5,3,dtype=torch.double)
print(x)
x=torch.randn_like(x,dtype=torch.float)
print(x)
out:
tensor([[ 1., 1., 1.],
[ 1., 1., 1.],
[ 1., 1., 1.],
[ 1., 1., 1.],
[ 1., 1., 1.]], dtype=torch.float64)
tensor([[ 0.3648, 0.5067, 1.1720],
[-1.3361, 0.9999, 0.4133],
[-0.2699, 0.7601, -1.1138],
[-1.8955, -0.4079, 1.0827],
[-0.0156, 0.3810, 1.2646]])
获得tensor尺寸
print(x.size())
out:
torch.Size([5, 3])
运算
y=torch.rand(5,3)
#torch.add(x,y)
print(x+y)
out:
tensor([[ 1.0363, 0.8469, 1.1758],
[ 1.5991, 0.8271, 1.2000],
[ 0.9036, 1.1352, 1.4293],
[ 1.3676, 0.8430, 0.7633],
[ 1.3159, 1.4635, 1.9067]])
提供输出变量作为参数
result=torch.empty(5,3)
torch.add(x,y,out=result)
print(result) out:
tensor([[ 1.0363, 0.8469, 1.1758],
[ 1.5991, 0.8271, 1.2000],
[ 0.9036, 1.1352, 1.4293],
[ 1.3676, 0.8430, 0.7633],
[ 1.3159, 1.4635, 1.9067]])
同时提供了内建函数,内建函数会影响变量本身的值,如x.copy_(y),x.t_()会影响x的值
y.add_(x)
print(y) out:
tensor([[ 1.0363, 0.8469, 1.1758],
[ 1.5991, 0.8271, 1.2000],
[ 0.9036, 1.1352, 1.4293],
[ 1.3676, 0.8430, 0.7633],
[ 1.3159, 1.4635, 1.9067]])
你可以使用标准Numpy的索引的所有写法!!
print(x[:,1])
out:
tensor([ 0.2492, 0.7801, 0.5992, 0.8164, 0.6371])
调整形状:如果你想重新调整tensor的维度,可以使用tensor.view
x=torch.randn(4,4)
y=torch.view(16)
z=torch.view(-1,8)
print(x.size(),y.size(),z.size())
out:
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])
如果你有一个只包含一个元素的tensor,可以使用.item()来得到python形式的值
x=torch.randn(1)
print(x)
print(x.item())
out:
tensor([ 0.4210])
0.4210202693939209
Numpy桥
torch的tensor与Numpy数组之间的转换是很轻松的
torch的tensor与Numpy的数组共享同一块内存空间,改变一者会影响另一个
将torch tensor转换为Numpy数组:
a=torch.ones(5)
print(a)
b=a.numpy()
print(b) out:
tensor([ 1., 1., 1., 1., 1.])
[1. 1. 1. 1. 1.]
观察numpy数组b的变化
a.add_(1)
print(a)
print(b) out:
tensor([ 2., 2., 2., 2., 2.])
[2. 2. 2. 2. 2.]
将Numpy数组转换为torch tensor:
观察numpy数组如何引起torch tensor的变化
import numpy as np
a=no.ones(5)
b=torch.from_numpy(a)
np.add(a,1,out=a)
print(a)
print(b)
out:
array([2., 2., 2., 2., 2.])
tensor([ 2., 2., 2., 2., 2.], dtype=torch.float64)
除了CharTensor外CPU上的tensor都可以转换为numpy并返回
CUDA Tensor
if torch.cuda.is_available():
device=torch.device("cuda") #一个CUDA设备目标
y=torch.ones_like(x,device=device) #直接在GPU上建立变量
x=x.to(device)
z=x+y
print(z)
print(z.to("cpu",torch.double)) out:
tensor([[ 1.4325, -0.1697, 2.2435],
[ 0.6878, 0.9155, 1.4876]], device='cuda:0')
tensor([[ 1.4325, -0.1697, 2.2435],
[ 0.6878, 0.9155, 1.4876]], dtype=torch.float64)
什么是pytorch?的更多相关文章
- Ubutnu16.04安装pytorch
1.下载Anaconda3 首先需要去Anaconda官网下载最新版本Anaconda3(https://www.continuum.io/downloads),我下载是是带有python3.6的An ...
- 解决运行pytorch程序多线程问题
当我使用pycharm运行 (https://github.com/Joyce94/cnn-text-classification-pytorch ) pytorch程序的时候,在Linux服务器 ...
- 基于pytorch实现word2vec
一.介绍 word2vec是Google于2013年推出的开源的获取词向量word2vec的工具包.它包括了一组用于word embedding的模型,这些模型通常都是用浅层(两层)神经网络训练词向量 ...
- 基于pytorch的CNN、LSTM神经网络模型调参小结
(Demo) 这是最近两个月来的一个小总结,实现的demo已经上传github,里面包含了CNN.LSTM.BiLSTM.GRU以及CNN与LSTM.BiLSTM的结合还有多层多通道CNN.LSTM. ...
- pytorch实现VAE
一.VAE的具体结构 二.VAE的pytorch实现 1加载并规范化MNIST import相关类: from __future__ import print_function import argp ...
- PyTorch教程之Training a classifier
我们已经了解了如何定义神经网络,计算损失并对网络的权重进行更新. 接下来的问题就是: 一.What about data? 通常处理图像.文本.音频或视频数据时,可以使用标准的python包将数据加载 ...
- PyTorch教程之Neural Networks
我们可以通过torch.nn package构建神经网络. 现在我们已经了解了autograd,nn基于autograd来定义模型并对他们有所区分. 一个 nn.Module模块由如下部分构成:若干层 ...
- PyTorch教程之Autograd
在PyTorch中,autograd是所有神经网络的核心内容,为Tensor所有操作提供自动求导方法. 它是一个按运行方式定义的框架,这意味着backprop是由代码的运行方式定义的. 一.Varia ...
- Linux安装pytorch的具体过程以及其中出现问题的解决办法
1.安装Anaconda 安装步骤参考了官网的说明:https://docs.anaconda.com/anaconda/install/linux.html 具体步骤如下: 首先,在官网下载地址 h ...
- Highway Networks Pytorch
导读 本文讨论了深层神经网络训练困难的原因以及如何使用Highway Networks去解决深层神经网络训练的困难,并且在pytorch上实现了Highway Networks. 一 .Highway ...
随机推荐
- Envoy熔断限流实践(一)基于Rainbond插件实现熔断
Envoy 可以作为 Sevice Mesh 微服务框架中的代理实现方案,Rainbond 内置的微服务框架同样基于 Envoy 实现.本文所描述的熔断实践基于 Rainbond 特有的插件机制实现. ...
- Rancher部署PostgreSQL容器
1.打开工作负载,选择部署服务 2.选择合适的PostgreSQL镜像 镜像地址https://registry.hub.docker.com/_/postgres,也可使用公司内部镜像库 网络模式选 ...
- es篇-es基础
点赞再看,养成习惯,微信搜索「小大白日志」关注这个搬砖人. 文章不定期同步公众号,还有各种一线大厂面试原题.我的学习系列笔记. es基础知识 es和solr一样,都是基于Lucene的全文检索数据库 ...
- 干货 | 亿级Web系统负载均衡几种实现方式
一个执着于技术的公众号 负载均衡(Load Balance)是集群技术(Cluster)的一种应用技术.负载均衡可以将工作任务分摊到多个处理单元,从而提高并发处理能力.目前最常见的负载均衡应用是Web ...
- vue - Vue脚手架/消息订阅与发布
今天的内容有意思了,朋友们继续对我们之前的案例完善,是这样的我们之前是不是靠props来完成父给子,子给父之间传数据,其实父给子最好的方法就是props但是自给父就不是了,并且今天学下来,不仅如此,组 ...
- .NET 中 GC 的模式与风格
垃圾回收(GC)是托管语言必备的技术之一.GC 的性能是影响托管语言性能的关键.我们的 .NET 既能写桌面程序 (WINFROM , WPF) 又能写 web 程序 (ASP.NET CORE),甚 ...
- 使用WebDriverManager实现自动获取浏览器驱动程序
原理: 自动到指定的地址下载相应的浏览器驱动保存到缓存区 ~/.cache/selenium 痛点: 解决因Chrome浏览器升级,driver需要同步升级,要重新下载驱动的问题 区别: 传统方式 需 ...
- SQL Server 2017 各版本之间的差异
SQL Server 2017的亮点 您选择的语言和平台 使用您选择的语言在本地和云中(现在在 Windows.Linux 和 Docker 容器上)构建现代应用程序. 行业领先的性能 充分利用任务关 ...
- 用STM32玩OLED(显示文字、图片、动图gif等)
目录 用STM32玩OLED(显示文字.图片.动图gif等) 1. 显示字符串 2. 显示中文 3. 显示图片 4. 显示动图 5. 总结测试 用STM32玩OLED(显示文字.图片.动图gif等) ...
- 文字轮播与图片轮播?CSS 不在话下
今天,分享一个实际业务中能够用得上的动画技巧. 巧用逐帧动画,配合补间动画实现一个无限循环的轮播效果,像是这样: 看到上述示意图,有同学不禁会发问,这不是个非常简单的位移动画么? 我们来简单分析分析, ...