pytorch之张量的理解】的更多相关文章

张量是一棵树 长久以来,张量和其中维度的概念把我搞的晕头转向. 一维的张量是数组,二维的张量是矩阵,这也很有道理. 但是给一个二维张量,让我算出它每一行的和,应该用 sum(dim=0) 还是 sum(dim=1)? 这个问题还得让我想个一会儿. 更别说四维的张量是什么,一百维的张量又是什么,这种问题了,我不知道,想想就头大. 但是直到把张量看成一棵树,许多问题就迎刃而解~ 如下图所示,分别表示三种不同形状的张量: 基本规律是: 不算最上边的树根节点,剩下的节点有几层,那这个张量就是几维的.(换…
张量==容器 张量是现代机器学习的基础,他的核心是一个容器,多数情况下,它包含数字,因此可以将它看成一个数字的水桶. 张量有很多中形式,首先让我们来看最基本的形式.从0维到5维的形式 0维张量/标量:装在水桶中的每个数字称为“标量”.标量就是一个数字. 1维张量/标量:数组,一维张量,也被视为“向量",可以把向量视为一个单列或者单行的数字. 2维张量:矩阵.典型的例子就是邮件列表,比如我们有10000个人,每个人都有7个特征(名字,性别,城市等等),张量具有形状,形状是一个水桶,既装着我们数据也…
自己通过网上查询的有关张量的解释,稍作整理. TensorFlow用张量这种数据结构来表示所有的数据.你可以把一个张量想象成一个n维的数组或列表.一个张量有一个静态类型和动态类型的维数.张量可以在图中的节点之间流通. 阶 在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述.比如,下面的张量(使用Python中list定义的)就是2阶. t = [[1, 2, 3], [4, 5, 6]…
好久没有写博客了,这一次就将最近看的pytorch 教程中的lstm+crf的一些心得与困惑记录下来. 原文 PyTorch Tutorials 参考了很多其他大神的博客,https://blog.csdn.net/cuihuijun1hao/article/details/79405740 https://www.jianshu.com/p/97cb3b6db573 至于原理,非常建议读这篇英文博客,写的非常非常非常好!!!!!!值得打印出来细细品读!!!!!!!!!!!!!!!!!!!!!!…
好久没有写博客了,这一次就将最近看的pytorch 教程中的lstm+crf的一些心得与困惑记录下来. 原文 PyTorch Tutorials 参考了很多其他大神的博客,https://blog.csdn.net/cuihuijun1hao/article/details/79405740 https://www.jianshu.com/p/97cb3b6db573 至于原理,非常建议读这篇英文博客,写的非常非常非常好!!!!!!值得打印出来细细品读!!!!!!!!!!!!!!!!!!!!!!…
class torch.nn.LSTM(*args, **kwargs) 参数列表 input_size:x的特征维度 hidden_size:隐藏层的特征维度 num_layers:lstm隐层的层数,默认为1 bias:False则bih=0和bhh=0. 默认为True batch_first:True则输入输出的数据格式为 (batch, seq, feature) dropout:除最后一层,每一层的输出都进行dropout,默认为: 0 bidirectional:True则为双向l…
pytorch-backword函数的理解 函数:\(tensor.backward(params)\) 这个params的维度一定要和tensor的一致,因为tensor如果是一个向量y = [y1,y2,y3],那么传入的params=[a1,a2,a3],这三个值是系数,那么是什么的系数呢? 假定对x =[ x1,x2]求导,那么我们知道, \(dy/dx\) 为: 第一列: \(dy1/dx1,dy2/dx1,dy3/dx1\) 第二列:\(dy1/dx2, dy2/dx2,dy3/dx…
先放一张表,可以看成是二维数组 行(列)索引 索引0 索引1 索引2 索引3 索引0 0 1 2 3 索引1 4 5 6 7 索引2 8 9 10 11 索引3 12 13 14 15 看一下下面例子代码: 针对0维(输出为行形式) >>> import torch as t >>> a = t.arange(0,16).view(4,4) >>> a tensor([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8, 9, 10,…
Numpy 是一个非常好的框架,但是不能用 GPU 来进行数据运算. Numpy is a great framework, but it cannot utilize GPUs to accelerate its numerical computations. For modern deep neural networks, GPUs often provide speedups of 50x or greater, so unfortunately numpy won't be enough…
理解张量,并将张量与线性代数的知识连接起来,我认为最重要的是理解 tensor 的两个属性:shape 和 ndim . ndim 表示张量的维度,一维张量的 ndim 值为 1,二维张量的 ndim 值为 2. shape 表示张量的形状,它的值是一个列表,列表元素个数与张量的维度相等,每一个元素值表示张量在此维度的元素个数. 举例来说: >>> tensor = torch.randn(3, 2, 2) >>> tensor tensor([[[ 1.1070, -…