一.Pytorch安装 安装cuda和cudnn,例如cuda10,cudnn7.5 官网下载torch:https://pytorch.org/ 选择下载相应版本的torch 和torchvision的whl文件 使用pip install whl_dir安装torch,并且同时安装torchvision 二.初步使用pytorch # -*- coding:utf-8 -*- __author__ = 'Leo.Z' import torch import time # 查看torch版本…
[深度学习] Pytorch学习(一)-- torch tensor 学习笔记 . 记录 分享 . 学习的代码环境:python3.6 torch1.3 vscode+jupyter扩展 #%% import torch print(torch.__version__) # 查看CUDA GPU是否可用 a = torch.cuda.is_available() print(a) #%% # torch.randperm x = torch.randperm(6) print(x) #%% #…
Pytorch给我们提供了自动求导的函数,不用再自己再推导计算梯度的公式了 虽然有了自动求导的函数,但是这里我想给大家浅析一下:深度学习中的一个很重要的反向传播 references:https://en.wikipedia.org/wiki/Chain_rule 我们先来看看什么是chain- rule(链式法则) Z是由 y经过f函数得到的,y又是x经过g函数得到   ,     正向传播的方向是从左往右,那么反向传播的便是从右到左,梯度是一级级往回传递的 我们知道一般输出的时候都要经过一个…
现在对 CNN 有了一定的了解,同时在 GitHub 上找了几个 examples 来学习,对网络的搭建有了笼统地认识,但是发现有好多基础 pytorch 的知识需要补习,所以慢慢从官网 API进行学习吧. AUTOGRAD MECHANICS(自动求导机制) 这一部分做了解处理,不需要完全理解的明明白白的. Excluding subgraphs from backward 每一个 Tensor 变量都可以设置一个属性:requires_grad(默认参数 False),可以设置此参数排除向后…
这篇其实跟使用MXnet的关系不大,但对于我们理解深度学习的框架设计还是很有帮助的. 首先还是对promgramming models的一个简单介绍,这个东西实际上是在编译里面经常出现的东西,我们在编译我们的程序的时候,可以对变量构建出一个计算图,然后可以对这个图进行相应的优化来提高速度或者节省内存.到了DL框架上,这些用处就更加重要了,但是也不是所有的DL框架都有计算图的,因为这其中存在一个research和engineering的权衡.计算图的简单理解就是下图: 一.Symbolic vs.…
一.计算图简介 在pytorch的官网上,可以看到一个简单的计算图示意图, 如下. import torchfrom torch.autograd import Variable x = Variable(torch.randn(1, 10)) prev_h = Variable(torch.randn(1, 20)) W_h = Variable(torch.randn(20, 20)) W_x = Variable(torch.randn(20, 10)) i2h = torch.mm(W_…
[新闻]:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测.医学图像.时间序列等多个目标为技术学习的分群和水群唠嗑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会.微信:cyx645016617. 参考目录: 目录 1 什么是eager模式 2 TF1.0 vs TF2.0 3 获取导数/梯度 4 获取高阶导数 之前讲解了如何构建数据集,如何创建TFREC文件,如何构建模型,如何存储模型.这一篇文章主要讲解,TF2中提出的一个eager模式,这个模式大大简化了TF的复杂程度. 1 什么是…
2018.4.25,Facebook 推出了 PyTorch 0.4.0 版本,在该版本及之后的版本中,torch.autograd.Variable 和 torch.Tensor 同属一类.更确切地说,torch.Tensor 能够追踪日志并像旧版本的 Variable 那样运行; Variable 封装仍旧可以像以前一样工作,但返回的对象类型是 torch.Tensor.这意味着我们的代码不再需要变量封装器. 相关链接: PyTorch 重磅更新,不只是支持 Windows PyTorch简…
Pytorch Autograd (自动求导机制) Introduce Pytorch Autograd库 (自动求导机制) 是训练神经网络时,反向误差传播(BP)算法的核心. 本文通过logistic回归模型来介绍Pytorch的自动求导机制.首先,本文介绍了tensor与求导相关的属性.其次,通过logistic回归模型来帮助理解BP算法中的前向传播以及反向传播中的导数计算. 以下均为初学者笔记. Tensor Attributes Related to Derivation note: 以…
TensoFlow自动求导机制 『TensorFlow』第二弹_线性拟合&神经网络拟合_恰是故人归 下面做了三个简单尝试, 利用包含gradients.assign等tf函数直接构建图进行自动梯度下降 利用优化器计算出导数,再将导数应用到变量上 直接使用优化器不显式得到导数 更新参数必须使用assign,这也可能会涉及到控制依赖问题. # Author : Hellcat # Time : 2/20/2018 import tensorflow as tf tf.set_random_seed(…