AIFramework基本概念整理
AIFramework基本概念整理
本文介绍:
- 对天元 MegEngine 框架中的 Tensor, Operator, GradManager 等基本概念有一定的了解;
- 对深度学习中的前向传播、反向传播和参数更新的具体过程有更加清晰的认识;
- 通过写代码训练一个线性回归模型,对上面提到的这些概念进行具体的实践,加深理解。
请先运行下面的代码,检验环境中是否已经安装好 MegEngine(访问官网安装教程):
[1]:
import megengine
print(megengine.__version__)
1.3.1
或者可以前往 MegStudio fork 公开项目,无需本地安装,直接线上体验(开始学习)
接下来,将学习框架中一些基本模块的使用,先从最基础的张量(Tensor)和算子(Operator)开始吧~
张量(Tensor)
真实世界中的很多非结构化的数据,如文字、图片、音频、视频等,都可以表达成更容易被计算机理解的形式。
MegEngine 使用张量(Tensor)来表示数据。类似于 NumPy 中的多维数组(ndarray),张量可以是标量、向量、矩阵或者多维数组。 在 MegEngine 中得到一个 Tensor 的方式有很多:
- 可以通过 megengine.functional.tensor 的 arange(), ones() 等方法来生成 Tensor,functional 模块会在后面介绍;
- 也可以通过 Tensor() 或 tensor() 方法,传入 Python list 或者 ndarray 来创建一个 Tensor
[2]:
import numpy as np
import megengine as mge # 习惯将 MegEngine 缩写为 mge
import megengine.functional as F # 习惯将 functional 缩写为 F
# 1. 生成 Python List,然后转化为 MegEngine Tensor
py_list = range(5)
print(mge.tensor(py_list))
# 2. 生成 Numpy ndarray,然后转化为 MegEngine Tensor
np_ndarray = np.arange(5).astype("float32")
print(mge.tensor(np_ndarray))
# 3. 使用 functional 模块直接生成 MegEngine Tensor
mge_tensor = F.arange(5)
print(mge_tensor)
Tensor([0 1 2 3 4], dtype=int32, device=xpux:0)
Tensor([0. 1. 2. 3. 4.], device=xpux:0)
Tensor([0. 1. 2. 3. 4.], device=xpux:0)
通过 dtype 属性可以获取 Tensor 的数据类型,默认为 float32:
- 为了方便,统一使用 NumPy 的 dtype 表示;
- 使用 type() 可以获取实际的类型,用来区分 ndarray 和 Tensor
[3]:
print(mge_tensor.dtype)
print(type(mge_tensor))
<class 'numpy.float32'>
<class 'megengine.tensor.Tensor'>
通过 astype() 方法可以拷贝创建一个指定数据类型的新 Tensor ,原 Tensor 不变:
- MegEngine Tensor 目前不支持转化成 float64 类型;
- float64 类型的 ndarray 转化成 Tensor 时会变成 float32 类型
[4]:
new_tensor = mge_tensor.astype("float16")
print(new_tensor)
Tensor([0. 1. 2. 3. 4.], dtype=float16, device=xpux:0)
通过 device 属性,可以获取 Tensor 当前所在的设备:
- 一般地,如果在创建 Tensor 时不指定 device,其 device 属性默认为 xpux,表示当前任意一个可用的设备;
- 在 GPU 和 CPU 同时存在时,MegEngine 将自动使用 GPU 作为默认设备进行训练 .
- 如果需要查询 Tensor 所在设备,可以使用 Tensor.device ;
- 如果需要改变 Tensor 所在设备,可以使用 Tensor.to 或 functional.copy .
通过 Tensor 自带的 numpy() 方法,可以拷贝 Tensor 并转化对应的 ndarray,原 Tensor 不变::
[5]:
print(type(mge_tensor.numpy()))
<class 'numpy.ndarray'>
可以发现,不同类型之间的转化比较灵活,但需要注意:
- MegEngine Tensor 没有 mge.numpy(mge_tensor) 这种用法;
- tensor 是 Tensor 的一个别名(Alias),也可以尝试直接这样导入:
[6]:
from megengine import tensor
from megengine import Tensor
print(tensor([1, 2, 3])) # 实际上更希望使用 float32 类型的 Tensor
print(Tensor([1., 2., 3.])) # 因此会习惯性地加上一个点表示这是浮点数
Tensor([1 2 3], dtype=int32, device=xpux:0)
Tensor([1. 2. 3.], device=xpux:0)
通过 shape 属性,可以获取 Tensor 的形状:
[7]:
matrix_tensor = mge.tensor([[1., 2., 3.],
[4., 5., 6.]])
print(matrix_tensor.shape)
(2, 3)
通过 size 属性,可以获取 Tensor 中元素的个数:
[8]:
print(matrix_tensor.size) # 2 * 3 = 6
6
通过 item() 方法,可以获得对应的 Python 标量对象:
[9]:
a = mge.tensor([[5.]]) # 可以多维,但必须确保其中只有一个元素,即 size 为 1
print(a.item(), type(a.item()))
5.0 <class 'float'>
算子(Operator)
MegEngine 中通过算子 (Operator) 来表示运算。MegEngine 中的算子支持基于 Tensor 的常见数学运算和操作。 比如 Tensor 的元素间(Element-wise)加法、减法和乘法:
[10]:
A = mge.tensor([[2., 4., 2.],
[2., 4., 2.]])
B = mge.tensor([[1., 2., 1.],
[1., 2., 1.]])
print(A + B)
print(A - B)
print(A * B)
print(A / B)
Tensor([[3. 6. 3.]
[3. 6. 3.]], device=xpux:0)
Tensor([[1. 2. 1.]
[1. 2. 1.]], device=xpux:0)
Tensor([[2. 8. 2.]
[2. 8. 2.]], device=xpux:0)
Tensor([[2. 2. 2.]
[2. 2. 2.]], device=xpux:0)
也可以使用 MegEngine 中的 functional 模块中的各种方法来完成对应计算:
[11]:
import megengine.functional as F
print(F.add(A, B))
print(F.sub(A, B))
print(F.mul(A, B))
print(F.div(A, B))
Tensor([[3. 6. 3.]
[3. 6. 3.]], device=xpux:0)
Tensor([[1. 2. 1.]
[1. 2. 1.]], device=xpux:0)
Tensor([[2. 8. 2.]
[2. 8. 2.]], device=xpux:0)
Tensor([[2. 2. 2.]
[2. 2. 2.]], device=xpux:0)
Tensor 支持 Python 中常见的切片(Slicing)操作:
[12]:
A = mge.tensor([[1., 2., 3.],
[4., 5., 6.]])
print(A[1, :2])
Tensor([4. 5.], device=xpux:0)
使用 reshape() 方法,可以得到修改形状后的 Tensor:
[13]:
A = mge.tensor([[1., 2., 3.],
[4., 5., 6.]])
print(A.shape)
A = A.reshape(3, 2)
print(A.shape)
(2, 3)
(3, 2)
另外, reshape() 方法的参数允许存在单个维度的缺省值,用 -1 表示。
此时,reshape() 会自动推理该维度的值:
[14]:
A = mge.tensor(np.random.random((2, 3, 4, 5)))
print(A.shape)
A = A.reshape(2, -1, 5)
print(A.shape)
(2, 3, 4, 5)
(2, 12, 5)
在 functional 模块中提供了更多的算子,比如 Tensor 的矩阵乘可以使用 matmul() 方法:
[15]:
x = mge.tensor([[1., 3., 5.],
[2., 4., 6.]])
w = mge.tensor([[1., 2.],
[3., 4.],
[5., 6.]])
p = F.matmul(x, w)
print(p)
Tensor([[35. 44.]
[44. 56.]], device=xpux:0)
可以使用 NumPy 的矩阵乘来验证一下这个结果:
[16]:
import numpy as np
x = np.array([[1., 3., 5.],
[2., 4., 6.]])
w = np.array([[1., 2.],
[3., 4.],
[5., 6.]])
p = np.matmul(x, w)
print(p)
[[35. 44.]
[44. 56.]]
更多算子可以参考 functional 模块的 文档 部分。
现在可以适当休息一下,脑海中回想一下张量(Tensor)和算子(Operator)的概念,然后继续阅读教程后面的部分。
计算图(Computing Graph)
MegEngine 是基于计算图(Computing Graph)的深度神经网络学习框架,下面通过一个简单的数学表达式 y=(w∗x)+b 来介绍计算图的基本概念,如下图所示:
计算之间的各种流程依赖关系可以构成一张计算图,从中可以看到,计算图中存在:
- 数据节点(图中的实心圈):如输入数据 x、参数 w 和 b,运算得到的中间数据 p,以及最终的输出 y;
- 计算节点(图中的空心圈):图中 ∗ 和 + 分别表示计算节点 乘法 和 加法,是施加在数据节点上的运算;
- 边(图中的箭头):表示数据的流向,体现了数据节点和计算节点之间的依赖关系
在深度学习领域,任何复杂的深度神经网络模型本质上都可以用一个计算图表示出来。
MegEngine 用张量(Tensor)表示计算图中的数据节点,用算子(Operator)实现数据节点之间的运算。
可以理解成,神经网络模型的训练其实就是在重复以下过程:
- 前向传播:计算由计算图表示的数学表达式的值的过程。在上图中则是:
- 输入 x 和参数 w 首先经过乘法运算得到中间结果 p,
- 接着 p 和参数 b 经过加法运算,得到右侧最终的输出 y,这就是一个完整的前向传播过程。
- 反向传播:根据需要优化的目标(假设这里就为 y),通过链式求导法则,对所有的参数求梯度。在上图中,即计算 ∂y∂w 和 ∂y∂b.
- 参数更新:得到梯度后,需要使用梯度下降法(Gradient Descent)对参数做更新,从而达到模型优化的效果。在上图中,即对 w 和 b 做更新。
模型训练完成后便可用于测试(或者说推理),此时不需要再对模型本身做任何更改,只需要将数据经过前向传播得到对应的输出即可。
链式法则计算梯度
例如,为了得到上图中 y 关于参数 w 的梯度,反向传播的过程如下图所示:
- 首先 y=p+b,因此 ∂y∂p=1
- 接着,反向追溯,p=w∗x ,因此,∂p∂w=x
- 根据链式求导法则,∂y∂w=∂y∂p∗∂p∂w=1∗x
- 因此最终 y 关于参数 w 的梯度为 x.
求导器(GradManager)
推导梯度是件枯燥的事情,尤其是当模型的前向传播计算输出的过程变得相对复杂时,根据链式法则计算梯度会变得异常枯燥无味。 自动求导是深度学习框架对使用者而言最有用的特性之一,它自动地完成了反向传播过程中根据链式法则去推导参数梯度的过程。
MegEngine 的 autodiff 模块为计算图中的张量提供了自动求导功能,继续以上图的例子进行说明:
[17]:
from megengine.autodiff import GradManager
w = mge.tensor([3.])
x = mge.tensor([2.])
b = mge.tensor(-1.)
gm = GradManager().attach([w, b]) # 新建一个求导器,绑定需要求导的变量,实例通常习惯写成 gm
with gm: # 开始记录计算图
p = F.mul(w, x)
y = p + b
gm.backward(y) # 计算 y 关于参数的导数,过程中不断地使用链式法则
print(w.grad) # 得到结果为 x
print(b.grad) # 得到结果为 1
Tensor([2.], device=xpux:0)
Tensor(1.0, device=xpux:0)
- 可以看到,求出的梯度本身也是 Tensor,GradManager 负责管理和计算梯度(在默认情况下,Tensor 是不需要计算梯度的)。
- 可以使用 attach() 来绑定需要计算梯度的变量(绑定后可使用 detach() 将其取消绑定),使用 backward() 进行梯度的计算。
上面 with 代码段中的前向运算都会被求导器记录,有关求导器的原理,可以查看 GradManager 文档了解细节。
优化器(Optimizer)
应该注意到了,使用参数(Parameter)来称呼张量(Tensor)w 和 b, 因为与输入 x 不同,计算图中的 w 和 b 是需要进行更新/优化的变量。MegEngine 中使用 Parameter 来表示参数(注意没有小写形式),Parameter 是 Tensor 的子类,其对象(即网络参数)可以被优化器更新。
显然,GradManager 支持对于 Parameter 的梯度计算:
[18]:
w = mge.Parameter([3.])
x = mge.Tensor([2.])
b = mge.Parameter(-1.)
print(type(w))
print(type(b))
gm = GradManager().attach([w, b]) # 这次 attach() 传入的是 Parameter 而不是 Tensor
with gm:
p = F.mul(w, x)
y = p + b
gm.backward(y)
print(type(w.grad)) # 计算得到的梯度依然是 Tensor
<class 'megengine.tensor.Parameter'>
<class 'megengine.tensor.Parameter'>
<class 'megengine.tensor.Tensor'>
前向传播和反向传播的过程完成后,得到了参数对应需要更新的梯度,如 w 相对于输出 y 的梯度 w.grad.
根据梯度下降的思想,参数 w 的更新规则为:w = w - lr * w.grad, 其中 lr 是学习率(Learning Rate),控制参数更新速度。
P.S: 类似学习率这种,训练前人为进行设定的,而非由模型学得的参数,通常被称为超参数(Hyperparameter)。
MegEngine 的 Optimizer 模块提供了基于各种常见优化策略的优化器,如 Adam 和 SGD 等。
它们都继承自 Optimizer 基类,主要包含参数梯度的清空 clear_grad() 和参数更新 step() 这两个方法:
[19]:
import megengine.optimizer as optim # 习惯将 optimizer 缩写为 optim
optimizer = optim.SGD([w, b], lr=0.01) # 实例化随机梯度下降(SGD)优化器,传入 Parameter w 和 b
optimizer.step() # 更新参数值 w = w - lr * w.grad
optimizer.clear_grad() # 将参数的梯度清空,节省内存,以便下一次计算,w.grad 变为 None
print(w, w.grad)
Parameter([2.98], device=xpux:0) None
提示:多次实践表明,用户经常忘记在更新参数后做梯度清空操作,因此推荐使用这样的写法:optimizer.step().clear_grad()
使用 Numpy 来手动模拟一次参数 w 的更新过程:
[20]:
w = np.array([3.])
dw = np.array([2.]) # 前面已经计算出了 w.grad = x, 这里用 dw 表示
lr = 0.01
w = w - lr * dw
print(w) # 和 optimizer.step() 更新后得到的 w 应该一致
[2.98]
这样便成功地进行了一次参数更新,在实际训练模型时,参数的更新会迭代进行很多次,迭代次数 epochs 也是一种超参数,需要人为设定。
损失函数(Loss Function)
深度神经网络模型的优化过程,实际上就是使用梯度下降算法来优化一个目标函数,从而更新网络模型中的参数。
但请注意,上面用于举例的表达式的输出值其实并不是需要被优化的对象,目标是:模型预测的输出结果和真实标签尽可能一致。
已经知道了,通过前向传播可以得到模型预测的输出,此时用 损失函数(Loss Function) 来度量模型输出与真实结果之间的差距。
MegEngine 的 functional 模块提供了各种常见的损失函数,具体可见 文档 中的 loss 部分。
对于 w∗x+b 这样的范围在实数域 R 上的输出,可以使用均方误差(Mean Squared Error, MSE)表示模型输出 ypred 和实际值 yreal 的差距:
ℓ(ypred,yreal)=1n∑i=1n(y^i−yi)2
注:在上面的公式中 (y^i−yi)2 计算的是单个样本 xi 输入模型后得到的输出 y^i 和实际标签值 yi 的差异,数据集中有 n 个样本。
[21]:
import megengine.functional as F
pred = np.array([3, 3, 3, 3]).astype(np.float32)
real = np.array([2, 8, 6, 1]).astype(np.float32)
loss = np.mean((pred - real) ** 2) # 根据公式定义计算
print(loss)
loss = F.loss.square_loss(pred, real) # MegEngine 中的实现
print(loss)
9.75
9.75
选定损失函数作为优化目标后,便可在训练的过程中通过梯度下降不断地更新参数 w 和 b, 从而达到模型优化的效果:
w∗,b∗=argminw,bℓ(w,b).
练习:线性回归
接下来,用一个非常简单的例子,帮助将前面提到的概念给联系起来。
假设有人提供给一些包含数据 data 和标签 label 的样本集合 S 用于训练模型,希望将来给出输入 x, 模型能对输出 y 进行较好地预测:
data=[x1,x2,…,xn]label=[y1,y2,…,yn]S={(x1,y1),(x2,y2),…(xn,yn)}
请运行下面的代码以随机生成包含 data 和 label 的样本:
[22]:
%matplotlib inline
import numpy as np
import matplotlib.pyplot as plt
def generate_random_examples(n=100, noise=5):
w = np.random.randint(5, 10)
b = np.random.randint(-10, 10)
print("The real w: {}, b: {}".format(w, b))
# 初始化 data 和 label
data = np.zeros((n,))
label = np.zeros((n,))
# 生成 n 个随机样本数据,并添加一定的噪声干扰
for i in range(n):
data[i] = np.random.uniform(-10, 10)
label[i] = w * data[i] + b + np.random.uniform(-noise, noise)
plt.scatter(data[i], label[i], marker=".") # 将样本点绘制在坐标图上
# 展示样本数据的分布
plt.plot()
plt.show()
return data, label
original_data, original_label = generate_random_examples()
The real w: 9, b: 0
通过可视化观察样本的分布规律,不难发现,可以:
- 尝试拟合 y=w∗x+b 这样一个线性模型(均为标量);
- 选择使用均方误差损失作为优化目标;
- 通过梯度下降法来更新参数 w 和 b.
Numpy 实现
对于这种非常简单的模型,完全可以使用 Numpy 进行算法实现,借此了解一下整个模型训练的流程:
[23]:
# 设置超参数
epochs = 5
lr = 0.01
# 获取数据
data = original_data
label = original_label
n = len(data)
# 参数初始化
w = 0
b = 0
# 定义模型
def linear_model(x):
return w * x + b
# 模型训练
for epoch in range(epochs):
# 初始化单个 epoch 训练得到的损失
loss = 0
# 梯度初始化,等同于 Optimizer 中的 clear_grad()
sum_grad_w = 0
sum_grad_b = 0
# 为了方便理解,这里没有使用 “向量化实现”,而是使用了 for 循环写法
for i in range(n):
# 前向传播,主要计算预测值 pred 以及损失值 loss
pred = linear_model(data[i]) # 通常 pred 为将 data 代入 “模型” 得到的输出,即 model(data)
loss += (pred - label[i]) ** 2 # 等同于对每个样本使用 F.nn.loss(pred, label) 计算后求和
# 反向传播,根据均方误差损失计算参数的梯度,这里不解释推导过程,等同于 gm.backward()
sum_grad_w += 2 * (pred - label[i]) * data[i]
sum_grad_b += 2 * (pred - label[i])
# 计算平均损失,因为对于不同的输入,求得的损失都会不同,所以通常求和后取平均
loss = loss / n
# 计算平均梯度,因为对于不同的输入,求得的梯度都会不同,所以通常求和后取平均
grad_w = sum_grad_w / n
grad_b = sum_grad_b / n
# 更新参数,等同于 Optimizer 中的 step()
w = w - lr * grad_w
b = b - lr * grad_b
# 查看参数和损失
print("epoch = {}, w = {:.3f}, b = {:.3f}, loss = {:.3f}".format(epoch, w, b, loss))
# 绘图查看拟合情况
x = np.array([-10, 10])
y = w * x + b
plt.scatter(data, label, marker=".")
plt.plot(x, y, "-b")
plt.show()
epoch = 0, w = 5.965, b = -0.004, loss = 2702.561
epoch = 1, w = 7.992, b = -0.007, loss = 318.817
epoch = 2, w = 8.680, b = -0.009, loss = 43.688
epoch = 3, w = 8.914, b = -0.011, loss = 11.933
epoch = 4, w = 8.994, b = -0.012, loss = 8.268
可以看到,在 5 个 epoch 的迭代训练中,已经得到了一个拟合状况不错的线性模型。
MegEngine 实现
上面的流程,完全可以使用 MegEngine 来实现(有兴趣的读者可以参照上面的注释,先尝试自己实现):
[24]:
import megengine as mge
import megengine.functional as F
from megengine.autodiff import GradManager
import megengine.optimizer as optim
# 设置超参数
epochs = 5
lr = 0.01
# 获取数据
data = mge.tensor(original_data)
label = mge.tensor(original_label)
# 初始化参数
w = mge.Parameter([0.0])
b = mge.Parameter([0.0])
# 定义模型
def linear_model(x):
return F.mul(w, x) + b
# 定义求导器和优化器
gm = GradManager().attach([w, b])
optimizer = optim.SGD([w, b], lr=lr)
# 模型训练
for epoch in range(epochs):
with gm:
pred = linear_model(data)
loss = F.loss.square_loss(pred, label)
gm.backward(loss)
optimizer.step().clear_grad()
print("epoch = {}, w = {:.3f}, b = {:.3f}, loss = {:.3f}"
.format(epoch, w.item(), b.item(), loss.item()))
epoch = 0, w = 5.965, b = -0.004, loss = 2702.561
epoch = 1, w = 7.992, b = -0.007, loss = 318.817
epoch = 2, w = 8.680, b = -0.009, loss = 43.688
epoch = 3, w = 8.914, b = -0.011, loss = 11.933
epoch = 4, w = 8.994, b = -0.012, loss = 8.268
应该会得到相同的 w, b 以及 loss 值,下面直线的拟合程度也应该和 Numpy 实现一致:
[25]:
# 绘图查看拟合情况
x = np.array([-10, 10])
y = w.numpy() * x + b.numpy()
plt.scatter(data, label, marker=".")
plt.plot(x, y, "-b")
plt.show()
总结回顾
祝贺完成了入门教程的学习,现在是时候休息一下,做一个简单的回顾了:
到目前为止,已经掌握了天元 MegEngine 框架中的以下概念:
- 计算图(Computing Graph):MegEngine 是基于计算图的框架,计算图中存在数据节点、计算节点和边
- 前向传播:输入的数据在计算图中经过计算得到预测值,接着使用损失 loss 表示预测值和实际值的差异
- 反向传播:根据链式法则,得到计算图中所有参数 w 关于 loss 的梯度 dw ,实现在 autodiff 模块,由 GradManager 进行管理
- 参数更新:根据梯度下降算法,更新图中参数,从而达到优化最终 loss 的效果,实现在 optimzer 模块
- 张量(Tensor):MegEngine 中的基础数据结构,用来表示计算图中的数据节点,可以灵活地与 Numpy 数据结构转化
- 参数(Parameter):用于和张量做概念上的区分,模型优化的过程实际上就是优化器对参数进行了更新
- 超参数(Hype-parameter):其值无法由模型直接经过训练学得,需要人为(或通过其它方法)设定
- 算子(Operator):基于 Tensor 的各种计算的实现(包括损失函数),实现在 functional 模块
通过拟合 f(x)=w∗x+b 完成了一个最简单的线性回归模型的训练,干得漂亮!
问题思考
MegEngine 打怪升级之旅还没有结束,在前往下一关之前,尝试思考一些问题吧。
关于向量化实现:
- 当发现 Python 代码运行较慢时,通常可以将数据处理移入 NumPy 并采用向量化(Vectorization)写法,实现最高速度的处理
- 线性模型训练的 NumPy 写法中,单个 epoch 训练内出现了 for 循环,实际上可以采取向量化的实现(参考 MegEngine 实现的写法)
- 使用向量化的实现,通常计算的效率会更高,因此建议:代码中能够用向量化代替 for 循环的地方,就尽可能地使用向量化实现
关于设备:
- 都说 GPU 训练神经网络模型速度会比 CPU 训练快非常多,为什么?
- 可以把 Tensor 指定计算设备为 GPU 或 CPU,而原生 NumPy 只支持 CPU 计算,Tensor 转化为 ndarray 的过程是什么样的?
- 训练的速度是否会受到训练设备数量的影响呢?可不可以多个设备一起进行训练?
关于参数与超参数:
- 现在接触到了两个超参数 epochs 和 lr, 调整它们的值是否会对模型的训练产生影响?(不妨自己动手调整试试)
- 更新参数所用的梯度 grad_w,是所有样本的梯度之和 sum_grad_w 求均值,为什么不在每个样本反向传播后立即更新参数 w?
- 看上去得到了一条拟合得很不错的曲线,但是得到的 b 距离真实的 b 还比较遥远,为什么?如何解决这种情况?
- 如何选取合适的超参数,对于超参数的选取是否有一定的规律或者经验可寻?
关于数据集:
- 在线性模型中使用的是从 NumPy 代码生成的随机数据,修改数据集的样本数量 n 和噪声扰动程度 noise 会有什么影响?
- 对于现实中的数据集,如何转换成 MegEngine Tensor 的形式进行使用?
- 这中间需要经过什么样的预处理(Preprocessing)过程,有哪些流程是可以交由框架来完成的?
关于模型:
- 学会了定义了非常简单的线性模型 linear_model, 更复杂的模型要如何去写?
- 既然任何神经网络模型本质上都可以用计算图来表示,那么神经网络模型的搭建流程是什么样的?
关于最佳实践:
- 在编写代码时,经常会有根据前人经验总结出的最佳实践(Best Practice)作为参考,例如:
- 参数的更新和梯度的清空可以写在一起 optimizer.step().clear_grad()
- 在导入某些包的时候,通常有约定俗成的缩写如 import megengine as mge
- 除此以外,还有什么样的编程习惯和最佳实践值得参考?如何将一份玩具代码整理变成工程化的代码?
深度学习,简单开发。鼓励在实践中不断思考,并启发自己去探索直觉性或理论性的解释。
AIFramework基本概念整理的更多相关文章
- 【知识点】业务连接服务(BCS)认证概念整理
业务连接服务(BCS)认证概念整理 I. BDC认证模型 BDC服务支持两种认证模型:信任的子系统,模拟和代理. 在信任的子系统模型中,中间层(通常是Web服务器)通过一个固定的身份来向后端服务器取得 ...
- DNS,TCP,IP,HTTP,socket,Servlet概念整理
DNS,TCP,IP,HTTP,socket,Servlet概念整理 常见的协议虽然很容易理解,但是看了之后过一段时间不看还是容易忘,笔记如下,比较零碎,勉强供各位复习.如有错误欢迎指正. D ...
- IIS Web 服务器/ASP.NET 运行原理基本知识概念整理 转
转http://www.cnblogs.com/loongsoft/p/7272830.html IIS Web 服务器/ASP.NET 运行原理基本知识概念整理 前言: 记录 IIS 相 ...
- 西瓜书概念整理(chapter 1-2)
括号表示概念出现的其他页码, 如有兴趣协同整理,请到issue中认领章节 完整版见我的github:ahangchen 觉得还不错的话可以点个star ^_^ 第一章 绪论 Page2: 标记(lab ...
- IIS Web 服务器/ASP.NET 运行原理基本知识概念整理
前言: 记录 IIS 相关的笔记还是从公司笔试考核题开始的,问 Application Pool 与 AppDomain 的区别? 促使我对进程池进了知识的学习,所以记录一下学习 ...
- 西瓜书概念整理(chapter 1-2)熟悉机器学习术语
括号表示概念出现的其他页码, 如有兴趣协同整理,请到issue中认领章节 完整版见我的github:ahangchen 觉得还不错的话可以点个star ^_^ 第一章 绪论 Page2: 标记(lab ...
- python深度学习培训概念整理
对于公司组织的人工智能学习,每周日一天课程共计五周,已经上了三次,一天课程下来讲了两本书的知识.发现老师讲的速度太快,深度不够,而且其他公司学员有的没有接触过python知识,所以有必要自己花时间多看 ...
- G-sensor概述及常用概念整理【转】
本文转载自:http://www.jianshu.com/p/d471958189a0?nomobile=yesG 本文对G-sensor进行整理,先介绍G-sensor的一些基本概念,再具体讲解BO ...
- storm - 基础概念整理
理论 Hadoop的出现虽然为大数据计算提供了一条捷径,但其仍然存在自身难以克服的缺点:实时性不足.Hadoop的一轮计算的启动需要较长时间,因此其满足不了对实时性有较高要求的场景. Storm由此应 ...
随机推荐
- ASP调用SDK微信分享好友、朋友圈
ASP调用SDK微信分享好友.朋友圈需要用到sha1.asp,我先来上主代码,然后再附加sha1.asp,方便大家直接复制过去即可使用. 页面:shara.asp 1 <%@LANGUAGE=& ...
- 脚本加载后执行JS回调函数的方法
动态脚本简单示例 // IE下: var HEAD = document.getElementsByTagName('head')[0] || document.documentElement var ...
- WindowsPE 第五章 导出表
导出表 PE中的导出表存在于动态链接库文件里.导出表的主要作用是将PE中存在的函数导出到外部,以便其他人可以使用这些函数,实现代码重用. 5.1导出表的作用 代码重用机制提供了重用代码的动态链接库,它 ...
- java的继承和组合
继承和组合是java中非常常用的两种创建新类型的方法,两者都能提高代码的复用率. 继承主要是想让子类继承父类的基本特性:组合技术通常用于想在新类中使用现有类的功能,而非它的接口.两者的分别是" ...
- MySQL慢日志全解析
前言: 慢日志在日常数据库运维中经常会用到,我们可以通过查看慢日志来获得效率较差的 SQL ,然后可以进行 SQL 优化.本篇文章我们一起来学习下慢日志相关知识. 1.慢日志简介 慢日志全称为慢查询日 ...
- OOP第一章总结
经过了三周的OO,尽管过程不太轻松,但是有所得还是值得欣慰的事! (1)程序结构 第一次作业: UML类图如下,第一次作业在结构上并没有太多面向对象的思想,只是简单的分类,一个运行类,两个对象类,预处 ...
- [Java]数据分析--数据可视化
时间序列 需求:将一组字符顺序添加到时间序列中 实现:定义时间序列类TimeSeries,包含静态类Entry表示序列类中的各项,以及add,get,iterator,entry方法 TimeSeri ...
- [bug] HDFS:hdfs missing blocks. The following files may be corrupted
原因 HDFS数据块丢失,需要删除丢失块的元信息 bin/hadoop fsck / -delete 参考 https://blog.csdn.net/lixgjob/article/details/ ...
- [c++] 如何流畅地读写代码
代码不同于普通文字,阅读时注意两方面: 符号含义:相同符号,上下文不同时含义也不同,如*和& 阅读顺序:不总是按从左往右顺序阅读的,有时要倒着读或者跳着读逻辑才通顺 适当省略:有些内容虽然写了 ...
- linux下dmidecode命令获取硬件信息
linux下dmidecode命令获取硬件信息 2 A+ 所属分类:Linux 运维工具 dmidecode在 Linux 系统下获取有关硬件方面的信息.dmidecode 遵循 SMBIOS/DMI ...