PS:要转载请注明出处,本人版权所有。

PS: 这个只是基于《我自己》的理解,

如果和你的原则及想法相冲突,请谅解,勿喷。

前置说明

  本文作为本人csdn blog的主站的备份。(BlogID=107)

环境说明
  • Windows 10
  • VSCode
  • Python 3.8.10
  • Pytorch 1.8.1
  • Cuda 10.2

前言


  在前文中,我们已经接触了两种回归模型,也接触了深度学习中的一些常见的概念。其中有趣的信息是,我们在《DL基础补全计划(二)---Softmax回归及示例(Pytorch,交叉熵损失)》中已经发现了,在softmax回归的时候,我们使用一个线性的隐藏层在其数据集上都能够达到不错的不错的准确率,这里的不错是指瞎猜和我们的模型推测的准确率,一个是10%,一个是80%左右。这至少说明了我们这个分类模型是有效的。其实后续我们就会更换线性隐藏层为其他层来实现我们的模型,比如:CNN、RNN等等,不同的隐藏层是后续我们要接触和学习的内容,这里不先做详解。

  我们假设我们已经设计出了许多的不同隐藏层的模型,这个时候有一个重要的问题就是选择哪一个模型为我们实际的要应用的模型,本文将会介绍一些方法来实现怎么选择模型的问题。

一些基本概念简介


  基本概念简介:

  • 训练误差 是指模型在参数更新后,在训练集上做一次测试,算出的和真实值的误差。

  • 泛化误差 是指模型在真实数据分布下,算出的和真实值的误差,但是一般情况下数据是无穷多的,我们只能够采集一些真实数据,并算出泛化误差。常见的情况是我们构造一个测试集来计算泛化误差。

  • 欠拟合 模型拟合能力差,训练误差和泛化误差差异小,但是两个误差都比较大,一般来说,就是模型基本没有学习到我们需要学习的规律和特征。

  • 过拟合 训练误差小,泛化误差大。一般来说就是在训练集上学习的太过分了,类似强行记住了训练集上的所有规律和特征,导致泛化能力太弱了。

  一般来说欠拟合的话,就是换网络,加深加大网络等解决问题,欠拟合其实很明显,解决方向比较明确。

  其实我们更多是遇到过拟合,因为随着发展,我们的模型越来越深和宽,但是我们能够收集到的数据是有限的,导致了我们的模型可能出现‘死记硬背’下我们的训练集,然后泛化能力就令人担忧,为了缓解这个问题,后续我们将会介绍几种缓解过拟合的方法。

  下面我们将会通过一个实例来体会一下正常拟合、欠拟合、过拟合。

一个正常拟合、过拟合、欠拟合的实例


  这里我们通过pytorch的高级API来设计一个线性规划的实例。

  首先通过如下的代码生成\(Y=X^3*W1 + X^2*W2 + X*W3 + b + \epsilon, \epsilon=N(0, 0.1^2)\)的特征和标签。

  1. def synthetic_data(w, num_examples): #@save
  2. """⽣成y = X1^3*W1 + X2^2*W1 + X3*W3 + b + 噪声。"""
  3. X = np.random.normal(0, 1, (num_examples, 1))
  4. y = np.dot(X**3/np.math.factorial(3), w[0]) + np.dot(X**2/np.math.factorial(2), w[1]) + np.dot(X/np.math.factorial(1), w[2]) + w[3]
  5. # 噪声
  6. y += np.random.normal(0, 0.1, y.shape)
  7. return X, y.reshape((-1, 1))

  然后通过自定义Pytorch层,通过传入参数N,计算N项多项式的结果。

  1. class TestLayer(nn.Module):
  2. def __init__(self, n, **kwargs):
  3. super(TestLayer, self).__init__(**kwargs)
  4. self.n = n
  5. self.w_array = nn.Parameter(torch.tensor( np.random.normal(0, 0.1, (1, n))).reshape(-1, 1))
  6. self.b = nn.Parameter(torch.tensor(np.random.normal(0, 0.1, 1)))
  7. def cal(self, X, n):
  8. X = X.reshape(batch_size, 1, 1)
  9. Y = self.b
  10. for i in range(n):
  11. # print(X.shape)
  12. # print(self.w_array.shape)
  13. # print(Y.shape)
  14. Y = Y + torch.matmul(X**(i + 1)/torch.tensor(np.math.factorial(i + 1)), self.w_array[i])
  15. return Y
  16. def forward(self, x):
  17. return self.cal(x, self.n)
  18. class TestNet(nn.Module):
  19. def __init__(self, n):
  20. super(TestNet, self).__init__()
  21. self.test_net = nn.Sequential(
  22. TestLayer(n)
  23. )
  24. def forward(self, x):
  25. return self.test_net(x)

  最终完整代码如下:

  1. import torch
  2. from torch import nn
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. from torch.utils import data
  6. from matplotlib.pyplot import MultipleLocator
  7. fig, ax = plt.subplots()
  8. xdata0, ydata0 = [], []
  9. xdata1, ydata1 = [], []
  10. line0, = ax.plot([], [], 'r-', label='TrainError')
  11. line1, = ax.plot([], [], 'b-', label='TestError')
  12. def init_and_show():
  13. ax.set_xlabel('epoch')
  14. ax.set_ylabel('loss')
  15. ax.set_title('Train/Test Loss')
  16. ax.set_xlim(0, epochs)
  17. ax.set_ylim(0.05, 100)
  18. ax.set_yscale('log')
  19. # y_locator = MultipleLocator(0.1)
  20. # ax.yaxis.set_major_locator(y_locator)
  21. ax.legend([line0, line1], ('TrainError', 'TestError'))
  22. # ax.legend([line1], ('TestError', ))
  23. line0.set_data(xdata0, ydata0)
  24. line1.set_data(xdata1, ydata1)
  25. plt.show()
  26. def synthetic_data(w, num_examples): #@save
  27. """⽣成y = X1^3*W1 + X2^2*W1 + X3*W3 + b + 噪声。"""
  28. X = np.random.normal(0, 1, (num_examples, 1))
  29. y = np.dot(X**3/np.math.factorial(3), w[0]) + np.dot(X**2/np.math.factorial(2), w[1]) + np.dot(X/np.math.factorial(1), w[2]) + w[3]
  30. # 噪声
  31. y += np.random.normal(0, 0.1, y.shape)
  32. return X, y.reshape((-1, 1))
  33. class TestLayer(nn.Module):
  34. def __init__(self, n, **kwargs):
  35. super(TestLayer, self).__init__(**kwargs)
  36. self.n = n
  37. self.w_array = nn.Parameter(torch.tensor( np.random.normal(0, 0.1, (1, n))).reshape(-1, 1))
  38. self.b = nn.Parameter(torch.tensor(np.random.normal(0, 0.1, 1)))
  39. def cal(self, X, n):
  40. X = X.reshape(batch_size, 1, 1)
  41. Y = self.b
  42. for i in range(n):
  43. # print(X.shape)
  44. # print(self.w_array.shape)
  45. # print(Y.shape)
  46. Y = Y + torch.matmul(X**(i + 1)/torch.tensor(np.math.factorial(i + 1)), self.w_array[i])
  47. return Y
  48. def forward(self, x):
  49. return self.cal(x, self.n)
  50. class TestNet(nn.Module):
  51. def __init__(self, n):
  52. super(TestNet, self).__init__()
  53. self.test_net = nn.Sequential(
  54. TestLayer(n)
  55. )
  56. def forward(self, x):
  57. return self.test_net(x)
  58. # copy from d2l/torch.py
  59. def load_array(data_arrays, batch_size, is_train=True):
  60. """Construct a PyTorch data iterator."""
  61. dataset = data.TensorDataset(*data_arrays)
  62. return data.DataLoader(dataset, batch_size, shuffle=is_train)
  63. # def data_loader(batch_size, features, labels):
  64. # num_examples = len(features)
  65. # indices = list(range(num_examples))
  66. # np.random.shuffle(indices) # 样本的读取顺序是随机的
  67. # for i in range(0, num_examples, batch_size):
  68. # j = np.array(indices[i: min(i + batch_size, num_examples)])
  69. # yield torch.tensor(features.take(j, 0)), torch.tensor(labels.take(j)) # take函数根据索引返回对应元素
  70. def train(dataloader, model, loss_fn, optimizer):
  71. size = train_examples
  72. num_batches = train_examples / batch_size
  73. train_loss_sum = 0
  74. for batch, (X, y) in enumerate(dataloader):
  75. # move X, y to gpu
  76. if torch.cuda.is_available():
  77. X = X.to('cuda')
  78. y = y.to('cuda')
  79. # Compute prediction and loss
  80. pred = model(X)
  81. loss = loss_fn(pred, y)
  82. # Backpropagation
  83. optimizer.zero_grad()
  84. loss.backward()
  85. optimizer.step()
  86. train_loss_sum += loss.item()
  87. if batch % 5 == 0:
  88. loss, current = loss.item(), batch * len(X)
  89. print(f"loss: {loss:>7f} [{current:>5d}/{size:>5d}]")
  90. print(f"Train Error: \n Avg loss: {train_loss_sum/num_batches:>8f} \n")
  91. return train_loss_sum/num_batches
  92. def test(dataloader, model, loss_fn):
  93. num_batches = test_examples / batch_size
  94. test_loss = 0
  95. with torch.no_grad():
  96. for X, y in dataloader:
  97. # move X, y to gpu
  98. if torch.cuda.is_available():
  99. X = X.to('cuda')
  100. y = y.to('cuda')
  101. pred = model(X)
  102. test_loss += loss_fn(pred, y).item()
  103. test_loss /= num_batches
  104. print(f"Test Error: \n Avg loss: {test_loss:>8f} \n")
  105. return test_loss
  106. if __name__ == '__main__':
  107. device = 'cuda' if torch.cuda.is_available() else 'cpu'
  108. print('Using {} device'.format(device))
  109. true_w1 = [1.65]
  110. true_w2 = [-2.46]
  111. true_w3 = [3.54]
  112. true_b = 0.78
  113. test_examples = 100
  114. train_examples = 100
  115. num_examples = test_examples + train_examples
  116. f1, labels = synthetic_data([true_w1, true_w2, true_w3, true_b], num_examples)
  117. print(f1.shape)
  118. print(labels.shape)
  119. num_weight = 3
  120. l1_loss_fn = torch.nn.MSELoss()
  121. learning_rate = 0.01
  122. model = TestNet(num_weight)
  123. optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
  124. model = model.to(device)
  125. print(model)
  126. epochs = 1500
  127. model.train()
  128. batch_size = 10
  129. train_data = (torch.tensor(f1[:train_examples,]), torch.tensor(labels[:train_examples,]))
  130. test_data = (torch.tensor(f1[train_examples:,]), torch.tensor(labels[train_examples:,]))
  131. train_dataloader = load_array(train_data ,batch_size, True)
  132. test_dataloader = load_array(test_data ,batch_size, True)
  133. # verify dataloader
  134. # for x,y in train_dataloader:
  135. # print(x.shape)
  136. # print(y.shape)
  137. # print(torch.matmul(x**3, torch.tensor(true_w1, dtype=torch.double)) + torch.matmul(x**2, torch.tensor(true_w2, dtype=torch.double)) + torch.matmul(x, torch.tensor(true_w3, dtype=torch.double)) + true_b)
  138. # print(y)
  139. # break
  140. model.train()
  141. for t in range(epochs):
  142. print(f"Epoch {t+1}\n-------------------------------")
  143. train_l = train(train_dataloader, model, l1_loss_fn, optimizer)
  144. test_l = test(test_dataloader, model, l1_loss_fn)
  145. ydata0.append(train_l*10)
  146. ydata1.append(test_l*10)
  147. xdata0.append(t)
  148. xdata1.append(t)
  149. print("Done!")
  150. init_and_show()
  151. param_iter = model.parameters()
  152. print('W = ')
  153. print(next(param_iter)[: num_weight, :])
  154. print('b = ')
  155. print(next(param_iter))

  注意,此最终代码首先生成了100个训练集和100个测试集。通过num_weight可以控制参与训练的多项式个数,话句话说,可以控制参与拟合训练的参数个数。下面通过三个说明我们来看看,不同num_weight下,TrainErr和TestErr和迭代次数,参与拟合训练的参数的关系。

正常拟合(num_weight = 3)

  当num_weight = 3时,运行我们的训练脚本,我们可以清楚的看到,我们拟合出来的结果和我们的真实参数是几乎一样的。同时我们也可以看到TrainErr和TestErr快速的收敛接近0而且差别不是很大。

欠拟合(num_weight = 1)

  当num_weight = 1时,运行我们的训练脚本,我们可以清楚的看到,损失图像到了一定程度就不下降了,不能够收敛。

过拟合(num_weight = 20)

  当num_weight = 20时,按照我们的猜测,我们的模型应该会出现过拟合。

  正常过拟合现象, 注意观察最终输出前面3项的w和b和真实w和b存在差异。

  从我多次的实验的结果来看,除了上面的真实出现的过拟合情况,还有一些情况是,不会出现过拟合现象,如下图。注意观察最终输出前面3项的w和b和真实w和b。

  我们通过观察,发现了w的4到20项参数接近于0,前面3项的w和b和真实w和b是比较接近的,因此我们猜测没有出现过拟合的原因是w的4到20项的权重在整个表达式中占比非常小,因此不会过拟合。可以直接理解为w的4到20项的权重为0。

  注意过拟合这个例子,需要多次运行才会出现过拟合现象,其是波动的,其实就是我们初始化的参数充满了随机性,导致了不容易收敛。而欠拟合和正常拟合的例子不管你怎么运行,都能稳定的得到结果。

后记


  这里我们从模型选择的角度出发,发现了我们训练的过程中会出现的3种现象,欠拟合,正常拟合,过拟合。其中正常拟合状态下的模型是我们需要的。

  对于欠拟合来说,就是参与训练的参数少了,换句话说我们的模型太简单了,不能够代表我们要学习的特征,导致完全不能够收敛。

  对于过拟合来说,远不止我们看到的这么简单和清晰。在这里我们只是看到了一个主要的导致训练出现大波动的原因就是参数过多,这种情况下会出现过拟合现象。由于在后面的模型中,参数都是成百上千,我们不可能一个个尝试,因此在后续,我们还会学习一些手段来抑制过拟合现象。

  这里我们也要引出一个问题,我们知道模型的复杂度(参数个数)在一个特定数据集上可能会导致过拟合,那么我们除了控制模型复杂度之外,还有其他的方案可以选择吗?

参考文献


打赏、订阅、收藏、丢香蕉、硬币,请关注公众号(攻城狮的搬砖之路)

PS: 请尊重原创,不喜勿喷。

PS: 要转载请注明出处,本人版权所有。

PS: 有问题请留言,看到后我会第一时间回复。

DL基础补全计划(三)---模型选择、欠拟合、过拟合的更多相关文章

  1. DL基础补全计划(二)---Softmax回归及示例(Pytorch,交叉熵损失)

    PS:要转载请注明出处,本人版权所有. PS: 这个只是基于<我自己>的理解, 如果和你的原则及想法相冲突,请谅解,勿喷. 前置说明   本文作为本人csdn blog的主站的备份.(Bl ...

  2. DL基础补全计划(六)---卷积和池化

    PS:要转载请注明出处,本人版权所有. PS: 这个只是基于<我自己>的理解, 如果和你的原则及想法相冲突,请谅解,勿喷. 前置说明   本文作为本人csdn blog的主站的备份.(Bl ...

  3. DL基础补全计划(一)---线性回归及示例(Pytorch,平方损失)

    PS:要转载请注明出处,本人版权所有. PS: 这个只是基于<我自己>的理解, 如果和你的原则及想法相冲突,请谅解,勿喷. 前置说明   本文作为本人csdn blog的主站的备份.(Bl ...

  4. DL基础补全计划(五)---数值稳定性及参数初始化(梯度消失、梯度爆炸)

    PS:要转载请注明出处,本人版权所有. PS: 这个只是基于<我自己>的理解, 如果和你的原则及想法相冲突,请谅解,勿喷. 前置说明   本文作为本人csdn blog的主站的备份.(Bl ...

  5. OSPF补全计划-0 preface

    哇靠,一看日历吓了我一跳,我这一个月都没写任何东西,好吧,事情的确多了点儿,同事离职,我需要处理很多untechnical的东西,弄得我很烦,中间学的一点小东西(关于Linux的)也没往这里记,但是我 ...

  6. Eclipse代码提示补全问题,自动选择第一个

    原地址 http://blog.csdn.net/liuhhaiffeng/article/details/7179243 Eclipse具有代码提示功能, 但是默认的提示只有在输入".&q ...

  7. 〖Eclipse〗Eclipse实现类似于YouCompleteMe补全插件的tab选择,shift+tab反向选择,空格、回车、点号等结束选择。

    1.增加Eclipse的提示功能 在Eclipse中,从Window -> preferences -> Java -> Editor -> Content assist -& ...

  8. 2018.我的NOIP补全计划

    code: efzoi.tk @ shleodai noip2011 D1 选择客栈 这道题是一道大水题,冷静分析一会就会发现我们需要维护最后一个不合法点和前缀和. 维护最后一个不合法点只要边扫描边维 ...

  9. 【hjmmm网络流24题补全计划】

    本文食用方式 按ABC--分层叙述思路 可以看完一步有思路后自行思考 飞行员配对问题 题目链接 这可能是24题里最水的一道吧... 很显然分成两个集合 左外籍飞行员 右皇家飞行员 跑二分图最大匹配 输 ...

随机推荐

  1. [Django高级之中间件、csrf跨站请求伪造]

    [Django高级之中间件.csrf跨站请求伪造] Django中间件 什么是中间件? Middleware is a framework of hooks into Django's request ...

  2. DHCP与DHCP中继

    DHCP原理与配置 1. DHCP应用场景 2. DHCP报文类型 3. DHCP工作原理 4. IP地址获取与释放 5. DHCP中继配置 1. DHCP应用场景 在大型企业网络中,会有大量的主机或 ...

  3. 彻底解决Could not transfer artifact org.apache.maven.plugins问题

    今天在学习maven框架的时候出现Could not transfer artifact org.apache.maven.plugins问题,后面根据很多博客综合总结,终于解决了,现在分享一下我的方 ...

  4. 行者APP适配国外环境问题解决

    (本文1151字,阅读约5分钟) 玩骑行的同伴都知道,长途骑行,第一需要好的硬件,如大腿发动机.车子.装备等:二是需要好的软件,如意志.有氧能力.骑行app等. 到雅加达后,才发现在国内用了几年的黑鸟 ...

  5. go语言json技巧

    go语言json技巧 本文总结了在项目中遇到的那些关于go语言JSON数据与结构体之间相互转换的问题及解决办法. 基本的序列化 首先我们来看一下Go语言中json.Marshal()(系列化)与jso ...

  6. YOLOv4全文阅读(全文中文翻译)

    YOLOv4全文阅读(全文中文翻译) YOLOv4: Optimal Speed and Accuracy of Object Detection 论文链接: https://arxiv.org/pd ...

  7. Cuda Stream流分析

    Cuda Stream流分析 Stream 一般来说,cuda c并行性表现在下面两个层面上: Kernel level Grid level Stream和event简介 Cuda stream是指 ...

  8. 多加速器驱动AGX的目标检测与车道分割

    多加速器驱动AGX的目标检测与车道分割 Object Detection and Lane Segmentation Using Multiple Accelerators with DRIVE AG ...

  9. 算法训练 区间k大数查询(题解)

    资源限制 时间限制:1.0s   内存限制:256.0MB   问题描述 给定一个序列,每次询问序列中第l个数到第r个数中第K大的数是哪个.   输入格式 第一行包含一个数n,表示序列长度. 第二行包 ...

  10. 一枚通过参数污染绕过百度RASP的XSS

    日常工作过程中,偶然发现一个网站登录页面,在页面返回包中存在一个隐藏参数"mess",且该页面部署了百度RASP进行防护,本文介绍如何发现隐藏参数以及如何通过参数污染方式造成XSS ...