“AI Earth”人工智能创新挑战赛:助力精准气象和海洋预测Baseline[2]:数据探索性分析(温度风场可视化)、CNN+LSTM模型建模

1.气象海洋预测-数据分析

数据分析是解决一个数据挖掘任务的重要一环,通过数据分析,我们可以了解标签的分布、数据中存在的缺失值和异常值、特征与标签之间的相关性、特征之间的相关性等,并根据数据分析的结果,指导我们后续的特征工程以及模型的选择和设计。

在本次任务中,将探索赛题中给出的两份训练数据,可视化分析四个气象特征的分布情况,思考如何进行特征工程以及如何选择或设计模型来实现我们的预测任务。

  • 学习目标

    1. 学习如何探索并可视化分析气象数据。
    2. 根据数据分析结果思考以下两个问题:
      • 能否构造新的特征?
      • 选择或设计什么样的模型进行预测?

本赛题使用的训练数据包括CMIP5中17个模式提供的140年的历史模拟数据、CMIP6中15个模式提供的151年的历史模拟数据和美国SODA模式重建的100年的历史观测同化数据,采用nc格式保存,其中CMIP5和CMIP6分别是世界气候研究计划(WCRP)的第5次和第6次耦合模式比较计划,这二者都提供了多种不同的气候模式对于多种气候变量的模拟数据。这些数据包含四种气候变量:海表温度异常(SST)、热含量异常(T300)、纬向风异常(Ua)、经向风异常(Va),数据维度为(year, month, lat, lon),对于训练数据提供对应月份的Nino3.4指数标签数据。简而言之,提供的训练数据中的每个样本为某年、某月、某个维度、某个经度的SST、T300、Ua、Va数值,标签为对应年、对应月的Nino3.4指数。

需要注意的是,样本的第二维度month的长度不是12个月,而是36个月,对应从当前year开始连续三年的数据,例如SODA训练数据中year为0时包含的是从第1 - 第3年逐月的历史观测数据,year为1时包含的是从第2年 - 第4年逐月的历史观测数据,也就是说,样本在时间上是有交叉的。

另外一点需要注意的是,Nino3.4指数是Nino3.4区域从当前月开始连续三个月的SST平均值,也就是说,我们也可以不直接预测Nino3.4指数,而是以SST为预测目标,间接求得Nino3.4指数。测试数据为国际多个海洋资料同化结果提供的随机抽取的$N$段长度为12个月的时间序列,数据采用npy格式保存,维度为(12, lat, lon, 4),第一维度为连续的12个月份,第四维度为4个气候变量,按SST、T300、Ua、Va的顺序存放。测试集文件序列的命名如test_00001_01_12.npy中00001表示编号,01表示起始月份,12表示终止月份。

在本次任务中我们需要用到global_land_mask这个Python库,这个库可以根据输入的纬度和经度判断该点是否在陆地上。

项目链接以及码源见文末

  1. # !unzip -d input /home/aistudio/data/data221707/enso_round1_train_20210201.zip
  1. Archive: /home/aistudio/data/data221707/enso_round1_train_20210201.zip
  2. creating: input/enso_round1_train_20210201/
  3. inflating: input/enso_round1_train_20210201/CMIP_train.nc
  4. inflating: input/enso_round1_train_20210201/.DS_Store
  5. inflating: input/enso_round1_train_20210201/readme.txt
  6. inflating: input/enso_round1_train_20210201/SODA_train.nc
  7. inflating: input/enso_round1_train_20210201/SODA_label.nc
  8. inflating: input/enso_round1_train_20210201/CMIP_label.nc
  1. # 安装global_land_mask
  2. !pip install global_land_mask
  1. import numpy as np
  2. import matplotlib.pyplot as plt
  3. import random
  4. import netCDF4
  5. import seaborn as sns
  6. from global_land_mask import globe
  7. from scipy import interpolate
  8. plt.rcParams['font.sans-serif'] = ['SimHei'] #中文支持
  9. %matplotlib inline

1.1 以SODA数据集为例,探索标签的分布情况

  1. # 读取SODA数据
  2. # 存放数据的路径
  3. path = '/home/aistudio/'
  4. data = netCDF4.Dataset(path + 'SODA_train.nc')
  5. label = netCDF4.Dataset(path + 'SODA_label.nc')
  6. label = np.array(label.variables['nino'])
  1. print(data.variables['sst'].shape)
  1. (100, 36, 24, 72)
  1. label.shape
  1. (100, 36)

可以看到,数据集中的每个样本是以某一年为起始的接下来36个月的气象数据,同样的,标签也是以这一年为起始的接下来36个月中每个月的Nino3.4指数。然而一年只有12个月,怎么会有36个月的数据呢?

我们不妨来查看一下,将每个样本中的12个月进行拼接时,Nino3.4指数的变化曲线。

  1. # 分别将样本中的0-12月、12-24月、24-36月进行拼接,绘制Nino3.4指数的变化曲线
  2. plt.figure(figsize=(8, 10))
  3. plt.subplots_adjust(hspace=0.4, wspace=0.4)
  4. for i in range(3):
  5. label_all = [label[j, 12*i:12*(i+1)] for j in range(label.shape[0])]
  6. label_all = np.concatenate(label_all, axis=0)
  7. plt.subplot(3, 1, i+1)
  8. plt.plot(label_all, 'k', linewidth=1)
  9. plt.xlabel('Time / month')
  10. plt.ylabel('Nino')
  11. plt.title('nino: month{}-{}'.format(12*i, 12*(i+1)))
  12. plt.show()
  1. /opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/font_manager.py:1331: UserWarning: findfont: Font family ['sans-serif'] not found. Falling back to DejaVu Sans
  2. (prop.get_family(), self.defaultFamily[fontext]))

从图中可以看出,三条曲线的变化趋势是完全相同的,只是在时间上有12个月的位移。这说明,重叠部分的标签是相同的,给出这样的样本的目的是可以以前12个月作为模型的输入X、后24个月为预测目标Y构建训练样本。

进一步思考,将每个样本构建一个训练样本,那么我们所能得到的训练数据量就只有4645(CMIP数据)+100(SODA数据)=4745条,这样小的数据量用于模型训练必然是不够的,那么如何增加数据量呢?这个问题留待大家思考。

同样的,我们可以随机抽取三个样本,查看每个样本中的Nino3.4指数变化曲线。

  1. # 随机抽取三个样本,绘制Nino3.4指数变化曲线
  2. plt.figure(figsize=(8, 10))
  3. plt.subplots_adjust(hspace=0.4, wspace=0.4)
  4. for i in range(3):
  5. y = random.randint(0, label.shape[0])
  6. plt.subplot(3, 1, i+1)
  7. plt.plot(label[y], 'k', linewidth=1)
  8. plt.xlabel('Time / month')
  9. plt.ylabel('Nino')
  10. plt.title('nino: year{}'.format(y))
  11. plt.show()

1.2 以SST特征为例,进行海陆掩膜和插值分析

在给定数据中,经度和纬度坐标都是离散的,每隔5度有一个坐标点,在这样的经纬度坐标下的SST值也是离散的,因此我们以样本0第0月的SST数据为例,用插值函数来拟合经纬度坐标与SST值之间的函数关系,得到平滑的SST分布。

  1. lon = np.array(data.variables['lon'])
  2. lat = np.array(data.variables['lat'])
  1. x = lon
  2. y = lat
  3. # 以纬度和经度生成网格点坐标矩阵
  4. xx, yy = np.meshgrid(x, y)
  5. # 取样本0第0月的SST值
  6. z = data.variables['sst'][0, 0]
  7. # 采用三次多项式插值,得到z = f(x, y)的函数f
  8. f = interpolate.interp2d(x, y, z, kind = 'cubic')
  1. x
  1. array([ 0., 5., 10., 15., 20., 25., 30., 35., 40., 45., 50.,
  2. 55., 60., 65., 70., 75., 80., 85., 90., 95., 100., 105.,
  3. 110., 115., 120., 125., 130., 135., 140., 145., 150., 155., 160.,
  4. 165., 170., 175., 180., 185., 190., 195., 200., 205., 210., 215.,
  5. 220., 225., 230., 235., 240., 245., 250., 255., 260., 265., 270.,
  6. 275., 280., 285., 290., 295., 300., 305., 310., 315., 320., 325.,
  7. 330., 335., 340., 345., 350., 355.])

经度的实际取值是从-180°到0°到180°,而给定的数据中经度的取值是0°到360度每间隔5°取一个坐标值,因此在之后判断是否为陆地时需要转换为实际的经度。

  1. y
  1. array([-55., -50., -45., -40., -35., -30., -25., -20., -15., -10., -5.,
  2. 0., 5., 10., 15., 20., 25., 30., 35., 40., 45., 50.,
  3. 55., 60.])

数据中纬度的取值也是每间隔5°取一个坐标值。判断每个经纬度坐标点是否在陆地上,用空值遮盖陆地部分,便于观察海洋上SST的分布。

  1. # 将经度x转换为实际经度重新生成网格点坐标矩阵
  2. lon_grid, lat_grid = np.meshgrid(x-180, y)
  3. # 判断坐标矩阵上的网格点是否为陆地
  4. is_on_land = globe.is_land(lat_grid, lon_grid)
  5. is_on_land = np.concatenate([is_on_land[:, x >= 180], is_on_land[:, x < 180]], axis=1)
  6. # 进行陆地掩膜,将陆地的SST设为空值
  7. z[is_on_land] = np.nan
  8. # 可视化掩膜结果,黄色为陆地,紫色为海洋
  9. plt.imshow(is_on_land[::-1, :])
  1. <matplotlib.image.AxesImage at 0x7f5d009a5950>

  1. z.shape
  1. (24, 72)
  1. # 可视化海洋上的SST分布
  2. plt.imshow(z[::-1, :], cmap=plt.cm.RdBu_r)
  1. <matplotlib.image.AxesImage at 0x7f5d0090c390>

由上图可以看到,SST的分布是离散的,我们用之前得到的插值函数来平滑SST值,可视化平滑后的SST分布。

  1. # 设置间隔为1°的经纬度坐标网格,用插值函数得到该坐标网格点的SST值
  2. xnew = np.arange(0, 356, 1)
  3. ynew = np.arange(-65, 66, 1)
  4. znew = f(xnew, ynew)
  5. lon_grid, lat_grid = np.meshgrid(xnew-180, ynew)
  6. is_on_land = globe.is_land(lat_grid, lon_grid)
  7. is_on_land = np.concatenate([is_on_land[:, xnew >= 180], is_on_land[:, xnew < 180]], axis=1)
  8. # 同样进行陆地掩膜
  9. znew[is_on_land] = np.nan
  10. # 绘制平滑后的SST分布图
  11. plt.imshow(znew[::-1, :], cmap=plt.cm.RdBu_r)
  1. <matplotlib.image.AxesImage at 0x7f5d008efd50>

我们用同样的方法绘制样本0中每个月的SST分布图,观察SST分布的变化。

  1. # 绘制0年36个月的海陆掩膜
  2. for i in range(1):
  3. plt.figure(figsize=(15, 18))
  4. for j in range(36):
  5. x = lon
  6. y = lat
  7. xx, yy = np.meshgrid(x, y)
  8. z = data.variables['sst'][i, j]
  9. f = interpolate.interp2d(x, y, z, kind='cubic')
  10. xnew = np.arange(0, 356, 1)
  11. ynew = np.arange(-65, 66, 1)
  12. znew = f(xnew, ynew)
  13. lon_grid, lat_grid = np.meshgrid(xnew-180, ynew)
  14. is_on_land = globe.is_land(lat_grid, lon_grid)
  15. is_on_land = np.concatenate([is_on_land[:, xnew >= 180], is_on_land[:, xnew < 180]], axis=1)
  16. znew[is_on_land] = np.nan
  17. plt.subplot(9, 4, j+1)
  18. plt.imshow(znew[::-1, :], cmap=plt.cm.RdBu_r)
  19. plt.title('sst - year:{}, month:{}'.format(i+1, j+1))

可以看到,SST在每12个月中的前4个月和后4个月都较低,在中间4个月时较高,这说明,海表温度在春季和冬季较低,在夏季和秋季呈现逐渐升高到最高点然后逐渐降低的变化趋势,这与我们的认知常识是相符的。

大家也可以用同样的方法观察分析其它三个气象特征的变化趋势。

1.3以CMIP数据集为例,进行缺失值分析

  1. # 读取CMIP数据
  2. # 存放数据的路径
  3. path = '/home/aistudio/input/enso_round1_train_20210201/'
  4. data = netCDF4.Dataset(path + 'CMIP_train.nc')
  5. label = netCDF4.Dataset(path + 'CMIP_label.nc')
  6. label = np.array(label.variables['nino'])
  1. # 获得陆地的掩膜
  2. lon_grid, lat_grid = np.meshgrid(x-180, y)
  3. is_on_land = globe.is_land(lat_grid, lon_grid)
  4. is_on_land = np.concatenate([is_on_land[:, x >= 180], is_on_land[:, x < 180]], axis=1)
  5. mask = np.zeros(data.variables['sst'].shape, dtype=int)
  6. mask[:, :, :, :] = is_on_land[np.newaxis, np.newaxis, :, :]
  1. # 查看SST特征的缺失值数量
  2. name = 'sst'
  3. data_ = np.array(data.variables[name])
  4. before_nan = np.sum(np.isnan(data_))
  5. print('before:', before_nan)
  1. before: 0
  1. # 查看T300特征的缺失值数量
  2. name = 't300'
  3. data_ = np.array(data.variables[name])
  4. before_nan = np.sum(np.isnan(data_))
  5. print('before:', before_nan)
  1. before: 3055032
  1. # 查看Va特征的缺失值数量
  2. name = 'va'
  3. data_ = np.array(data.variables[name])
  4. before_nan = np.sum(np.isnan(data_))
  5. print('before:', before_nan)
  1. before: 13921123
  1. # 查看Ua特征的缺失值数量
  2. name = 'ua'
  3. data_ = np.array(data.variables[name])
  4. before_nan = np.sum(np.isnan(data_))
  5. print('before:', before_nan)
  1. before: 13921123

四个气象特征中,SST特征不存在缺失值,Va和Ua特征中的缺失值数量最多。

接下来以Ua特征为例,可视化分析缺失值的情况。

  1. # 统计每年每月中Ua特征的缺失值数量
  2. m = np.zeros(data_.shape[0:2])
  3. for i in range(data_.shape[0]):
  4. for j in range(data_.shape[1]):
  5. if np.sum(np.isnan(data_[i][j])) != 0:
  6. m[i, j] = np.sum(np.isnan(data_[i, j]))
  1. # 计算每一年的缺失值
  2. before = np.sum(m, axis=1)
  3. # 可视化每一年的缺失值数量
  4. plt.plot(before, 'k')
  5. plt.ylabel('nan count')
  6. plt.xlabel('year')
  7. plt.show()

可以看到在某些年份中存在较多缺失值。

  1. # 查看Ua特征中存在缺失值的年数
  2. len(np.where(before!=0)[0])
  1. 755

我们取样本1900来观察Ua特征的分布。

  1. # 可视化样本1900中Ua特征的分布
  2. plt.imshow(data_[1900, 0][::-1, :])

上图中白色部分即为缺失值,可以看到,缺失值多数分布在陆地上,我们将陆地部分进行填充,观察填充后Ua的分布。

  1. # 将陆地位置填0
  2. data_[mask==1] = 0
  1. # 可视化填充后样本1900中Ua特征的分布
  2. plt.imshow(data_[1900, 0][::-1, :])
  1. <matplotlib.image.AxesImage at 0x7f5c18dc4d10>

对陆地部分进行填充后缺失值数量大大减少。

  1. # 统计填充后缺失值的数量
  2. after_nan = np.sum(np.isnan(data_))
  1. print('before: %d \nafter: %d \npercentage: %f'%(before_nan, after_nan, 1 - float(after_nan) / before_nan))
  1. before: 13921123
  2. after: 2440742
  3. percentage: 0.824673

陆地部分填充处理了82%的缺失值。

  1. # 可视化填充后每一年的缺失值数量
  2. m = np.zeros(data_.shape[0: 2])
  3. for i in range(data_.shape[0]):
  4. for j in range(data_.shape[1]):
  5. if np.sum(np.isnan(data_[i, j])) != 0:
  6. m[i, j] = np.sum(np.isnan(data_[i, j]))
  7. after = np.sum(m, axis=1)
  8. plt.plot(after, 'k')
  9. plt.ylabel('nan count')
  10. plt.xlabel('year')
  11. plt.show()

  1. # 对比填充前后每一年缺失值的数量
  2. plt.plot(before, 'k')
  3. plt.plot(after, 'r')
  4. plt.legend(['before', 'after'])
  5. plt.title(name)
  6. plt.ylabel('nan count')
  7. plt.xlabel('year')
  8. plt.show()

1.4温度场和风场可视化

在气候问题中,温度与风向往往是密切相关的。当温度越高时,气压越低,空气向上流动,温度越低时,气压越高,空气向下流动,于是温度高的地方上方的空气就会向温度低的地方流动,形成风。因此在分析气候问题时,我们往往会把温度和风向放在一起进行可视化。

如何把风向可视化呢?这里我们要用到plt.quiver()这个函数。

plt.quiver()用于绘制二维的向量场,主要输入参数有:

  • X:向量起始点的X轴坐标
  • Y:向量起始点的Y轴坐标
  • U:向量的X轴分量
  • V:向量的Y轴分量

详细的用法可以参考官网:https://matplotlib.org/stable/api/_as_gen/matplotlib.pyplot.quiver.html

  1. # 对温度场SST进行插值,得到插值函数
  2. x = lon
  3. y = lat
  4. xx, yy = np.meshgrid(x, y)
  5. z = data.variables['sst'][0, 0]
  6. f = interpolate.interp2d(x, y, z, kind='cubic')
  1. # 获得陆地掩膜
  2. lon_grid, lat_grid = np.meshgrid(x-180, y)
  3. is_on_land = globe.is_land(lat_grid, lon_grid)
  4. is_on_land = np.concatenate([is_on_land[:,x>=180], is_on_land[:,x<180]], axis=1)
  5. # 对Ua和Va进行陆地掩膜
  6. ua = data.variables['ua'][0, 0]
  7. ua[is_on_land] = np.nan
  8. va = data.variables['va'][0, 0]
  9. va[is_on_land] = np.nan
  1. # 插值后生成平滑的SST分布
  2. xnew = np.arange(0, 356, 1)
  3. ynew = np.arange(-65, 66, 1)
  4. znew = f(xnew, ynew)
  5. # 对平滑后的SST进行陆地掩膜
  6. lon_grid, lat_grid = np.meshgrid(xnew-180, ynew)
  7. is_on_land = globe.is_land(lat_grid, lon_grid)
  8. is_on_land = np.concatenate([is_on_land[:, xnew >= 180], is_on_land[:, xnew < 180]], axis=1)
  9. znew[is_on_land] = np.nan
  10. # 绘制温度场
  11. plt.figure(figsize=(15, 10))
  12. plt.imshow(znew[::-1, :], cmap=plt.cm.RdBu_r)
  13. plt.colorbar(orientation='horizontal') # 显示水平颜色条
  14. # 绘制风向场,其实这里准确来说绘制的是风向异常的向量,而非实际的风向
  15. plt.quiver(lon, lat+65, ua[::-1, :], va[::-1, :], alpha=0.8) # 在坐标(lon, lat)处绘制与sqrt(ua^2, va^2)成正比长度的箭头
  16. plt.title('year0-month0: SST/UA-VA')
  17. plt.show()

从上图中可以看出,温度异常SST在0值附近时没有明显的风向异常,而在其他区域风向异常通常由SST值大的地方指向SST值小的地方。

ENSO现象是指在温度场上赤道东太平洋温度持续异常增暖,在风向场上热带东太平洋与热带西太平洋气压变化(表现为风向)相反的现象。在上图这个样本中没有出现ENSO现象,大家可以用同样的方法绘制并观察存在ENSO现象(Nino3.4指数连续5个月超过0.5℃)的样本的温度和风场。

1.5 小结

在以上的数据分析中,不难看出我们在分析气象问题时,采用的仍然是通用的数据分析思路:分析标签 -> 分析特征(包括特征分布、特征与特征的关系、特征与标签的关系) -> 分析数据的基本情况(包括缺失值、异常值、重复值等)。这个思路大家可以灵活应用到各种问题的分析中去,不至于拿到数据后无从下手。

通过以上的数据分析,我们可以得到以下结论:

  1. 重叠部分的标签是相同的,为了增加数据量,我们可以从每条数据中取固定的12个月拼接起来,用滑窗构建训练数据集。
  2. SST特征中没有缺失值,在其他特征中,缺失值基本上在陆地部分,将陆地部分用0填充可以解决绝大部分的缺失值。

现在我们回到开篇的学习目标中提出的第一个问题:能否构造新的特征?目前的答案是不能。从各位TOP选手的方案以及相关的ENSO预测的论文来看,大家的目光都聚焦在如何构建模型上,而鲜少有人会去构造新的特征。这与其说是不能,更不如说是不必要,因为一般我们构造新的特征是为了从给出的特征中得到与预测目标更相关的特征,由此提高模型的学习效果,但是就本赛题而言,构造统计特征或者其他新的特征收效不高,我们更希望通过模型来挖掘给定数据之间在时间和空间上的依赖关系。

于是,解题的重点就落到了第二个问题上:选择或设计什么样的模型进行预测?在接下来的三个任务中,我们就要来学习TOP选手们的建模方案。

参考文献

  1. 优秀选手的EDA分享:https://gitee.com/Little_Six/aiweather-ocean-forecasts/blob/master/code/EDA.ipynb?spm=5176.21852664.0.0.4aab7f46PqZUih&file=EDA.ipynb
  2. Climate Data Guide:https://climatedataguide.ucar.edu/climate-data/nino-sst-indices-nino-12-3-34-4-oni-and-tni
  3. 中国气象局国家气候中心:https://cmdp.ncc-cma.net/pred/cn_enso.php?product=cn_enso_nino_indices
  4. WORLD-CLASS RESEARCH IN EARTH SYSTEM SCIENCE(世界一流的地球系统科学研究): https://ncar.ucar.edu/

2.气象海洋预测-模型建立之CNN+LSTM

本次任务我们将学习来自TOP选手“学习AI的打工人”的建模方案,该方案中采用的模型是CNN+LSTM。

在本赛题中,我们构造的模型需要完成两个任务,挖掘空间信息以及挖掘时间信息。那么,说到挖掘空间信息的模型,我们会很自然的想到CNN,同样的,挖掘时间信息的模型我们会很容易想到LSTM,我们本次学习的这个TOP方案正是构造了CNN+LSTM的串行结构。

  • 学习目标

    1. 学习TOP方案的数据处理方法。
    2. 学习TOP方案的模型构建方法。

2.1 数据处理

该TOP方案的数据处理主要包括四部分:

  1. 增加月特征。将序列数据的起始月份作为新的特征。
  2. 数据扁平化。将序列数据按月拼接起来通过滑窗增加数据量。
  3. 空值填充。
  4. 构造数据集。随机采样构造数据集。
  1. import netCDF4 as nc
  2. import random
  3. import os
  4. from tqdm import tqdm
  5. import math
  6. import pandas as pd
  7. import numpy as np
  8. import seaborn as sns
  9. color = sns.color_palette()
  10. sns.set_style('darkgrid')
  11. import matplotlib.pyplot as plt
  12. %matplotlib inline
  13. import torch
  14. from torch import nn, optim
  15. import torch.nn.functional as F
  16. from torch.utils.data import Dataset, DataLoader
  17. from sklearn.metrics import mean_squared_error
  1. Cannot run import torch because of system compatibility. AI Studio prepared an entire environment based on PaddlePaddle already. Please use PaddlePaddle to build your own model or application.
  1. # 固定随机种子
  2. SEED = 22
  3. def seed_everything(seed=42):
  4. random.seed(seed)
  5. os.environ['PYTHONHASHSEED'] = str(seed)
  6. np.random.seed(seed)
  7. torch.manual_seed(seed)
  8. torch.cuda.manual_seed(seed)
  9. torch.backends.cudnn.deterministic = True
  10. seed_everything(SEED)
  1. # 查看CUDA是否可用
  2. train_on_gpu = torch.cuda.is_available()
  3. if not train_on_gpu:
  4. print('CUDA is not available. Training on CPU ...')
  5. else:
  6. print('CUDA is available! Training on GPU ...')
  1. CUDA is available! Training on GPU ...
  1. # 读取数据
  2. # 存放数据的路径
  3. path = '/kaggle/input/ninoprediction/'
  4. soda_train = nc.Dataset(path + 'SODA_train.nc')
  5. soda_label = nc.Dataset(path + 'SODA_label.nc')
  6. cmip_train = nc.Dataset(path + 'CMIP_train.nc')
  7. cmip_label = nc.Dataset(path + 'CMIP_label.nc')

2.1.2 增加月特征

本赛题的线上测试集是任意选取某个月为起始的长度为12的序列,因此该方案中增加了起始月份作为新的特征。但是使用整数1~12不能反映12月与1月相邻这一特点,因此需要借助三角函数的周期性,同时考虑到单独使用sin函数或cos函数会存在某些月份的函数值相同的现象,因此同时使用sin函数和cos函数作为两个新增月份特征,保证每个起始月份的这两个特征组合都是独一无二的,并且又能够很好地表现出月份的周期性特征。

我们可以通过可视化直观地感受下每个月份所构造的月份特征组合。

  1. months = range(0, 12)
  2. month_labels = ['Jan', 'Feb', 'Mar', 'Apr', 'May', 'Jun', 'Jul', 'Aug', 'Sept', 'Oct', 'Nov', 'Dec']
  3. # sin月份特征
  4. months_sin = map(lambda x: math.sin(2 * math.pi * x / len(months)), months)
  5. # cos月份特征
  6. months_cos = map(lambda x: math.cos(2 * math.pi * x / len(months)), months)
  7. # 绘制每个月的月份特征组合
  8. plt.figure(figsize=(20, 5))
  9. x_axis = np.arange(-1, 13, 1e-2)
  10. sns.lineplot(x=x_axis, y=np.sin(2 * math.pi * x_axis / len(months)))
  11. sns.lineplot(x=x_axis, y=np.cos(2 * math.pi * x_axis / len(months)))
  12. sns.scatterplot(x=months, y=months_sin, s=200)
  13. sns.scatterplot(x=months, y=months_cos, s=200)
  14. plt.xticks(ticks=months, labels=month_labels)
  15. plt.show()

构造SODA数据的sin月份特征。

  1. # 构造一个维度为100*36*24*72的矩阵,矩阵中的每个值为所在月份的sin函数值
  2. soda_month_sin = np.zeros((100, 36, 24, 72))
  3. for y in range(100):
  4. for m in range(36):
  5. for lat in range(24):
  6. for lon in range(72):
  7. soda_month_sin[y, m, lat, lon] = math.sin(2 * math.pi * (m % 12) / 12)
  8. soda_month_sin.shape
  1. (100, 36, 24, 72)

构造SODA数据的cos月份特征。

  1. # 构造一个维度为100*36*24*72的矩阵,矩阵中的每个值为所在月份的cos函数值
  2. soda_month_cos = np.zeros((100, 36, 24, 72))
  3. for y in range(100):
  4. for m in range(36):
  5. for lat in range(24):
  6. for lon in range(72):
  7. soda_month_cos[y, m, lat, lon] = math.cos(2 * math.pi * (m % 12) / 12)
  8. soda_month_cos.shape
  1. (100, 36, 24, 72)

构造CMIP数据的sin月份特征。

  1. # 构造一个维度为4645*36*24*72的矩阵,矩阵中的每个值为所在月份的sin函数值
  2. cmip_month_sin = np.zeros((4645, 36, 24, 72))
  3. for y in range(4645):
  4. for m in range(36):
  5. for lat in range(24):
  6. for lon in range(72):
  7. cmip_month_sin[y, m, lat, lon] = math.sin(2 * math.pi * (m % 12) / 12)
  8. cmip_month_sin.shape
  1. (4645, 36, 24, 72)

构造CMIP数据的cos月份特征。

  1. # 构造一个维度为4645*36*24*72的矩阵,矩阵中的每个值为所在月份的cos函数值
  2. cmip_month_cos = np.zeros((4645, 36, 24, 72))
  3. for y in range(4645):
  4. for m in range(36):
  5. for lat in range(24):
  6. for lon in range(72):
  7. cmip_month_cos[y, m, lat, lon] = math.cos(2 * math.pi * (m % 12) / 12)
  8. cmip_month_cos.shape
  1. (4645, 36, 24, 72)

2.1.2 数据扁平化

在Task2中我们发现,赛题中给出的数据量非常少,如何增加数据量呢?对于时序数据,一种常用的做法就是滑窗。

由于每条数据在时间上有重叠,我们取数据的前12个月拼接起来,就得到了长度为(数据条数×12个月)的序列数据,如图1所示:

然后我们以每个月为起始月,接下来的12个月作为模型输入X,后24个月的Nino3.4指数作为预测目标Y构建训练样本,如图2所示:

需要注意的是,CMIP数据提供了不同的拟合模式,只有在同种模式下各个年份的数据在时间上是连续的,因此同种模式的数据才能在时间上拼接起来,除去最后11个月不能构成训练样本外,滑窗最终能获得的训练样本数量可以按以下方式计算得到:

  • SODA:1种模式×(100年×12-11)=1189条样本
  • CMIP6:15种模式×(151年×12-11)=27015条样本
  • CMIP5:17种模式×(140年×12-11)=28373条样本

在下面的代码中,我们只将各个模式的数据拼接起来而没有采用滑窗,这是因为考虑到采用滑窗得到的训练样本维度是(数据条数×12×24×72),需要占用大量的内存资源。我们在之后构建数据集时,随机抽取了部分样本,大家在实际问题中,如果资源足够的话,可以采用滑窗构建的全部的数据,不过需要注意数据量大的情况下可以考虑构建更深的模型来挖掘更多信息。

  1. # 数据扁平化
  2. def make_flatted(train_ds, label_ds, month_sin, month_cos, info, start_idx=0):
  3. keys = ['sst', 't300', 'ua', 'va']
  4. label_key = 'nino'
  5. # 年数
  6. years = info[1]
  7. # 模式数
  8. models = info[2]
  9. train_list = []
  10. label_list = []
  11. # 将同种模式下的数据拼接起来
  12. for model_i in range(models):
  13. blocks = []
  14. # 对每个特征,取每条数据的前12个月进行拼接
  15. for key in keys:
  16. block = train_ds[key][start_idx + model_i * years: start_idx + (model_i + 1) * years, :12].reshape(-1, 24, 72, 1).data
  17. blocks.append(block)
  18. # 增加sin月份特征
  19. block_sin = month_sin[start_idx + model_i * years: start_idx + (model_i + 1) * years, :12].reshape(-1, 24, 72, 1)
  20. blocks.append(block_sin)
  21. # 增加cos月份特征
  22. block_cos = month_cos[start_idx + model_i * years: start_idx + (model_i + 1) * years, :12].reshape(-1, 24, 72, 1)
  23. blocks.append(block_cos)
  24. # 将所有特征在最后一个维度上拼接起来
  25. train_flatted = np.concatenate(blocks, axis=-1)
  26. # 取12-23月的标签进行拼接,注意加上最后一年的最后12个月的标签(与最后一年12-23月的标签共同构成最后一年前12个月的预测目标)
  27. label_flatted = np.concatenate([
  28. label_ds[label_key][start_idx + model_i * years: start_idx + (model_i + 1) * years, 12: 24].reshape(-1).data,
  29. label_ds[label_key][start_idx + (model_i + 1) * years - 1, 24: 36].reshape(-1).data
  30. ], axis=0)
  31. train_list.append(train_flatted)
  32. label_list.append(label_flatted)
  33. return train_list, label_list
  1. soda_info = ('soda', 100, 1)
  2. cmip6_info = ('cmip6', 151, 15)
  3. cmip5_info = ('cmip5', 140, 17)
  4. soda_trains, soda_labels = make_flatted(soda_train, soda_label, soda_month_sin, soda_month_cos, soda_info)
  5. cmip6_trains, cmip6_labels = make_flatted(cmip_train, cmip_label, cmip_month_sin, cmip_month_cos, cmip6_info)
  6. cmip5_trains, cmip5_labels = make_flatted(cmip_train, cmip_label, cmip_month_sin, cmip_month_cos, cmip5_info, cmip6_info[1]*cmip6_info[2])
  7. # 得到扁平化后的数据维度为(模式数×序列长度×纬度×经度×特征数),其中序列长度=年数×12
  8. np.shape(soda_trains), np.shape(cmip6_trains), np.shape(cmip5_trains)
  1. ((1, 1200, 24, 72, 6), (15, 1812, 24, 72, 6), (17, 1680, 24, 72, 6))
  1. del soda_month_sin, soda_month_cos
  2. del cmip_month_sin, cmip_month_cos
  3. del soda_train, soda_label
  4. del cmip_train, cmip_label

2.1.3 空值填充

在Task2中我们发现,除SST外,其它特征中都存在空值,这些空值基本都在陆地上,因此我们直接将空值填充为0。

  1. # 填充SODA数据中的空值
  2. soda_trains = np.array(soda_trains)
  3. soda_trains_nan = np.isnan(soda_trains)
  4. soda_trains[soda_trains_nan] = 0
  5. print('Number of null in soda_trains after fillna:', np.sum(np.isnan(soda_trains)))
  1. Number of null in soda_trains after fillna: 0
  1. # 填充CMIP6数据中的空值
  2. cmip6_trains = np.array(cmip6_trains)
  3. cmip6_trains_nan = np.isnan(cmip6_trains)
  4. cmip6_trains[cmip6_trains_nan] = 0
  5. print('Number of null in cmip6_trains after fillna:', np.sum(np.isnan(cmip6_trains)))
  1. Number of null in cmip6_trains after fillna: 0
  1. # 填充CMIP5数据中的空值
  2. cmip5_trains = np.array(cmip5_trains)
  3. cmip5_trains_nan = np.isnan(cmip5_trains)
  4. cmip5_trains[cmip5_trains_nan] = 0
  5. print('Number of null in cmip6_trains after fillna:', np.sum(np.isnan(cmip5_trains)))
  1. Number of null in cmip6_trains after fillna: 0

2.2 构造数据集

在划分训练/验证集时,一个需要考虑的问题是训练集、验证集、测试集三者的分布是否是一致的。在本赛题中我们拿到的是两份数据,其中CMIP数据是CMIP5/6模式模拟的历史数据,SODA数据是由SODA模式重建的的历史观测同化数据,线上测试集则是来自国际多个海洋资料的同化数据,由此看来,SODA数据和线上测试集的分布是较为一致的,CMIP数据的分布则与测试集不同。在三者不一致的情况下,我们通常会尽可能使验证集与测试集的分布一致,这样当模型在验证集上有较好的表现时,在测试集上也会有较好的表现。

因此,我们从CMIP数据的每个模式中各抽取100条数据作为训练集(这里抽取的样本数只是作为一个示例,实际模型训练的时候使用多少样本需要综合考虑可用的资源条件和构建的模型深度),从SODA模式中抽取100条数据作为验证集。有的同学可能会疑惑,既然这里只用了100条SODA数据,那么为什么还要对SODA数据扁平化后再抽样而不直接用原始数据呢,因为直接取原始数据的前12个月作为输入,后24个月作为标签所得到的验证集每一条都是从0月开始的,而线上的测试集起始月份是随机抽取的,因此这里仍然要尽可能保证验证集与测试集的数据分布一致,使构建的验证集的起始月份也是随机的。

我们这里没有构造测试集,因为线上的测试集已经公开了,可以直接使用,在比赛时,线上的测试集是保密的,需要构造线下的测试集来评估模型效果,同时需要注意线下的评估结果和线上的提交结果是否差距不大或者变化趋势是一致的,如果不是就需要调整线下的测试集,保证它和线上测试集的分布尽可能一致,能够较为准确地指示模型的调整方向。

  1. # 构造训练集
  2. X_train = []
  3. y_train = []
  4. # 从CMIP5的17种模式中各抽取100条数据
  5. for model_i in range(17):
  6. samples = np.random.choice(cmip5_trains.shape[1]-12, size=100)
  7. for ind in samples:
  8. X_train.append(cmip5_trains[model_i, ind: ind+12])
  9. y_train.append(cmip5_labels[model_i][ind: ind+24])
  10. # 从CMIP6的15种模式种各抽取100条数据
  11. for model_i in range(15):
  12. samples = np.random.choice(cmip6_trains.shape[1]-12, size=100)
  13. for ind in samples:
  14. X_train.append(cmip6_trains[model_i, ind: ind+12])
  15. y_train.append(cmip6_labels[model_i][ind: ind+24])
  16. X_train = np.array(X_train)
  17. y_train = np.array(y_train)
  1. # 构造测试集
  2. X_valid = []
  3. y_valid = []
  4. samples = np.random.choice(soda_trains.shape[1]-12, size=100)
  5. for ind in samples:
  6. X_valid.append(soda_trains[0, ind: ind+12])
  7. y_valid.append(soda_labels[0][ind: ind+24])
  8. X_valid = np.array(X_valid)
  9. y_valid = np.array(y_valid)
  1. # 查看数据集维度
  2. X_train.shape, y_train.shape, X_valid.shape, y_valid.shape
  1. ((3200, 12, 24, 72, 6), (3200, 24), (100, 12, 24, 72, 6), (100, 24))
  1. del cmip5_trains, cmip5_labels
  2. del cmip6_trains, cmip6_labels
  3. del soda_trains, soda_labels
  1. # 保存数据集
  2. np.save('X_train_sample.npy', X_train)
  3. np.save('y_train_sample.npy', y_train)
  4. np.save('X_valid_sample.npy', X_valid)
  5. np.save('y_valid_sample.npy', y_valid)

2.3 模型构建

在模型构建部分的通用流程是:构造评估函数 -> 构建并训练模型 -> 模型评估,后两步是循环的,可以根据评估结果重新调整并训练模型,再重新进行评估。

2.3.1构造评估函数

模型的评估函数通常就是官方给出的评估指标,不过在比赛中经常会出现线下的评估结果和提交后的线上评估结果不一致的情况,这通常是线下测试集和线上测试集分布不一致造成的。

  1. # 读取数据集
  2. X_train = np.load('../input/ai-earth-task03-samples/X_train_sample.npy')
  3. y_train = np.load('../input/ai-earth-task03-samples/y_train_sample.npy')
  4. X_valid = np.load('../input/ai-earth-task03-samples/X_valid_sample.npy')
  5. y_valid = np.load('../input/ai-earth-task03-samples/y_valid_sample.npy')
  1. X_train.shape, y_train.shape, X_valid.shape, y_valid.shape
  1. ((3200, 12, 24, 72, 6), (3200, 24), (100, 12, 24, 72, 6), (100, 24))
  1. # 构造数据管道
  2. class AIEarthDataset(Dataset):
  3. def __init__(self, data, label):
  4. self.data = torch.tensor(data, dtype=torch.float32)
  5. self.label = torch.tensor(label, dtype=torch.float32)
  6. def __len__(self):
  7. return len(self.label)
  8. def __getitem__(self, idx):
  9. return self.data[idx], self.label[idx]
  1. batch_size = 32
  2. trainset = AIEarthDataset(X_train, y_train)
  3. trainloader = DataLoader(trainset, batch_size=batch_size, shuffle=True)
  4. validset = AIEarthDataset(X_valid, y_valid)
  5. validloader = DataLoader(validset, batch_size=batch_size, shuffle=True)

2.3.2模型构造与训练

这部分是赛题的重点,该TOP方案采用的是CNN+LSTM的串行结构,其中CNN用来提取空间信息,LSTM用来提取时间信息,模型结构如下图所示。

  • CNN部分

CNN常用于处理图像信息,它在处理空间信息上也有很好的表现。CNN的输入尺寸是(N,C,H,W),其中N是批量梯度下降中一个批次的样本数量,H和W分别是输入图像的高和宽,C是输入图像的通道数,对于本题中的空间数据,H和W就对应数据的纬度和经度,C对应特征数。我们的训练样本中还多了一个时间维度,因此需要用将输入数据的格式(N,T,H,W,C)转换为(N×T,C,H,W)。

BatchNormalization(后面简称BN)是批标准化层,通常放在卷积层后用于标准化数据的分布,能够减少各层不同数据分布之间的相互影响和依赖,具有加快模型训练速度、避免梯度爆炸、在一定程度上能增强模型泛化能力等优点,是神经网络问题中常用的“大杀器”。不过目前关于BN层和ReLU激活函数的放置顺序孰先孰后的问题众说纷纭,具体还是看模型的效果。关于这个问题的讨论可以参考https://www.zhihu.com/question/283715823

总体来看CNN这一部分采用的是比较通用的结构,第一层采用比较大的卷积核(7×7),后面接多层的小卷积核(3×3),并用BN提升模型效果,用池化层减少模型参数、扩大感受野,池化层常用的有MaxPooling和AveragePooling,通常MaxPooling效果更好,不过具体看模型效果。模型的主要难点就在于调参,目前模型调参没有标准的答案,更多地是参考前人的经验以及不断地尝试。

  • LSTM部分

CNN部分经过Flatten层将除时间维度以外的维度压平(即除时间步长12外的其它维度大小相乘,例如CNN部分最后的池化层输出维度是(N,T,C,H,W),则压平后的维度是(N,T,C×H×W)),输入LSTM层。LSTM层接受的输入维度为(Time_steps,Input_size),其中Time_steps就是时间步长12,Input_size是压平后的维度大小。Pytorch中LSTM的主要参数是input_size、hidden_size(隐层节点数)、batch_first(一个批次的样本数量N是否在第1维度),batch_first为True时输入和输出的数据格式为(N,T,input_size/hidden_size),为数据格式为(T,N,input_size/hidden_size),需要注意的一点是LSTM的输出形式是tensor格式的output和tuple格式的(h_n,c_n),其中output是所有时间步的输出(N,T,hidden_size),h_n是隐层的输出(即最后一个时间步的输出,格式为(1,N,hidden_size)),c_n是记忆细胞cell的输出。因为我们通过多层LSTM要获得的并非一个时间序列,而是要抽取出一个关于输入序列的特征表达,因此最后我们使用最后一个LSTM层的隐层输出h_n作为全连接层的输入。LSTM的使用方法可以参考https://pytorch.org/docs/stable/generated/torch.nn.LSTM.html?highlight=lstm#torch.nn.LSTM

由于LSTM有四个门,因此LSTM的参数量是4倍的Input_size×hidden_size,参数量过多就容易过拟合,同时由于数据量也较少,因此该方案中只堆叠了两个LSTM层。

  1. # 构造模型
  2. class Model(nn.Module):
  3. def __init__(self):
  4. super().__init__()
  5. self.conv1 = nn.Conv2d(6, 32, kernel_size=7, stride=2, padding=3)
  6. self.conv2 = nn.Conv2d(32, 32, kernel_size=3, stride=1, padding=1)
  7. self.bn = nn.BatchNorm2d(32)
  8. self.avgpool = nn.AvgPool2d(kernel_size=2, stride=2)
  9. self.flatten = nn.Flatten()
  10. self.lstm1 = nn.LSTM(3456, 2048, batch_first=True)
  11. self.lstm2 = nn.LSTM(2048, 1024, batch_first=True)
  12. self.fc = nn.Linear(1024, 24)
  13. def forward(self, x):
  14. # 转换输入形状
  15. N, T, H, W, C = x.shape
  16. x = x.permute(0, 1, 4, 2, 3).contiguous()
  17. x = x.view(N*T, C, H, W)
  18. # CNN部分
  19. x = self.conv1(x)
  20. x = F.relu(self.bn(x))
  21. x = self.conv2(x)
  22. x = F.relu(self.bn(x))
  23. x = self.avgpool(x)
  24. x = self.flatten(x)
  25. # 注意Flatten层后输出为(N×T,C_new),需要转换成(N,T,C_new)
  26. _, C_new = x.shape
  27. x = x.view(N, T, C_new)
  28. # LSTM部分
  29. x, h = self.lstm1(x)
  30. x, h = self.lstm2(x)
  31. # 注意这里只使用隐层的输出
  32. x, _ = h
  33. x = self.fc(x.squeeze())
  34. return x
  1. def rmse(y_true, y_preds):
  2. return np.sqrt(mean_squared_error(y_pred = y_preds, y_true = y_true))
  3. # 评估函数
  4. def score(y_true, y_preds):
  5. # 相关性技巧评分
  6. accskill_score = 0
  7. # RMSE
  8. rmse_scores = 0
  9. a = [1.5] * 4 + [2] * 7 + [3] * 7 + [4] * 6
  10. y_true_mean = np.mean(y_true, axis=0)
  11. y_pred_mean = np.mean(y_preds, axis=0)
  12. for i in range(24):
  13. fenzi = np.sum((y_true[:, i] - y_true_mean[i]) * (y_preds[:, i] - y_pred_mean[i]))
  14. fenmu = np.sqrt(np.sum((y_true[:, i] - y_true_mean[i])**2) * np.sum((y_preds[:, i] - y_pred_mean[i])**2))
  15. cor_i = fenzi / fenmu
  16. accskill_score += a[i] * np.log(i+1) * cor_i
  17. rmse_score = rmse(y_true[:, i], y_preds[:, i])
  18. rmse_scores += rmse_score
  19. return 2/3.0 * accskill_score - rmse_scores
  1. model = Model()
  2. print(model)
  1. Model(
  2. (conv1): Conv2d(6, 32, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3))
  3. (conv2): Conv2d(32, 32, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
  4. (bn): BatchNorm2d(32, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
  5. (avgpool): AvgPool2d(kernel_size=2, stride=2, padding=0)
  6. (flatten): Flatten(start_dim=1, end_dim=-1)
  7. (lstm1): LSTM(3456, 2048, batch_first=True)
  8. (lstm2): LSTM(2048, 1024, batch_first=True)
  9. (fc): Linear(in_features=1024, out_features=24, bias=True)
  10. )

考虑到本次任务的评价指标score=2/3×accskill-RMSE,其中RMSE是24个月的rmse的累计值,我们这里可以自定义评价指标中的RMSE作为损失函数。

  1. # 采用RMSE作为损失函数
  2. def RMSELoss(y_pred,y_true):
  3. loss = torch.sqrt(torch.mean((y_pred-y_true)**2, dim=0)).sum()
  4. return loss
  1. model_weights = './task03_model_weights.pth'
  2. device = 'cuda' if torch.cuda.is_available() else 'cpu'
  3. model = Model().to(device)
  4. criterion = RMSELoss
  5. optimizer = optim.Adam(model.parameters(), lr=1e-3, weight_decay=0.001) # weight_decay是L2正则化参数
  6. epochs = 10
  7. train_losses, valid_losses = [], []
  8. scores = []
  9. best_score = float('-inf')
  10. preds = np.zeros((len(y_valid),24))
  11. for epoch in range(epochs):
  12. print('Epoch: {}/{}'.format(epoch+1, epochs))
  13. # 模型训练
  14. model.train()
  15. losses = 0
  16. for data, labels in tqdm(trainloader):
  17. data = data.to(device)
  18. labels = labels.to(device)
  19. optimizer.zero_grad()
  20. pred = model(data)
  21. loss = criterion(pred, labels)
  22. losses += loss.cpu().detach().numpy()
  23. loss.backward()
  24. optimizer.step()
  25. train_loss = losses / len(trainloader)
  26. train_losses.append(train_loss)
  27. print('Training Loss: {:.3f}'.format(train_loss))
  28. # 模型验证
  29. model.eval()
  30. losses = 0
  31. with torch.no_grad():
  32. for i, data in tqdm(enumerate(validloader)):
  33. data, labels = data
  34. data = data.to(device)
  35. labels = labels.to(device)
  36. pred = model(data)
  37. loss = criterion(pred, labels)
  38. losses += loss.cpu().detach().numpy()
  39. preds[i*batch_size:(i+1)*batch_size] = pred.detach().cpu().numpy()
  40. valid_loss = losses / len(validloader)
  41. valid_losses.append(valid_loss)
  42. print('Validation Loss: {:.3f}'.format(valid_loss))
  43. s = score(y_valid, preds)
  44. scores.append(s)
  45. print('Score: {:.3f}'.format(s))
  46. # 保存最佳模型权重
  47. if s > best_score:
  48. best_score = s
  49. checkpoint = {'best_score': s,
  50. 'state_dict': model.state_dict()}
  51. torch.save(checkpoint, model_weights)
  1. # 绘制训练/验证曲线
  2. def training_vis(train_losses, valid_losses):
  3. # 绘制损失函数曲线
  4. fig = plt.figure(figsize=(8,4))
  5. # subplot loss
  6. ax1 = fig.add_subplot(121)
  7. ax1.plot(train_losses, label='train_loss')
  8. ax1.plot(valid_losses,label='val_loss')
  9. ax1.set_xlabel('Epochs')
  10. ax1.set_ylabel('Loss')
  11. ax1.set_title('Loss on Training and Validation Data')
  12. ax1.legend()
  13. plt.tight_layout()
  1. training_vis(train_losses, valid_losses)

我们通常会绘制训练/验证曲线来观察模型的拟合情况,上图中我们分别绘制了训练过程中训练集和验证集损失函数变化曲线。可以看到,训练集的损失函数下降很快,但是验证集的损失函数是震荡的,没有明显的下降,这说明模型的学习效果较差,并存在过拟合问题,需要调整相关的参数。

2.3.3模型评估

最后,我们在测试集上评估模型的训练结果。

  1. # 加载最佳模型权重
  2. checkpoint = torch.load('../input/ai-earth-model-weights/task03_model_weights.pth')
  3. model = Model()
  4. model.load_state_dict(checkpoint['state_dict'])
  1. <All keys matched successfully>
  1. # 测试集路径
  2. test_path = '../input/ai-earth-tests/'
  3. # 测试集标签路径
  4. test_label_path = '../input/ai-earth-tests-labels/'
  1. import os
  2. # 读取测试数据和测试数据的标签,并记录每个测试样本的起始月份用于之后构造月份特征
  3. files = os.listdir(test_path)
  4. X_test = []
  5. y_test = []
  6. first_months = [] # 样本起始月份
  7. for file in files:
  8. X_test.append(np.load(test_path + file))
  9. y_test.append(np.load(test_label_path + file))
  10. first_months.append(int(file.split('_')[2]))
  1. X_test = np.array(X_test)
  2. y_test = np.array(y_test)
  3. X_test.shape, y_test.shape
  1. ((103, 12, 24, 72, 4), (103, 24))
  1. # 构造一个维度为103*12*24*72的矩阵,矩阵中的每个值为所在月份的sin函数值
  2. test_month_sin = np.zeros((103, 12, 24, 72, 1))
  3. for y in range(103):
  4. for m in range(12):
  5. for lat in range(24):
  6. for lon in range(72):
  7. test_month_sin[y, m, lat, lon] = math.sin(2 * math.pi * ((m + first_months[y]-1) % 12) / 12)
  8. test_month_sin.shape
  1. (103, 12, 24, 72, 1)
  1. # 构造一个维度为103*12*24*72的矩阵,矩阵中的每个值为所在月份的cos函数值
  2. test_month_cos = np.zeros((103, 12, 24, 72, 1))
  3. for y in range(103):
  4. for m in range(12):
  5. for lat in range(24):
  6. for lon in range(72):
  7. test_month_cos[y, m, lat, lon] = math.cos(2 * math.pi * ((m + first_months[y]-1) % 12) / 12)
  8. test_month_cos.shape
  1. (103, 12, 24, 72, 1)
  1. # 构造测试集
  2. X_test = np.concatenate([X_test, test_month_sin, test_month_cos], axis=-1)
  3. X_test.shape
  1. (103, 12, 24, 72, 6)
  1. testset = AIEarthDataset(X_test, y_test)
  2. testloader = DataLoader(testset, batch_size=batch_size, shuffle=False)
  1. # 在测试集上评估模型效果
  2. model.eval()
  3. model.to(device)
  4. preds = np.zeros((len(y_test),24))
  5. for i, data in tqdm(enumerate(testloader)):
  6. data, labels = data
  7. data = data.to(device)
  8. labels = labels.to(device)
  9. pred = model(data)
  10. preds[i*batch_size:(i+1)*batch_size] = pred.detach().cpu().numpy()
  11. s = score(y_test, preds)
  12. print('Score: {:.3f}'.format(s))
  1. 4it [00:00, 65.03it/s]
  2. Score: 14.946

2.4 总结

  • 该方案在数据处理部分采用了滑窗来构造数据集,这是序列预测问题中常用的增加数据量的方法。另外,该方案中增加了一组月份特征,个人认为在时序场景中增加的这组特征收益不高,更多的是通过模型挖掘序列中的依赖关系,并且由于维度增加会使得训练数据占用的资源大大增加,对模型的效果提升不明显。不过在其他场景中这种特征构造方法仍然是值得借鉴的。

  • 该方案没有选择时空序列预测领域的现有模型,而是选择自己设计模型,方案中的这种构造模型的思路非常适合初学者学习,灵活地将不同模型串行或并行组合能够结合模型各自的优势,这种模型构造方法需要注意的是一个模型的输出维度与另一个模型接受的输入维度要相互匹配。

  • 尝试在不增加月份特征的情况下使用CNN+LSTM模型进行预测,同时尝试修改模型参数或层数比较模型在测试集上的评分。

  • 未能解决的问题

正如其他参赛者一样,我们碰到最大的问题就是成绩波动问题。即使什么都不变,只是随机数的变化都会使得线上成绩有非常大的变化(10分上下都是可能的)。 我们尝试了许多手段,可能最容易想到的就是SODA和其他两个模式应该不在一个域上,所以需要通过迁移学习或者域自适应来解决这个问题。但是尝试均以失败告终。

  • 其他尝试

    • 增加模型层数(对于该问题,层数越多貌似效果越不好)
    • 修改模型中的卷积层,池化层等
    • 更换损失函数和优化器
    • 将SST,T300,Ua,Va分成4通道分别输入模型
    • 只使用SST的特征作为模型的输入
    • 使用域自适应做成一个双输出的模型:1个正常的输出,另一个输出用来区分SODA,CMIP6还是CMIP5。
    • 尝试自注意力机制
    • 收集几个线上分数比较好的模型,然后融合

项目链接以及码源见文末

链接跳转到文末,欢迎订阅

更多文章请关注公重号:汀丶人工智能

人工智能创新挑战赛:助力精准气象和海洋预测Baseline[2]:数据探索性分析(温度风场可视化)、CNN+LSTM模型建模的更多相关文章

  1. 腾讯2021LIGHT公益创新挑战赛赛题分析

    前些日子老师让我们报名了LIGHT挑战赛,之后又简单的进行了分析,今天我总结复盘一下,一是为了捋一下自己选题的思路,二是以后遇见类似的项目,更容易找到方向或者触类旁通. 赛题介绍 赛题一:安全教育/保 ...

  2. hadoop实验:求气象数据的最低温度

    1.下载部分数据.由于实验就仅仅下载2003年的部分气象数据 2.通过zcat *gz > sample.txt命令解压重定向 [hadoop@Master test_data]$ zcat * ...

  3. 5.15 牛客挑战赛40 B 小V的序列 关于随机均摊分析 二进制

    LINK:小V的序列 考试的时候 没想到正解 于是自闭. 题意很简单 就是 给出一个序列a 每次询问一个x 问序列中是否存在y 使得x^y的二进制位位1的个数<=3. 容易想到 暴力枚举. 第一 ...

  4. Pyhton开源框架(加强版)

    info:Djangourl:https://www.oschina.net/p/djangodetail: Django 是 Python 编程语言驱动的一个开源模型-视图-控制器(MVC)风格的 ...

  5. Python开源框架

    info:更多Django信息url:https://www.oschina.net/p/djangodetail: Django 是 Python 编程语言驱动的一个开源模型-视图-控制器(MVC) ...

  6. PIE SDK介绍

    1. 产品概述 PIE-SDK是航天宏图自主研发的PIE二次开发组件包,集成了专业的遥感影像处理.辅助解译.信息提取.专题图表生成.二三维可视化等功能.底层采用微内核式架构,由跨平台的标准C++编写, ...

  7. MindSpore:自动微分

    MindSpore:自动微分 作为一款「全场景 AI 框架」,MindSpore 是人工智能解决方案的重要组成部分,与 TensorFlow.PyTorch.PaddlePaddle 等流行深度学习框 ...

  8. VC6.0读取Excel文件数据

    啰嗦一下:本人所在公司从事碟式斯特林太阳能发电设备的研发与销售.单台设备图如下: 工作原理如下:整个设备大致可分为五个部分, 1.服务器,负责气象.发电等数据存取,电.网连接等处理: 2.气象站,通过 ...

  9. 小象学院Python数据分析第二期【升级版】

    点击了解更多Python课程>>> 小象学院Python数据分析第二期[升级版] 主讲老师: 梁斌 资深算法工程师 查尔斯特大学(Charles Sturt University)计 ...

  10. 第五周课后作业——适用于人工智能的visual studio 的创新分析

    个人觉得作业布置的(2)(3)(4)(5)的顺序并不合理,我将以(5)(2)(3)(4)的顺序开展我的分析. 创新的定义是做出一些改变或创造出新的东西,既是过程,也是结果.这是一个很泛的概念,所以去问 ...

随机推荐

  1. ChatGPT插件权限给Plus用户放开了

    大家好,我是章北海mlpy ChatGPT插件权限给Plus用户放开了 我稍微测试了俩,感觉还行,后续我会对一些热门插件深入测测,敬请期待. 官方对插件的介绍如下: 1.插件由非由OpenAI控制的第 ...

  2. 【JAVA基础】String处理

    String处理 字符串查找子串及截取 // 保存的头像文件的文件名 String suffix = ""; String originalFilename = file.getO ...

  3. 3 分钟创建 Serverless Job 定时获取新闻热搜

    不用掏手机,不用登微博,借助 SAE 定时任务就可以实现每小时获取实时新闻热搜!SAE 场景体验火热开启中,参与还可领好礼! Job 作为一种运完即停的负载类型,在企业级开发中承载着丰富的使用场景.S ...

  4. vue学习笔记 十四、页面跳转

    系列导航 vue学习笔记 一.环境搭建 vue学习笔记 二.环境搭建+项目创建 vue学习笔记 三.文件和目录结构 vue学习笔记 四.定义组件(组件基本结构) vue学习笔记 五.创建子组件实例 v ...

  5. 简单实现el-dialog的拖拽功能

    首先还是要明确几个概念,这里通过修改css并截图给大家介绍下,理解了这几个概念,代码写起来会得心应手许多. clientWidth,clientHeight scrollWidth,scrollHei ...

  6. freeswitch隐藏fs标识

    概述 freeswitch是一款好用的开源软交换平台. fs的默认配置环境下,sip消息中有很多freeswitch的标识,比如"user-agent","contact ...

  7. 最简单的http文件服务器

    概述 需求来了,部署一个简单方便的文件服务器,可以查看.下载文件,不需要鉴权,越简单越好. 环境 centos:CentOS  release 7.0 (Final)或以上版本 httpd:2.4.6 ...

  8. docker 资源限制之 cgroup

    1. Liunx cgroup 使用 namespace 隔离运行环境,使得进程像在独立环境中运行一样.然而,仅有隔离环境还不够,还得限制被 namespace 隔离的资源.否则,namespace ...

  9. windows mysql安装及常用命令

    安装windows版本mysql只是为本地代码调试,不建议用于生产.觉得步骤麻烦也可以直接下载集成环境(如xampp),一键安装即可用.之前本地测试都用一键安装,今天换个方法玩玩,安装步骤如下: my ...

  10. js - body的滚动事件的坑

    文章来源 : https://www.cnblogs.com/Zting00/p/7497629.html 踩过些坑,得到的结论,不一定精确 1. body的滚动条,刷新页面的时候不会回到顶部.其他d ...