先从sklearn说起吧,如果学习了sklearn的话,那么学习Keras相对来说比较容易。为什么这样说呢?

  我们首先比较一下sklearn的机器学习大致使用流程和Keras的大致使用流程:

sklearn的机器学习使用流程:

  1. from sklearn.模型簇 import 模型名
  2. from sklearn.metrics import 评价指标
  3.  
  4. ''' 数据预处理及训练测试集分离提取'''
  5.  
  6. myModel = 模型名称() # 对象初始化
  7. myModel.fit(训练集x , 训练集y) #模型训练
  8. y预测集 = myModel.predict(开发集x) #模型预测
  9. 评价指标 = 评价指标(y预测集,y测试集) #模型效果评估

  

Keras的机器学习使用流程:

  1. import keras
  2. ...根据具体需求引入keras的包...
  3.  
  4. ...keras模型搭建...
  5. ...keras模型编译(可选择模型指标)...
  6.  
  7. kerasModel.fit(训练集x,训练集y)#keras模型训练
  8. y预测集=myModel.predict(开发集x)#keras模型预测

  

两者的区别

  由上面伪代码可知Keras和sklearn最大不同在于需要进行模型搭建,可是既然有了这么多模型为什么还要模型搭建?

  如果你了解过神经网络感知机就会比较理解这个过程,一个感知器相当于一个神经元,可根据输入信息反馈出需要的电信号,根据我们的世界观,一个细胞可以单独执行很多功能但是大量单纯的任务会让细胞只针对一个方向发展。用生物学的说话就是分化能力逐渐减弱,机器学习说法就是过拟合。因此,只有大量细胞通过不同的组合才能完成纷繁复杂的预测任务,因而有证明说神经网络理论上可拟合出任何曲线。

  那么话说回来,Keras需要自行搭建模型,搭建方法有两种:序贯模型和函数式模型。而我本次的笔记就是学习序贯模型和函数式模型。

序贯模型

  序贯模型是多个网络蹭的线性堆叠,是函数式模型的简略版,为最简单的线性,从头到尾的结构顺序,不发生分叉。是多个网络层的线性堆叠。

  Keras实现了很多层,包括core核心层,Convolution卷积层,Pooling池化层等非常丰富有趣的网络结构。

应用序贯模型的基本步骤

  • 1,model.add()           添加层
  • 2,model.compile()     模型训练的BP模式设置
  • 3,model.fit()         模型训练参数设置+训练
  • 4,model.evaluate()         模型评估
  • 5,model.predict()     模型预测

序贯模型的创建

  1,可以通过向Sequential模型传递一个layer的list来构造Sequential模型:

  1. from keras.models import Sequential
  2. from keras.layers import Dense ,Activation
  3.  
  4. model = Sequential([
  5. Dense(32,input_shape=(784,)),
  6. Activation('relu'),
  7. Dense(10),
  8. Activation('softmax')
  9. ])
  10.  
  11. model.summary()

  

  2,也可以通过.add()方法一个个的将layer加入模型中:

  1. from keras.models import Sequential
  2. from keras.layers import Dense ,Activation
  3.  
  4. model = Sequential()
  5. model.add(Dense(32,input_shape=(784,)))
  6. model.add(Activation('relu'))
  7. model.add(Dense(10))
  8. model.add(Activation('softmax'))
  9.  
  10. model.summary()

  结果如下:

  1. Using TensorFlow backend.
  2. _________________________________________________________________
  3. Layer (type) Output Shape Param #
  4. =================================================================
  5. dense_1 (Dense) (None, 32) 25120
  6. _________________________________________________________________
  7. activation_1 (Activation) (None, 32) 0
  8. _________________________________________________________________
  9. dense_2 (Dense) (None, 10) 330
  10. _________________________________________________________________
  11. activation_2 (Activation) (None, 10) 0
  12. =================================================================
  13. Total params: 25,450
  14. Trainable params: 25,450
  15. Non-trainable params: 0
  16. _________________________________________________________________

  

3,指定输入数据的shape

  模型需要知道输入数据的shape,因此,Sequential的第一层需要接受一个关于输入数据shape的参数,后面的各个层则可以自动的推导出中间数据的shape,因此不需要为每一层都指定这个参数。有几种方法来为第一层指定输入数据的shape

  1,传递一个input_shape的关键字参数给第一层,input_shape是一个tupel类型的数据(一个整数或者None的元祖,其中None表示可能为任何正整数)在input_shape中不包含数据的batch大小。

  1. model = Sequential()
  2. model.add(Dense(64,input_shape=(20,),activation='relu'))

  

  2,有些2D层,如Dense,支持通过指定其输入维度input_dim来隐含的指定输入数据shape,是一个Int类型的数据。一些3D的时域层支持通过参数input_dim和input_length来指定输入shape。

  1. model = Sequential()
  2. model.add(Dense(64, input_dim=20, activation='relu'))

  3,如果你需要为你的输入指定一个固定的batch大小(这对于statsful RNNs很有用),你可以传递一个batch_size参数给一个层。如果你同时将batch_size=32和input_shape = (6,8)传递给一个层,那么每一批输入的尺寸就是(32,6,8)。

  因此下面的代码是等价的:

  1. model = Sequential()
  2. model.add(Dense(32, input_shape=(784,)))
  3.  
  4. model = Sequential()
  5. model.add(Dense(32, input_dim=784))

  下面三种方法也是严格等价的

  1. model = Sequential()
  2. model.add(LSTM(32, input_shape=(10, 64)))
  3.  
  4. model = Sequential()
  5. model.add(LSTM(32, batch_input_shape=(None, 10, 64)))
  6.  
  7. model = Sequential()
  8. model.add(LSTM(32, input_length=10, input_dim=64))

  

4,编译

  在训练模型之前,我们需要通过compile来对学习过程进行配置,compile接收三个参数:优化器optimizer,损失函数loss,指标列表metrics。

  1. compile(self, optimizer, loss, metrics=None, sample_weight_mode=None)

其中:

  optimizer:字符串(预定义优化器名)或者优化器对象,,如 rmsprop 或 adagrad,也可以是 Optimizer 类的实例。详见:optimizers

  loss:字符串(预定义损失函数名)或目标函数,模型试图最小化的目标函数,它可以是现有损失函数的字符串标识符,如categorical_crossentropy 或 mse,也可以是一个目标函数。详见:losses

  metrics:列表,包含评估模型在训练和测试时的网络性能的指标,典型用法是metrics=[‘accuracy’]。评估标准可以是现有的标准的字符串标识符,也可以是自定义的评估标准函数。

注意:

  模型在使用前必须编译,否则在调用fit或者evaluate时会抛出异常。

例子:

  1. # 多分类问题
  2. model.compile(optimizer='rmsprop',
  3. loss='categorical_crossentropy',
  4. metrics=['accuracy'])
  5.  
  6. # 二分类问题
  7. model.compile(optimizer='rmsprop',
  8. loss='binary_crossentropy',
  9. metrics=['accuracy'])
  10.  
  11. # 均方误差回归问题
  12. model.compile(optimizer='rmsprop',
  13. loss='mse')
  14.  
  15. # 自定义评估标准函数
  16. import keras.backend as K
  17.  
  18. def mean_pred(y_true, y_pred):
  19. return K.mean(y_pred)
  20.  
  21. model.compile(optimizer='rmsprop',
  22. loss='binary_crossentropy',
  23. metrics=['accuracy', mean_pred])

  

5,训练

  Keras 模型在输入数据和标签的 Numpy 矩阵上进行训练。为了训练一个模型,你通常会使用 fit 函数。文档详见此处

  1. fit(self, x, y, batch_size=32, epochs=10, verbose=1, callbacks=None,
  2. validation_split=0.0, validation_data=None, shuffle=True,
  3. class_weight=None, sample_weight=None, initial_epoch=0)

  本函数将模型训练nb_epoch轮,其参数有:

  x:输入数据,如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当是list,list的元素是对应于各个输入的numpy array

  y:标签 ,numpy array

  batch_size:整数,指定进行梯度下降时每个batch包含的样本数,训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。

  epochs:整数,训练的轮数,每个epoch会把训练集轮一遍。

  verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录

  callbacks:list,,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数。

  validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数,精确度等。注意,validation_split的划分在shuffle之前,因此如果你的数据本身是有序的,需要先手工打乱再指定validation_split,否则可能会出现验证集样本不均匀。

  validation_data:形式为(X,y)的tuple,是指定的验证集,此参数将覆盖validation_spilt。

  shuffle:布尔值或者字符串,一般为布尔值,表示是否在训练过程中随机打乱输入样本的顺序。若为字符串“batch”,则用来处理HDF5数据大特殊情况,它将在batch内部将数据打乱。

  class_weight:字典,将不同的类别映射为不同的权重,该参数用来训练过程中调整损失函数(只能用于训练)

  sample_weight:权值的numpy array,用于在训练时调整损失(仅用于训练)。

可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode=‘temporal’。
  initial_epoch:从该参数指定的epoch开始训练,在继续之前的训练时候有用。

  fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随着epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况。

示例一:

  1. # 对于具有2个类的单输入模型(二进制分类):
  2.  
  3. model = Sequential()
  4. model.add(Dense(32, activation='relu', input_dim=100))
  5. model.add(Dense(1, activation='sigmoid'))
  6. model.compile(optimizer='rmsprop',
  7. loss='binary_crossentropy',
  8. metrics=['accuracy'])
  9.  
  10. # 生成虚拟数据
  11. import numpy as np
  12. data = np.random.random((1000, 100))
  13. labels = np.random.randint(2, size=(1000, 1))
  14.  
  15. # 训练模型,以 32 个样本为一个 batch 进行迭代
  16. model.fit(data, labels, epochs=10, batch_size=32)

  

示例二:

  1. # 对于具有10个类的单输入模型(多分类分类):
  2.  
  3. model = Sequential()
  4. model.add(Dense(32, activation='relu', input_dim=100))
  5. model.add(Dense(10, activation='softmax'))
  6. model.compile(optimizer='rmsprop',
  7. loss='categorical_crossentropy',
  8. metrics=['accuracy'])
  9.  
  10. # 生成虚拟数据
  11. import numpy as np
  12. data = np.random.random((1000, 100))
  13. labels = np.random.randint(10, size=(1000, 1))
  14.  
  15. # 将标签转换为分类的 one-hot 编码
  16. one_hot_labels = keras.utils.to_categorical(labels, num_classes=10)
  17.  
  18. # 训练模型,以 32 个样本为一个 batch 进行迭代
  19. model.fit(data, one_hot_labels, epochs=10, batch_size=32)

  

6,评估

  根据验证集评估模型的好坏

  1. evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

  本函数按batch计算在某些输入数据上模型的误差,其参数有:

  x:输入数据,与fit一样,是numpy array 或者numpy array的list

  y:标签,numpy array

  batch_size:整数,含义同fit的同名参数

  verbose:含义同fit的同名参数,但是只能取0或1

  sample_weight:numpy array ,含义同fit的同名参数

  本函数返回一个测试误差的标量值(如果模型没有其他评价指标),或一个标量的list(如果模型还有其他的评价指标)。model.metrics_names将给出list中各个值的含义。

  如果没有特殊说明,以下函数的参数均保持与fit的同名参数相同的含义

  如果没有特殊说明,以下函数的verbose参数(如果有)均只能取0或者1

  1. score = model.evaluate(x_val , y_val ,batch_size = 128)
  2. print('val score:', score[0])
  3. print('val accuracy:', score[1])

  

7,预测

  对已经训练完成的模型,输入特征值x会预测得到标签y。

  1. predict(self, x, batch_size=32, verbose=0)
  2. predict_classes(self, x, batch_size=32, verbose=1)
  3. predict_proba(self, x, batch_size=32, verbose=1)

  本函数按batch获得输入数据对应的输出,其参数有:

  函数的返回值是预测值的numpy array

  predict_classes:本函数按batch产生输入数据的类别预测结果

  predict_proba:本函数按batch产生输入数据属于各个类别的概率

  1. x = 1
  2. y = model.predict(x,verbose=0)
  3. print(y)

  

8,on_batch,batch的结果,检查

  1. train_on_batch(self, x, y, class_weight=None, sample_weight=None)
  2. test_on_batch(self, x, y, sample_weight=None)
  3. predict_on_batch(self, x)

  train_on_batch:本函数在batch的数据上进行一次参数更新,函数返回训练误差的标量值或者标量值的list,与evaluate的情形相同。

  test_on_batch:本函数在一个batch的样本上对模型进行评估,函数的返回与evaluate的情形相同。

  predict_on_batch:本函数在一个batch的样本上对模型进行测试,函数返回模型在一个batch上的预测结果。

9,完整代码及其一次结果

代码:

  1. from keras.models import Sequential
  2. from keras.layers import Dense ,Activation,Dropout
  3. import numpy as np
  4.  
  5. # 准备训练集和验证集
  6. x_train = np.random.random((1000,20))
  7. y_train = np.random.randint(2,size=(1000,1))
  8. x_val = np.random.random((100,20))
  9. y_val = np.random.randint(2,size=(100,1))
  10.  
  11. model = Sequential()
  12. model.add(Dense(64,input_dim=20,activation='relu'))
  13. model.add(Dropout(0.5))
  14. model.add(Dense(64,activation='relu'))
  15. model.add(Dropout(0.5))
  16. model.add(Dense(1,activation='sigmoid'))
  17.  
  18. model.compile(loss='binary_crossentropy',optimizer='rmsprop',metrics=['accuracy'])
  19. model.fit(x_train,y_train,epochs=20,batch_size=128)
  20.  
  21. score = model.evaluate(x_val , y_val ,batch_size = 128)
  22. print('val score:', score[0])
  23. print('val accuracy:', score[1])
  24.  
  25. # x = 1
  26. # y = model.predict(x,verbose=0)
  27. # print(y)

结果:

  1. Using TensorFlow backend.
  2. Epoch 1/20
  3.  
  4. 128/1000 [==>...........................] - ETA: 1s - loss: 0.7093 - acc: 0.5469
  5. 1000/1000 [==============================] - 0s 291us/step - loss: 0.7098 - acc: 0.5090
  6. Epoch 2/20
  7.  
  8. 128/1000 [==>...........................] - ETA: 0s - loss: 0.7191 - acc: 0.4766
  9. 1000/1000 [==============================] - 0s 15us/step - loss: 0.7087 - acc: 0.5080
  10. Epoch 3/20
  11.  
  12. 128/1000 [==>...........................] - ETA: 0s - loss: 0.7009 - acc: 0.4766
  13. 1000/1000 [==============================] - 0s 15us/step - loss: 0.6969 - acc: 0.5040
  14. Epoch 4/20
  15.  
  16. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6946 - acc: 0.5312
  17. 1000/1000 [==============================] - 0s 15us/step - loss: 0.6969 - acc: 0.5240
  18. Epoch 5/20
  19.  
  20. 128/1000 [==>...........................] - ETA: 0s - loss: 0.7029 - acc: 0.4609
  21. 1000/1000 [==============================] - 0s 15us/step - loss: 0.7002 - acc: 0.4950
  22. Epoch 6/20
  23.  
  24. 128/1000 [==>...........................] - ETA: 0s - loss: 0.7027 - acc: 0.4531
  25. 1000/1000 [==============================] - 0s 15us/step - loss: 0.6992 - acc: 0.5090
  26. Epoch 7/20
  27.  
  28. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6907 - acc: 0.5312
  29. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6895 - acc: 0.5290
  30. Epoch 8/20
  31.  
  32. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6906 - acc: 0.5000
  33. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6969 - acc: 0.5040
  34. Epoch 9/20
  35.  
  36. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6860 - acc: 0.5078
  37. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6914 - acc: 0.5280
  38. Epoch 10/20
  39.  
  40. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6784 - acc: 0.6016
  41. 1000/1000 [==============================] - 0s 17us/step - loss: 0.6912 - acc: 0.5390
  42. Epoch 11/20
  43.  
  44. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6812 - acc: 0.6406
  45. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6874 - acc: 0.5330
  46. Epoch 12/20
  47.  
  48. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6997 - acc: 0.4766
  49. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6949 - acc: 0.5080
  50. Epoch 13/20
  51.  
  52. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6843 - acc: 0.5781
  53. 1000/1000 [==============================] - 0s 15us/step - loss: 0.6912 - acc: 0.5380
  54. Epoch 14/20
  55.  
  56. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6746 - acc: 0.5703
  57. 1000/1000 [==============================] - 0s 17us/step - loss: 0.6873 - acc: 0.5360
  58. Epoch 15/20
  59.  
  60. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6959 - acc: 0.5000
  61. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6891 - acc: 0.5310
  62. Epoch 16/20
  63.  
  64. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6780 - acc: 0.5938
  65. 1000/1000 [==============================] - 0s 17us/step - loss: 0.6907 - acc: 0.5280
  66. Epoch 17/20
  67.  
  68. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6835 - acc: 0.5938
  69. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6858 - acc: 0.5690
  70. Epoch 18/20
  71.  
  72. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6845 - acc: 0.4922
  73. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6921 - acc: 0.5220
  74. Epoch 19/20
  75.  
  76. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6861 - acc: 0.5625
  77. 1000/1000 [==============================] - 0s 15us/step - loss: 0.6859 - acc: 0.5540
  78. Epoch 20/20
  79.  
  80. 128/1000 [==>...........................] - ETA: 0s - loss: 0.6959 - acc: 0.5312
  81. 1000/1000 [==============================] - 0s 16us/step - loss: 0.6841 - acc: 0.5530
  82.  
  83. 100/100 [==============================] - 0s 440us/step
  84. val score: 0.6957631707191467
  85. val accuracy: 0.5099999904632568

函数式模型

  比序贯模型要复杂,但是效果很好,可以同时/分阶段输入变量,分阶段输出想要的模型。

  所以说,只要你的模型不是类似VGG一样

1,应用函数式模型的基本步骤

1,model.layers()     添加层

2,model.compile()  模型训练的BP模式设置

3,model.fit()       模型训练参数设置+训练

4,evaluate()             模型评估

5,predict()                模型预测

 

2,常用Model属性

  1. model.layers:组成模型图的各个层
  2. model.inputs:模型的输入张量列表
  3. model.outputs:模型的输出张量列表

  

  1. model = Model(inputs=, outputs = )

  

3,指定输入数据的shape

  1. inputs = Input(shape = (20, ))

 

4,编译,训练,评估,预测等步骤与序贯式模型相同(这里不再赘述)

  1. compile(self, optimizer, loss, metrics=None, loss_weights=None, sample_weight_mode=None)

  本函数按batch计算在某些输入数据上模型的误差,其参数有:

  x:输入数据,与fit一样,是numpy array或者numpy array的list

  y:标签,numpy array

  batch_size:整数,含义同fit的同名函数

  verbose:含义与fit的同名函数,但是只能取0或者1

  sample_weight:numpy array,含义同fit的同名函数

  本函数编译模型以供训练,参数有:

  1. evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

  

5,示例一(基于上面序贯模型进行改造)

  1. import numpy as np
  2. from keras.models import Model
  3. from keras.layers import Dense , Dropout,Input
  4.  
  5. # 准备训练集和验证集
  6. x_train = np.random.random((1000,20))
  7. y_train = np.random.randint(2,size=(1000,1))
  8. x_val = np.random.random((100,20))
  9. y_val = np.random.randint(2,size=(100,1))
  10.  
  11. inputs = Input(shape = (20,))
  12. x = Dense(64,activation='relu')(inputs)
  13. x = Dropout(0.5)(x)
  14. x = Dense(64,activation='relu')(x)
  15. x = Dropout(0.5)(x)
  16. predictions = Dense(1,activation='sigmoid')(x)
  17. model=Model(inputs=inputs, outputs=predictions)
  18. model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy'])
  19. model.fit(x_train, y_train,epochs=20,batch_size=128)
  20.  
  21. score = model.evaluate(x_val, y_val, batch_size=128)
  22. print('val score:', score[0])
  23. print('val accuracy:', score[1])

  

 

序贯模型和函数模型共同的API

  model.summary():打印出模型的概况,它实际调用的是keras.utils.print_summary

  model.get_config():返回包含模型配置信息的Python字典,模型也可以从config中重构回去。

  1. config = model.get_config()
  2. model = Model.from_config(config)
  3. model = Sequential.from_config(config)

  上面是分别对序贯模型和函数式模型载入config

model.get_layer():依据层名或下标获得层对象

model.get_weights():返回模型权重张量的列表,类型为numpy.array

model.set_weights():从numpy array里载入给模型,要求数组与model.get_weights()一样

model.to_json():返回代表模型的JSON字符串,仅仅包含网络结构,不包含权重,可以从JSON字符串中重构模型

Keras模型保存

  首先不推荐使用pickle或者cPickle来保存Keras模型

1,保存结构

  可以使用model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含:

  • 模型的结构,以便重构该模型
  • 模型的权重
  • 训练配置(损失函数,优化器等)
  • 优化器的状态,以便从上次训练中断的地方开始

  使用Keras.models.load_model(filepath)来重新实例化你的模型,如果文件中存储了训练配置的话,该函数还会同时完成模型的编译。例如:

  1. from keras.models import load_model
  2.  
  3. # create a HDF5 file 'my_load.h5'
  4. model.save('my_load.h5')
  5.  
  6. # deletes the existing model
  7. del model
  8.  
  9. # returns a compiled model
  10. # indentical to the previous one
  11. model = load_model('my_load.h5')

  

2,保存结构

  如果你只是希望保存模型的结构,而不包括其权重或者配置信息,可以使用:

  1. # save as JSON
  2. json_string = model.to_json()
  3.  
  4. # save as YAML
  5. yaml_string = model.to_yaml()

  这项操作可以将模型序列化为json或者yaml文件,如果需要的话你甚至可以手动打开这些文件进行编辑。

  当然你也可以从保存好的json文件或者yaml文件中载入模型:

  1. # model reconstruction from JSON:
  2. from keras.models import model_from_json
  3. model = model_from_json(json_string)
  4.  
  5. # model reconstruction from YAML
  6. model = model_from_yaml(yaml_string)

  

3,保存模型的权重

  如果需要保存模型,可通过下面的代码利用HDF5进行保存。注意,在使用前需要确保你已经安装了HDF5 和Python的库h5py。

  1. model.save_weights('my_model_weights.h5')

  如果你需要在代码中初始化一个完全相同的模型,请使用:

  1. model.load_weights('my_model_weights.h5')

  

4,加载权重到不同的网络结构

  如果你需要加载权重到不同的网络结构(有些层一样)中,例如fine-tune或transfer-learning,你可以通过层名字来加载模型。

  1. model.load_weights('my_model_weights.h5', by_name=True)

  例如:

  1. """
  2. 假如原模型为:
  3. model = Sequential()
  4. model.add(Dense(2, input_dim=3, name="dense_1"))
  5. model.add(Dense(3, name="dense_2"))
  6. ...
  7. model.save_weights(fname)
  8. """
  9. # new model
  10. model = Sequential()
  11. model.add(Dense(2, input_dim=3, name="dense_1")) # will be loaded
  12. model.add(Dense(10, name="new_dense")) # will not be loaded
  13.  
  14. # load weights from first model; will only affect the first layer, dense_1.
  15. model.load_weights(fname, by_name=True)

  加载权重到不同的网络结构上多数用于迁移学习。

参考文献:https://zhuanlan.zhihu.com/p/37376691

https://zhuanlan.zhihu.com/p/50543770

Python机器学习笔记:深入理解Keras中序贯模型和函数模型的更多相关文章

  1. Python机器学习笔记:使用Keras进行回归预测

    Keras是一个深度学习库,包含高效的数字库Theano和TensorFlow.是一个高度模块化的神经网络库,支持CPU和GPU. 本文学习的目的是学习如何加载CSV文件并使其可供Keras使用,如何 ...

  2. Python机器学习笔记:利用Keras进行分类预测

    Keras是一个用于深度学习的Python库,它包含高效的数值库Theano和TensorFlow. 本文的目的是学习如何从csv中加载数据并使其可供Keras使用,如何用神经网络建立多类分类的数据进 ...

  3. Python机器学习笔记:深入学习Keras中Sequential模型及方法

    Sequential 序贯模型 序贯模型是函数式模型的简略版,为最简单的线性.从头到尾的结构顺序,不分叉,是多个网络层的线性堆叠. Keras实现了很多层,包括core核心层,Convolution卷 ...

  4. Python机器学习笔记:不得不了解的机器学习面试知识点(1)

    机器学习岗位的面试中通常会对一些常见的机器学习算法和思想进行提问,在平时的学习过程中可能对算法的理论,注意点,区别会有一定的认识,但是这些知识可能不系统,在回答的时候未必能在短时间内答出自己的认识,因 ...

  5. Python机器学习笔记:不得不了解的机器学习知识点(2)

    之前一篇笔记: Python机器学习笔记:不得不了解的机器学习知识点(1) 1,什么样的资料集不适合用深度学习? 数据集太小,数据样本不足时,深度学习相对其它机器学习算法,没有明显优势. 数据集没有局 ...

  6. Python机器学习笔记:sklearn库的学习

    网上有很多关于sklearn的学习教程,大部分都是简单的讲清楚某一方面,其实最好的教程就是官方文档. 官方文档地址:https://scikit-learn.org/stable/ (可是官方文档非常 ...

  7. Python机器学习笔记 集成学习总结

    集成学习(Ensemble  learning)是使用一系列学习器进行学习,并使用某种规则把各个学习结果进行整合,从而获得比单个学习器显著优越的泛化性能.它不是一种单独的机器学习算法啊,而更像是一种优 ...

  8. Python机器学习笔记:K-Means算法,DBSCAN算法

    K-Means算法 K-Means 算法是无监督的聚类算法,它实现起来比较简单,聚类效果也不错,因此应用很广泛.K-Means 算法有大量的变体,本文就从最传统的K-Means算法学起,在其基础上学习 ...

  9. python机器学习笔记:EM算法

    EM算法也称期望最大化(Expectation-Maximum,简称EM)算法,它是一个基础算法,是很多机器学习领域的基础,比如隐式马尔科夫算法(HMM),LDA主题模型的变分推断算法等等.本文对于E ...

随机推荐

  1. Zookeeper系列2 原生API 以及核心特性watcher

    原生API 增删改查询 public class ZkBaseTest { static final String CONNECT_ADDR = "192.168.0.120"; ...

  2. 3.在自己的bag上运行Cartographer ROS

    1.验证自己的bag cartographer ROS提供了一个工具cartographer_rosbag_validate来自动分析包中的数据.在尝试调试cartographer之前运行这个工具. ...

  3. javascript day 02

    js-day02 1.数据类型转换2.函数3.分支结构*******************************1.数据类型转换 数据类型:number,string,boolean,null,u ...

  4. Nodejs之路:异步I/O的过程

    对于Node中的异步I/O调用,从发出调用到回调执行,看起来像普通的js异步,但是流程却和普通js那些消息队列完全不同,整个过程经历了哪些? 下面以Windows平台下为例: 一,异步调用第一阶段: ...

  5. android 获取文本框回车输入

    扫描头开启,并发送回车 txtUsername.setOnEditorActionListener(new OnEditorActionListener() { @Override public bo ...

  6. ssh整合详解

    http://www.cnblogs.com/tuhooo/p/6491906.html

  7. ubuntu16.04下idea、webstorm等开发工具不能输入中文问题

    问题: ubuntu16.04下idea.webstorm开发工具不能输入中文,就算切换到中文输入法输入的也是英文字母. 解决方案: 1.vim打开开发工具的启动文件(idea下就是idea.sh) ...

  8. Vmware Vtop基本使用

      俗话说:"最了解孩子的莫过于亲妈",算了编不下去了,简而言之就是我们想知道虚机的详情可以通过Vmware Vtop登录宿主机进行查看,直接上干货.   有这些信息我们可以从Vt ...

  9. Codeforces Round #499 (Div. 2) C. Fly(数学+思维模拟)

    C. Fly time limit per test 1 second memory limit per test 256 megabytes input standard input output ...

  10. Filesystem Case-Sensitivity Mismatch

    Filesystem Case-Sensitivity Mismatch The project seems to be located on a case-sensitive file system ...