我的Keras使用总结(5)——Keras指定显卡且限制显存用量,常见函数的用法及其习题练习
Keras 是一个高层神经网络API,Keras是由纯Python编写而成并基于TensorFlow,Theano以及CNTK后端。Keras为支持快速实验而生,能够将我们的idea迅速转换为结果。好了不吹了,下面继续学习Keras的一些用法,其中这篇博客包括了Keras如何指定显卡且限制显存用量,还有一些常见函数的用法及其问题,最后是使用Keras进行的练习。
Keras如何指定显卡且限制显存用量
Keras在使用GPU的时候有个特点,就是默认全部占满显存。若单核GPU也无所谓,若是服务器GPU较多,性能较好,全部沾满就太浪费了。
于是有以下五种情况:
- 1,指定GPU
- 2,使用固定显存的GPU
- 3,指定GPU+固定显存
- 4,GPU动态增长
- 5,CPU充分占用
- 6,tf.keras 使用多 GPU
1,固定 GPU 的显存
本节来自:深度学习 tehano/tensorflow 多显卡多人使用问题集(参见:Limit the resource usage for tensorflow backend · Issue #1538 · fchollet/keras · GitHub)
在使用keras时候会出现总是占满 GPU 显存的情况,可以通过重设 backend 的GPU占用情况来进行调节
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))
需要注意的是,虽然代码或配置层面设置了对显存占用百分比阈值,但在实际运行中如果达到了这个阈值,程序有需要的话还是会突破这个阈值。换而言之如果跑在一个大数据集上还是会用到更多的显存。以上的显存限制仅仅为了在跑小数据集时避免对显存的浪费而已。
2,使用指定的GPU
比如下面代码:
import os os.environ["CUDA_VISIBLE_DEVICES"] = "2"
此时的代码为选择了编号为2的GPU。
下面代码我们设置了8个GPU,(当然这是假的哈)
# python设置系统变量的方法
os.environ["CUDA_VISIBLE_DEVICES"] = "8,9,10,11,12,13,14,15"
注意,在代码中指定设备时,重新从 0 开始计,而不是从8开始。
3,指定GPU+固定显存
上面两个连在一起用就OK:
import os
import tensorflow as tf
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))
那么在命令行,可以使用:https://github.com/tensorflow/nmt/issues/60
CUDA_VISIBLE_DEVICES=0 python -m nmt.nmt
4,GPU动态增长
import keras.backend.tensorflow_backend as KTF
import tensorflow as tf
import os os.environ["CUDA_VISIBLE_DEVICES"] = "1" config = tf.ConfigProto()
config.gpu_options.allow_growth=True #不全部占满显存, 按需分配
sess = tf.Session(config=config) KTF.set_session(sess)
os.environ 指的时占用的 GPU编号;allow_growth 为动态申请显存占用。
5,CPU充分占用
来自博客:http://nooverfit.com/wp/tensorflow%E5%A6%82%E4%BD%95%E5%85%85%E5%88%86%E4%BD%BF%E7%94%A8%E6%89%80%E6%9C%89cpu%E6%A0%B8%E6%95%B0%EF%BC%8C%E6%8F%90%E9%AB%98tensorflow%E7%9A%84cpu%E4%BD%BF%E7%94%A8%E7%8E%87%EF%BC%8C%E4%BB%A5/
num_cores = 4 config = tf.ConfigProto(intra_op_parallelism_threads=num_cores, inter_op_parallelism_threads=num_cores,
allow_soft_placement=True, device_count={'CPU': 4})
session = tf.Session(config=config)
K.set_session(session)
其中:
- device_count, 告诉tf Session使用CPU数量上限,如果你的CPU数量较多,可以适当加大这个值
- inter_op_parallelism_threads和intra_op_parallelism_threads告诉session操作的线程并行程度,如果值越小,线程的复用就越少,越可能使用较多的CPU核数。如果值为0,TF会自动选择一个合适的值。
- allow_soft_placement=True, 有时候,不同的设备,它的cpu和gpu是不同的,如果将这个选项设置成True,那么当运行设备不满足要求时,会自动分配GPU或者CPU。
6,tf.keras 使用多 GPU
DistributionStrategy API是构建多设备/机器训练的简单方式,开发者只需要在现有模型上做少量的修改,就可以用它们进行分布式训练。另外,DistributionStrategy在设计时考虑了同时兼容动态图(eager)和静态图。
参考:TensorFlow 1.11.0发布,一键多GPU(训练、预测和评价tf.keras模型)
目前TensorFlow支持三种DistributionStrategy:
- MirroredStrategy
- CollectiveAllReduceStrategy
- ParameterServerStrategy
在tf.keras中直接使用DistributionStrategy
最新的TensorFlow Github中给出了在tf.keras中直接使用DistributionStrategy的例子。
用tf.keras构建一个单层网络:
inputs = tf.keras.layers.Input(shape=(1,))
predictions = tf.keras.layers.Dense(1)(inputs)
model = tf.keras.models.Model(inputs=inputs, outputs=predictions)
目前,使用DistributionStrategy需要使用tf.data.Dataset来作为数据输入:
features = tf.data.Dataset.from_tensors([1.]).repeat(10000).batch(10)
labels = tf.data.Dataset.from_tensors([1.]).repeat(10000).batch(10)
train_dataset = tf.data.Dataset.zip((features, labels))
这里我们为模型指定使用MirroredStrategy进行多GPU训练,代码非常简单:
distribution = tf.contrib.distribute.MirroredStrategy()
model.compile(loss='mean_squared_error',
optimizer=tf.train.GradientDescentOptimizer(learning_rate=0.2),
distribute=distribution)
使用常规的训练、评价和预测方法会自动在多GPU上进行:
model.fit(train_dataset, epochs=5, steps_per_epoch=10)
model.evaluate(eval_dataset)
model.predict(predict_dataset)
将tf.keras模型迁移到多GPU上运行只需要上面这些代码,它会自动切分输入、在每个设备(GPU)上复制层和变量、合并和更新梯度。
7,OpenBLASblas_thread_initpthread_creatResourcetemporarilyunavailable问题分析与解决
7.1 报错情况
我直接运行我的代码会报错如下:
问题太多了,但是解决方法好像很简单
7.2 解决方法
参考文献:https://zhuanlan.zhihu.com/p/23250782
TensorFlow 如果单纯使用 TensorFlow的话,可以用代码控制:
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4
session = tf.Session(config=config, ...)
如果使用Keras作为前端,也可以用代码控制:
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))
这样一来,就可以让同一块显卡同时执行多程序了,cuda流处理器也可以和多核CPU一样满足多程序运行。
需要注意的是,虽然代码或配置层面设置了对显存占用百分比阈值,但在实际运行中如果达到了这个阈值,程序有需要的话还是会突破这个阈值(用theano后端会如此,tensorflow可能会报资源耗尽错,2020年7月20日补充)。换而言之如果跑在一个大数据集上还是会用到更多的显存。以上的显存限制仅仅为了在跑小数据集时避免对显存的浪费而已。
常见函数的用法
1,fit() 和 fit_generator() 区别以及参数的坑
参考地址:https://blog.csdn.net/mlp750303040/article/details/89207658 https://blog.csdn.net/learning_tortosie/article/details/85243310
首先Keras中的 fit() 函数传入的 x_train 和 y_train 是被完整的加载进内存的,当然用起来很方便,但是如果我们数据量很大,那么是不可能将所有数据载入内存的,必将导致内存泄露,这时候我们可以用 fit_generator 函数来进行训练。
1.1 fit() 函数
下面是 fit 传参的例子:
history = model.fit(x_train, y_train, epochs=10,batch_size=32,
validation_split=0.2)
在这里我们看到提供的训练数据(trainX)和训练标签(trainY),然后这里需要给出 epochs 和 batch_size,epoch是这个数据集要被训练多少次,batch_size 是这个数据集被分成多少个 batch 进行处理。最后给出交叉验证集的大小,这里的 0.2 是指在训练集上占比 20%。
使用 .fit() 函数,这里需要做两个假设:
- 1,我们的整个训练集可以放在 RAM
- 2,没有数据增强(即不需要Keras生成器)
相反,我们的网络将在原始数据上训练,原始数据本身将适合内存,我们无需将旧批量数据从 RAM 中移出并将新批量数据移入RAM。此外,我们不会使用数据增强动态操纵训练数据。
1.2 fit_generator() 函数
对于小型,简单化的数据集,使用Keras的 .fit 函数是完全可以接受的。这些小型数据集通常不是很具有挑战性,不需要任何数据增强。
但是,真实世界的数据集很少这么简单:
- 真实世界的数据结构通常太大而无法放入内存中
- 他们也往往具有挑战性,要求我们执行数据增强以避免过拟合并增加我们模型的泛化能力
在这些情况下,我们需要利用 Keras的 .fit_generator() 函数。
fit_generator() 函数必须传入一个生成器,我们的训练数据也是通过生成器产生的,下面给出一个简单的生成器例子:
# initialize the number of epochs and batch size
EPOCHS = 100
BS = 32 # construct the training image generator for data augmentation
aug = ImageDataGenerator(rotation_range=20, zoom_range=0.15,
width_shift_range=0.2, height_shift_range=0.2, shear_range=0.15,
horizontal_flip=True, fill_mode="nearest")
这里的生成器函数我生成的是一个 batch_size 为 32大小的数据,这里只是一个demo,如果在生成器里没有规定 batch_size 的大小,就是每次产生一个数据,那么在用 fit_generator 的时候里面的参数 steps_per_epoch 是不一样的(这个问题后面讲,这里不再赘述)
下面是 fit_generator() 函数的传参:
# train the network
H = model.fit_generator(aug.flow(trainX, trainY, batch_size=BS),
validation_data=(testX, testY), steps_per_epoch=len(trainX) // BS,
epochs=EPOCHS)
我们首先会初始化将要训练的网络的 epoch和batch size,然后我们初始化 aug,这是一个 Keras ImageDataGenerator 对象,用于图像的数据增强,随机平移,旋转,调整大小等。
执行数据增强是正则化的一种形式,使我们的模型能够更好的被泛化。但是应用数据增强意味着我们的训练数据不再是“静态的”,而数据不断在变换。根据提供给ImageDataGenerator的参数随机调整每批新数据,因此我们需要利用Keras的 .fit_generator 函数来训练我们的模型。顾名思义, .fit_generator() 函数假定存在一个为其生成数据的基础函数。该函数本身是一个 Python生成器。
所以Keras在使用 .fit_generator() 训练模型的过程中:
- Keras调用提供给 .fit_generator 的生成器函数(在本例为 aug.flow)
- 生成器函数为 .fit_generator() 函数生成一大批为 batch size 的数据
- .fit_generator() 函数接受批量数据,执行反向传播,并更新模型中的权重
- 重复该过程直到达到期望的 epoch 数量
下面说一下为什么我们需要 steps_per_epoch?
请记住,Keras数据生成器意味着无限循环,它永远不会返回或退出。
而steps_per_epoch:是在声明一个epoch完成并开始下一个epoch之前从发生器产生的步骤(样本批次)的总数,它通常应该等于数据集的唯一样本数除以批量大小。
由于该函数旨在无限循环,因此 Keras无法确定一个 epoch何时开始,并且新的 epoch何时开始。因此我们将训练数据的总数除以批量大小的结果作为 steps_per_epoch 的值,一旦Keras到达这一步,它就会知道这是一个新的 epoch。所以当使用 fit_generator 增加 batch_size时,如果希望训练时间保持不变或者更低,则应将 steps_per_epochs 减少相同的因子。
所以我们使用fit_generator() 函数的时候,一般需要将 steps_per_epoch 和 validation_steps写成活参,如下:
model.fit_generator(
train_generator,
steps_per_epoch=nb_train_samples // batch_size,
epochs=epochs,
validation_data=validation_generator,
validation_steps=nb_validation_samples // batch_size
)
注意这里的 nb_train_samples 和 nb_validation_samples 需要我们自己找一下,看看自己的训练集和验证集的数据总共有多少个。
2,回调函数callback
官方文档:https://keras.io/zh/callbacks/
回调函数是一组在训练的特定阶段被调用的函数集,你可以使用回调函数来观察训练过程中网络内部的状态和统计信息。通过传递回调函数列表到模型的 .fit() 中,即可在给定的训练阶段调用该函数集中的函数。
Tips:虽然我们称之为“回调函数”,事实上Keras的回调函数是一个类,回调函数只是习惯性称呼。
callback模块中常用的类和函数有12个,但是下面只学习几个常用的类。
2.1,Callback
keras.callbacks.Callback()
这是回调函数的抽象类,定义新的回调函数必须继承该类。
类属性:
- params:字典,训练参数集(如信息显示方法 verbosity,batch大小,epoch数)
- model:keras.models.Model对象,为正在训练的模型的引用
回调函数以字典 logs 为参数,该字典包含了一系列与当前 batch 或 epoch相关的信息。
目前,模型的 .fit() 中有下列参数会被记录到logs中:
- 在每个epoch的结尾处(on_epoch_end),logs将包含训练的正确率和误差,acc和loss,如果指定了验证集,还会包含验证集正确率和误差 val_acc 和 val_loss,val_acc 还额外需要在 .compile中启用 metrics=['accuracy']。
- 在每个 batch 的开始处(on_batch_begin):logs包含size,即当前batch的样本数
- 在每个batch的结尾处(on_batch_end):logs包含loss,若启用 accuracy则还包含acc
on_epoch_begin #在每轮开始时被调用
on_epoch_end #在每轮结束时被调用
on_batch_begin #在处理每个批量之前被调用
on_batch_end #在处理每个批量之后被调用
on_train_begin #在训练开始时被调用
on_train_end #在训练结束时被调用
2.2 EarlyStopping
earlystopping 是Callbacks 的一种,callbacks 用于指定在每个 epoch 开始和结束的时候进行哪种特定的操作。Callbacks中有一些设置好的接口,可以直接使用,如'acc','val_acc', 'loss','val_loss'等等。EarlyStopping则是用于提前停止训练的 callbacks。具体的,可以达到当训练集上的 loss 不再减少(即减小的程度小于某个阈值)的时候停止训练。
为什么要使用 earlystopping?
当我们训练深度学习神经网络的时候通常希望能够获得最好的泛化性能(generalization performance,即可以很好的拟合数据),但是所有的标准深度网络结构如全连接多层感知机都很容易过拟合。常用的防止过拟合的方法是对模型加正则项,如L1,L2,dropout,但深度神经网络希望通过加深网络层次减少优化的参数,同时可以得到更好的优化结果,Early stopping 的使用可以在模型训练整个过程中截取保存结构最优的参数模型,防止过拟合。
earlystopping 旨在解决 epoch 数量需要手动设置的问题。它也可以被视为一种能够避免网络发生过拟合的正则化方法(与L1,L2权重衰减和丢弃法类似)。根本原因就是因为继续训练会导致测试集上的准确率下降。那么继续训练导致测试准确率下降的原因猜测可能是:1,过拟合;2,学习率过大导致不收敛;3,使用正则项的时候,loss的减少可能不是因为准确率增加导致的,而是因为权重大小的降低。
earlystopping 的原理
1,将数据分为训练集和验证集
2,每个 epoch结束后(或者每N个epoch后):在验证集上获取测试结果,随着epoch的增加,如果在验证集上发现测试误差上升,则停止训练
3,将停止之后的权重作为网络的最终参数
这种做法很符合直观感受,因为精度都不再提高了,在继续训练也是无益的,只会提高训练的时间。那么该做法的一个重点便是怎样才认为验证集精度不再提高了,因为可能经过这个Epoch后,精度降低了,但是随后的Epoch又让精度又上去了,所以不能根据一两次的连续降低就判断不再提高。一般的做法是,在训练的过程中,记录到目前为止最好的验证集精度,当连续10次Epoch(或者更多次)没达到最佳精度时,则可以认为精度不再提高了。
keras.callbacks.EarlyStopping(monitor='val_loss', patience=0, verbose=0, mode='auto')
当监测值不再改善时,该回调函数将终止训练。
参数:
- monitor:需要监视的量,有’acc’,’val_acc’,’loss’,’val_loss’等等。正常情况下如果有验证集,就用’val_acc’或者’val_loss’。但是如果没有单设验证集,就只能用’acc’了
- patience:能够容忍多少个 epoch 内都没有improvement,这个设置其实是在抖动和真正的准确率下降之间做 trade off。如果 patience设置的大,那么最终得到的准确率要略低于模型可以达到的最高准确率;如果patience设置的小,那么模型很可能在前期抖动,还在全图搜索的阶段就停止了,准确率一般很差。patience的大小和 learning rate 直接相关。当 early stop被激活(如果发现loss相比上一个epoch训练没有下降),则经过patience个epoch后停止训练
- verbose:信息展示模型
- model:‘auto’,‘min’,‘max’之一,在 min模式下,如果检测值停止下降则终止训练。在 max模式下,当检测值不再上升则停止训练。例如,当监测值为 val_acc 时,模式应该为 max,当监测值为 val_loss 时,模式应为 min。在auto模式下,评价准则由被监测值的名字自动推断
2.3 LearningRateScheduler
keras.callbacks.LearningRateScheduler(schedule)
该回调函数是学习率调度器
参数:
- schedule:函数,该函数以 epoch号为参数(从0算起的整数),返回一个新的学习率(浮点数)
2.4 ModelCheckpoint
Keras中的模型主要包括model和weight两个部分,保存Keras的model文件和载入Keras文件的方法有很多,这里分别学习一下。
保存model部分的主要方法:
1,通过 json 文件:
# serialize model to JSON
model_json = model.to_json()
with open("model.json", "w") as json_file:
json_file.write(model_json) # load json and create model
json_file = open('model.json', 'r')
loaded_model_json = json_file.read()
json_file.close()
loaded_model = model_from_json(loaded_model_json)
2,通过Yaml文件:
# save as YAML
yaml_string = model.to_yaml()
3,通过 hdf5文件:
# 保存权重系数
# serialize weights to HDF5
model.save_weights("model.h5")
print("Saved model to disk") # 同时保存 model 和权重的方法
model.save('model_weight.h5') # creates a HDF5 file 'my_model.h5' # 载入权重和载入模型
from keras.models import load_model model = load_model('model.h5')
loaded_model.load_weights("model.h5")
但是这里主要学习一下ModelCheckpoint方法:
keras.callbacks.ModelCheckpoint(filepath, monitor='val_loss', verbose=0,
save_best_only=False, save_weights_only=False, mode='auto', period=1)
在每个训练器之后保存模型。
参数说明:
- filepath:字符串,保存模型的路径
- monitor:需要监视的值,val_acc 或者 val_loss
- verbose:信息展示模式,0或者1(checkpoint 的保存信息,类似于Epoch 000001:saving model to...)
- save_best_only:当设置为True时,监测值有改进时才会保存当前的模型(the lastest best model according to the quantity monitored will not be overweitten)
- model:'auto', ‘min’,‘max’之一,在 save_best_only=True时决定性能最佳模型的评判准则,例如,当监测值为 val_acc 时,模式应该为 max,当监测值为 val_loss 时,模式应为 min。在auto模式下,评价准则由被监测值的名字自动推断
- save_weights_only:若设置为True,则只保存模型权重,否则将保存整个模型(包括模型结构,配置信息等)
- period:checkpoint之间的间隔的 epoch数
注意1:filepath 可以包括命名格式选项,可以由 epoch的值和 logs的键(由on_epoch_end 参数传递)来填充。
例如:如果 filepath 是 weights.{epoch:02d}-{val_loss:.2f}.hdf5
,那么模型被保存的文件名就会有训练轮数和验证损失。
注意2:我们需要在 model.fit 添加 callbacks = [checkpoint] 实现回调。
举一个我实际的例子:
# 训练参数设置
logging = TensorBoard(log_dir=log_dir)
checkpoint = ModelCheckpoint(log_dir + 'ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5',
monitor='val_loss', save_weights_only=True, save_best_only=True, period=1)
reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=2, verbose=1)
early_stopping = EarlyStopping(monitor='val_loss', min_delta=0, patience=6, verbose=1) BATCH_SIZE = 32
gen = Generator(bbox_util, BATCH_SIZE, lines[:num_train], lines[num_train:],
(input_shape[0], input_shape[1]),NUM_CLASSES, do_crop=True) model.compile(optimizer=Adam(lr=1e-4),loss=MultiboxLoss(NUM_CLASSES, neg_pos_ratio=5.0).compute_loss) model.fit_generator(gen.generate(True),
steps_per_epoch=num_train//BATCH_SIZE,
validation_data=gen.generate(False),
validation_steps=num_val//BATCH_SIZE,
epochs=100,
initial_epoch=0,
callbacks=[logging, checkpoint, reduce_lr, early_stopping])
2.5 ReduceLROnPlateau
在训练过程中如果出现了损失平台(loss plateau),即损失率不怎么变化时,改变学习率。
callbacks_list = [
keras.callbacks.ReduceLROnPlateau(
monitor='val_loss' ←------ 监控模型的验证损失
factor=0.1, ←------ 触发时将学习率除以10
patience=10, ←------ 如果验证损失在10轮内都没有改善,那么就触发这个回调函数
)
]
2.6 官网例子:记录损失历史
代码如下:
class LossHistory(keras.callbacks.Callback):
def on_train_begin(self, logs={}):
self.losses = [] def on_batch_end(self, batch, logs={}):
self.losses.append(logs.get('loss')) model = Sequential()
model.add(Dense(10, input_dim=784, kernel_initializer='uniform'))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='rmsprop') history = LossHistory()
model.fit(x_train, y_train, batch_size=128, epochs=20, verbose=0, callbacks=[history]) print(history.losses)
# 输出
'''
[0.66047596406559383, 0.3547245744908703, ..., 0.25953155204159617, 0.25901699725311789]
'''
2.7 官网例子:模型检查点
代码如下:
from keras.callbacks import ModelCheckpoint model = Sequential()
model.add(Dense(10, input_dim=784, kernel_initializer='uniform'))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='rmsprop') '''
如果验证损失下降, 那么在每个训练轮之后保存模型。
'''
checkpointer = ModelCheckpoint(filepath='/tmp/weights.hdf5', verbose=1, save_best_only=True)
model.fit(x_train, y_train, batch_size=128, epochs=20, verbose=0,
validation_data=(X_test, Y_test), callbacks=[checkpointer])
2.8 例子:提前终止训练
代码如下:
train_generator, validation_generator, count1, count2 = generate(batch, size) model = MobileNetv2((size, size, 3), num_classes) opt = Adam()
earlystop = EarlyStopping(monitor='val_acc', patience=30, verbose=0, mode='auto')
model.compile(loss='categorical_crossentropy', optimizer=opt, metrics=['accuracy']) history = model.fit_generator(
train_generator,
validation_data=validation_generator,
steps_per_epoch=count1 // batch,
validation_steps=count2 // batch,
epochs=epochs,
callbacks=[earlystop]
) model.save('model/model.h5')
2.9 例子:编写自己的回调函数
(参考文献:https://www.kancloud.cn/mikl_maple/python/1726322)
调函数中,那么可以编写你自己的回调函数,回调函数的实现方法是创建 Keras.callbacks.Callback 类的子类。然后你可以实现下面这些方法(从名称中即可看出这些方法的作用),他们分别在训练过程中的不同时间段被调用。
n_epoch_begin ←------ 在每轮开始时被调用
on_epoch_end ←------ 在每轮结束时被调用
on_batch_begin ←------ 在处理每个批量之前被调用
on_batch_end ←------ 在处理每个批量之后被调用
on_train_begin ←------ 在训练开始时被调用
on_train_end ←------ 在训练结束时被调用
这些方法被调用时都有一个 logs 参数,这个参数是一个字典,里面包含前一个批量,前一个轮次或者前一次训练的信息,即训练指标和验证指标等。此外,回调函数还可以访问下列属性。
self.model
:调用回调函数的模型实例。self.validation_data
:传入fit
作为验证数据的值。
下面是一个自定义回调函数的简单示例,它可以在每轮结束后将模型每层的激活保存到硬盘(格式为 Numpy 数组),这个激活是对验证集的第一个样本计算得到的。
import keras
import numpy as np class ActivationLogger(keras.callbacks.Callback):
def set_model(self, model):
self.model = model #在训练之前由父模型调用,告诉回调函数是哪个模型在调用它
layer_outputs = [layer.output for layer in model.layers]
self.activations_model = keras.models.Model(model.input,
layer_outputs) #模型实例,返回每层的激活
def on_epoch_end(self, epoch, logs=None):
if self.validation_data is None:
raise RuntimeError('Requires validation_data.')
validation_sample = self.validation_data[0][0:1] #获取验证数据的第一个输入样本
activations = self.activations_model.predict(validation_sample)
f = open('activations_at_epoch_' + str(epoch) + '.npz', 'w') #(以下3行)将数组保存到硬盘
np.savez(f, activations)
f.close()
我的回调代码如下:
class myCallback(keras.callbacks.Callback):
def on_epoch_end(self, epoch, logs=None):
if (logs.get('acc') > 0.95):
print("\nReached 95% accuracy so cancelling training !")
self.model.stop_training = True
习题练习
(参考地址:https://zhuanlan.zhihu.com/p/103049619)
1,导入
1.1,导入Keras库,并打印版本信息
import keras print(keras.__version__)
# 2.2.4
2,一个简单的例子
使用MLP模型实现手写数字图像MNIST的分类
2.1 选择模型
Keras中的模型分为序贯模型和函数式模型,我们这里初始化一个顺序模型(Sequential)
model = Sequential()
2.2 构建网络层
网络层分为输入层,隐藏层,输出层。我们为模型model加入一个784输入,784输出的隐藏层,激活函数使用relu。
model.add(Dense(units=784, activation='relu', input_dim=784))
在上面的基础上,我们为model加入10个输出的输出层,激活函数使用softmax。
model.add(Dense(units=10, activation='softmax'))
最后可以通过 .summary() 查看模型参数情况
model.summary()
2.3 编译模型
编译模型的过程主要分为三个,分别是优化函数的选择,损失函数的选择,性能评估指标的选择。
我们使用.compile() 来配置学习过程,代价函数 loss 使用 categorical_crossentropy,优化算法 optimizer使用 sgd,性能的指标使用 accuracy。
model.compile(loss='categorical_crossentropy',
optimizer='sgd',
metrics=['accuracy'])
2.4 训练模型
首先读入数据
from keras.datasets import mnist (X_train, y_train), (X_test, y_test) = mnist.load_data()
然后将y值进行one-hot编码
y_train, y_test = to_categorical(y_train), to_categorical(y_test)
将数据送入模型训练
model.fit(X_train, y_train, epochs=5, batch_size=32)
评估模型性能
score = model.evaluate(X_test, y_test, batch_size=128)
print('loss:', score[0])
print('accu:', score[1])
2.5 模型预测
使用模型进行预测
model.predict_classes(X_test, batch_size=128)
2.6 完整代码
我们这里完整代码有数据预处理,我们可以很清楚的看到我们特意将数据reshape成一维数据,从最简单的开始,我们是将28*28的灰度图转化为 784的一维数据。
完整的代码如下:
import keras
from keras.models import Sequential
from keras.layers import Dense
from keras.datasets import mnist
from keras.utils import to_categorical
import numpy as np (X_train, y_train), (X_test, y_test) = mnist.load_data()
# print(X_train.shape[0])
X_train, X_test = X_train.reshape(X_train.shape[0], 784), X_test.reshape(X_test.shape[0], 784)
X_train, X_test = X_train.astype('float32'), X_test.astype('float32')
X_train /= 255
X_test /= 255 y_train, y_test = to_categorical(y_train, num_classes=10), to_categorical(y_test, num_classes=10) model = Sequential()
model.add(Dense(units=784, activation='relu', input_dim=784))
model.add(Dense(units=10, activation='softmax'))
model.summary()
model.compile(loss='categorical_crossentropy',
optimizer='sgd',
metrics=['accuracy']) model.fit(X_train, y_train, epochs=5, batch_size=32) score = model.evaluate(X_test, y_test, batch_size=128)
print('loss:', score[0])
print('accu:', score[1]) model.predict_classes(X_test, batch_size=128)
结果如下:
128/10000 [..............................] - ETA: 3s
2176/10000 [=====>........................] - ETA: 0s
4224/10000 [===========>..................] - ETA: 0s
6528/10000 [==================>...........] - ETA: 0s
8704/10000 [=========================>....] - ETA: 0s
10000/10000 [==============================] - 0s 28us/step
loss: 0.20326514495611192
accu: 0.9421
3,一个稍微复杂的例子
使用LeNet5 实现CIFAR10数据集的分类
3.1 选择模型
我们这里仍然初始化一个顺序模型(Sequential)
model = Sequential()
3.2 构建网络层
完成input_c1:添加一个二维卷积层,输入为32*32*3,卷积核大小为5*5,核种类6个,并且假设我们漏了relu
model.add(Conv2D(6, (5, 5), input_shape=(32, 32, 3)))
刚刚漏了relu,现在可以另外加上
model.add(Activation('relu'))
完成C1-S1:2*2 下采样层
model.add(MaxPooling2D(pool_size=(2, 2)))
完成S2-C3:二维卷积,16个内核,5*5的大小,别忘记relu
model.add(Conv2D(16, (5, 5), activation='relu'))
完成C3-S4:2*2下采样层
model.add(MaxPooling2D(pool_size=(2, 2)))
完成S4-C5:先添加平坦层,(也就是碾平数据),再添加全连接层,输入120维,激活函数relu
model.add(Flatten())
model.add(Dense(120, activation='relu'))
完成C5-F6:添加全连接层,84个输出,激活函数relu
model.add(Dense(84, activation='relu'))
完成F6-OUTPUT:添加全连接层,10个输出,激活函数 softmax
model.add(Dense(10, activation='softmax'))
最后可以通过 .summary() 查看模型参数情况
model.summary()
3.3 编译模型
编译模型的过程主要分为三个,分别是优化函数的选择,损失函数的选择,性能评估指标的选择。
首先我们设置随机梯度下降SGD优化算法的参数。我们learning_rate=0.01, epoch=25, decay=learning_rate/epoch, momentum=0.9, nesterov=False
from keras.optimizers import SGD learning_rate = 0.01
epoch = 10
decay = learning_rate / epoch
sgd = SGD(lr=learning_rate, momentum=0.9, decay=decay, nesterov=False)
编译模型,代价函数loss使用categorical_crossentropy,优化算法前面已经定义了,性能指标使用accuracy。
model.compile(loss='categorical_crossentropy',
optimizer=sgd,
metrics=['accuracy'])
3.4 训练模型
首先读入数据
from keras.datasets import cifar (X_train, y_train), (X_test, y_test) = cifar.load_data()
然后将y值进行one-hot编码(预处理)
y_train, y_test = to_categorical(y_train), to_categorical(y_test)
将数据送入模型训练,并且设置20%为验证集
history = model.fit(X_train, y_train, validation_split=0.2, epochs=10, batch_size=32, verbose=1)
然后可以可视化历史训练的训练集及验证集的准确率值,以及可视化历史训练的训练集及验证集的损失值。
plt.plot(history.history['accuracy'])
plt.plot(history.history['val_accuracy'])
plt.title('Model accuracy')
plt.ylabel('Accuracy')
plt.xlabel('Epochs')
plt.legend(['Train', 'val'], loc='upper left')
plt.show() plt.plot(history.history['loss'])
plt.plot(history.history['val_loss'])
plt.title('Model loss')
plt.ylabel('Loss')
plt.xlabel('Epochs')
plt.legend(['Train', 'val'], loc='upper left')
plt.show()
模型评估
score = model.evaluate(X_test, y_test, verbose=0)
print(model.metrics_names)
print('loss:', score[0])
print('accu:', score[1])
3.5 模型预测
使用模型进行预测
prediction = model.predict_classes(X_test)
print(prediction[:10])
显示混淆矩阵
# 显示混淆矩阵
import pandas as pd
print(classes)
pd.crosstab(y_gt.reshape(-1),prediction,rownames=['label'],colnames=['predict'])
3.6 完整代码
代码如下:
from keras.models import Sequential
from keras.layers import Conv2D, Activation, MaxPooling2D, Flatten, Dense
from keras.datasets import cifar10
from keras.utils import to_categorical
import numpy as np
import matplotlib.pyplot as plt
from keras.optimizers import SGD (X_train, y_train), (X_test, y_test) = cifar10.load_data()
X_train, X_test = X_train.astype('float32'), X_test.astype('float32')
X_train /= 255.0
X_test /= 255.0
y_train, y_test = to_categorical(y_train, num_classes=10), to_categorical(y_test, num_classes=10) learning_rate = 0.001
epoch = 10
decay = learning_rate / epoch
sgd = SGD(lr=learning_rate, momentum=0.9, decay=decay, nesterov=False) model = Sequential()
model.add(Conv2D(6, (5, 5), input_shape=(32, 32, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(16, (5, 5), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())
model.add(Dense(120, activation='relu'))
model.add(Dense(84, activation='relu'))
model.add(Dense(10, activation='softmax'))
model.summary()
model.compile(loss='categorical_crossentropy',
optimizer=sgd,
metrics=['accuracy']) history = model.fit(X_train, y_train,
validation_split=0.2,
epochs=20, batch_size=32, verbose=1)
plt.figure(12)
plt.subplot(121)
plt.plot(history.history['acc'])
plt.plot(history.history['val_acc'])
plt.title('Model accuracy')
plt.ylabel('Accuracy')
plt.xlabel('Epochs')
plt.legend(['Train', 'val'], loc='upper left')
plt.subplot(122)
plt.plot(history.history['loss'])
plt.plot(history.history['val_loss'])
plt.title('Model loss')
plt.ylabel('Loss')
plt.xlabel('Epochs')
plt.legend(['Train', 'val'], loc='upper left')
plt.show() score = model.evaluate(X_test, y_test, verbose=1)
print(model.metrics_names)
print('loss:', score[0])
print('accu:', score[1]) prediction = model.predict_classes(X_test)
print(prediction[:10])
结果如下:
['loss', 'acc']
loss: 1.262941250228882
accu: 0.5561
[3 1 8 0 4 6 1 2 4 1]
可视化预测结果如下:
我们可以看到准确率才达到55%左右,当我们增加epochs的时候,这里准确率就上去了,这里不多做尝试。
4,Model式模型
这部分会实现一个多输入多输出的模型
4.1 构建网络
这里我们选择函数式模型(model),所以不需要提前实例化,先将网络结构实现。
定义1,主要输入层,接受新闻标题本身,即一个整数序列(每个整数编码一个词)。这些整数在1到10000之间(10000个词的词汇表),且序列长度为100个词,命名 main_input
main_input = Input(shape=(100,), dtype='int32', name='main_input')
定义2,将输入序列编码为一个稠密向量的序列,输出每个向量维度为 512。
x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)
定义3,LSTM层把向量序列转换成单个向量,它包含整个序列的上下文信息,输出维度为32
lstm_out = LSTM(32)(x)
定义10,其作为辅助损失,使得即使在模型主损失很高的情况下,LSTM层和 Embedding层都能被平稳地训练。输出维度1,激活函数Sigmoid,命名为aux_output
auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(lstm_out)
定义9,输入辅助数据,五维向量,命名为 aux_input
auxiliary_input = Input(shape=(5,), name='aux_input')
定义4,将辅助输入数据与LSTM层的输出连接起来,输入到模型中
x = keras.layers.concatenate([lstm_out, auxiliary_input])
定义5,6,7, 堆叠多个全连接网络层,输出均为 64维
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
定义8,输出层,激活函数Sigmoid,命名 main_output
main_output = Dense(1, activation='sigmoid', name='main_output')(x)
4.2 定义模型
定义一个具有两个输入和输出的模型
model = Model(inputs=[main_input, auxiliary_input], outputs=[main_output, auxiliary_output])
4.3 编译模型
编译模型,给辅助损失分配 0.2 的权重
model.compile(optimizer='rmsprop',
loss={'main_output': 'binary_crossentropy', 'aux_output': 'binary_crossentropy'},
loss_weights={'main_output': 1., 'aux_output': 0.2})
4.4 训练模型
读取数据
把数据送入模型训练
model.fit({'main_input': headline_data, 'aux_input': additional_data},
{'main_output': headline_labels, 'aux_output': additional_labels},
epochs=50, batch_size=32,verbose=0)
4.5 预测
model.predict({'main_input': headline_data, 'aux_input': additional_data})
4.6 完整代码
代码如下(这个差点东西):
from keras.models import Sequential, Input, Model
from keras.layers import Conv2D, Activation, MaxPooling2D, Flatten, Dense
from keras.datasets import imdb
from keras.utils import to_categorical
import numpy as np
import matplotlib.pyplot as plt
from keras.optimizers import SGD
import keras
from keras.layers import Embedding, LSTM max_features = 10000
# 该数据库含有IMDB的25000条影评,被标记为正面/负面两种评价,影评已被预处理为词下标构成的序列
# y_train和y_test 序列的标签,是一个二值 list
(X_train, y_train), (X_test, y_test) = imdb.load_data(num_words=max_features)
print(X_train.shape, y_train.shape) # (25000,) (25000,) main_input = Input(shape=(100,), dtype='int32', name='main_input')
x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)
lstm_out = LSTM(32)(x)
auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(lstm_out)
auxiliary_input = Input(shape=(5,), name='aux_input')
x = keras.layers.concatenate([lstm_out, auxiliary_input]) x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x) main_output = Dense(1, activation='sigmoid', name='main_output')(x)
model = Model(inputs=[main_input, auxiliary_input],
outputs=[main_output, auxiliary_output]) model.compile(optimizer='rmsprop',
loss={'main_output': 'binary_crossentropy',
'aux_output': 'binary_crossentropy'},
loss_weights={'main_output': 1, 'aux_output': 0.2}) model.fit({'main_input': headline_data, 'aux_input': additional_data},
{'main_output': headline_labels, 'aux_input': additional_label},
epochs=50, batch_size=32, verbose=0) model.predict({'main_input': headline_data, 'aux_input': additional_data})
5,LSTM官网例子
代码:
from __future__ import print_function
from keras.preprocessing import sequence
from keras.models import Sequential
from keras.layers import Dense, Embedding
from keras.layers import LSTM
from keras.datasets import imdb max_features = 20000
maxlen = 80
batch_size = 32
print('loading data...')
(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features)
print(len(x_train), 'train sequences') # 25000 train sequences
print(len(x_test), 'test sequences') # 25000 test sequences print('Pad sequences (samples x time)')
x_train = sequence.pad_sequences(x_train, maxlen=maxlen)
x_test = sequence.pad_sequences(x_test, maxlen=maxlen)
print('x_train shape:', x_train.shape) # x_train shape: (25000, 80)
print('x_test shape:', x_test.shape) # x_test shape: (25000, 80) print('Build model...')
model = Sequential()
model.add(Embedding(max_features, 128))
model.add(LSTM(128, dropout=0.2, recurrent_dropout=0.2))
model.add(Dense(1, activation='sigmoid')) # try using different optimizers and different optimizer configs
model.compile(loss='binary_crossentropy',
optimizer='adam',
metrics=['accuracy'])
print("Train...")
model.fit(x_train, y_train,
batch_size=batch_size,
epochs=15,
validation_data=(x_test, y_test))
score, acc = model.evaluate(x_test, y_test,
batch_size=batch_size)
print('Test score:', score)
print('Test accuracy:', acc)
结果:
672/25000 [..............................] - ETA: 2:12 - loss: 0.0880 - acc: 0.9702
704/25000 [..............................] - ETA: 2:12 - loss: 0.0866 - acc: 0.9702
736/25000 [..............................] - ETA: 2:11 - loss: 0.0846 - acc: 0.9715
768/25000 [..............................] - ETA: 2:11 - loss: 0.0825 - acc: 0.9727
800/25000 [..............................] - ETA: 2:12 - loss: 0.0823 - acc: 0.9725
832/25000 [..............................] - ETA: 2:12 - loss: 0.0796 - acc: 0.9736
864/25000 [>.............................] - ETA: 2:11 - loss: 0.0798 - acc: 0.9722
参考文献:https://blog.csdn.net/sinat_26917383/article/details/75633754
我的Keras使用总结(5)——Keras指定显卡且限制显存用量,常见函数的用法及其习题练习的更多相关文章
- keras系列︱keras是如何指定显卡且限制显存用量
keras在使用GPU的时候有个特点,就是默认全部占满显存. 若单核GPU也无所谓,若是服务器GPU较多,性能较好,全部占满就太浪费了. 于是乎有以下三种情况: - 1.指定GPU - 2.使用固定显 ...
- Tensorflow下指定显卡占用比例参数配置
tensorflow在训练时默认占用所有GPU的显存. 可以通过以下方式解决该问题: 1.在构造tf.Session()时候通过传递tf.GPUOptions作为可选配置参数的一部分来显式地指定需要分 ...
- TensorFlow,Keras限制GPU显存
运行TensorFlow程序会占用过多的显卡比例,多人共同使用GPU的时候,会造成后面的人无法运行程序. 一.TensorFlow 1.预加载比例限制 tf_config = tensorflow.C ...
- Tensorflow与Keras自适应使用显存
Tensorflow支持基于cuda内核与cudnn的GPU加速,Keras出现较晚,为Tensorflow的高层框架,由于Keras使用的方便性与很好的延展性,之后更是作为Tensorflow的官方 ...
- TensorFlow+Keras 03 TensorFlow 与 Keras 介绍
1 TensorFlow 架构图 1.1 处理器 TensorFlow 可以在CPU.GPU.TPU中执行 1.2 平台 TensorFlow 具备跨平台能力,Windows .Linux.Andro ...
- keras系列︱利用fit_generator最小化显存占用比率/数据Batch化
本文主要参考两篇文献: 1.<深度学习theano/tensorflow多显卡多人使用问题集> 2.基于双向LSTM和迁移学习的seq2seq核心实体识别 运行机器学习算法时,很多人一开始 ...
- Keras(七)Keras.layers各种层介绍
一.网络层 keras的层主要包括: 常用层(Core).卷积层(Convolutional).池化层(Pooling).局部连接层.递归层(Recurrent).嵌入层( Embedding).高级 ...
- 【Keras篇】---利用keras改写VGG16经典模型在手写数字识别体中的应用
一.前述 VGG16是由16层神经网络构成的经典模型,包括多层卷积,多层全连接层,一般我们改写的时候卷积层基本不动,全连接层从后面几层依次向前改写,因为先改参数较小的. 二.具体 1.因为本文中代码需 ...
- Keras学习笔记——Hello Keras
最近几年,随着AlphaGo的崛起,深度学习开始出现在各个领域,比如无人车.图像识别.物体检测.推荐系统.语音识别.聊天问答等等.因此具备深度学习的知识并能应用实践,已经成为很多开发者包括博主本人的下 ...
随机推荐
- 力扣Leetcode 199. 二叉树的右视图
199. 二叉树的右视图 给定一棵二叉树,想象自己站在它的右侧,按照从顶部到底部的顺序,返回从右侧所能看到的节点值. 示例: 输入: [1,2,3,null,5,null,4] 输出: [1, 3, ...
- Google谷歌在根据流量统计分析当年的2008年汶川大地震
这是一张2008年的老图,Google当时的博文说道:"当我们依照惯例整理和分析谷歌搜索引擎的流量数据时,一条从未见过的曲线出现在我们面前.当意识到发生了什么事情时,我们的眼睛湿润了.&qu ...
- 获取android手机的屏幕分辨率 android开发
/** * 获取屏幕分辨率 */ private void getResolution() { // TODO Auto-generated method stub Display display = ...
- IDEA 左侧出现对勾,该如何去掉对勾呢?
如下面 解决办法如下 单击按F11 或者ctrl +鼠标左键点击那个对串就可以决你的问题 有对勾是因为你把他添加进去了书签,方便下次自己看 我们可以在这个地方看到自己的书签也就是打对勾的地方
- maven配置settings.xml【阿里云】
<?xml version="1.0" encoding="utf-8"?> <settings xmlns="http://mav ...
- boot 项目启动报Cannot datermine embedded database driver class for database type NONE
部署boot项目时报Cannot datermine embedded database driver class for database type NONE数据库链接什么的也都没有问题,经过百度 ...
- 洛谷P1712 [NOI2016]区间 尺取法+线段树+离散化
洛谷P1712 [NOI2016]区间 noi2016第一题(大概是签到题吧,可我还是不会) 链接在这里 题面可以看链接: 先看题意 这么大的l,r,先来个离散化 很容易,我们可以想到一个结论 假设一 ...
- jzoj1497. 景点中心
Description 话说宁波市的中小学生在镇海中学参加计算机程序设计比赛,比赛之余,他们在镇海中学的各个景点参观.镇海中学共有n个景点,每个景点均有若干学生正在参观.这n个景点以自然数1至n编号, ...
- yum安装软件包提示Error Downloading Packages解决方法
在执行yum upgrade时报错 解决方法: 方法一: 1.清理本地yum缓存 执行:yum clean all 2.查看软件包列表 执行:yum list 注意:如果查询不到软件包列表,查看yum ...
- 【吴恩达课程使用】anaconda (python 3.7) win10安装 tensorflow 1.8 cpu版
[吴恩达课程使用]anaconda (python 3.7) win10安装 tensorflow 1.8 目前tensorflow是只支持到python3.6的,anaconda最新版本已经到pyt ...