https://www.zhihu.com/question/64470274 http://colah.github.io/posts/2015-08-Understanding-LSTMs/ https://jasdeep06.github.io/posts/Understanding-LSTM-in-Tensorflow-MNIST/ https://stackoverflow.com/questions/37901047/what-is-num-units-in-tensorflow-b…
listview当选中某一个item时设置背景色其他的不变: 可以使用listview.setOnFoucsChangeListener(listener) ; /** * listview获得焦点和失去焦点时背景颜色的变化 * @author long **/private class MyOnFocusChangeListener implements OnFocusChangeListener{@Overridepublic void onFocusChange(View v, boole…
众所周知,LSTM的一大优势就是其能够处理变长序列.而在使用keras搭建模型时,如果直接使用LSTM层作为网络输入的第一层,需要指定输入的大小.如果需要使用变长序列,那么,只需要在LSTM层前加一个Masking层,或者embedding层即可. from keras.layers import Masking, Embedding from keras.layers import LSTM model = Sequential() model.add(Masking(mask_value=…
作者|Praneet Bomma 编译|VK 来源|https://towardsdatascience.com/visualising-lstm-activations-in-keras-b50206da96ff 你是否想知道LSTM层学到了什么?有没有想过是否有可能看到每个单元如何对最终输出做出贡献.我很好奇,试图将其可视化.在满足我好奇的神经元的同时,我偶然发现了Andrej Karpathy的博客,名为"循环神经网络的不合理有效性".如果你想获得更深入的解释,建议你浏览他的博客…
在keras中保存模型有几种方式: (1):使用callbacks,可以保存训练中任意的模型,或选择最好的模型 logdir = './callbacks' if not os.path.exists(logdir): os.mkdir(logdir) output_model_file = os.path.join(logdir, "xxxx.h5") callbacks = [ tf.keras.callbacks.ModelCheckpoint(output_model_file…
在训练了 50 个 epoch 之后,本文作者惊讶地发现模型什么都没学到,于是开始深挖背后的问题,并最终从恺明大神论文中得到的知识解决了问题. 上个星期我做了一些实验,用了在 CIFAR10 数据集上训练的 VGG16.我需要从零开始训练模型,所以没有使用在 ImageNet 上预训练的版本. 我开始了 50 个 epoch 的训练,然后去喝了个咖啡,回来就看到了这些学习曲线: 模型什么都没学到! 我见过网络收敛得极其缓慢.振荡.过拟合.发散,但这是我第一次发现这种行为--模型根本就没有起任何作…
转载请注明出处: http://www.cnblogs.com/darkknightzh/p/6221664.html 参考网址: https://github.com/torch/nn/issues/873 http://stackoverflow.com/questions/37459812/finetune-a-torch-model https://github.com/torch/nn/blob/master/doc/module.md https://github.com/torch…
最近在学习SSD的源码,其中有两个自定的层,特此学习一下并记录. import keras.backend as K from keras.engine.topology import InputSpec from keras.engine.topology import Layer import numpy as np class L2Normalization(Layer): ''' Performs L2 normalization on the input tensor with a l…
开机自启动,将要执行的语句写入/etc/rc.local. #!/bin/sh -e # # rc.local # # This script is executed at the end of each multiuser runlevel. # Make sure that the script will "exit 0" on success or any other # value on error. # # In order to enable or disable this…
  学习率是一个控制每次更新模型权重时响应估计误差而调整模型程度的超参数.学习率选取是一项具有挑战性的工作,学习率设置的非常小可能导致训练过程过长甚至训练进程被卡住,而设置的非常大可能会导致过快学习到次优的权重集合或者训练过程不稳定. 迁移学习 我们使用迁移学习将训练好的机器学习模型应用于不同但相关的任务中.这在深度学习这种使用层级链接的神经网络中非常有效.特别是在计算机视觉任务中,这些网络中的前几层倾向于学习较简单的特征.例如:边缘.梯度特征等. 这是一种在计算机视觉任务中被证实过可以产生更好…