from keras.models import Sequential from keras.layers import Dense, Dropout from keras.layers import Conv1D, MaxPooling1D import scipy.io as sio import matplotlib.pyplot as plt from keras.utils import np_utils import keras import numpy as np from ker…
CNN 卷积神经网络 卷积 池化 https://www.cnblogs.com/peng8098/p/nlp_16.html 中有介绍 以数据集MNIST构建一个卷积神经网路 from keras.layers import Dense,Activation,Conv2D,MaxPooling2D,Flatten from keras.models import Model,Sequential from keras.datasets import mnist from keras.utils…
使用tensorboard将keras的训练过程显示出来(动态的.直观的)是一个绝好的主意,特别是在有架设好的VPS的基础上,这篇文章就是一起来实现这个过程. 一.主要原理 keras的在训练(fit)的过程中,显式地生成log日志:使用tf的tensorboard来解析这个log日志,并且通过网站的形式显示出来. fit的时候加上callbacks=[TensorBoard(log_dir='./tmp/log')] 将运行的结果保存在'./tmp/log'下.执行tensorboard 命令…
from __future__ import print_function import numpy as np np.random.seed(1337) from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, Flatten from keras.layers import Convolution2D, Ma…
fasttext: '''This example demonstrates the use of fasttext for text classification Based on Joulin et al's paper: Bags of Tricks for Efficient Text Classification https://arxiv.org/abs/1607.01759 Results on IMDB datasets with uni and bi-gram embeddin…
符号表示: $W$:表示当前层Feature map的大小. $K$:表示kernel的大小. $S$:表示Stride的大小. 具体来讲: 整体说来,和下一层Feature map大小最为密切的就是Stride了,因为按照CNN的移动方式,是根据Stride来进行移动的,因此除了最后一个的长度为K之外,前面所有的长度全部为S.当然K=S仅仅是一种特殊情况而已. 正如这幅图片所示(有点丑,将就着看吧),为了直观,故意将重叠的部分给忽略掉,这样可以更清楚的明白到底是怎样一回事. 因此最后的公式就是…
在callback函数中添加tensorboard,启用tensorboard. # TensorBoard callback tensorboard_cb = K.callbacks.TensorBoard( log_dir=MyTensorBoardDir, histogram_freq=1, write_graph=True, write_images=True ) 在fit数据的时候,把该回调添加进去 model.fit(x,y,epochs=Epoch,batch_size=16,ve…
有手册,然后代码不知道看一下:https://keras-cn.readthedocs.io/en/latest/ 首先是下载数据集,下载太慢了就从网盘上下载: 链接:https://pan.baidu.com/s/1W-d1atE-hvPwNOtcupfivQ提取码:8rr5 找到那个,cifar-10-python.tar.gz,修改名字为:cifar-10-batches-py.tar.gz,然后解压,注意解压方式到当前文件夹. 然后查看数据:in[3-5],显示图像和标签 和进行MNIS…
单向LSTM import torch.nn as nn import torch seq_len = 20 batch_size = 64 embedding_dim = 100 num_embeddings = 300 hidden_size = 128 number_layer = 3 input = torch.randint(low=0,high=256,size=[batch_size,seq_len]) #[64,20] embedding = nn.Embedding(num_e…
屏蔽label输出 layer { name: "silence0" type: "Silence" bottom: "label" phase: TRAIN }…