黄文坚的tensorflow实战一书中的第四章,讲述了tensorflow实现多层感知机。Hiton早年提出过自编码器的非监督学习算法,书中的代码给出了一个隐藏层的神经网络,本人扩展到了多层,改进了代码。实现多层神经网络时,把每层封装成一个NetLayer对象(本质是单向链表),然后计算隐藏层输出值的时候,运用递归算法,最后定义外层管理类。main函数里面,寻找出一个最优的模型出来。代码如下:

# encoding:utf-8
# selfEncodingWithTF.py
import numpy as np
import tensorflow as tf
import sklearn.preprocessing as prep
from tensorflow.examples.tutorials.mnist import input_data '''
tensorflow实现自编码器,非监督学习
@author XueQiang Tong
''' '''
xavier初始化器,把权重初始化在low和high范围内(满足N(0,2/Nin+Nout))
'''
def xavier_init(fan_in,fan_out,constant = 1):
low = -constant * np.sqrt(6.0 / (fan_in + fan_out))
high = constant * np.sqrt(6.0 / (fan_in + fan_out))
return tf.random_uniform((fan_in,fan_out),minval=low ,maxval=high ,dtype=tf.float32) '''数据零均值,特征方差归一化处理'''
def standard_scale(X_train,X_validation,X_test):
preprocessor = prep.StandardScaler().fit(X_train)
X_train = preprocessor.transform(X_train)
X_validation = preprocessor.transform(X_validation)
X_test = preprocessor.transform(X_test)
return X_train,X_validation,X_test '''获取批量文本的策略'''
def get_random_block_from_data(data,batch_size):
start_index = np.random.randint(0,len(data) - batch_size)
return data[start_index:(start_index + batch_size)] '''定义的hidden层,数据结构本质是链表,其中n_node:本层节点数,n_input为输入节点数目'''
class NetLayer:
def __init__(self,n_node,n_input):
self.n_node = n_node
self.n_input = n_input
self.next_layer = None '''初始化权重'''
def _initialize_weights(self):
weights = dict()
if self.next_layer == None:#如果是最后一层,由于只聚合不激活,全部初始化为0
weights['w'] = tf.Variable(tf.zeros([self.n_input, self.n_node], dtype=tf.float32))
weights['b'] = tf.Variable(tf.zeros([self.n_node], dtype=tf.float32))
else:
weights['w'] = tf.Variable(xavier_init(self.n_input, self.n_node))
weights['b'] = tf.Variable(tf.zeros([self.n_node], dtype=tf.float32)) self.weights = weights
return self.weights '''递归计算各层的输出值,返回最后一层的输出值'''
def cal_output(self,transfer,index,X,scale):
if index == 0:
self.output = transfer(tf.add(tf.matmul(X + scale * tf.random_normal([self.n_input]),self.weights['w']),self.weights['b']))
else:
if self.next_layer is not None:
self.output = transfer(tf.add(tf.matmul(X,self.weights['w']),self.weights['b']))
else:self.output = tf.add(tf.matmul(X,self.weights['w']),self.weights['b'])
if self.next_layer is not None:
return self.next_layer.cal_output(transfer,++index,self.output,scale)
return self.output def get_weights(self):
return self.weights['w'] def get_bias(self):
return self.weights['b'] '''定义的外层管理类'''
class AdditiveGaussianNoiseAutoencoder(object):
def __init__(self,layers=[],transfer_function=tf.nn.softplus,optimizer=tf.train.AdamOptimizer(),scale=0.1):
self.layers = []
self.training_scale = scale
self.scale = tf.placeholder(tf.float32)
self.construct_network(layers)
self._initialize_weights(self.layers) self.x = tf.placeholder(tf.float32,[None,layers[0]])
self.reconstruction = self.layers[0].cal_output(transfer_function,0,self.x,scale) self.cost = 0.5 * tf.reduce_sum(tf.pow(tf.subtract(self.reconstruction,self.x),2.0))
self.optimizer = optimizer.minimize(self.cost) init = tf.global_variables_initializer()
self.sess = tf.Session()
self.sess.run(init) '''初始化各层并构建各层的关联'''
def construct_network(self,layers):
last_layer = None
for i,layer in enumerate(layers):
if i == 0:
continue
cur_layer = NetLayer(layer,layers[i-1])
self.layers.append(cur_layer)
if last_layer is not None:
last_layer.next_layer = cur_layer
last_layer = cur_layer '''外层调用初始化权重'''
def _initialize_weights(self,layers):
for i,layer in enumerate(layers):
layer._initialize_weights() '''训练参数,并且返回损失函数节点的值'''
def partial_fit(self,X):
cost,opt = self.sess.run((self.cost,self.optimizer),
feed_dict={self.x:X,self.scale:self.training_scale})
return cost '''运行cost节点'''
def calc_total_cost(self,X):
return self.sess.run(self.cost,feed_dict={self.x:X,self.scale:self.training_scale}) '''运行reconstruction节点'''
def reconstruct(self,X):
return self.sess.run(self.reconstruction,feed_dict={self.x:X,self.scale:self.training_scale}) def fit(self,X_train,training_epochs,n_samples,batch_size):
for epoch in range(training_epochs):
avg_cost = 0.
total_batch = int(n_samples / batch_size)
for i in range(total_batch):
batch_xs = get_random_block_from_data(X_train, batch_size)
cost = self.partial_fit(batch_xs)
avg_cost += cost / n_samples * batch_size if epoch % display_step == 0:
print("Epoch:", "%04d" % (epoch + 1), "cost=", "{:.9f}".format(avg_cost)) if __name__ == '__main__':
mnist = input_data.read_data_sets("E:\\Python35\\Lib\\site-packages\\tensorflow\\examples\\tutorials\\mnist\\MNIST_data",one_hot=True) X_train,X_validation,X_test = standard_scale(mnist.train.images,mnist.validation.images,mnist.test.images) #得到训练样本和测试样本
n_samples = int(mnist.train.num_examples) #获取样本总数
training_epochs = [20,40,60] #迭代次数
list_layers = [[784,500,200,784],[784,200,200,784],[784,300,200,784]]
batch_size = 128 #批次
display_step = 1 #每隔一步显示损失函数
mincost = (1 << 31) - 1.
bestIter = 0
best_layers = []
bestModel = None '''训练出最优模型'''
for epoch in training_epochs:
for layers in list_layers:
autoencoder = AdditiveGaussianNoiseAutoencoder(layers,transfer_function=tf.nn.softplus, optimizer=
tf.train.AdamOptimizer(learning_rate=0.001), scale=0.01)
autoencoder.fit(X_train,training_epochs,n_samples,batch_size)
cost = autoencoder.calc_total_cost(X_validation)
if cost < mincost:
mincost = cost
bestModel = autoencoder
bestIter = epoch
best_layers = layers '''训练完毕后,用测试样本验证一下cost'''
print("Total cost: " + str(bestModel.calc_total_cost(X_test)))

  

tensorflow学习笔记(三):实现自编码器的更多相关文章

  1. tensorflow学习笔记三:实例数据下载与读取

    一.mnist数据 深度学习的入门实例,一般就是mnist手写数字分类识别,因此我们应该先下载这个数据集. tensorflow提供一个input_data.py文件,专门用于下载mnist数据,我们 ...

  2. tensorflow学习笔记三----------基本操作

    tensorflow中的一些操作和numpy中的很像,下面列出几个比较常见的操作 import tensorflow as tf #定义三行四列的零矩阵 tf.zeros([3,4]) #定义两行三列 ...

  3. tensorflow学习笔记(三十四):Saver(保存与加载模型)

    Savertensorflow 中的 Saver 对象是用于 参数保存和恢复的.如何使用呢? 这里介绍了一些基本的用法. 官网中给出了这么一个例子: v1 = tf.Variable(..., nam ...

  4. tensorflow学习笔记(三十九):双向rnn

    tensorflow 双向 rnn 如何在tensorflow中实现双向rnn 单层双向rnn 单层双向rnn (cs224d) tensorflow中已经提供了双向rnn的接口,它就是tf.nn.b ...

  5. tensorflow学习笔记——自编码器及多层感知器

    1,自编码器简介 传统机器学习任务很大程度上依赖于好的特征工程,比如对数值型,日期时间型,种类型等特征的提取.特征工程往往是非常耗时耗力的,在图像,语音和视频中提取到有效的特征就更难了,工程师必须在这 ...

  6. tensorflow学习笔记——使用TensorFlow操作MNIST数据(2)

    tensorflow学习笔记——使用TensorFlow操作MNIST数据(1) 一:神经网络知识点整理 1.1,多层:使用多层权重,例如多层全连接方式 以下定义了三个隐藏层的全连接方式的神经网络样例 ...

  7. 深度学习-tensorflow学习笔记(2)-MNIST手写字体识别

    深度学习-tensorflow学习笔记(2)-MNIST手写字体识别超级详细版 这是tf入门的第一个例子.minst应该是内置的数据集. 前置知识在学习笔记(1)里面讲过了 这里直接上代码 # -*- ...

  8. tensorflow学习笔记(4)-学习率

    tensorflow学习笔记(4)-学习率 首先学习率如下图 所以在实际运用中我们会使用指数衰减的学习率 在tf中有这样一个函数 tf.train.exponential_decay(learning ...

  9. tensorflow学习笔记——VGGNet

    2014年,牛津大学计算机视觉组(Visual Geometry Group)和 Google DeepMind 公司的研究员一起研发了新的深度卷积神经网络:VGGNet ,并取得了ILSVRC201 ...

随机推荐

  1. unix高级环境编程学习笔记第七章(未完)

    博客地址:http://www.cnblogs.com/zengjianrong/p/3222081.html 7.1 引言 Main函数调用:命令行参数:存储器布局:如何分配存储器:进程使用env: ...

  2. 轻量级搜索工具【Everything】的设置

    下面是我对 轻量级搜索工具[Everything]的设置 Everything 下载地址:http://www.voidtools.com/downloads/ 1. 排除 Windows => ...

  3. Server SQL2008对文件的基础操作—01

    1.一个文件的基本框架为:文件名.文件地址.文件大小.文件最大的大小.文件的增量(Filegrowth). 2.文件有mdf.ndf.ldf 三种文件的区别. 3.文件组可以进行文件的管理 FileG ...

  4. 前端学习:CSS的学习总结(图解)

    前端学习:CSS的学习总结(图解) CSS代码笔记 CSS简介 css的引入方式和书写规范 CSS选择器 CSS属性 CSS盒子模型 CSS的定位

  5. react的标记渲染机制

    // ReactUpdates.js  - enqueueUpdate(component) function dirtyComponents.push(component); https://jue ...

  6. 【08】Kubernets:Service

    写在前面的话 在 K8S 第一节的时候我们简单提到过 Service 的工作模式有三种:userspace / iptables / ipvs.并且已经知道在目前新版本中默认是 ipvs,前提是在按照 ...

  7. Jaeger接入Python应用:jaeger-client-python【非完全教程】

    目录 Jaeger接入Python应用 1. 安装 jaeger-client 2. (示例)创建 Tracer 对象,并通过 Tracer 对象创建 Span 来追踪业务流程. 3. 初始化和配置 ...

  8. 【maven】idea的pom文件修改,引入新的jar包,无效,本地仓库始终没有下载新jar包的问题解决【idea pom Dependency not found】

    引入问题: idea的pom文件修改,引入新的jar包,无效,本地仓库始终没有下载新jar包的问题解决[idea  pom Dependency  not found] 如题,引入一个新的jar包,在 ...

  9. PyTorch 之 Datasets

    实现一个定制的 Dataset 类 Dataset 类是 PyTorch 图像数据集中最为重要的一个类,也是 PyTorch 中所有数据集加载类中应该继承的父类.其中,父类的两个私有成员函数必须被重载 ...

  10. python--线程和进程的初识

    一.进程与线程之间的关系 1.线程是属于进程的,线程运行在进程空间内,同一进程所产生的线程共享同一内存空间,当进程退出时该进程所产生的线程都会被强制退出并清除. 2.线程可与属于同一进程的其它线程共享 ...