#保存数据注意他只能保存变量,不能保存神经网络的框架.#保存数据的作用:保存权重有利于下一次的训练,或者可以用这个数据进行识别#np.arange():arange函数用于创建等差数组,使用频率非常高import tensorflow as tf#注意:在保存变量的时候,一定要写出他的类型即dtypeWeights = tf.Variable([[1,2,3],[3,4,5]],dtype=tf.float32,name="Weights")baises = tf.Variable([…
#coding:utf-8 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('MNIST_data',one_hot=True) #每个批次的大小 batch_size = 100 n_batch = mnist.train._num_examples // batch_size def weight_varia…
''' 神经网络的过程:1.准备相应的数据库 2.定义输入成 3.定义输出层 4.定义隐藏层 5.训练(根据误差进行训练) 6.对结果进行精确度评估 ''' import tensorflow as tf #首先准备数据库from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets('MNIST_data', one_hot=True) '''这里面的数据不仅仅有图像的像素,…
TensorFlow 更新频率实在太快,从 1.0 版本正式发布后,很多 API 接口就发生了改变.今天用 TF 训练了一个 CNN 模型,结果在保存模型的时候居然遇到各种问题.Google 搜出来的答案也是莫衷一是,有些回答对 1.0 版本的已经不适用了.后来实在没办法,就翻了墙去官网看了下,结果分分钟就搞定了-囧-. 这篇文章内容不多,主要讲讲 TF v1.0 版本中保存和读取模型的最简单用法,其实就是对官网教程的简要翻译摘抄. 保存和恢复 在 TensorFlow 中,保存和恢复模型最简单…
扩充 TensorFlow tf.tile 对数据进行扩充操作 import tensorflow as tf temp = tf.tile([1,2,3],[2]) temp2 = tf.tile([[1,2],[3,4],[5,6]],[2,3]) with tf.Session() as sess: print(sess.run(temp)) print(sess.run(temp2)) [1 2 3 1 2 3] [[1 2 1 2 1 2] [3 4 3 4 3 4] [5 6 5 6…
TensorFlow是一个采用数据流图(data flow graphs),用于数据计算的开源软件库. 什么是数据流图? TensorFlow的数据流图是由“节点”(nodes)和“线”(edges)组成的有向无环图来描述数学计算.“节点”一般用来表示施加的数学操作,但也可以表示数据输入(feed in)的起点/输出(push out)的终点,或者是读取/写入持久变量(persistent variable)的终点.“线”表示“节点”之间的输入/输出关系.这些数据“线”可以输运多维数据数组,即“…
import tensorflow as tf#取数据,目的是辨别数字from tensorflow.examples.tutorials.mnist import input_data'''手动添加数据集:先把4个数据包放进当前目录的文件夹里面'''MNIST_data_folder="C:\\Users\\悟悔\\MNIST_data"#路径mnist=input_data.read_data_sets("MNIST_data/",one_hot=True)de…
''' 思路:1.调用数据集 2.定义用来实现神经元功能的函数(包括解决过拟合) 3.定义输入和输出的数据4.定义隐藏层(函数)和输出层(函数) 5.分析误差和优化数据(改变权重)6.执行神经网络 '''import tensorflow as tffrom sklearn.datasets import load_digitsfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import…
import numpyimport tensorflow as tf #自己创建的数据x_data = numpy.random.rand(100).astype(numpy.float32)#创建具有100个元素的数组y_data = x_data*0.1+0.3#具有自动遍历的功能 ##设置神经网络的结构###Weights = tf.Variable(tf.random_uniform([1],-1,1))basiss = tf.Variable(tf.zeros([1]))#模拟我们之…
目前不是很懂..但主要意思是tf可以把一开始定义的参数,包括Weights和Biases保存到本地,然后再定义一个变量框架去加载(restore)这个参数,作为变量本身的参数进行后续的训练,具体如下: import numpy as np #Save to file W = tf.Variable([[1,2,3],[3,4,5]],dtype=tf.float32,name='weights') b = tf.Variable([[1,2,3]],dtype=tf.float32,name='…