tf.nn.in_top_k的用法】的更多相关文章

tf.nn.in_top_k组要是用于计算预测的结果和实际结果的是否相等,返回一个bool类型的张量,tf.nn.in_top_k(prediction, target, K):prediction就是表示你预测的结果,大小就是预测样本的数量乘以输出的维度,类型是tf.float32等.target就是实际样本类别的标签,大小就是样本数量的个数.K表示每个样本的预测结果的前K个最大的数里面是否含有target中的值.一般都是取1. 例如: import tensorflow as tf; A =…
import tensorflow as tf; A = [[0.8,0.6,0.3], [0.1,0.6,0.4],[0.5,0.1,0.9]] B = [0,2,1] out = tf.nn.in_top_k(A, B, 2) with tf.Session() as sess: sess.run(tf.initialize_all_variables()) print(sess.run(out)) tf.nn.in_top_k组要是用于计算预测的结果和实际结果的是否相等,返回一个bool类…
在计算loss的时候,最常见的一句话就是 tf.nn.softmax_cross_entropy_with_logits ,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[b…
tf.nn.top_k(input, k, name=None) 这个函数的作用是返回 input 中每行最大的 k 个数,并且返回它们所在位置的索引. input: 一个张量,数据类型必须是以下之一:float32.float64.int32.int64.uint8.int16.int8.数据维度是 batch_size 乘上 x 个类别.k: 一个整型,必须 >= 1.在每行中,查找最大的 k 个值.name: 为这个操作取个名字.    输出:一个元组 Tensor ,数据元素是 (val…
函数: tf.nn.embedding_lookup( params, ids, partition_strategy='mod', name=None, validate_indices=True, max_norm=None ) 参数说明: params: 表示完整的嵌入张量,或者除了第一维度之外具有相同形状的P个张量的列表,表示经分割的嵌入张量 ids: 一个类型为int32或int64的Tensor,包含要在params中查找的id partition_strategy: 指定分区策略的…
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方法有关的一共两个参数: 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[bat…
http://blog.csdn.net/mao_xiao_feng/article/details/53382790 计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name参数用以指定该操作的name,与方…
https://blog.csdn.net/yangfengling1023/article/details/82910536…
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None, validate_indices=True, max_norm=None) 首先通过一下一个简单的例子来了解一下tf.nn.embedding_lookup()的用法 a = tf.constant([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]) >>>a.eval() Out[51]: array([[ 1, 2,…
tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素.tf.nn.embedding_lookup(tensor, id):tensor就是输入张量,id就是张量对应的索引,其他的参数不介绍. 例如: import tensorflow as tf; import numpy as np; c = np.random.random([10,1]) b = tf.nn.embedding_lookup(c, [1, 3]) with tf.Session()…