logistic函数,也称sigmoid函数,概率分布函数。给定特定输入,计算输出"success"的概率,对回题回答"Yes"的概率。接受单个输入。多维数据或训练集样本特征,可以用线性回归模型表达式合并成单值。

损失函数可以使用平方误差。训练集"Yes"代表100%概率或输出值1的概率。损失刻画特定样本模型分配小于1值概率。"No"概率值0。损失是模型分配样本概率值并取平方。平方误差惩罚与损失同数量级情形。输出与期望相差太远,交叉熵(cross entropy)输出更大值(惩罚)。模型期望输出"Yes"样本预测概率接近0时,罚项值增长到接近无穷大。训练完,模型不可能做出这样的错误预测。TensorFlow提供单个优化步骤sigmoid输出计算交叉熵。

信息论,符号字符串每个字符出现概率已知,用香农熵估计字符串每个符号编码所需平均最小位数。符号编码,如果假设其他概率非真实概率,符号编码长度更大。交叉熵以次优编码方案计算同字符串编码平均最小位数。损失函数期望输出概率分布,实际值100%和0,将自定概率作为模型计算输出。sigmoid函数输出概率值。当真实概率等于自定概率,交叉熵值最小。交叉熵越接近熵,自定概率是真实概率更好逼近。模型输出与期望输出越接近,交叉熵越小。

从csv文件读取数据,加载解析,创建批次读取张量多行数据,提升推断计算效率。tf.decode_csv() Op将字符串(文本行)转换到指定默认值张量列元组,为每列设置数据类型。读取文件,加载张量batch_size行。属性数据(categorical data),推断模型需要把字符串特征转换为数值型特征。每个属性特征扩展为N维布尔型特征,每个可能取值对应一维。具备属性相应维度取值1。模型对每个可能取值独立加权。单个变量表示只可能两种值属性。所有特征排列矩阵,矩阵转置,每行一样本,每列一特征。输入,调用read_csv,转换读取数据,tf.equal方法检查属性值与常量值是否相等,tf.to_float方法将布尔值转换成数值。tf.stack方法打包所有布尔值进单个张量。

训练,度量准确率,正确预测样本总数占全部样本比例。样本输出大于0.5转换为正回答。tf.equal比较预测结果与实际值是否相等。tf.reduce_mean统计所有正确预测样本数,除以批次样本总数,得到正确预测百分比。

    import tensorflow as tf
import os
#参数变量初始化
W = tf.Variable(tf.zeros([5, 1]), name="weights")#变量权值
b = tf.Variable(0., name="bias")#线性函数常量,模型偏置
def combine_inputs(X):#输入值合并
print "function: combine_inputs"
return tf.matmul(X, W) + b
def inference(X):#计算返回推断模型输出(数据X)
print "function: inference"
return tf.sigmoid(combine_inputs(X))#调用概率分布函数
def loss(X, Y):#计算损失(训练数据X及期望输出Y)
print "function: loss"
return tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=combine_inputs(X), labels=Y))#求平均值
def read_csv(batch_size, file_name, record_defaults):#从csv文件读取数据,加载解析,创建批次读取张量多行数据
filename_queue = tf.train.string_input_producer([os.path.join(os.getcwd(), file_name)])
reader = tf.TextLineReader(skip_header_lines=1)
key, value = reader.read(filename_queue)
decoded = tf.decode_csv(value, record_defaults=record_defaults)#字符串(文本行)转换到指定默认值张量列元组,为每列设置数据类型
return tf.train.shuffle_batch(decoded, batch_size=batch_size, capacity=batch_size * 50, min_after_dequeue=batch_size)#读取文件,加载张量batch_size行
def inputs():#读取或生成训练数据X及期望输出Y
print "function: inputs"
#数据来源:https://www.kaggle.com/c/titanic/data
#模型依据乘客年龄、性别、船票等级推断是否能够幸存
passenger_id, survived, pclass, name, sex, age, sibsp, parch, ticket, fare, cabin, embarked = \
read_csv(100, "train.csv", [[0.0], [0.0], [0], [""], [""], [0.0], [0.0], [0.0], [""], [0.0], [""], [""]])
#转换属性数据
is_first_class = tf.to_float(tf.equal(pclass, [1]))#一等票
is_second_class = tf.to_float(tf.equal(pclass, [2]))#二等票
is_third_class = tf.to_float(tf.equal(pclass, [3]))#三等票
gender = tf.to_float(tf.equal(sex, ["female"]))#性别,男性为0,女性为1 features = tf.transpose(tf.stack([is_first_class, is_second_class, is_third_class, gender, age]))#所有特征排列矩阵,矩阵转置,每行一样本,每列一特征
survived = tf.reshape(survived, [100, 1])
return features, survived
def train(total_loss):#训练或调整模型参数(计算总损失)
print "function: train"
learning_rate = 0.01
return tf.train.GradientDescentOptimizer(learning_rate).minimize(total_loss)
def evaluate(sess, X, Y):#评估训练模型
print "function: evaluate"
predicted = tf.cast(inference(X) > 0.5, tf.float32)#样本输出大于0.5转换为正回答
print sess.run(tf.reduce_mean(tf.cast(tf.equal(predicted, Y), tf.float32)))#统计所有正确预测样本数,除以批次样本总数,得到正确预测百分比
#会话对象启动数据流图,搭建流程
with tf.Session() as sess:
print "Session: start"
tf.global_variables_initializer().run()
X, Y = inputs()
total_loss = loss(X, Y)
train_op = train(total_loss)
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess=sess, coord=coord)
training_steps = 1000#实际训练迭代次数
for step in range(training_steps):#实际训练闭环
sess.run([train_op])
if step % 10 == 0:#查看训练过程损失递减
print str(step)+ " loss: ", sess.run([total_loss])
print str(training_steps) + " final loss: ", sess.run([total_loss])
evaluate(sess, X, Y)#模型评估
import time
time.sleep(5)
coord.request_stop()
coord.join(threads)
sess.close()

参考资料:
《面向机器智能的TensorFlow实践》

欢迎加我微信交流:qingxingfengzi
我的微信公众号:qingxingfengzigz
我老婆张幸清的微信公众号:qingqingfeifangz

学习笔记TF009:对数几率回归的更多相关文章

  1. 对数几率回归法(梯度下降法,随机梯度下降与牛顿法)与线性判别法(LDA)

    本文主要使用了对数几率回归法与线性判别法(LDA)对数据集(西瓜3.0)进行分类.其中在对数几率回归法中,求解最优权重W时,分别使用梯度下降法,随机梯度下降与牛顿法. 代码如下: #!/usr/bin ...

  2. 机器学习总结-LR(对数几率回归)

    LR(对数几率回归) 函数为\(y=f(x)=\frac{1}{1+e^{-(w^{T}x+b)}}\). 由于输出的是概率值\(p(y=1|x)=\frac{e^{w^{T}x+b}}{1+e^{w ...

  3. 对数几率回归(逻辑回归)原理与Python实现

    目录 一.对数几率和对数几率回归 二.Sigmoid函数 三.极大似然法 四.梯度下降法 四.Python实现 一.对数几率和对数几率回归   在对数几率回归中,我们将样本的模型输出\(y^*\)定义 ...

  4. 挑子学习笔记:对数似然距离(Log-Likelihood Distance)

    转载请标明出处:http://www.cnblogs.com/tiaozistudy/p/log-likelihood_distance.html 本文是“挑子”在学习对数似然距离过程中的笔记摘录,文 ...

  5. Factorization Machines 学习笔记(三)回归和分类

      近期学习了一种叫做 Factorization Machines(简称 FM)的算法,它可对随意的实值向量进行预測.其主要长处包含: 1) 可用于高度稀疏数据场景:2) 具有线性的计算复杂度.本文 ...

  6. TensorFlow学习笔记2:逻辑回归实现手写字符识别

    代码比较简单,没啥好说的,就做个记录而已.大致就是现建立graph,再通过session运行即可.需要注意的就是Variable要先初始化再使用. import tensorflow as tf fr ...

  7. [Machine Learning]学习笔记-Logistic Regression

    [Machine Learning]学习笔记-Logistic Regression 模型-二分类任务 Logistic regression,亦称logtic regression,翻译为" ...

  8. 学习笔记TF011:多层神经网络

    线性回归.对数几率回归模型,本质上是单个神经元.计算输入特征加权和.偏置视为每个样本输入特征为1权重,计算特征线性组合.激活(传递)函数 计算输出.线性回归,恒等式(值不变).对数几率回归,sigmo ...

  9. Day3 《机器学习》第三章学习笔记

    这一章也是本书基本理论的一章,我对这章后面有些公式看的比较模糊,这一会章涉及线性代数和概率论基础知识,讲了几种经典的线性模型,回归,分类(二分类和多分类)任务. 3.1 基本形式 给定由d个属性描述的 ...

随机推荐

  1. linuxCentOs6前期简单且必要的设置

    1.修改主机名 Sudo vi /etc/sysconfig/network(需要重启) Hostname master (不需要重启,设置当前主机名为master) Hostname查看当前主机名 ...

  2. [深入学习Redis]RedisAPI的原子性分析

    在学习Redis的常用操作时,经常看到介绍说,Redis的set.get以及hset等等命令的执行都是原子性的,但是令自己百思不得其解的是,为什么这些操作是原子性的? 原子性 原子性是数据库的事务中的 ...

  3. Git 更新本地代码

    先用git remote -v 查看远程仓库的分支: 我分支远程仓库就只有一个分支master 比较本地仓库和远程仓库的不同 我本地仓库和远程仓库的代码是一样的所以没有区别 更新远程代码到本地 合并本 ...

  4. Java常用的八种排序算法与代码实现

    1.直接插入排序 经常碰到这样一类排序问题:把新的数据插入到已经排好的数据列中. 将第一个数和第二个数排序,然后构成一个有序序列 将第三个数插入进去,构成一个新的有序序列. 对第四个数.第五个数--直 ...

  5. Twitter数据非API采集方法

    说明:这里分三个系列介绍Twitter数据的非API抓取方法. 在一个老外的博看上看到的,想详细了解的可以自己去看原文. 这种方法可以采集基于关键字在twitter上搜索的结果推文,已经实现自动翻页功 ...

  6. 非负矩阵分解(4):NMF算法和聚类算法的联系与区别

    作者:桂. 时间:2017-04-14   06:22:26 链接:http://www.cnblogs.com/xingshansi/p/6685811.html 声明:欢迎被转载,不过记得注明出处 ...

  7. call和apply的异同

    共同点: 作用:调用一个对象的一个方法,以另一个对象替换当前对象.将一个函数的对象上下文从初始的上下文改变为由 thisObj 指定的新对象.如果没有提供 thisObj 参数,那么 Global 对 ...

  8. linux下如何查看mysql、apache是否安装,并卸载

    --linux下如何查看mysql.apache是否安装,并卸载? http://blog.163.com/dengxiuhua126@126/blog/static/1186077720137311 ...

  9. JS取消浏览器文本选中的方法

    一 .问题的出现 今天在使用Easy-UI 的messager.alert()方法时候出现浏览器文本被选中,不知道其中是什么原因,如下图所示. 二 .解决思路 我最后的思路时在弹出消息框的同时,取消浏 ...

  10. 想成为Java高级工程师的看过来

    想成为Java高级工程师,有哪些要求呢? 1.Core Java,就是Java基础.JDK的类库,很多童鞋都会说,JDK我懂,但是懂还不足够,知其然还要知其所以然,JDK的源代码写的非常好,要经常查看 ...