有些讲得太烂了,我来通俗的梳理一下R2. Calculating R-squared 在线性回归的模型下,我们可以计算SE(line), SE(y均值). The statistic R2describes the proportion of variance in the response variable explained by the predictor variable 如何理解这句话,Y本身就有自己的SE,在模型下,Y与其预测值之间又有一个SE,如果模型完全拟合,那么SE(line)
分析工具: (1)SQL select from where group by having order by limit 运算符(算数运算符+-*/.比较运算符><=.逻辑运算符not/and/or) 聚合函数(count.sum.avg.max.min) 函数(算术函数.字符串函数.日期函数) 子查询(标量子查询.关联子查询) 谓词(like.between.is null.in) case when 集合运算(表的加减法.表联结) (2)p
1. Main Point 0x1:行文框架 第二章:我们会分别介绍NNs神经网络和PR多项式回归各自的定义和应用场景. 第三章:讨论NNs和PR在数学公式上的等价性,NNs和PR是两个等价的理论方法,只是用了不同的方法解决了同一个问题,这样我们就形成了一个统一的观察视角,不再将深度神经网络看成是一个独立的算法. 第四章:讨论通用逼近理论,这是为了将视角提高到一个更高的框架体系,通用逼近理论证明了所有的目标函数都可以拟合,换句话说就是,所有的问题都可以通过深度学习解决.但是通用逼近理论并没有告诉
The author has a course on web: http://brickisland.net/DDGSpring2016/ It has more reading assignments and sliders which are good for you to understand ddg. ------------------------------------------------------------- DISCRETE DIFFERENTIAL GEOMETRY :