http://www.kdd.org/kdd2016/papers/files/rfp0697-chenAemb.pdf https://homes.cs.washington.edu/~tqchen/pdf/BoostedTree.pdf [Training Loss measures how well model fit on training data] [Regularization, measures complexity of model] [simple] [predictive]…
Qt Model/View模式举例 Qt提供了两个标准的models:QStandardItemModel和QDirModel.QStandardItemModel是一个多用途的model,可用于表示list,table,tree views所需要的各种不同的数据结构.这个model也持有数据.QDirModel维护相关的目录内容的信息,它本身不持有数据,仅是对本地文件系统中的文件与目录的描述.QDirModel是一个现成的model,很容易进行配置以用于现存的数据,使用这个model,可以很好…
Qt Model/View模式简介 Qt 4推出了一组新的item view类,它们使用model/view结构来管理数据与表示层的关系.这种结构带来的 功能上的分离给了开发人员更大的弹性来定制数据项的表示,它也提供一个标准的model接口,使得更多的 数据源可以被这些item view使用.这里对model/view的结构进行了描述,结构中的每个组件都进行了解释, 给出了一些例子说明了提供的这些类如何使用. Model/View  结构 Model-View-Controller(MVC),…
这个问题其实就是apps.user.User这种用法是不对的,就在下面的模型中,我本来是绑定apps.user.User,但是试了一下,由于order和user是在同一个apps中,所以直接用user.User就可以了 此外,我还有一个地方也出错了,就是没有注册app, 当出现多个应用的时候,需要在settings中使用文件夹名.app名(例如apps.user)的形式进行注册如果遇到绑定多个数据库,也要在迁移命令时指定数据库的名字,见下面的链接 改成user.User之后就可以了 多个应用的注…
The biggest difference between LES and RANS is that, contrary to LES, RANS assumes that \(\overline{u'_i} = 0\) (see the Reynolds-averaged Navier–Stokes equations). In LES the filter is spatially based and acts to reduce the amplitude of the scales o…
多因素线性回归 系数由最小二乘法得到 R^2;adjusted R^2:变量变多之后,r^2自然变大,但是这不是反应客观事实,所以引入了adjusted R^2 使用散点图看独立性,也可以使用软件,car package: 任何一个变量显著便使得整个模型(y)显著. 要保证各变量之间相互独立,否则一个变量改变之后另一个变量改变,这两个变量都改变之后y必然改变,但是实际上是第一个变量导致的.所以要检查多元共线性,可使用膨胀系数,相关系数仅考查两个变量之间的关系,而膨胀系数考查一个变量与其他所有变量…
http://blog.csdn.net/helloboat/article/details/51208128 领域模型是领域内的概念类或现实世界中对象的可视化表示,又称为概念模型或分析对象模型,它专注于分析问题领域本身,发掘重要的业务领域概念,并建立业务领域概念之间的关系.贫血模型是指使用的领域对象中只有setter和getter方法(POJO),所有的业务逻辑都不包含在领域对象中而是放在业务逻辑层.有人将我们这里说的贫血模型进一步划分成失血模型(领域对象完全没有业务逻辑)和贫血模型(领域对象…
领域模型是领域内的概念类或现实世界中对象的可视化表示,又称为概念模型或分析对象模型,它专注于分析问题领域本身,发掘重要的业务领域概念,并建立业务领域概念之间的关系. 贫血模型是指使用的领域对象中只有setter和getter方法(POJO),所有的业务逻辑都不包含在领域对象中而是放在业务逻辑层.有人将我们这里说的贫血模型进一步划分成失血模型(领域对象完全没有业务逻辑)和贫血模型(领域对象有少量的业务逻辑),我们这里就不对此加以区分了. 充血模型将大多数业务逻辑和持久化放在领域对象中,业务逻辑(业…
设计模式的起源是面向对象程序设计思想,是面向对象设计的精髓--抽象.面向对象通过类和对象来实现抽象,实现时产生了面向对象的三个重要机制:封装.继承.多态.正是这三个机制衍生出了各种各样的设计模式.在面向对象软件设计的发展过程中,除了<设计模式>一书中提到的23中设计模式之外,新的设计模式仍然不断出现. Java23种设计模式,根据目的准则可以分为创建型.结构型.行为型. 创建型 1 抽象工厂模式(AbstractFactory) 定义:为创建一组相关或相互依赖的对象提供一个接口,而且无需指定他…
I have finished the first course in the DeepLearnin.ai series. The assignment is relatively easy, but it indeed provides many interesting insight. You can find some summary notes of the first course in my previous 2 posts. sigmoid and shallow NN Forw…
About this Course This course will teach you the "magic" of getting deep learning to work well. Rather than the deep learning process being a black box, you will understand what drives performance, and be able to more systematically get good res…
Normalization Normalization refers to rescaling real valued numeric attributes into the range 0 and 1. It is useful to scale the input attributes for a model that relies on the magnitude of values, such as distance measures used in k-nearest neighbor…
3. Bayesian statistics and Regularization Content 3. Bayesian statistics and Regularization. 3.1 Underfitting and overfitting. 3.2 Bayesian statistics and regularization. 3.3 Optimize Cost function by regularization. 3.3.1 Regularized linear regressi…
声明:所有内容来自coursera,作为个人学习笔记记录在这里. Regularization Welcome to the second assignment of this week. Deep Learning models have so much flexibility and capacity that overfitting can be a serious problem, if the training dataset is not big enough. Sure it do…
Regularization method(正则化方法) Outline Overview of Regularization L0 regularization L1 regularization L2 regularization Elastic Net regularization L2,1 regularization Model example Reference Overview of Regularization Main goal: 1. Prevent over-fitting…
Regularization Deep Learning models have so much flexibility and capacity that overfitting can be a serious problem,if the training dataset is not big enough. Sure it does well on the training set, but the learned network doesn't generalize to new ex…
一.Cross-entropy 我们理想情况是让神经网络学习更快 假设单模型: 只有一个输入,一个神经元,一个输出   简单模型: 输入为1时, 输出为0 神经网络的学习行为和人脑差的很多, 开始学习很慢, 后来逐渐增快. 为什么? 学习慢 => 偏导数 ∂C/∂w 和 ∂C/∂b 值小 回顾之前学习的Cost函数: 回顾sigmoid函数 当神经元的输出接近1或0时,曲线很平缓, 因而会使偏导数 ∂C/∂w 和 ∂C/∂b 值小 学习很慢,如何增快学习? 因此神经网络引入交叉熵代价函数cros…
machine learning(13) --Regularization:Regularized linear regression Gradient descent without regularization                    with regularization                     θ0与原来是的没有regularization的一样 θ1-n和原来相比会稍微变小(1-αλ⁄m)<1 Normal equation without regular…
不同的λ(0,1,10,100)值对regularization的影响\ 预测新的值和计算模型的精度 %% ============= Part 2: Regularization and Accuracies =============% Optional Exercise:% In this part, you will get to try different values of lambda and % see how regularization affects the decisio…
梯度修剪 梯度修剪主要避免训练梯度爆炸的问题,一般来说使用了 Batch Normalization 就不必要使用梯度修剪了,但还是有必要理解下实现的 In TensorFlow, the optimizer’s minimize() function takes care of both computing the gradients and applying them, so you must instead call the optimizer’s compute_gradients()…
在matlab中做Regularized logistic regression 原理: 我的代码: function [J, grad] = costFunctionReg(theta, X, y, lambda) %COSTFUNCTIONREG Compute cost and gradient for logistic regression with regularization % J = COSTFUNCTIONREG(theta, X, y, lambda) computes th…
聚类(1)——混合高斯模型 Gaussian Mixture Model http://blog.csdn.net/jwh_bupt/article/details/7663885 聚类系列: 聚类(序)----监督学习与无监督学习 聚类(1)----混合高斯模型 Gaussian Mixture Model 聚类(2)----层次聚类 Hierarchical Clustering 聚类(3)----谱聚类 Spectral Clustering -----------------------…
The Model Complexity Myth (or, Yes You Can Fit Models With More Parameters Than Data Points) An oft-repeated rule of thumb in any sort of statistical model fitting is "you can't fit a model with more parameters than data points". This idea appea…
Github地址:Mask_RCNN 『计算机视觉』Mask-RCNN_论文学习 『计算机视觉』Mask-RCNN_项目文档翻译 『计算机视觉』Mask-RCNN_推断网络其一:总览 『计算机视觉』Mask-RCNN_推断网络其二:基于ReNet101的FPN共享网络 『计算机视觉』Mask-RCNN_推断网络其三:RPN锚框处理和Proposal生成 『计算机视觉』Mask-RCNN_推断网络其四:FPN和ROIAlign的耦合 『计算机视觉』Mask-RCNN_推断网络其五:目标检测结果精炼…
没有完全看懂,以后再看,特别是hmm,CRF那里,以及生成模型产生的数据是序列还是一个值,hmm应该是序列,和图像的关系是什么. [摘要]    - 生成模型(Generative Model) :无穷样本==>概率密度模型 = 产生模型==>预测    - 判别模型(Discriminative Model):有限样本==>判别函数 = 预测模型==>预测 [简介]简单的说,假设o是观察值,q是模型.如果对P(o|q)建模,就是Generative模型.其基本思想是首先建立样本的…
  [摘要]    - 生成模型(Generative Model) :无穷样本==>概率密度模型 = 产生模型==>预测    - 判别模型(Discriminative Model):有限样本==>判别函数 = 预测模型==>预测 [简介]简单的说,假设o是观察值,q是模型.如果对P(o|q)建模,就是Generative模型.其基本思想是首先建立样本的概率密度模型,再利用模型进行推理预测.要求已知样本无穷或尽可能的大限制.这种方法一般建立在统计力学和bayes理论的基础之上.…
代码结构 tf的代码看多了之后就知道其实官方代码的这个结构并不好: graph的构建和训练部分放在了一个文件中,至少也应该分开成model.py和train.py两个文件,model.py中只有一个PTBModel类 graph的构建部分全部放在了PTBModel类的constructor中 恰好看到了一篇专门讲如何构建tensorflow模型代码的blog,值得学习,来重构自己的代码吧. 值得学习的地方 虽说官方给出的代码结构上有点小缺陷,但是毕竟都是大神们写出来的,值得我们学习的地方很多,来…
Generalized linear models with nonlinear feature transformations (特征工程 + 线性模型) are widely used for large-scale regression and classification problems with sparse inputs. Memorization of feature interactions (线性模型中学习到的特征系数解释性强)through a wide set of cr…
假设我们现在想要知道what degree of polynomial to fit to a data set 或者 应该选择什么features 或者 如何选择regularization parameter λ 我们该如何做?----Model selection process 很好的拟合training set并不意味着是一个好的hypothesis 上图是一个overfitting的例子,它能很好的拟合training data,但它不是一个好的预测函数.所以一般来说,the tra…
Day 1: Setting up ROS: Indigo OS: Ubuntu 14.04 OS: Gazebo 7.0.0 Initialize the workspace To create the basic skeleton of the directory structure, we begin with a workspace {WORKSPACE}_ws, where we set {WORKSPACE}=mybot. cd ~ mkdir -p mybot_ws/src cd…