bool Rect::intersectsRect(const Rect& rect) const { return !( getMaxX() < rect.getMinX() || rect.getMaxX() < getMinX() || getMaxY() < rect.getMinY() || rect.getMaxY() < getMinY()); } 可以用这个函数来判断两个矩形是否有交叉区域,比如用来判断飞机是否碰撞,渔网和鱼是否碰撞等 交叉的时候上面的判断条…
1.决策树 :监督学习 决策树是一种依托决策而建立起来的一种树. 在机器学习中,决策树是一种预测模型,代表的是一种对象属性与对象值之间的一种映射关系,每一个节点代表某个对象,树中的每一个分叉路径代表某个可能的属性值,而每一个叶子节点则对应从根节点到该叶子节点所经历的路径所表示的对象的值. 决策树仅有单一输出,如果有多个输出,可以分别建立独立的决策树以处理不同的输出. 优点: 决策树算法中学习简单的决策规则建立决策树模型的过程非常容易理解, 决策树模型可以可视化,非常直观 应用范围广,可用于分类和…
目录 15.1 本篇概述 15.1.1 本篇内容 15.1.2 XR概念 15.1.2.1 VR 15.1.2.2 AR 15.1.2.3 MR 15.1.2.4 XR 15.1.3 XR综述 15.1.4 XR生态 15.1.5 XR应用 15.2 XR技术 15.2.1 XR技术综述 15.2.1.1 软件架构 15.2.1.2 Quest 2开发 15.2.1.3 OpenXR 15.2.2 光学和成像 15.2.3 延迟和滞后 15.2.3.1 Prediction 15.2.3.2 T…
1.介绍: 当我们开发一个分类模型的时候,我们的目标是把输入映射到预测的概率上,当我们训练模型的时候就不停地调整参数使得我们预测出来的概率和真是的概率更加接近. 这篇文章我们关注在我们的模型假设这些类都是明确区分的,假设我们是开发一个二分类模型,那么对应于一个输入数据,我们将他标记为要么绝对是正,要么绝对是负.比如,我们输入的是一张图片,来判断这张图片是苹果还是梨子. 在训练过程中,我们可能输入了一张图片表示的是苹果,那么对于这张输入图片的真实概率分布为y=(苹果:1,梨子:0),但是我们的模型…
熵(entropy).KL 散度(Kullback-Leibler (KL) divergence)和交叉熵(cross-entropy)在机器学习的很多地方会用到.比如在决策树模型使用信息增益来选择一个最佳的划分,使得熵下降最大:深度学习模型最后一层使用 softmax 激活函数后,我们也常使用交叉熵来计算两个分布的“距离”.KL散度和交叉熵很像,都可以衡量两个分布之间的差异,相互之间可以转化. 1. 如何量化信息? 信息论是应用数学的一个分支,主要研究的是对一个信号包含信息的多少进行量化.信…
机器学习的面试题中经常会被问到交叉熵(cross entropy)和最大似然估计(MLE)或者KL散度有什么关系,查了一些资料发现优化这3个东西其实是等价的. 熵和交叉熵 提到交叉熵就需要了解下信息论中熵的定义.信息论认为: 确定的事件没有信息,随机事件包含最多的信息. 事件信息的定义为:\(I(x)=-log(P(x))\):而熵就是描述信息量:\(H(x)=E_{x\sim P}[I(x)]\),也就是\(H(x)=E_{x\sim P}[-log(P(x))]=-\Sigma_xP(x)l…
https://www.cnblogs.com/silent-stranger/p/7987708.html 1.介绍: 当我们开发一个分类模型的时候,我们的目标是把输入映射到预测的概率上,当我们训练模型的时候就不停地调整参数使得我们预测出来的概率和真是的概率更加接近. 这篇文章我们关注在我们的模型假设这些类都是明确区分的,假设我们是开发一个二分类模型,那么对应于一个输入数据,我们将他标记为要么绝对是正,要么绝对是负.比如,我们输入的是一张图片,来判断这张图片是苹果还是梨子. 在训练过程中,我们…
交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量真实分布p与当前训练得到的概率分布q有多么大的差异. 相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量两个概率分布之间的差异. 对于两个概率分布和 ,其相对熵的计算公式为: 注意:由于 和 在公式中的地位不是相等的,所以. 相对熵的特点,是只有 时,其值为0.若 和 略有差异,其值就会大于0. 相对熵…
熵:H(p)=−∑xp(x)logp(x) 交叉熵:H(p,q)=−∑xp(x)logq(x) 相对熵:KL(p∥q)=−∑xp(x)logq(x)p(x) 相对熵(relative entropy)也叫 KL 散度(KL divergence): 用来度量两分布之间的不相似性(dissimilarity): 通过交叉熵的定义,连接三者: H(p,q)===−∑xp(x)logq(x)−∑xp(x)logp(x)−∑xp(x)logq(x)p(x)H(p)+KL(p∥q) 1. 简森不等式与 K…
熵:可以表示一个事件A的自信息量,也就是A包含多少信息. KL散度:可以用来表示从事件A的角度来看,事件B有多大不同. 交叉熵:可以用来表示从事件A的角度来看,如何描述事件B. 一种信息论的解释是: 熵的意义是对A事件中的随机变量进行编码所需的最小字节数. KL散度的意义是“额外所需的编码长度”如果我们用B的编码来表示A. 交叉熵指的是当你用B作为密码本来表示A时所需要的“平均的编码长度”. 一.熵 1.定义 衡量一个事件所包含的信息量 $$S(A)=-\sum_i P_A(x_i)logP_A…