【ML】scikit-learn-book】的更多相关文章

官方网站链接 sklearn.neighbors.KNeighborsClassifier sklearn.tree.DecisionTreeClassifier sklearn.naive_bayes.MultinomialNB sklearn.linear_model.LogisticRegression sklearn.svm.SVC   Home Installation Documentation Scikit-learn 0.20.2 (stable) Tutorials User…
[论文标题]Predict and Constrain: Modeling Cardinality in Deep Structured Prediction   (35th-ICML,PMLR) [论文作者]Nataly Brukhim,Amir Globerson [论文链接]Paper (13-pages // Single column) [摘要] 许多机器学习问题需要多维标签的预测.这种结构化预测模型可以从标签之间的依赖关系建模中获益.最近,已有研究提出了几种结构预测的深度学习方法.在…
Two-Stream Convolutional Networks for Action Recognition in Videos & Towards Good Practices for Very Deep Two-Stream ConvNets Note here: it's a learning note on the topic of video representations. This note incorporates two papers about popular two-s…
ICLR2016_DELVING DEEPER INTO CONVOLUTIONAL NETWORKS Note here: Ballas recently proposed a novel framework on learning video representation, following is the review note after reading his paper. Link: http://arxiv.org/pdf/1511.06432v4.pdf [Brief intro…
原文 忘记在哪里看到这本书的介绍了,据说是一个小子自学1年,完成了4年麻省理工的课程,然后写了一本他学习方法的书.我搜了一下,居然中英文版都有,就花时间好好读了一遍,就是这本. 以下是这本书的完整笔记: 整体性学习法是一套能更准确描述大脑如何运作的学习理论. 整体性学习法基于这3个idea: 结构 Constructs 一个结构,就像脑中的一座城市, 大脑中有无数个这种城市, 比如 c++结构(c++ city), 这个结构定义了你知道的c++所有知识和你对c++所有知识点(ideas)的int…
1.理解特征值,特征向量 一个对角阵\(A\),用它做变换时,自然坐标系的坐标轴不会发生旋转变化,而只会发生伸缩,且伸缩的比例就是\(A\)中对角线对应的数值大小. 对于普通矩阵\(A\)来说,是不是也可以找到这样的向量,使得经\(A\)变换后,不改变方向而只伸缩?答案是可以的,这种向量就是\(A\)的特征向量,而对应的伸缩比例就是对应的特征值. 特征值会有复数是为什么? 首先要知道,虚数单位\(i\)对应的是旋转\(90^o\),那么,如果特征值是复数,则对应的特征向量经矩阵\(A\)变换后将…
Unsupervised Learning of Video Representations using LSTMs Note here: it's a learning notes on new LSTMs architecture used as an unsupervised learning way of video representations. (More unsupervised learning related topics, you can refer to: Learnin…
https://github.com/colipso/face_recognition https://medium.com/@ageitgey/machine-learning-is-fun-part-4-modern-face-recognition-with-deep-learning-c3cffc121d78 http://www.cnblogs.com/neo-T/p/6511273.html…
http://www.kdnuggets.com/datasets/index.html http://kdd.ics.uci.edu/…
参考资料:openclassroom 线性回归(Linear Regression) 为了拟合10岁以下儿童年龄(x1)与身高(y)之间的关系,我们假设一个关于x的函数h(x): h(x) = Θ0+Θ1*x1 = Θ0*x0+Θ1*x1 = ΘT*x (其中x0=1, x=[x0, x1]) 我们的目的是求出Θ,使得h(x)接近真实的y. 因此我们需要在m个训练样本(x,y)上使得h(x)与y的平方误差最小. 也就是最小化J(Θ) =1/(2*m) * ∑i(h(x(i))-y(i))2 分母…