kd-tree kd-tree works poorly in high dimensions (k<30) 自己实验的时候差不多20到30左右吧,超过之后,就真的很慢了 faiss support high-dimensional vectors of 50 to 1000+ dimensions use gpu annoy Works better if you don't have too many dimensions (like <100) but seems to perform
search_k serach_k越大,越准确,但是要在时间和准确率之间取个trade off During the query it will inspect up to search_k nodes which defaults to n_trees * n build on memory or disk build on disk disk上build的时候,树的node个数是所有样本个数的大约2倍,(作者说无法获得多少颗树,困== build on memory 指定颗的树数(5) 差别
注: Scratch是一款由麻省理工学院(MIT) 设计开发的一款面向少年的简易编程工具.这里写链接内容 本文翻译自“IMPLEMENTING A NEURAL NETWORK FROM SCRATCH IN PYTHON – AN INTRODUCTION”,原文链接为这里写链接内容.并且,我在这里给出原文数学公式的推导和对原文一些概念的修正: 在这里,我将展示一种简单的三层神经网络,我不会详细推导出与本文有关的所有数学公式,我将我的想法以一种直观的形式展示出来
零. Introduction 1.learn over a subset of data choose the subset uniformally randomly (均匀随机地选择子集) apply some learning algorithm 解决第一个问题 :Boosting 算法 不再随机选择样本,而是选择the samples we are not good at? 寻找算法解决我们当下不知道如何解决的问题--学习的意义 baic idea behind boosting : f