使用tensorflow model库里的cifar10 多gpu训练时,最后测试发现时间并没有减少,反而更慢 参考以下两个链接 https://github.com/keras-team/keras/issues/9204 https://medium.com/@c_61011/why-multi-gpu-training-is-not-faster-f439fe6dd6ec 原因可能是在cpu上进行参数梯度同步占每一步的很大比例 ‘’‘ It seems that CPU-side data
One Class SVM 是指你的training data 只有一类positive (或者negative)的data, 而没有另外的一类.在这时,你需要learn的实际上你training data 的boundary.而这时不能使用 maximum margin 了,因为你没有两类的data. 所以呢,在这边文章中,“Estimating the support of a high-dimensional distribution”, Schölkopf 假设最好的boundary要远