观点1:XGBoost要比深度学习更重要.2016年Kaggle大赛29个获奖方案中,17个用了XGBoost.因为它好用,在很多情况下都更为可靠.灵活,而且准确:在绝大多数的回归和分类问题上,XGBoost的实际表现都是顶尖的. 观点2:针对非常要求准确度的那些问题,XGBoost确实很有优势,同时它的计算特性也很不错.然而,相对于支持向量机.随机森林或深度学习,XGBoost的优势倒也没到那种夸张的程度.特别是当你拥有足够的训练数据,并能找到合适的深度神经网络时,深度学习的效果就明显能好上一