Xgboost参数 'booster':'gbtree', 'objective': 'multi:softmax', 多分类的问题 'num_class':10, 类别数,与 multisoftmax 并用 'gamma':损失下降多少才进行分裂 'max_depth':12, 构建树的深度,越大越容易过拟合 'lambda':2, 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合. 'subsample':0.7, 随机采样训练样本 'colsample_bytree'