在机器学习和统计学中,bagging(英文全称是 Bootstrap Aggregating)是一种集成学习方法,用于提高模型的稳定性和准确性。
bagging 的核心思想是通过多次从训练集中随机采样(有放回地抽样),生成多个子数据集,然后在每个子数据集上训练一个模型,最后将这些模型的预测结果进行平均或投票,以得到最终的预测结果。
bagging 最著名的应用之一是 随机森林(Random Forest),它通过 bagging 方法对多个决策树进行集成,从而显著提升分类和回归任务的性能。
总结来说,bagging 是一种通过组合多个弱学习器来提高整体模型性能的技术。它是现代机器学习中非常重要的方法之一。