算法英语

关于bagging算法的描述,正确的是在训练单个分类器时,每个样本被抽取的概率是相同的;在对新样本进行分类时,整体模型结果是投票最多的类别。

Bagging算法(英文:Bootstrap?聚合算法,又称bagging算法,是机器学习领域的一种群体学习算法。最初由Leo Breiman在1996中提出。Bagging算法可以与其他分类和回归算法相结合,提高其准确性和稳定性,同时通过降低结果的方差来避免过拟合。

Bagging是一种通过组合几个模型来减少泛化误差的技术。主要思想是分别训练几个不同的模型,然后让所有模型对测试样本的输出进行投票。这是机器学习中传统策略的一个例子,叫做模型平均。采用这种策略的技术称为集成方法。

模型平均起作用的原因是不同的模型通常不会在测试集上产生完全相同的误差。模型平均是一种非常有效和可靠的减少泛化误差的方法。当它被用作科学论文算法的基准时,通常是不被鼓励的,因为任何机器学习算法都可以极大地受益于模型平均(代价是增加计算和存储)。

给定一个大小为n的训练集D,Bagging算法选取m个大小为n '的子集Di作为新的训练集,均匀地、均匀地放回(即采用自助抽样法)。在这M个训练集上使用分类、回归等算法,可以得到M个模型,然后通过平均和多数投票得到Bagging结果。

Bagging算法的特点:

1,Bagging通过减少基分类器的方差来改善泛化误差。

2.它的性能取决于基分类器的稳定性;如果基分类器不稳定,bagging有助于减少训练数据随机波动带来的误差;如果是稳定的,集成分类器的误差主要是由基分类器的偏差引起的。

3.由于每个样本被选中的概率相同,bagging并不关注训练数据集中的任何一个具体的例子。