论文部分内容阅读
推导了使用指数损失函数和0-1损失函数的Boosting算法的严格在线形式,证明这两种在线Boosting算法最大化样本间隔期望、最小化样本间隔方差.通过增量估计样本间隔的期望和方差,Boosting算法可应用于在线学习问题而不损失分类准确性.UCI数据集上的实验表明,指数损失在线Boosting算法的分类准确性与批量自适应Boosting(AdaBoost)算法接近,远优于传统的在线Boosting;0-1损失在线Boosting算法分别最小化正负样本误差,适用于不平衡数据问题,并且在噪声数据上分