首页 > 代码库 > Boosting with Abstention
Boosting with Abstention
论文提出了一种loss:
x是原始数据,y是对应的label,h(x)是一个判别函数,r(x)相当于训练了一个信心函数,r(x)越大,代表对自己做的判断的信息越大,当r(x)<0的时候,就拒绝进行分类。那么这个loss函数分为前后两项,前面一项就是通常的分类错误的loss,后面一样是对不进行分类的惩罚,c(x)是进行惩罚的权重,作者设置为常数0.5。
作者指出,基于置信度的方法是这种方法的特例,也就是另r(x) = |h(x)|-gama。
评价:这个方法就是对决策边界的点不进行分类,因为这些点可能很混杂,本来就不好分类,那么干脆给个0.5的分错概率,避免分界面的来回震荡。
作者在论文中对他们的方法做了详细的证明,还没有看,待研究。
Boosting with Abstention
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。