关键词:
半监督学习
AUC优化
标签噪声
二分类问题
不平衡数据学习
摘要:
现有半监督AUC优化方法通常假设数据标注是准确的。然而在许多实际应用中,研究者往往会同时面临标注量不足和不准确的问题。为此,该文首次尝试在不完整和不准确的数据标注情况下优化AUC指标。具体而言,通过分析,对称替代损失在某些情况下可以在半监督问题中具有噪声鲁棒性。在此基础上,该文构建了一个鲁棒半监督AUC优化框架,其导出的经验风险无需估计噪声率。此外,通过紧致泛化上界的分析表明,当模型基于足够大的训练数据集进行学习时,其在未见数据上能够很好地泛化。随后,使用Barrier hinge损失对该框架进行实例化。为加快训练过程,进一步开发了一种加速算法,将损失和梯度估计的复杂度从O(n2)降低至O(nlogn),在实验中可获得高达200倍的加速。最后,通过在15个基准数据集上进行实验验证,证明了所提方法的有效性。