协同训练是半监督的一个很好的范例,它要求用两个特征视图来描述数据集。 许多协同训练算法都有一个显着的特征:应以高置信度预测所选的未标记实例,因为高置信度得分通常表示相应的预测是正确的。 不幸的是,使用这些高置信度未标记实例并不总是能够提高分类性能。 本文提出了一种新的半监督学习算法,结合了联合训练和主动学习的优点。 该算法根据高置信度和最近邻两个准则应用协同训练来选择最可靠的实例,以提高分类器的性能,并利用具有人类注释能力的信息量最大的实例来提高分类性能。 在几个UCI数据集和自然语言处理任务上进行的实验表明,我们的方法在牺牲相同的人工量的情况下实现了更显着的改进。
2022-03-25 15:37:30 2.08MB Semi-supervised learning; Co-training; Confidence
1
基于co-training的手写数字识别Multiple+Features数据集
2021-04-03 08:59:51 698KB co-training matlab
1
最近的研究表明,稀疏表示(SR)可以很好地解决许多计算机视觉问题,并且其内核版本具有强大的分类能力。 在本文中,我们解决了协作SR在半监督图像注释中的应用,该方法可以增加标记图像的数量,以进一步用于训练图像分类器。 给定一组标记的(训练)图像和一组未标记的(测试)图像,通常的SR方法(我们称为正向SR)用于用几个标记的图像表示每个未标记的图像,然后根据这些标记的注释的注释。 但是,就我们所知,SR方法是在相反的方向上进行的,即我们称呼后向SR来用几个未标记图像表示每个标记图像,然后根据标记图像的注释对任何未标记图像进行注释,即未标记图像由后向SR选择表示,到目前为止尚未解决。 在本文中,我们探
2021-02-24 14:04:13 768KB Co-training; image annotation; image
1
内容只有几页 但是关于半监督学习和CO-training算法做了比较简单易懂的解释
2019-12-21 21:59:30 156KB 半监督学习 Co-training
1