强化凝聚聚类
为了克服聚集聚类中传统链接标准的贪婪性,我们提出了一种强化学习方法,通过将聚集聚类建模为马尔可夫决策过程来学习非贪婪合并策略。
是层次聚类的一种“自下而上”的方法,其中每个观察值都在其自己的聚类中开始,并且随着一个聚类向上移动,聚类对将合并。 聚集聚类是一个顺序决策问题,它伴随着一个问题,即较早做出的决定会影响较晚的结果。 但是传统的链接标准无法通过简单地测量当前阶段集群的相似性来解决这个问题。 这促使我们将聚类建模为马尔可夫决策过程,并通过强化学习对其进行求解。 代理应该学习非贪婪的合并策略,以便选择每个合并操作以获得更好的长期折价奖励。
该状态定义为当前聚类的特征表示。 我们使用池来聚合所有集群的功能。 该动作定义为合并群集i和群集j。 我们使用Q学习来计算状态-动作对的值。 在训练中,奖励是通过图像的地面真相标签来计算的。 并且在测试时,我们在不同的域中测试代理,以
2022-07-11 15:33:48
25KB
Python
1