提出了一种新的自支持匹配策略来缓解这一问题,该策略使用查询原型来匹配查询特征,其中查询原型是从高置信度查询预测中收集的。该策略可以有效地捕获查询对象的一致底层特征,从而匹配查询特征。我们还提出了自适应自支持背景原型生成模块和自支持损失,以进一步促进自支持匹配过程。我们的自支持网络大大提高了原型质量,受益于更强的主干和更多支持,并在多个数据集上实现了SOTA。
2022-09-23 21:05:32 4.91MB
1
提出了一种新的、直截了当的见解来缓解这个问题。具体来说,我们在传统的FSS模型(meta learner)上应用了一个额外的分支(基本学习者),以明确识别基本类,即不需要分割的区域。然后,将这两个学习器并行输出的粗略结果进行自适应集成,以获得精确的分割预测。考虑到元学习者的敏感性,我们进一步引入调整因子来估计输入图像对之间的场景差异,以便于模型集成预测。PASCAL-5i和 COCO-20i验证性能大幅提升,令人惊讶的是,我们的多功能方案即使有两个普通的学习者,也创造了最先进的水平。此外,鉴于所提出方法的独特性,我们还将其扩展到更现实但更具挑战性的环境,即广义FSS,其中需要确定基类和新类的像素。
2022-09-23 21:05:30 4.72MB 小样本分割 文献阅读分享 深度学习
1
提出了一种简单而有效的自我引导学习方法,即挖掘丢失的关键信息。具体来说,通过对标注的支持图像进行初始预测,将覆盖和未覆盖的前景区域分别用掩码GAP编码为主支持向量和辅助支持向量。通过主支持向量和辅助支持向量的融合,对查询图像获得了较好的分割性能。在我们的1 shot 分割自我引导模块的启发下,我们提出了一个多次分割的交叉引导模块,其中最终混合使用来自多个带注释的样本的预测,高质量的支持向量贡献更多,反之亦然。该模块改进了推理阶段的最终预测,无需再训练。大量实验表明,我们的方法在pascal -5i和coco -20i数据集上都实现了新的最先进的性能。
2022-09-23 21:05:29 3.72MB 小样本分割 文献阅读分享 深度学习
1
一种新的联合训练框架:传统框架+额外的挖掘分支。 挖掘潜在的新类,并在背景和前景类别上引入了一种新的校正技术。 利用额外的未标记数据进行进一步的特征增强
2022-09-23 21:05:29 2.18MB 小样本分割 深度学习 文献阅读分享
1
Prior Guided Feature Enrichment Network for Few-Shot Segmentation分享ppt
2021-10-14 12:08:33 6.78MB 小样本分割 论文分享
1
Prior Guided Feature Enrichment Network for Few-Shot Segmentation论文翻译
2021-10-14 12:08:32 5.48MB 小样本分割
1
小样本分割的入门和几篇论文的汇报,CANet、PANet、BriNet、ASGNet、DNA
2021-07-20 11:21:42 2.24MB 小样本分割 论文 paperreading
1