自我监督视觉预训练的密集对比学习
该项目托管用于实现DenseCL算法以进行自我监督表示学习的代码。
王新龙,张如凤,沉春华,Kong涛,李磊在:Proc。 IEEE Conf。 2021年的计算机视觉和模式识别(CVPR) arXiv预印本( )
强调
增强密集预测: DenseCL预训练模型在很大程度上有利于密集预测任务,包括对象检测和语义分段(最高+ 2%AP和+ 3%mIoU)。
简单的实现: DenseCL的核心部分可以用10行代码实现,因此易于使用和修改。
灵活的用法: DenseCL与数据预处理脱钩,因此可以快速灵活地进行培训,同时不知道使用哪种增强方法以及如何对图像进行采样。
高效的培训:与基准方法相比,我们的方法引入的计算开销可忽略不计(仅慢1%)。
更新
发布了DenseCL的代码和预训练模型。 (02/03/2021)
安装
请参考进行安装和数据集准备。
1