无监督的高光谱超分辨率耦合解混网中的交叉注意 ,, ,,和 论文代码:。 图。1。 受频谱分解技术启发的拟议的无监督超光谱超分辨率网络的图示,即具有交叉注意的耦合解混网(CUCaNet) ,该网络主要由两个重要模块组成:交叉注意和空间光谱一致性。 训练 请简单地运行./Main_CAVE.py演示,以在两个HSI(伪造的和真实的食物,图表和玩具)上重现我们的HSISR结果(将与在Windows OS上实现的Python 3.7使用)。 之前:有关必需的软件包,请参阅详细的.py文件。 参数:可以更好地调整权衡参数train_opt.lambda_* ,并且网络超参数灵活。 结果:请查看登录到./checkpoints/CAVE_*name*/precision.txt的五个评估指标(PSNR,SAM,ERGAS,SSIM和UIQI)以及保存在./Results/CAVE/的输出.m
2022-04-14 10:41:42 45.26MB Python
1
少量物体检测 (ECCV 2020)PyTorch实施的论文“野外物体的少量目标检测和视点估计” 如果我们的项目对您的研究有所帮助,请考虑引用: @INPROCEEDINGS{Xiao2020FSDetView, author = {Yang Xiao and Renaud Marlet}, title = {Few-Shot Object Detection and Viewpoint Estimation for Objects in the Wild}, booktitle = {European Conference on Computer Vision (ECCV)}, year = {2020}} 变更日志 [2020年12月15日]在download_models.sh中download_models.sh的CO
1
GTA-IM数据集 具有场景上下文的长期人体运动预测,ECCV 2020(口服) ,, ,, , 。 该存储库维护着我们的GTA室内运动数据集(GTA-IM),该数据集着重于室内环境中的人与场景之间的交互作用。我们从逼真的游戏引擎中收集3D人体运动的高清RGB-D图像序列。该数据集具有清晰的3D人体姿势和相机姿势注解,并且在人的外观,室内环境,相机视图和人类活动方面有很大的差异。 目录 演示版 (0)入门 克隆此存储库,然后创建本地环境: conda env create -f environment.yml 。 为了方便起见,我们在demo目录中提供了一部分数据。在本节中,您将能够使用维护的工具脚本来处理我们数据的不同部分。 (1)3D骨架和点云 $ python vis_skeleton_pcd.py -h usage: vis_skeleton_pcd.py [-h] [-
2022-04-01 11:36:45 74.77MB dataset rgbd 3d-human-pose human-scene-interaction
1
OpenIBL 介绍 OpenIBL是基于PyTorch的开源代码库,用于基于图像的本地化(换句话说,就是位置识别)。 它支持多种最新方法,还涵盖了ECCV-2020聚光灯SFRS的正式实施。 我们支持由slurm或pytorch启动的单/多节点多GPU分布式培训和测试。 正式执行: :用于大规模图像定位的自监督细粒度区域相似性(ECCV'20 Spotlight ) 非官方实施: NetVLAD:用于弱监督位置识别的CNN架构(CVPR'16) SARE:用于大规模图像定位的随机吸引-排斥嵌入(ICCV'19) 常问问题 如何提取单个图像的描述符? 请参阅。 如何在论文中
1
超快速通道检测 PyTorch实施的论文“”。 更新:我们的论文已被ECCV2020接受。 评估代码是从改性和。 Caffe模型和原型可以在找到。 演示版 安装 请参阅 开始吧 首先,请根据您的环境在configs/culane.py或configs/tusimple.py配置中修改data_root和log_path 。 data_root是您的CULane数据集或Tusimple数据集的路径。 log_path是tensorboard日志,训练有素的模型和代码备份的存储位置。它应该放置在该项目之外。 对于单GPU训练,运行 python train.py configs/path_to_your_config 对于多GPU训练,请运行 sh launch_training.sh 或者 python -m torch.distributed.launch --nproc_per_n
2022-03-20 10:49:55 152KB cnn pytorch lane-finding autonomous-driving
1
MSG-Net(多尺度指导网络) 多尺度制导网络 该存储库( )是MSG-Net的正式版本,适用于我们在ECCV16中进行的。 它带有四个训练有素的网络(x2,x4,x8和x16),一个带Kong的RGBD训练集和三个带Kong的RGBD测试集(A,B和C)。 据我们所知,MSG-Net是FIRST卷积神经网络,它尝试在多尺度引导下从相应的高分辨率RGB图像上对深度图像进行升采样。 还提供了MS-Net的另一个(无多尺度指导)。 有关更多详细信息,请访问。 许可和引文 该软件和相关的文档文件(以下简称“软件”),以及包括但不限于附图的研究论文(深度多尺度制导的深度图超分辨率)以及表格(以下简称“纸张”)均已提供给学术界仅用于研究目的,无任何担保。 任何商业用途都必须征得我的同意。 在您的工作中使用软件或论文的任何部分时,请引用以下论文 @InProceedings{hui16
2022-03-13 12:20:21 33.33MB caffe cnn depth super-resolution
1
OpenSet_ReciprocalPoints 开源,重新实现已发布的ECCV '20关于互认点的论文,以实现开放集识别。 截至2020年10月,本文是开放式识别的最新技术。 正在进行代码清理; 测试集上的结果将很快更新。 与论文作者确认此实现是正确的。 使用作者的数据加载器,该实现实际上超过了tiny-imagenet上已发布的性能。 使用我自己的数据加载器,结果略低于发布的性能(数据拆分有所不同,所以这可能是原因)。 我还在这两个数据集上运行了标准的深度学习基准。 实际上,我发现当前的公开文献低估了基线; 当前的文献报道的基线数字比我用自己的代码获得的数字低得多。 这可能表明,开放集识别的进度比看起来要温和得多。 方法 CIFAR + 10 微型Imagenet 公布的基准 81.6% 57.7% 我对基准的实施 89.24%(价值) 66.35%(价值) 我对
2022-03-12 13:48:32 24KB Python
1
ECCV|2018 几何约束联合车道分割和车道边界检测-附件资源
2022-02-24 18:08:49 106B
1
汇总了ECCV 2020语义分割相关文章41篇,包括语义分割、弱监督语义分割、半监督语义分割、少样本语义分割、边缘语义分割、3D语义分割、跨域语义分割、域自适应语义分割等类别。
2022-01-02 16:21:16 262.36MB ECCV 语义分割 深度学习
1
Smooth_AP ECCV '20论文 src / Smooth_AP_loss.py中提供了Smooth-AP损失功能的PyTorch实现 训练代码和预先训练的重量即将推出... 依存关系 的Python 3.7.7 PyTorch 1.6.0 CUDA 10.1 数据 此存储库用于在以下数据集上使用Smooth-AP损失进行训练: PKU车辆ID(可从该网站获得-必须通过电子邮件发送给作者以获取下载权限) INaturalist(2018版本-从此网站获得) 我们是第一个将大型INaturalist数据集用于图像复原任务的人。数据集拆分可在此处下载: : 。将压缩包解压缩到INaturalist数据集目录中。 训练模型 可以使用此存储库复制“车辆ID”和“自然”数据集的训练结果。要在Vehicle ID数据集上训练模型,可以运行: python main.py --f
2021-12-15 18:22:57 881KB Python
1