飞桨复现mldanet&monodepth + deephints项目代码
2022-10-15 17:06:19 319.03MB 飞桨 项目代码 mldanet monodepth
1
数据融合matlab代码MonoDepth-FPN-PyTorch 一个简单的端到端模型,可在PyTorch中实现深度预测的最新性能。 我们使用功能金字塔网络(FPN)骨架来从单个输入RGB图像估计深度图。 我们在NYU深度V2数据集(官方拆分)和KITTI数据集(本征拆分)上测试了模型的性能。 要求 的Python 3 Jupyter Notebook(可视化) 火炬用PyTorch 0.3.0.post4测试 CUDA 8(如果使用CUDA) 跑步 python3 main_fpn.py --cuda --bs 6 要从保存的模型继续训练,请使用 python3 main_fpn.py --cuda --bs 6 --r True --checkepoch 10 要可视化重建的数据,请在vis.ipynb中运行jupyter笔记本。 数据处理 NYU深度V2数据集 包含各种室内场景,其中249个用于训练的场景和215个用于测试的场景。 我们使用官方分组进行了培训和测试。 这为数据处理提供了非常详细的演练和matlab代码。 在先前的工作之后,我们使用了官方工具箱,该工具箱使用了Le
2022-01-09 19:38:26 233KB 系统开源
1
单眼深度估计 该存储库为NYU深度数据集V2提供了单眼深度估计的简单PyTorch Lightning实现。 依存关系 Docker 20.10.2 1.28.3 的Python 3.8.0 0.1.3 1.6.0 1.2.5 2.0.6 偏见0.10.25 有关其他库的版本,请参见 。 方法 细分模型+ *深度损失 *我们使用 。 骨干 类型 三角洲1 三角洲2 三角洲3 lg10 abs_rel 湄 微软 efficiencynet-b7 UnetPlusPlus 0.8381 0.9658 0.9914 0.0553 0.1295 0.3464 0.3307 efficiencynet-b7 FPN 0.8378 0.9662 0.9915 0.0561 0.1308 0.3523 0.3308 高效网-b4 U
2021-10-20 15:46:59 22KB docker docker-compose pytorch nyu2
1