使用Tensorflow数据并行,多GPU训练的demo。模型是一个image2image的模型,参考了dncnn。训练数据转为TFRecord文件。
2021-08-13 11:36:37 31.81MB Tensorflow多GPU
1
mobilenetv3 这是MobileNetV3架构的多GPU Tensorflow实现,如论文。 对于一些更改。 论文V1的实现请参见该存储库中的以获得详细信息。 在tf1.3.0,tf1.10.0,python3.5上进行了测试。 mobilenetv3大 mobilenetv3小 用法 from mobilenet_v3 import mobilenet_v3_large, mobilenetv3_small model, end_points = mobilenet_v3_large(input, num_classes, multiplier=1.0, is_training=True, reuse=None) model, end_points = mobilenet_v3_small(input, num_classes, multiplier=1.0, is_trai
2021-06-07 23:36:51 8KB Python
1
多GPU无合成绘制算法采用混合sort-first与sort-last的并行绘制模式,将绘制任务划分为多个子任务集合进行并行绘制并异步合成显示。原方法中对屏幕的分割方式过于平凡,未明确提出一种高效的屏幕分割策略,从无合成算法本身特性出发,提出一种自适应屏幕划分策略,该算法根据GPU数目及绘制分辨率参数,启发式计算屏幕初始划分方式,再采用统计性能反馈的方式动态选择最佳屏幕划分方式,较原有方法更易于实现子屏幕任务的负载平衡,实验表明,算法在带来很少额外计算开销的同时,能够有效平衡并行绘制任务负载,进一步发挥多GPU无合成并行绘制系统的绘制效率。
1
重点对多GPU系统上图像合成优化方法进行研究,提出一种基于压缩掩码位图的图像合成优化方法。该方法以二进制位表征像素的有效性状态,实现了图像有效像素的编码压缩,并在压缩编码基础上定义了4种位运算操作,能够快速完成图像重叠区域的判别,实现了多GPU系统上高分辨率图像的快速合成。实验结果表明,与传统基于包围盒及RLE编码的图像合成优化方法相比,压缩位图编码方法能够有效提高图像合成速度近40%左右。
1
Road_extraction 使用多GPU模型张量流的Attention Unet和Deep Unet实现道路提取 Deep U-Net的多种变体已经过额外的层和额外的卷积测试。 尽管如此,优于所有人的模型是Attention U-Net:学习在哪里寻找胰腺。 我添加了一个额外的调整来提高性能,将卷积块切换为残差块 TensorFlow分割 TF细分模型,U-Net,Attention Unet,Deep U-Net(U-Net的所有变体) 使用神经网络(NN)进行图像分割,旨在从遥感影像中提取道路网络,它可用于其他应用中,标记图像中的每个像素(语义分割) 可以在以下论文中找到详细信息: 注意U-Net附加模块 要求 Python 3.6 CUDA 10.0 TensorFlow 1.9 Keras 2.0 模组 utils.py和helper.py函数用于预处理数据并保存。
2021-02-19 17:07:34 16.51MB JupyterNotebook
1
大量我自己学习的时候下载以及老师给的分布式深度学习的论文,可以学习使用
2019-12-21 20:37:54 23.28MB 分布式深度学 tensor 并行计算 多GPU
1