jetson xavier nx 载板设计文件、引脚配置文件
2021-02-12 20:00:21 28.77MB nvidia linux jetpack
1
NVIDIA® Nsight™ Tegra®, Visual Studio Edition brings Microsoft Visual Studio to Android, allowing for seamless GDB and JDB remote debugging to all Android devices capable of native application debugging, supporting all Android ABIs – ARM v7, ARM v8, x86, x64.
2021-02-11 09:09:13 9.77MB NVIDIA
1
NVIDIA最新显卡驱动,适合GeForce RTX 2080Ti、GeForce GTX 1650 Ti、GeForce GTX 1650 Ti with Max-Q Design、GeForce RTX 2060 with Max-Q Design、Quadro T1000 with Max-Q Design等。
2021-02-09 08:51:39 137.95MB NVIDIA-Linux-x86 _64-440.100.run
1
nvidia x86 gpu codec 最新版本sdk
2021-02-07 16:07:30 22.91MB nvidia x86 gpu codec
1
NVIDIA
2021-02-04 13:08:05 2KB NVIDIA
1
NVIDIA_Texture_Tools_Exporter_for_Adobe_Photoshop_2020.1.3.exe
2021-02-02 12:36:31 5.69MB nvidia
1
培训关于批处理AI的分布式培训 此仓库是有关如何使用Batch AI以分布式方式训练CNN模型的教程。 涵盖的场景是图像分类,但是该解决方案可以推广到其他深度学习场景,例如分段和对象检测。 图像分类是计算机视觉应用中的常见任务,通常通过训练卷积神经网络(CNN)来解决。 对于具有大型数据集的大型模型,单个GPU的训练过程可能需要数周或数月。 在某些情况下,模型太大,以致于无法在GPU上放置合理的批处理大小。 在这些情况下使用分布式培训有助于缩短培训时间。 在此特定方案中,使用Horovod在ImageNet数据集以及合成数据上训练ResNet50 CNN模型。 本教程演示了如何使用三个最受欢迎的深度学习框架来完成此任务:TensorFlow,Keras和PyTorch。 有许多方法可以以分布式方式训练深度学习模型,包括数据同步和基于同步和异步更新的模型并行方法。 当前,最常见的场景是与同步更新并行的数据-这是最容易实现的,并且对于大多数用例而言已经足够。 在具有同步更新的数据并行分布式训练中,该模型在N个硬件设备之间复制,并且一小批训练样本被划分为N个微批次(参见图2)。 每个设备都
1
nvidia-docker-2.0.2.zip
2021-01-28 22:06:23 15KB docker
1
nvidia-docker-1.0.1-1.x86_64.rpm
2021-01-28 22:06:23 34KB docker
1
Linu- 离线显卡驱动2080ti
2021-01-28 15:59:04 170.05MB linux
1