注意:需要新款 Nvidia GPU(6xx 或更新版本)和 64 位 Windows 系统(7 或以上)。 不支持 AMD 卡烘焙。 不支持 Mac 产品。 已在 Unity 5.6 至 2019.3.4 的每个版本上测试。 生成的光照贴图兼容于所有平台。 用户手册 - 请务必阅读常见问题解答 论坛主题帖 功能: - 物理正确的烘焙光照。- 所有生成结果均与三叶线下渲染器进行了比较。 - 性能:用 GPU 来进行光线跟踪。 - 可利用 RTX 硬件(非必需)。 - 使用 NVidia AI Denoiser 来移除噪点,由深度学习驱动。 - 修复了常见的烘焙伪影,例如光照泄漏和 UV 接缝。 - 全局光照(支持自定义着色器)。 - 天空光照(HDRI 或颜色)。 -发射性纹理网格。 -IES 光线。 -定向、点状、聚光光源。 - 材质:支持反射率、自发光、镂空材质。 - 可生成完整和间接光照贴图,甚至每个光照都可生成混合光照。 - 可生成阴影遮蔽蒙版。 - 支持四种模式的定向烘焙(凹凸/高光):主导方向(与大多数着色器兼容)、辐射着色法线贴图、像素球状
2022-05-17 12:05:53 549.73MB 贴图 源码软件 GPU光照
从那个开源的SIFTGPUIOS改成Android下面的实现, 并提供一个测试程序; 并附上那个 IOS的原来版本
2022-05-17 07:34:15 906KB SIFT GPU ANDROID
1
GPU精粹1:实时图形编程的技术、技巧和技艺 中文清晰带目录版 好资源一起分享
2022-05-16 22:41:12 54.09MB gpu gems 精粹 中文
1
使用PyTorch在GPU上进行MIL-NCE端到端HowTo100M培训 此存储库包含CVPR'20论文的开源PyTorch分布式培训代码:[1]。 [1]中的原始代码库依赖于Google和DeepMind的内部工具以及TPU v3加速器的使用,这使其难以按原样发布。 相反,此存储库使用PyTorch / ffmpeg和合理数量的GPU提供了[1]的实现。 培训代码在法国公共AI集群(请参阅下面的致谢)。 它经过专门设计,可在基于SLURM的集群管理上运行,以进行多节点分布式培训,但可以轻松地针对任何其他集群管理系统进行修改。 本文的开源PyTorch实现有一些细微的差异,例如: 使用余弦学习速率衰减代替[1]中描述的逐步衰减。 没有在不同的GPU和节点之间共享批处理规范化统计信息,因为在GPU上执行此类操作比TPU慢得多。 使用略微不同的时空训练视频分辨率的输入视频剪辑。
2022-05-16 17:08:20 22.02MB Python
1
主要介绍了Python基于pyCUDA实现GPU加速并行计算功能,结合实例形式分析了Python使用pyCUDA进行GPU加速并行计算的原理与相关实现操作技巧,需要的朋友可以参考下
2022-05-16 16:01:47 82KB Python pyCUDA GPU加速 并行计算
1
随着COSMO-Sky Med、Terra SAR-X等高分辨率SAR卫星的投入使用,SAR数据处理的计算量呈现几何级数增长趋势,对计算资源的要求越来越高,文中通过实验表明,基于图形处理单元(GPU)的并行计算技术可以大大提高星载SAR影像数据重采样计算的效率。
2022-05-15 22:32:41 1.44MB GPU CUDA SAR 重采样
1
您可以将 GPU Coder:trade_mark: 与 Deep Learning Toolbox:trade_mark: 结合使用,在使用 NVIDIA:registered: Jetson 和 Drive 平台的嵌入式平台上生成代码并部署深度学习网络。 即使没有神经网络、深度学习或高级计算机视觉算法方面的专业知识,预训练的网络和示例(例如对象检测、图像分类和驾驶员辅助应用程序)也可以轻松使用 GPU Coder 进行深度学习。 我们从 MATLAB 中已发布的示例开始,该示例解释了如何训练 YOLO v2 对象检测器,并使用 GPU Coder:trade_mark: 生成优化的 CUDA 代码,并使用适用于 NVIDIA:registered: GPU 的硬件支持包,将生成的代码部署到 Jetson Xavier板作为一个独立的应用程序。 下载包含可用于生成代码的附加脚本和函数。 有关 MATLAB 中的示例和所有必需文件,请参阅以下文档链接: 使用YOLO v2深度学习进行对象检测:
2022-05-13 20:48:51 92KB matlab
1
CUDA Programming,中文名:CUDA并行程序设计-GPU编程指南 2014年 含书签,高清。
2022-05-13 10:56:03 143.79MB cuda GPU编程
1
mic与gpu对比,GPGPU与MIC定位相似,两者都是相对于CPU具有较高性价比的高性能解决方案,甚至连外形都是一样使用PCI-E插槽的板卡。但对于“核”这个概念来说,两者却有很大的不同。GPGPU中所说的核,以CUDA为例,是指一个SP(即流处理器),SP的功能只有计算,以NVIDIA的Fermi GPU为例,32个SP组成一个SM(流处理器群),一个SM 才有两个控制单元。也就是说每16个GPU的“核”,必须执行同一条指令。而MIC得设计思路与GPGPU完全不同。MIC的每个“核”,可以简单看作一个X86核心,也就是与现有PC机或小型服务器上的CPU核心相同的核。因此MIC编程可以最大限度地沿袭已有CPU上的并行程序,甚至可以一定程度上认为MIC上的每个“核”都是独立的节点,亦即将MIC作为一个超小型的集群。MIC的“核”虽然是x86架构,虽然单核的功能比GPGPU的核强大不少,但要指望单兵作战接近主流CPU,暂时还是不现实的。MIC依靠和GPGPU一样,靠人海战术。说起“人数”,GPGPU动辄上百核,MIC只有几十核,几十单核性能再强,在并行应用中也掀不起多少浪花。由于MIC的核心是Intel的CPU,核心数即使上不去了,Intel处理器可以超线程。在MIC上,每个核心能同时并发执行4个线程,而且这4个线程被Intel成为“硬件线程”,其性能大幅提升,几乎可以把每个线程看作真正的核心。因此,MIC“执行核”的数量,核GPGPU实际差不多。 另外,MIC采用了SMP结构,以一致性共享缓存为中心,这种设计使得MIC可以使用传统CPU的编程模型,而不需要针对性的硬件,设计新的程序结构。 MIC对现有程序改动之小还体现在编程简易性和工具方面。编程简易性上,MIC常用的offload模式只需要加上少数几条编译指导语句,就可以使程序利用MIC进行运算,而此时的程序源代码,是可以与传统的CPU程序共用的,减少了维护成本。
2022-05-11 21:48:19 1.64MB mic与gpu对比
1
GPU高性能编程CUDA实战中文版.pdf
2022-05-11 11:03:34 28.95MB GPU,CUDA
1