WebGL流体模拟 参考 执照 该代码在下可用
2023-02-24 11:18:17 1.04MB webgl simulation gpu fluid
1
面向GPU的多LOD因子的大规模场景策略及其原型系统论文和PPT,分型给大家,学习。面向GPU的多LOD因子的大规模场景策略及其原型系统论文和PPT,分型给大家,学习。
2023-02-24 11:14:43 18.79MB GPU LOD 大规模场景策略
1
20210306-方正证券-电子行业深度报告:GPU研究框架.pdf
2023-02-17 21:39:50 5.46MB
1
GPUAnimatorPlugin 有两种GPU加速模式 1,每一帧缓存顶点坐标,顶点着色器根据帧数和顶点编号获取顶点进行渲染; 2,每一帧缓存骨骼变换矩阵,顶点着色器计算蒙皮; 综述 1,模式一,优点几乎不占用cpu和gpu消耗缺点动画文件体积较大(30帧左右,大概3M大小); 2,模式二,优点动画文件体积比原生动画文件还小,不占用CPU,GPU计算蒙皮;缺点GPU压力; 部分算法参考
2023-02-09 17:01:46 12.45MB C#
1
图形着色器的理论与实践(第2版)| GPU编程与CG语言之阳春白雪下里巴人 |glman pdf 三本PDF,入门请看 GPU编程与CG语言之阳春白雪下里巴人, 写代码参考glman 移动端开发arm_mali_gpu_opengl_es_3-x_developer_guide_en,深入学习看图形着色器的理论与实践,找了很久的资源希望给个好评吧,谢谢
2023-02-08 19:21:39 106.1MB gpu gpu sharder 图形着色器
1
工神经网络训练所包含的运算量随着网络中神经元的数量增多而加大,对于神经元较多的网络训练 很耗时。提高人工神经网络训练速度的一个方法是对训练算法优化以减少计算量。由于人工神经网络训练算法 包含大量的矩阵和向量运算,如果把优化的算法用运行在GPU上的OpenCLC语言实现,则训练速度相比传统 基于CPU计算的实现会提高很多。从硬件的并行计算能力着手,以RPROP算法为例,对其运行在GPU上的 OpenCLC语言实现作一些研究。
2023-02-04 08:14:08 363KB opencl gpu通用计算 期刊论文
1
云脚本 这些脚本可以在EC2图形实例上配置Ubuntu 16.04和Ubuntu 18.04,以支持通过VirtualGL在TurboVNC中运行OpenGL应用程序。 请注意,这些脚本已在Amazon EC2 g2,g3,g4,p2和p3实例上进行了测试,但是它们可以在不更改其他托管服务提供商的实例的情况下进行工作,也可以对其进行一些改动。 EC2实例 推荐实例-g3.8xlarge 。 名称 GPU GPU速度 中央处理器 CPU速度 内存 一经请求 〜竞价型实例 基准Linux GTX1080 x1.0 i7 5960X x1.0 64 Gb 不适用 不适用 基准Win7 GTX1080 x0.85 i7 5960X x1.0 64 Gb 不适用 不适用 p2.xlarge 1 x K80 x0.35 4个vCPU x0.31 61 GiB
2023-01-28 23:37:11 7KB Shell
1
win10平台下的cuda8.0、用于NVIDIA的GPU加速,配置加速环境所需的cudnn6.0 -win10 for cuda 8.0。文件太大,请使用baiduyun下载
2023-01-19 12:10:01 23.81MB TensorFlow NVIDIA的GPU
1
摘要随着图形处理器(GPU)的计算能力和可编程性的不断提高,利用 GPU 进行通用计算(GPGPU)逐渐成为研究的热点。的异构模式,虽然这种异构模式能够获得好的
2023-01-11 09:10:02 1.68MB
1
anaconda和WIN10下tensorflow-gpu的安装,网上很多其他的安装指导都容易引起各种兼容问题。已亲测可用2018-12月30日。
2023-01-08 16:40:34 917B tensorflow anaconda python WIN10
1