DeepSpeech:DeepSpeech是一种开源嵌入式(离线,设备上的)语音到文本引擎,可以在从Raspberry Pi 4到大功率GPU服务器的各种设备上实时运行
2023-03-15 21:18:57 6.19MB machine-learning embedded deep-learning offline
1
最近将Pytorch程序迁移到GPU上去的一些工作和思考 环境:Ubuntu 16.04.3 Python版本:3.5.2 Pytorch版本:0.4.0 0. 序言 大家知道,在深度学习中使用GPU来对模型进行训练是可以通过并行化其计算来提高运行效率,这里就不多谈了。 最近申请到了实验室的服务器来跑程序,成功将我简陋的程序改成了“高大上”GPU版本。 看到网上总体来说少了很多介绍,这里决定将我的一些思考和工作记录下来。 1. 如何进行迁移 由于我使用的是Pytorch写的模型,网上给出了一个非常简单的转换方式: 对模型和相应的数据进行.cuda()处理。通过这种方式,我们就可以将内存中的数据
2021-10-01 12:22:57 78KB c gpu服务器 OR
1
美超微推出NVIDIA Pascal^TM GPU服务器解决方案.pdf
2021-09-25 19:03:55 156KB GPU 处理器 数据处理 参考文献
基于Prometheus的GPU服务器运维监控系统.pdf
2021-09-25 19:03:24 1.09MB GPU 处理器 数据处理 参考文献
联想 HPC&AI 技术平台解决方案,介绍:人工智能计算系统框架、联想GPU 服务器 、联想人工智能技术平台、利用GPU 加速计算的应用介绍
2021-07-24 20:01:08 7.65MB 人工智能 高性能计算 联想 超算
1