TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址https://developer.nvidia.com/tensorrt 2. 安装TensorRT 2.1 解压 tar xzvf TensorRT-6.0.1.5..-gnu.cuda-10.1.cudnn7.x.tar.gz 2.2 添加环境变量 $ vim ~/.bashrc # 打开环境变量文件 # 将下面三个环境变量写入环境变量文件并保存 export LD_LIBR
2022-03-07 01:06:02 72KB ens ns OR
1
TensorBoard这款工具你是一定要掌握的可视化工具。为什么我要这么说呢?因为TensorBoard可以用来展示神经网络图、张量的指标变化、张量的分布情况等。我相信您阅读了本文,你就会了解到TensorBoard可视化工具的强大之处,让我们一起开始学习吧!阅读本文大约需要15min。 本文相关推荐阅读: 一学就会 | PyTorch入门看这篇就够了 文章目录全文框架简介安装TensorBoardTensorBoard中主要功能函数介绍SummaryWriter类SummaryWriter类的方法add_scalar()方法:add_scalars()方法add_histogram()方法a
2022-02-24 13:04:09 1.12MB ar c ens
1
TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址https://developer.nvidia.com/tensorrt 2. 安装TensorRT 2.1 解压 tar xzvf TensorRT-6.0.1.5..-gnu.cuda-10.1.cudnn7.x.tar.gz 2.2 添加环境变量 $ vim ~/.bashrc # 打开环境变量文件 # 将下面三个环境变量写入环境变量文件并保存 export LD_LIBR
2022-02-24 08:47:00 72KB ens ns OR
1
1. 基本介绍 tensorflow设备内存管理模块实现了一个best-fit with coalescing算法(后文简称bfc算法)。 bfc算法是Doung Lea’s malloc(dlmalloc)的一个非常简单的版本。 它具有内存分配、释放、碎片管理等基本功能。 2. bfc基本算法思想 1. 数据结构 整个内存空间由一个按基址升序排列的Chunk双向链表来表示,它们的直接前趋和后继必须在地址连续的内存空间。Chunk结构体里含有实际大小、请求大小、是否被占用、基址、直接前趋、直接后继、Bin索引等信息。 2. 申请 用户申请一个内存块(malloc)。根据chunk双链表找到一
2022-02-12 12:11:52 120KB bfc c ens
1
tensorflow中如果要对神经网络模型进行训练,需要把训练数据转换为tfrecord格式才能被读取,tensorflow的model文件里直接提供了相应的脚本文件在下面的文件夹中: cd tensorflow/models/research/object_detection/dataset_tools 其中包括: 1.create_coco_tf_record.py:注意,这个代码需要解析json格式的标签文件 2.create_pascal_tf_record.py:注意,这个代码需要解析xml格式的标签文件 …… 我们需要根据自己的标签格式选择相应的脚本。 具体使用方式:以crea
2022-02-12 11:19:43 41KB c ec ens
1
神经网络学习小记录43——Keras中Tensorboard的使用学习前言Tensorboard详解使用例子1、loss和acc2、权值直方图3、梯度直方图实现代码 学习前言 可视化是个好东西呀,怎么学学呢! Tensorboard详解 该类在存放在keras.callbacks模块中。拥有许多参数,主要的参数如下: 1、log_dir: 用来保存Tensorboard的日志文件等内容的位置 2、histogram_freq: 对于模型中各个层计算激活值和模型权重直方图的频率。 3、write_graph: 是否在 TensorBoard 中可视化图像。 4、write_grads: 是否在
2022-01-26 16:58:21 344KB ar AS ens
1
L2正则化原理: 过拟合的原理:在loss下降,进行拟合的过程中(斜线),不同的batch数据样本造成红色曲线的波动大,图中低点也就是过拟合,得到的红线点低于真实的黑线,也就是泛化更差。 可见,要想减小过拟合,减小这个波动,减少w的数值就能办到。 L2正则化训练的原理:在Loss中加入(乘以系数λ的)参数w的平方和,这样训练过程中就会抑制w的值,w的(绝对)值小,模型复杂度低,曲线平滑,过拟合程度低(奥卡姆剃刀),参考公式如下图: (正则化是不阻碍你去拟合曲线的,并不是所有参数都会被无脑抑制,实际上这是一个动态过程,是loss(cross_entropy)和L2 loss博弈的一个过程。训
2022-01-18 14:17:11 98KB ar ens fl
1
本文实例为大家分享了Tensorflow训练MNIST手写数字识别模型的具体代码,供大家参考,具体内容如下 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data INPUT_NODE = 784 # 输入层节点=图片像素=28x28=784 OUTPUT_NODE = 10 # 输出层节点数=图片类别数目 LAYER1_NODE = 500 # 隐藏层节点数,只有一个隐藏层 BATCH_SIZE = 100 # 一个训练包中的数据个数,数字越小 # 越接
2022-01-16 17:40:13 60KB ens fl flow
1
CPU版Tensorflow安装步骤如下: step1:新建虚拟环境(tensorflow仅适用于python3.5)              打开Anaconda Prompt,输入命令:conda create -n tensorflow python==3.5 step2:启动虚拟环境              在Anaconda Prompt中,输入命令:activate tensorflow step3:安装tensorflow             在Anaconda Prompt中,输入命令:pip install –upgrade –ignore – installed t
2022-01-14 19:07:53 25KB ens fl flow
1
tensorflow版本:2.1.0 需要Python库:Numpy,Matplotlib 使用的数据集:Fashion Mnist TF1.* TF1.x 主要用于处理「静态计算图」的框架。计算图中的节点是 Tensors,当图形运行时,它将保持nn维数组;图中的边表示在运行图以实际执行有用计算时将在张量上运行的函数。 在 TensorFlow 2.0 之前,我们必须将图表分为两个阶段: 构建一个描述你要执行的计算的计算图。这个阶段实际上不执行任何计算;它只是建立来计算的符号表示。该阶段通常将定义一个或多个表示计算图输入的 “占位符”(placeholder)对象。 多次运行计算图。每次运
2022-01-07 00:32:19 127KB ens fl flow
1