1  conda create -n TF_2C python=3.6 2 activate TF_2C 3 pip install tensorflow==2.0.0 -i https://pypi.tuna.tsinghua.edu.cn/simple   4 测试 输出TensorFlow版本:print(tf.__version__)   5 安装其他  (1)安装matplotlib          python -m pip install -U pip setuptools           python -m pip install matplotlib    
2022-04-23 15:48:21 75KB conda ens low
1
Pytorch深度学习(4) — BN层及ResNet + DenseNet实现1.批量归一化(BN)2.ResNet2.1 残差块2.2 ResNet 模型实现结构:3.DenseNet 稠密连接网络3.1 稠密块(DenseBlock)3.3 过滤层(transition_block)3.4 DenseNet模型总实现 1.批量归一化(BN) nn.BatchNorm2d(6) — 卷积层使用,超参数为输出通道数 nn.BatchNorm1d(120) – 全连接层使用,超参数为输出单元个数 2.ResNet 2.1 残差块 输入为X + Y,因而X Y的输出通道要一致 可以用1*1
2022-04-18 20:04:54 255KB c ens ns
1
我就废话不多说了,大家还是直接看代码吧~ #!/usr/bin/env python # encoding: utf-8 ''' @author: lele Ye @contact: 1750112338@qq.com @software: pycharm 2018.2 @file: 13mnist.py @time: 2018/12/17 10:23 @desc: ''' import tensorflow as tf import scipy.misc import matplotlib.pyplot as plt import random # 读取图像可任意大小 filenames
2022-04-17 15:47:18 91KB ens fl flow
1
PyTorch | (1)初识PyTorch PyTorch | (2)PyTorch 入门-张量 PyTorch | (3)Tensor及其基本操作 Tensor attributes: 在tensor attributes中有三个类,分别为torch.dtype, torch.device, 和 torch.layout 其中, torch.dtype 是展示 torch.Tensor 数据类型的类,pytorch 有八个不同的数据类型,下表是完整的 dtype 列表. Torch.device 是表现 torch.Tensor被分配的设备类型的类,其中分为’cpu’ 和 ‘cuda’
2022-04-16 03:02:08 123KB c cuda ens
1
1.Anaconda的下载与安装 选择相应的Anaconda进行安装,下载地址点击这里,下载对应系统版本的Anaconda。可以进入官网或者国内清华镜像网站进行下载 ,国内清华镜像网站是:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/,现有版本比较丰富,适用于Linux、windows以及MacOSX的64位或者32位系统。可根据自身情况选择下载,我下载的是windows64位系统的4.3.0版本。下载下来和正常的软件一样安装即可。 值得注意的是,在安装界面这一步的时候最好将第一项勾选上,即将Anaconda添加至系统的环境变量,若
2022-04-13 11:33:08 956KB ens fl flow
1
基础知识看的差不多的了,所以最近开始玩一些有趣的项目。因为现在tensorflow已经作为keras的后端,将其集成了过来,API是在tf.keras下面,所以keras的项目也可以使用,只需要稍作修改即可 为了方便移植,我们一般都是直接从import导入模块的地方对代码进行微调,这样下面的代码基本上不用修改。本来想着直接在keras前面加上tensorflow就可以了,但是好像出了点问题。我在尝试之后,总结了一下需要注意的点: 在jupyter notebook中以下两种导入方式都是可以的: from tensorflow.keras.layers import Conv2D from te
2022-04-12 15:54:50 38KB AS ens fl
1
本文实例为大家分享了tensorflow使用CNN分析mnist手写体数字数据集,供大家参考,具体内容如下 import tensorflow as tf import numpy as np import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) trX, trY, teX, teY = mnist.tr
2022-04-12 11:07:06 54KB ens fl flow
1
VGG16卷积神经网络–TensorFlow2结果展示loss和acc曲线计算参数程序 结果展示 loss和acc曲线 epoch = 10 acc = 90.02% 计算参数 程序 # -*- coding: utf-8 -*- Created on Tue Apr 14 2020 @author: jiollos # 导入包 import tensorflow as tf import os import numpy as np from matplotlib import pyplot as plt from tensorflow.keras.layers impor
2022-04-08 11:57:36 74KB ens low ns
1
word 插入EndNote参考文献 规范 (geebinf modified by zz.ens
2022-04-07 11:01:04 36KB EndNote 参考文献
1
内存溢出问题是参加kaggle比赛或者做大数据量实验的第一个拦路虎。 以前做的练手小项目导致新手产生一个惯性思维——读取训练集图片的时候把所有图读到内存中,然后分批训练。 其实这是有问题的,很容易导致OOM。现在内存一般16G,而训练集图片通常是上万张,而且RGB图,还很大,VGG16的图片一般是224x224x3,上万张图片,16G内存根本不够用。这时候又会想起——设置batch,但是那个batch的输入参数却又是图片,它只是把传进去的图片分批送到显卡,而我OOM的地方恰是那个“传进去”的图片,怎么办? 解决思路其实说来也简单,打破思维定式就好了,不是把所有图片读到内存中,而是只把所有图片的
2022-04-04 17:39:27 71KB AS ens low
1