pytorch之GRU模型 疫情期间,宅家无聊,参加了由和鲸社区、Datawhale、伯禹人工智能学院等单位联合发起的免费公益学习活动,主要利用pytorch进行深度学习,时间比较紧凑,没怎么学懂,得多花一点时间,代码都是向大佬借鉴的,错误之处,恳请指正,我就是个搬运工,仅做学习打卡使用,不喜勿喷哈哈哈哈。 import numpy as np import torch from torch import nn, optim import torch.nn.functional as F import sys sys.path.append(../input/) import d2l_ja
2021-11-19 17:30:59 65KB “人造太阳”计划 c num
1
一、引入方式 from itertools import cycle 二、使用方法 我们先来看看它的源码 cycle它接收一个可迭代对象,可以将一个可迭代对象转换为一个可以无限迭代的迭代器 源码里我们可以看到它实现了__iter__和__next__的魔术方法,说明它既是可迭代对象也是一个迭代器,我们可以使用for循环和next()方法去操作它 我们先来看看以普通的方式去遍历一个列表 li = ['python', 'java', 'c', 'ruby', 'php', 'javascript'] for i in li: print(i) 打印结果: 可以看到,遍历直到最后一个元
2021-09-25 20:30:58 152KB “人造太阳”计划 c cy
1
二维互相关运算 mport torch import torch.nn as nn def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i, j] = (X[i: i + h, j: j + w] * K).sum() return Y 构造上图中的输入数组X、核数组K来验证二维互
2021-09-18 19:09:29 64KB “人造太阳”计划 c num
1
批量归一化(BatchNormalization) ps 批量归一化本质上是对数据的标准化处理,输入标准化一般用于浅层模型,但是对于深层网络,输入的标准化不够,因为随着模型的迭代更新,依然容易造成靠近输出层,它的数据是剧烈变化的。所以批量归一化的出现是应对深度模型的。 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 1.对全连接层做批量归一化 (形状 m×d,对m个元素做批量归一化)
2021-03-20 22:42:31 208KB “人造太阳”计划 mean num
1