1.标量方向传播 1.1 代码 import torch #定义输入张量x x=torch.Tensor([3]) print(x) #初始化权重参数W,偏移量b、并设置require_grad属性为True,为自动求导 w=torch.randn(1,requires_grad=True) b=torch.randn(1,requires_grad=True) print("w=",w) print("b=",b) #实现前向传播 y=torch.mul(w,x) #等价于w*x print(y) z=torch.add(y,b) print(z)#等价于y+b #查看x,w,b页子节
2023-12-21 14:35:11 548KB
1
easytorch 使用Python的numpy实现的简易深度学习框架,API与pytorch基本相同,实现了自动求导、基础优化器、layer等。 1 文档目录 2 Quick Start from easytorch.layer import Linear, Tanh, Sequential from easytorch.optim import SGD import easytorch.functional as F # Create a model, optimizer, loss function model = Sequential( Linear(1, 5), Tanh(), Linear(5, 1) ) opt = SGD(model.parameters(), lr=3e-4) loss_fn = F.mse_loss # train the mod
2023-05-15 20:47:00 35KB deep-learning autograd autodiff JupyterNotebook
1
深度连续局部学习的突触可塑性动力学 (DECOLLE) 此回购包含了一个教程实施中出现的DECOLLE学习规则的。 如果您在科学出版物中使用此代码,请在您的参考书目中包含以下参考: @article{kaiser2018synaptic, title={Synaptic Plasticity Dynamics for Deep Continuous Local Learning (DECOLLE)}, author={Kaiser, Jacques and Mostafa, Hesham and Neftci, Emre}, journal={arXiv preprint arXiv:1811.10766}, year={2018} } 讲解 教程下的第一个 notebook 是独立的,除了 snn_utils.py。 提供了在 PyTorch 中设置尖峰神经网络和
2022-12-13 17:06:23 254KB JupyterNotebook
1
自动微分法是一种介于符号微分和数值微分的方法。数值微分强调一开始直接代入数值近似求解;符号微分强调直接对代数进行求解,最后才代入问题数值;自动微分将符号微分法应用于最基本的算子,比如常数,幂函数,指数函数,对数函数,三角函数等,然后代入数值,保留中间结果,最后再应用于整个函数。 自动微分应用相当灵活,可以做到完全向用户隐藏微分求解过程,由于它只对基本函数或常数运用符号微分法则,所以它可以灵活结合编程语言的循环结构,条件结构等,使用自动微分和不使用自动微分对代码总体改动非常小,并且由于它的计算实际是一种图计算,可以对其做很多优化。
2022-03-29 11:04:14 2.35MB 自动微分
1
Pytorch autograd学习代码 - 线性回归的一个例子
2021-01-28 04:57:04 5KB pytorch autograd
1