概述
上一篇中使用BiLSTM-Attention模型进行关系抽取,因为只放出了较为核心的代码,所以看上去比较混乱。这篇以简单的文本分类为demo,基于pytorch,全面解读BiLSTM-Attention。
文本分类实战
整体构建
首先,我们导入需要的包,包括模型,优化器,梯度求导等,将数据类型全部转化成tensor类型
import numpy as np
import torch
import torch.nn as nn
import torch.optim as optim
from torch.autograd import Variable
import torch.nn.fu
2021-05-07 11:19:49
202KB
io
te
ten
1