星空直播 第一季第14課:具有抗干擾能力的Transformer對話系統Experiments詳解.mp4
2021-12-02 21:06:48 278.75MB BERT
1
用于BERT预训练,Bidirectional Encoder Representation from Transformers
2021-12-02 19:41:40 489.93MB BERT
1
用注意力機制處理對話。Dialogue transformer, Transformer Embedding Dialogue 處理干擾,non-cooperative users
2021-12-01 15:06:55 345.25MB BERT TED
1
Task oriented bert
2021-11-30 17:13:42 490.83MB BERT TODBERT
1
Chinese NER Project 本项目为CLUENER2020任务baseline的代码实现,模型包括 BiLSTM-CRF BERT-base + X (softmax/CRF/BiLSTM+CRF) Roberta + X (softmax/CRF/BiLSTM+CRF) 本项目BERT-base-X部分的代码编写思路参考 。 项目说明参考知乎文章: Dataset 实验数据来自。这是一个中文细粒度命名实体识别数据集,是基于清华大学开源的文本分类数据集THUCNEWS,选出部分数据进行细粒度标注得到的。该数据集的训练集、验证集和测试集的大小分别为10748,1343,1345,平均句子长度37.4字,最长50字。由于测试集不直接提供,考虑到leaderboard上提交次数有限,本项目使用CLUENER2020的验证集作为模型表现评判的测试集。 CLUENER2020共有10个
2021-11-29 23:16:05 12.45MB pytorch named-entity-recognition ner bert
1
以IMDB影评数据为基础,从BERT数据预处理、Input Embeddings、模型代码实现、矩阵内部信息分析到线上部署测试,帮助建立BERT模型训练和服务部署的全生命周期。
2021-11-28 21:07:57 205.34MB BERT
1
该文档主要是bert论文的python代码实现,从github网站上下载来的,有空再仔细看一下
2021-11-27 21:07:25 82KB bert 深度学习 nlp
1
本文是BERT实战的第二篇,使用BERT进行命名实体识别(序列标注类任务)。 1. 准备 1.1 环境 python 3.7; pytorch 1.3; transformers 2.3 (安装教程); 1.2 数据 数据链接(链接:https://pan.baidu.com/s/1spwmV3_07U0HA9mlde2wMg 提取码:reic); 2. 实战 2.1 训练代码 lr = 5e-5 max_length = 256 batch_size = 8 epoches = 20 cuda = True # cuda = False max_grad_norm = 1 warmup_s
2021-11-26 15:53:50 34KB eval ids token
1
基于BERT的ASR纠错-附件资源
2021-11-26 13:52:24 23B
1