《2021医学健康数据分析与挖掘》课程论文 -- 基于BERT的20NewsGroups数据集新闻分类实验 torch==1.7
2021-07-02 15:03:26 14.42MB torch BERT 20NewsGroups
"CoLA", "SST", "MRPC", "QQP", "STS", "MNLI", "SNLI", "QNLI", "RTE", "WNLI", "diagnostic"
2021-06-30 22:09:36 387.06MB bert datasets glue
1
这是一个已经训练好的中文bert模型,参数都是可以用的参数,可以直接拿来用。这个是轻量版的,不过要注意这个是基于Tensorflow的,不过据说有可以将其转化为pytorch版本的脚本,可以自己搜一下。
2021-06-26 18:06:26 365.79MB pytorch bert
1
基于pytorch的中文bert模型。
2021-06-26 18:06:26 365.83MB bert
1
伯特 修改官方bert以便执行下游任务 支持OQMRC,LCQMC,知识提炼,对抗性干扰和bert + esim进行多项选择,分类和语义匹配 对于OQMRC,对于LCQMC,我们可以在开发集上获得0.787%,对于测试集,我们可以得到0.864。 支持任务预训练和微调 对于下游任务,我们将蒙版lm添加为辅助损耗,可以将其视为降噪并类似于字丢失,以实现稳定的性能。
2021-06-24 09:56:33 30.1MB Python
1
来自 https://huggingface.co/bert-base-uncased/tree/main
2021-06-23 22:42:07 420.07MB bert-base-uncase 自然语言处理
1
基于Pytorch的Bert应用,包括命名实体识别、情感分析、文本分类以及文本相似度等
2021-06-22 19:18:59 720KB Pytorch Bert
传智博客AI实战项目 — AI医生讲义和代码,用Bert 和RNN 和BILSTM 进行实战项目
2021-06-22 14:05:37 7.41MB 机器学习 人工智能 Bert RNN
1
深度系列 用于时间序列预测的深度学习模型。 楷模 Seq2Seq /注意 WaveNet 变压器/变压器 快速开始 from deepseries . models import Wave2Wave , RNN2RNN from deepseries . train import Learner from deepseries . data import Value , create_seq2seq_data_loader , forward_split from deepseries . nn import RMSE , MSE import deepseries . functional as F import numpy as np import torch batch_size = 16 enc_len = 36 dec_len = 12 series_len = 1000
2021-06-21 16:57:37 111KB deep-learning regression pytorch kaggle
1
使用Amazon SageMaker微调和部署ProtBert模型进行蛋白质分类 内容 动机 蛋白质是控制生物体的关键基本大分子。 蛋白质定位的研究对于理解蛋白质的功能很重要,对药物设计和其他应用具有重要意义。 它在表征假设的和新发现的蛋白质的细胞功能中也起着重要的作用[1]。 有几项研究工作旨在通过使用高通量方法来定位整个蛋白质组[2-4]。 这些大型数据集提供了有关蛋白质功能以及更普遍的全球细胞过程的重要信息。 但是,它们目前不能达到100%的蛋白质组覆盖率,并且在某些情况下使用的方法可能导致蛋白质子集的错误定位[5,6]。 因此,必须有补充方法来解决这些问题。 在本笔记本中,我们将利用自然语言处理(NLP)技术进行蛋白质序列分类。 想法是将蛋白质序列解释为句子,并将其组成部分-氨基酸-解释为单个单词[7]。 更具体地说,我们将从Hugging Face库中微调Pytorch Pro
1