BERT_NER模型权重
2022-09-13 17:05:36 361.88MB 深度学习 hilbert transform NER
1
对应这篇文章的数据集,小伙伴们自行取走: https://sito8.blog.csdn.net/article/details/123233758?spm=1001.2014.3001.5502
2022-09-04 20:50:09 780KB 源码软件
1
基于BERT的德语社交媒体文本情感分析,李澜,叶勇超,德语语法复杂,语序多变,造成其社交媒体文本情感分析难度较大,相关研究较少。为解决以上研究难点,本文分析了德语及其社交媒体文本��
2022-08-24 00:22:49 1.41MB 德语文本
1
使用bert进行文本情感分类的源码
2022-08-23 20:37:05 9KB bert 深度学习
1
情境化主题模型 上下文化主题模型(CTM)是一系列主题模型,这些主题模型使用语言的预训练表示形式(例如BERT)来支持主题建模。有关详细信息,请参见论文: Bianchi,F.,Terragni,S.,Hovy,D.,Nozza,D.,&Fersini,E.(2021)。具有零镜头学习功能的跨语言情境主题模型。 EACL。 Bianchi,F.,Terragni,S.和Hovy,D.(2020年)。预培训是一个热门话题:上下文化文档嵌入可提高主题一致性 具有上下文嵌入的主题建模 我们的新主题建模系列支持许多不同的语言(即,HuggingFace模型支持的一种),并有两个版本: CombinedTM将上下文嵌入与旧的单词组合在一起,以使主题更连贯; ZeroShotTM是完成任务的理想主题模型,在该模型中,您可能在测试数据中缺少单词,并且,如果经过多语言嵌入训练,则可以继承多语言主题模型
2022-08-13 12:32:38 31.14MB nlp embeddings transformer topic-modeling
1
How to Fine-Tune BERT for Text Classification
2022-08-08 09:06:38 599KB bert
1
“基于预训练的自然语言生成以进行文本汇总”的实现 论文: : 版本号 python 2.7 PyTorch:1.0.1.post2 准备包/数据集 运行: pip install -r requirements.txt以安装所需的软件包 从以下位置下载块CNN / DailyMail数据: : 运行: python news_data_reader.py创建将在我的数据加载器中使用的泡菜文件 运行模型 对我来说,该模型对我的GPU来说太大了,因此我使用了以下较小的参数进行调试。 CUDA_VISIBLE_DEVICES=3 python main.py --cuda --batch_size=2 --hop 4 --hidden_dim 100 审阅者须知: 尽管我实现了核心部分(使用BERT进行两步汇总生成),但是我没有足够的时间来实现RL部分。 第二个解码器过程非常耗时
2022-08-06 17:52:07 26KB Python
1
BERT-Relation-Extraction
2022-08-04 09:09:58 26KB pytorch
1
赛道3-科讯嘉联灵珠团队1
2022-08-03 21:00:39 1.22MB 物联网 算法 测试 bert
1