使用BERT的越南语NER(bert-vn-ner) 由Trong-Dat Ngo编写的代码。 引言 BERT模型的Pytorch实现为越南语执行命名实体识别(NER)。 此外,单词中的特征也用于表示单词。 该系统使用预训练模型 安装 要求: Python 3.6+ 火炬1.4+ 安装依赖项: pip3 install -r requirements.txt 数据集格式 bert-vn-ner的输入数据格式遵循CoNLL-2003格式,其中四列由制表符分隔,包括word , pos , chunk和named实体。 每个单词都放在单独的行上,每个句子后面都有一个空行。 请注意,分词不用于匹配BERT的预训练(以bert-base-multilingual-cased表示) 。 有关详细信息,请参见“数据”目录中的样本数据。 下表描述了数据集中的越南语例句示例。 单词 销售点
2023-03-23 21:36:36 710KB tagging named-entity-recognition ner bert
1
菜谱 收件人网站,使用C#和.NET编写
2023-02-23 12:41:59 2.18MB aspnet entity-framework ado-net aspnet-mvc
1
Entity Framework微软官方教程,800多页,含EF Core,EF 6等
2022-12-02 15:07:54 7.17MB EF EF Cor
1
Entity Framework 实用精要 范例程序 rar
2022-12-02 13:32:46 956.46MB 小程序
1
fine_conf_entity_10
2022-12-01 15:59:46 100KB fine_conf_entity
1
MMEA:多模态知识图的实体对齐 在第13届知识科学,工程与管理国际会议(KSEM'2020)上发表的论文“ ”的模型代码和数据集。 实体对齐在知识图(KG)集成中起着至关重要的作用。 尽管已经在探索不同知识图之间的关系嵌入的关联上进行了大量的努力,但是它们可能无法在实际应用场景中有效地描述和集成多模式知识。 为此,在本文中,我们提出了一种新颖的解决方案,称为多模式实体对齐(MMEA),以解决多模式视图中的实体对齐问题。 具体来说,我们首先设计一种新颖的多模式知识嵌入方法,以分别生成关系知识,视觉知识和数字知识的实体表示。 沿着这条路线,将通过多模式知识融合模块集成不同类型知识的多种表示形式。 在两个公共数据集上进行的大量实验清楚地表明,与最新方法相比,MMEA模型的有效性有了很大的提高。 数据集 来自论文“ ”的三个具有关系,数值和视觉知识的公共多模,即FB15k,DB15k和Y
1
ADO.NET Entity Framework CodeFirst 如何利用 EFProviderWrappers 输出日志(EF4.3) http://blog.csdn.net/fangxinggood/article/details/7665000
2022-11-05 00:34:40 5.75MB Entity Framework CodeFirst Tracing
1
并发处理方式一般分为乐观必并发与悲观必并发两种,本文将为大家介绍 Entity Framework 、 LINQ to SQL 中的并发处理方式。在本文最后,将提供一个了可参考的方案,结合事务 Transaction 处理复杂性对象的并发。
2022-10-25 12:16:35 797KB EF 并发处理
1
ef core 迁移命令的使用源码,使用vs 2017可以直接打开demo查看源码
2022-08-24 23:30:18 454KB ef core Entity Framework
1
详情请看我的博客:https://blog.csdn.net/chang_1134/article/details/86065825
2022-07-27 20:27:38 23KB unity ECS
1