命名实体识别(NER)是自然语言处理(NLP)领域中的关键任务,它涉及识别文本中具有特定意义的实体,如人名、地名、组织名等。标题“中文NER集合”表明这是一个专注于中文环境下的命名实体识别资源集合。描述中提到的“基于马尔科夫逻辑的命名实体识别技术”,暗示了该压缩包可能包含一些利用马尔科夫逻辑网络(Markov Logic Networks, MLNs)的方法来解决中文NER问题的研究。 马尔科夫逻辑网络是一种概率逻辑框架,它结合了马尔科夫随机场和第一阶逻辑的优点,可以用于建立复杂的语义关系模型。在NER中,MLNs可以用来捕捉实体之间的局部和全局上下文信息,以提高识别准确性。例如,一个实体的类型可能与其前后词汇有关,MLNs可以通过定义这些依赖关系的规则来帮助识别。 压缩包中的文件名称提供了更多线索: 1. "NER综述.pdf":这可能是一个全面的NER技术综述,涵盖了各种方法和技术,包括传统的统计模型和深度学习方法。 2. "SSSSSSSSSSSSSSSSSSSSSSSOpen Information Extraction from the Web.pdf":可能探讨的是从互联网上提取开放信息,可能包括NER作为信息提取的一部分。 3. "基于层叠隐马尔可夫模型的中文命名实体识别.pdf":这可能是介绍如何使用层叠隐马尔可夫模型(Cascaded HMMs)进行中文NER的论文,这是一种经典的序列标注模型。 4. "Open Domain Event Extraction from Twitter.pdf":可能关注的是从社交媒体,特别是Twitter中提取开放领域的事件,这通常需要有效的NER来识别事件相关的实体。 5. "一种开放式中文命名实体识别的新方法.pdf":这可能描述了一种新的、创新的中文NER算法,可能采用了不同于传统方法的策略。 6. "[46]ner.pdf":文件名较简单,但可能是一个特定的NER研究或技术的详细说明,编号可能表示参考文献的序号。 这个集合对于学习和研究中文NER非常有价值,它可能包含了理论概述、经典模型的解释、最新方法的介绍以及实际应用案例。通过深入阅读这些资料,我们可以了解命名实体识别的发展历程,比较不同方法的优缺点,以及如何将这些技术应用于实际的数据挖掘和事件抽取任务。此外,对于想要在中文环境下提升信息提取和理解能力的研究者和开发者来说,这些资源无疑是一个宝贵的资料库。
2025-05-19 20:41:54 1.65MB 命名实体识别 数据挖掘 事件抽取
1
自然语言处理的子任务命名实体识别中文的数据集,很全
2023-02-25 17:23:59 148KB Resume NER中文数据集
1
使用预训练语言模型BERT做中文NER
2022-03-08 22:41:19 3.72MB Python开发-自然语言处理
1
https://github.com/google-research/bert 里的预训练好的中文的NER模型,该模型是中文命名实体识别的预训练模型chinese_L-12_H-768_A-12.zip,这个链接下载只需3积分,主要是想给大家提供方便,供大家学习使用。
2022-03-03 16:41:35 365.79MB 中文NER预训练模型 chinese_L-12_H-7 BERT
1
5个程序员刷题网站| 凯拉斯-伯特-纳 中文 NER 任务使用BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF模型和预训练语言模型的Keras解决方案:支持BERT/RoBERTa/ALBERT )。 更新日志 2020年2月27日重构的代码keras_bert_ner并删除了一些多余的文件。 bert4keras == 0.2.5现在已集成为该项目的主要部分。 2019.11.14 bert4keras现在作为一个包使用,因为它没有太大变化。 albert 模型现在只能支持谷歌的版本。 2019.11.04修复计算句子准确率和做预测时结果错误的问题。 2019.11.01将keras-contrib crf_accuracy/ crf_loss替换为自定义的 crf_accuracy/crf_loss 来处理掩码标签。 未来的工作 迁移到 tensorflow 2.0。 添加其他 BERT 模型,例如 Distill_Bert、Tiny_Bert。 依赖关系 烧瓶== 1.1.1 keras == 2.3.1 numpy == 1.18.1 loguru == 0.4.1
2021-11-24 11:14:06 10.6MB 系统开源
1
BERT-CRF-for-Chinese-NER Using BERT+CRF model to do Chinese NER task 如何运行 链接: 密码: 0qtc 请从网盘链接下载bert-chinese预训练模型,放在chinese-bert文件夹下 直接python run_ner.py即可
2021-11-18 10:06:09 2.36MB 附件源码 文章源码
1
BERT-NER-Pytorch:三种不同模式的BERT中文NER实验
2021-10-14 18:04:19 280KB 自然语言处理
1
命名实体识别(Named Entity Recognition,NER)作为自然语言处理领域经典的研究主题,是智能问答、知识图谱等任务的基础技术。领域命名实体识别(Domain Named Entity Recognition,DNER)是面向特定领域的NER方案。
2021-08-22 13:16:40 928KB #资源达人分享计划# 中文NER
1
使用Bert的中文NER BERT代表中文NER。 数据集列表 cner:数据集/ cner 主持人: : 型号清单 BERT + Softmax BERT + CRF BERT +跨度 需求 1.1.0 = <PyTorch <1.5.0 cuda = 9.0 python3.6 + 输入格式 输入格式(首选BIOS标记方案),每个字符的标签为一行。 句子用空行分隔。 美 B-LOC 国 I-LOC 的 O 华 B-PER 莱 I-PER 士 I-PER 我 O 跟 O 他 O 运行代码 在run_ner_xxx.py或run_ner_xxx.sh修改配置信息。 sh scripts/run_ner_xxx.sh 注意:模型的文件结构 ├── prev_trained_model | └── bert_base | | └── pytorch_model.bin | | └── config.json | | └── vocab.txt | | └── ...... CLUENER结果 BERT在dev上的整体性能: 准确性(实体) 召回(实
2021-08-17 16:54:16 484KB nlp crf pytorch chinese
1