bert-large-uncased-pytorch_model.bin 这是1024位的,资源过大,超过一个g,我放百度云上了 768位的看我的博客免费获取
2021-08-21 09:44:36 121B bert pytorch
1
bert下albert_chinese_small实现文本分类.rar
2021-08-20 19:02:11 18.88MB bert
1
bert-base-chinese-tf_model.h5
2021-08-20 14:18:46 456.15MB rasa学习
1
在一篇 200 多页的论文中,Percy Liang、李飞飞等斯坦福研究者系统阐述了大规模预训练模型背后的机遇与风险。他们还给这些模型取了一个统一的名字—— Foundation Model。
2021-08-20 01:38:41 14.75MB #资源达人分享计划# GPT-3
1
使用Bert的中文NER BERT代表中文NER。 数据集列表 cner:数据集/ cner 主持人: : 型号清单 BERT + Softmax BERT + CRF BERT +跨度 需求 1.1.0 = <PyTorch <1.5.0 cuda = 9.0 python3.6 + 输入格式 输入格式(首选BIOS标记方案),每个字符的标签为一行。 句子用空行分隔。 美 B-LOC 国 I-LOC 的 O 华 B-PER 莱 I-PER 士 I-PER 我 O 跟 O 他 O 运行代码 在run_ner_xxx.py或run_ner_xxx.sh修改配置信息。 sh scripts/run_ner_xxx.sh 注意:模型的文件结构 ├── prev_trained_model | └── bert_base | | └── pytorch_model.bin | | └── config.json | | └── vocab.txt | | └── ...... CLUENER结果 BERT在dev上的整体性能: 准确性(实体) 召回(实
2021-08-17 16:54:16 484KB nlp crf pytorch chinese
1
BERT增白 这是“美化的Pytorch实施。 BERT增白在文本语义搜索中非常实用,其中增白操作不仅提高了无监督语义矢量匹配的性能,而且减小了矢量维,有利于减少内存使用量,提高矢量搜索引擎的检索效率,例如,FAISS。 这种方法最早是由苏建林在他的博客中提出的 。 重现实验结果 准备 下载数据集: $ cd data/ $ ./download_datasets.sh $ cd ../ 下载型号: $ cd model/ $ ./download_models.sh $ cd ../ 下载数据集和模型文件后, data/和model/目录如下: ├── data │ ├── AllNLI.tsv │ ├── download_datasets.sh │ └── downstream │ ├── COCO │ ├── CR │
2021-08-17 15:06:24 24.01MB Python
1
Python中基于BERT,LDA和TFIDF的关键字提取 跳到: ••• kwx是用于基于Google的和多语言关键字提取的工具包。 该软件包提供了一套方法来处理不同语言的文本,然后从创建的语料库中提取和分析关键字(有关各种语言支持,请参阅 )。 唯一的重点是允许用户确定输出中不包括哪些单词,从而允许他们使用自己的直觉来微调建模过程。 有关该过程和技术的全面概述,请参阅,并参考以获取有关模型和可视化方法的说明。 通过PyPi安装 kwx可以通过pip从pypi下载或直接从此存储库中获取: pip install kwx git clone https://github.com/andrewtavis/kwx.git cd kwx python setup.py install import kwx 型号 实现的NLP建模方法包括: 伯特 表示法是基于在开源Wikipedia数据上
2021-08-16 09:26:44 5.21MB multilingual python nlp data-science
1
来源于 huggingface 官方的中文bert,使用transforms加载。 放到国内网络方便大家下载 -- 官方地址 https://huggingface.co/bert-base-chinese/tree/main
2021-08-09 11:08:19 787.09MB pytorch tensorflow 机器学习 自然语言
1
课程目标: 学习完本门课程,您将对自然语言处理技术有更深入的了解,彻底掌握中文命名实体识别技术。 适用人群: 自然语言处理从业者、深度学习爱好者 课程简介: 命名实体识别作为自然语言处理的基础技术之一,在自然语言处理上游各个任务(问答系统、机器翻译、对话系统等)重扮演者十分重要的角色,因此深入掌握命名实体识别技术,是作为自然语言处理从业者毕本技能,本课程理论与实践相结合,希望能给大家带来帮助。 课程要求: (1)开发环境:Python3.6.5 Tensorflow1.13.1;(2)开发工具:Pycharm; (3)学员基础:需要一定的Python基础,及深度学习基础; (4)学院收货:掌握命名实体识别关键技术; (5)学院资料:见课程资料; (6)课程亮点:全程实战操作,徒手撸代码。
1
使用keras-bert实现 谭松波 酒店评论 文本分类(情感分析)-附件资源
2021-08-06 21:53:41 23B
1