the basic book for statistics, and is very useful for engineer
2021-05-13 10:27:28 11.02MB 概率论 statistics
1
BERTSUM中文摘要抽取代码 搬砖不易,欢迎star bert-chinese-web//web小接口,可以浏览器中展示 bert-sum-dataprocess//数据处理 bertsum-chinese//模型训练
2021-05-11 21:41:21 16.31MB bertsum bertsum-chinese Python
1
GPT2-Chinese 附带科幻书籍语料 无权重
2021-05-11 09:09:33 6.33MB GPT2
1
基于keras事件抽取的bert模型文件。用于读取模型和模型对应的预训练文件。bert_config.json是超参数文件,bert_model.ckpt是预训练权重文件
2021-05-10 17:03:33 365.79MB bert chinese_L-12_H-7 python 事件抽取
1
chinese_L-12_H-768_A-12 BERT 中文配置文件及预训练参数。
2021-05-10 16:58:05 200MB bert
1
ISO 15693中英文文档,包含中文文档(1-3,1篇)和英文文档(1-3,3篇)
2021-05-08 15:46:07 1.1MB ISO 15693 English Chinese
1
中文手册
2021-05-08 15:02:38 19.11MB STM32
1
c++ mfc开发帮助文档CHM版
2021-05-07 20:02:28 6.08MB c++ dll
1
中文分词 本项目为中文分词任务baseline的代码实现,模型包括 BiLSTM-CRF 基于BERT的+ X(softmax / CRF / BiLSTM + CRF) 罗伯塔+ X(softmax / CRF / BiLSTM + CRF) 本项目是的项目。 数据集 数据集第二届中文分词任务中的北京大学数据集。 模型 本项目实现了中文分词任务的baseline模型,对应路径分别为: BiLSTM-CRF BERT-Softmax BERT-CRF BERT-LSTM-CRF 其中,根据使用的预训练模型的不同,BERT-base-X模型可转换为Roberta-X模型。 要求 此仓库已在Python 3.6+和PyTorch 1.5.1上进行了测试。 主要要求是: tqdm scikit学习 火炬> = 1.5.1 :hugging_face: 变压器== 2.2.2 要解决环境问题,请运行:
1
PL/SQL Developer中文语言包Chinese.lang及注册文件aalf.dat Tag: PlSQLDev 中文语言包 Chinese.lang aalf.dat PL/SQL Developer Language Settings语言设置: 改为简体中文 菜 单 栏: Tools ->preferences->User Interface -> Appearance -> Language 从下拉菜单中选择 “Chinese.lang”。 Change to English MENU Bar: 工具 -> 首选项 -> 用户界面 -> 外观 -> 语言 -> Select "none" from the drop-down menu 。 重新启动(restart) Pl/sqldeveloper应用程序。 注册文件aalf.dat: 装完后 把aalf.dat 拷贝到plsql的根目录下面
2021-05-07 18:56:19 351KB PlSQLDev 中文语言包 Chinese.lang aalf.dat
1