TortoiseSVN 1.9.7, Build 27907 - 64 Bit的安装包和中文包
2022-03-14 13:14:33 22.28MB svn1.9.7 svn chinese
1
kodi中文插件最新2022 repository.xbmc-addons-chinese-2.0.0
2022-03-11 19:25:25 16KB kodi
1
超级账本面料 注意:这是正式信息库的只读镜像,正在进行积极的开发。 问题跟踪在处理。 该项目是一个Active Hyperledger项目。 有关该项目历史的更多信息,请参见。 在可以找到有关Active需要做什么的信息。 Hyperledger Fabric是分布式账本解决方案的平台,其模块化架构提供了高度的机密性,灵活性,灵活性和可扩展性。 它旨在支持不同组件的可插拔实现,并适应整个经济生态系统中存在的复杂性和复杂性。 Hyperledger Fabric提供了独特的弹性和可扩展架构,将其与其他区块链解决方案区分开来。 规划企业区块链的未来需要在经过全​​面审查的开源架构的基础上进行构建。 Hyperledger Fabric是您的起点。 发行版 发布路线图 请访问获取我们的发布路线图。 我们计划在v1.1.0版本之后按季度发布节奏,并提供一系列主题和精选功能。 除非另有说明,否
2022-03-11 09:50:06 23.67MB 系统开源
1
daz3d 4.9 汉化菜单.zip
2022-03-08 16:00:05 11KB chinese
1
Chinese.isl[inno setup中文语言包]、inno steup安装中文化
2022-03-08 15:15:06 12KB 中文语言包
1
本科毕业设计用网上的源码 简单的中文文本情感分类 一个用 PyTorch 实现的中文文本情感分类网络,代码较简单,功能较丰富,包含了多种模型 baseline。 环境需求 python == 3.6 torch == 1.1.0 Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz NVIDIA TITAN Xp 其余的见 requirements.txt 使用方法 先预处理,./run_preprocess_word2vec.sh 或 ./run_preprocess_elmo.sh 3(3 是 gpu 编号) 然后运行 python3 main.py --config_path config_cnn.json 预处理 将所给文本的每个词转换成预训练模型的词向量后存到文件里。我分别尝试了这两种 embedding: ELMo 中文预训练模型,1024d( Chinese-Word-Vectors,300d( 请自行下载相应的模型文件到 data/word2vec/ 或 data/zhs.model 文件夹下。 具体细节见 preprocess.py 文件
2022-03-05 11:13:27 4.17MB 系统开源
1
https://github.com/google-research/bert 里的预训练好的中文的NER模型,该模型是中文命名实体识别的预训练模型chinese_L-12_H-768_A-12.zip,这个链接下载只需3积分,主要是想给大家提供方便,供大家学习使用。
2022-03-03 16:41:35 365.79MB 中文NER预训练模型 chinese_L-12_H-7 BERT
1
chinese_text_classification 通过一个中文文本分类问题系统实现了各种分类方法 数据来源 数据搜狗新闻 类别 有汽车,娱乐,军事,体育,技术五种类别。原始数据比较大,没有上传,分词,去除重组词之后的数据放在processed_data文件夹下。 分类算法 主要实现了以下分类算法: NB(朴素贝叶斯) 支持向量机 快速文本 text_CNN text_RNN text_RCNN text_Bi_LSTM text_Attention_Bi_LSTM HAN(分层注意网络) 埃尔莫 分类准确率 分类准确率都在90%附近,没有进行过多预处理,只为熟悉算法的使用。 依赖库 基于tensorflow2.0实现,可以在win和linux下运行。觉得有用的点个赞,谢谢。
2022-03-02 22:16:24 6.73MB 系统开源
1
基于pytorch的中文语言模型预训练 ACL2020最佳论文有一篇论文提名奖,《不要停止预训练:使语言模型适应领域和任务》。本文涉及很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要方面: 在目标领域的数据集上继续预训练(DAPT)可以提高效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地提升效果。 结合两者(先进行DAPT,再进行TAPT)可以进一步提升效果。 如果能获取更多的,任务相关的无标注数据继续预训练(Curated-TAPT),效果则最佳。 如果
2022-03-02 13:28:37 29KB nlp pytorch bert NaturallanguageprocessingPython
1
Simplified Chinese.ptl
2022-02-27 10:39:47 1.08MB
1