TensorFlow 2.0教程 我们的回购。 是的赢家 。 时间线: 2019年10月1日:TensorFlow 2.0稳定! 2019年8月24日: 2019年6月8日: 2019年3月7日: 2019年1月11日: 2018年8月14日: 安装 确保您使用的是python3.x。 CPU安装 pip install tensorflow - U GPU安装 自己安装CUDA 10.0 (或cudnn )和cudnn 。 并设置LD_LIBRARY_PATH 。 pip install tensorflow - gpu - U 测试安装: In [ 2 ]: import tensorflow as tf In [ 3 ]: tf . __version__ Out [ 3 ]: '2.0.0' In [ 4 ]: tf . test . is_gpu_available () ... totalMemory : 3.95 GiB freeMemory : 3.00 GiB ... Out [ 4 ]: True 配套TF2视频教程 TensorFl
1
PYthon自动术语提取 使用spaCy POS标记的术语提取算法的Python实现,例如C值,基本,组合基本,怪异和术语提取器。 如果您对其他ATE算法有建议,则希望在此软件包中实施该算法,并将其作为该算法所基于的论文的一个问题。 对于用Scala和Java实现的ATE软件包,请分别参见和 。 :party_popper: 安装 使用点子: pip install pyate https://github.com/explosion/spacy-models/releases/download/en_core_web_sm-2.2.5/en_core_web_sm-2.2.5.tar.gz 楷模 尽管此模型
2021-09-27 17:32:03 4.48MB nlp ai term-extraction symbolic-ai
1
50万条中文闲聊对话高质量语料,最新整理,包括很多热门语句和流行词汇。适用于NLP(自然语言处理)进行对话学习训练,可用于聊天机器人研究和开发。
2021-09-27 10:19:15 29.18MB NLP 语料 聊天 机器学习
1
Dureader-Bert 2019 Dureader机器阅读理解单模型代码。 哈工大讯飞联合实验室发布的中文全词覆盖BERT 只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。 谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比 模型 ROUGE-L BLEU-4 谷歌bert 49.3 50.2 哈工大伯特 50.32 51.4 由于官方没有指定测试集,实验数据是在验证集上跑出来的 许多人询问,说明一下: 1,数据处理是自己写
2021-09-26 14:01:37 86.97MB nlp qa pytorch transfer-learning
1
SIF:一种简单但是有效的词向量计算余弦相似度的方法,利用了tfidf等知识。
2021-09-26 11:23:32 318KB Word2vec nlp 语义相似度 tfidf
1
text2vec text2vec,中文文本给vetor。(文本向量化表示工具,包括词向量化,句子向量化) 特征 文本向量表示 字词粒度,通过腾讯AI Lab开放式的大规模扩展中文 (文件名:light_Tencent_AILab_ChineseEmbedding.bin密码:tawe),获取字词的word2vec矢量表示。 句子粒度,通过求句子中所有单词词嵌入的预先计算得到。 篇章粒度,可以通过gensim库的doc2vec得到,应用替代,本项目不实现。 文本相似度计算 基准方法,估计两个句子间语义相似度最简单的方法就是求句子中所有单词词嵌入的前缀,然后计算两个句子词嵌入之间的余弦相似性。
2021-09-25 10:16:25 141KB nlp word2vec text-similarity similarity
1
注意就是您所需要的:Pytorch实现 这是“”中的变压器模型的PyTorch实现(Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年)。 一种新颖的序列到序列框架利用自我注意机制,而不是卷积运算或递归结构,在WMT 2014英德翻译任务上实现了最先进的表现。 (2017/06/12) 官方Tensorflow实现可在以下位置找到: 。 要了解有关自我注意机制的更多信息,您可以阅读“”。 该项目现在支持使用训练有素的模型进行培训和翻译。 请注意,该项目仍在进行中。 BPE相关部件尚未经过全面测试。 如果有任何建议或错误,请随时提出问题以通知我。 :) 需求 python 3.4+ pytorch 1.3.1 火炬文字0.4.0 Spacy 2.2.2+ tqdm 莳萝 麻木 用法 WMT'16多式联运翻译:de-en WMT'16多模式翻译任务的培训示例( )。
1
对话机器人训练语料、机器学习、自然语言处理用
1
皮托伯特 使用PyTorch TransformerEncoder和预训练模型的BERT实现。 安装 pip install pytorch-bert 用法 config = BertConfig . from_json ( "path-to-pretarined-weights/bert_config.json" ) model = Bert ( config ) load_tf_weight_to_pytorch_bert ( model , config , "path-to-pretarined-weights/bert_model.ckpt" ) 将模型文件下载到存储库中。
2021-09-24 00:19:13 18KB nlp machine-learning python3 pytorch
1
京东评论数据
2021-09-23 19:06:09 1.95MB NLP
1