暹罗深度神经网络的语义相似性。 该存储库包含Tensorflow中的暹罗神经网络的实现,该实现基于3种不同的主要深度学习架构构建: 卷积神经网络 递归神经网络 多头注意力网络 创建该存储库的主要原因是将GitHub上主要基于CNN和RNN架构构建的Siamese神经网络的知名实现方案与基于Transformer模型最初由提出的基于多头注意力机制构建的Siamese神经网络进行比较,这论文。 。 支持的数据集 当前版本的管道支持使用3个数据集: :NEW_button: 对抗自然语言推论(ANLI)基准: , 安装 资料准备 为了下载数据,请执行以下命令(此过程可能需要一段时间,具体取决于您的网络吞吐量):
1
此存储库包含代码和我对StyleGAN和CLIP进行实验的一些结果。 我们称它为StyleCLIP。 给定文字描述,我的目标是编辑给定的图像或生成一个图像。 文本指导的图像编辑(使用CLIP和StyleGAN)此存储库包含代码和我对StyleGAN和CLIP进行实验的一些结果。 我们称它为StyleCLIP。 给定文字描述,我的目标是编辑给定的图像或生成一个图像。 下图说明了它的工作方式:在本示例中,我拍摄了Ariana Grande的图像,使用e4e对其进行了反转,然后编辑了图像,以使Ariana使用文本“ A tanned woman”看起来更加黝黑。 使图像接近原点
2021-11-26 20:16:22 47.97MB Python Natural Language Processing
1
RBERT:R中的BERT实现
2021-11-24 22:54:39 1.85MB nlp natural-language-processing tensorflow rstudio
1
“自然语言标注”(natural language annotation)技术,这种技术将检索对象的内容分解成不同颗粒度的信息片段,并用自然语言的句子和短语来标注
2021-11-23 21:00:54 2.13MB NLP 自然语言处理
1
蒙古BERT型号 该存储库包含由 , 和训练的经过预训练的蒙古模型。 特别感谢提供了5个TPU。 该存储库基于以下开源项目: ,和 。 楷模 词汇量为32000的用作文本标记器。 您可以使用蒙版语言模型笔记本 测试经过预训练的模型可以预测蒙面蒙语单词的效果如何。 BERT-Base: 和 BERT-Large: HuggingFace 未装箱的BERT-Base: TensorFlow检查点和PyTorch模型 未装箱的BERT-Large: HuggingFace 盒装BERT-Base 下载TensorFlow检查点或PyTorch模型。 评估结果: global_step = 4000000 loss = 1.3476765 masked_lm_accuracy = 0.7069192 masked_lm_loss = 1.2822781 next_sentence_a
1
FastWER 用于快速字/字符错误率 (WER/CER) 计算的 PyPI 包 快速(cpp 实现) 句子级和语料库级 WER/CER 分数 安装 pip install pybind11 fastwer 例子 import fastwer hypo = [ 'This is an example .' , 'This is another example .' ] ref = [ 'This is the example :)' , 'That is the example .' ] # Corpus-Level WER: 40.0 fastwer . score ( hypo , ref ) # Corpus-Level CER: 25.5814 fastwer . score ( hypo , ref , char_level = True ) # Sentence-Leve
1
Neural Network Methods in Natural Language Processing 英文epub 本资源转载自网络,如有侵权,请联系上传者或csdn删除 本资源转载自网络,如有侵权,请联系上传者或csdn删除
2021-11-17 14:53:56 2.98MB Neural Network Methods Natural
1
关于在英语语料库上进行词嵌入训练的研究很多。 该工具包通过在德语语料库上应用深度学习,以训练和评估德语模型。 有关项目,评估结果和的概述可在或直接在此存储库中找到。 该项目是根据发布的。 开始吧 确保已安装Python 3以及以下库: pip install gensim nltk matplotlib numpy scipy scikit-learn 现在,您可以下载并在您的Shell中执行它,以自动下载此工具包和相应的语料库文件并进行模型训练和评估。 请注意,这可能需要大量时间! 您也可以克隆此存储库,并使用我已经进行评估和可视化。 如果您只想查看不同Python脚本的工作方式,
1
seqGAN PyTorch实现的“ SeqGAN:具有策略梯度的序列生成对抗网络”。 (于兰涛等)。 该代码经过高度简化,注释和(希望)易于理解。 实施的策略梯度也比原始工作( )简单得多,并且不涉及推广-整个句子使用单一奖励(受的示例启发) )。 使用的体系结构与原始工作中的体系结构不同。 具体而言,将循环双向GRU网络用作鉴别器。 该代码按论文中所述对合成数据进行实验。 我们鼓励您对代码作为问题的工作方式提出任何疑问。 要运行代码: python main.py main.py应该是您进入代码的入口。 技巧与观察 在这种情况下,以下黑客(从借来)似乎有效: 培训鉴别器
1
CYK解析器 这是用Python 3编写的简单的无上下文语法分析器。它包含一个转换器,可将无上下文语法转换为chomsky普通形式。 但是,该转换器无法处理epsilon生产。 对于实际解析,使用Cocke-Younger-Kasamai算法。 该代码无论如何都不是完美的,也不应该做到。 随意在自己的项目中使用任何代码。 用法 作为独立程序 要运行解析器,需要安装Python 3.6 。 文件“ GrammarConverter.py”需要位于同一目录中,或者位于Python寻找要包含的模块的目录中。 该程序可以在同一目录中作为模块( python3 -m Parser )运行,也可以作为常
2021-11-13 21:40:26 6KB nlp parser natural-language-processing parsing
1