深度学习实验室 字符测试。 seq2seq测试。 word2vec测试。 交叉熵检验。 双向rnn测试。 图片上的卷积运算。 图片上的合并操作。 cnn可视化的颤抖。 InceptionV3模型。 转移学习。
2021-10-05 12:33:19 18.85MB word2vec rnn seq2seq bidirectional-rnn
1
lstm-text-generation 文本生成(Word2Vec + RNN/LSTM) 目录: input : 输入文件数据 1.char_LSTM.py : 以字母为维度 预测下一个字母是什么 2.word_LSTM.py : 以单词为维度,预测下一个单词是是什么 char_LSTM.py 用RNN做文本生成,我们这里用温斯顿丘吉尔的任务传记作为我们的学习语料。 英文的小说语料可以从古登堡计划网站下载txt平文本:) 这里我们采用keras简单的搭建深度学习模型进行学习。 word_LSTM.py 跟上一个模型一样,只不过使用的word2vec对语料构建词向量,预测下一个单词。
2021-09-30 18:02:54 3.78MB Python
1
SIF:一种简单但是有效的词向量计算余弦相似度的方法,利用了tfidf等知识。
2021-09-26 11:23:32 318KB Word2vec nlp 语义相似度 tfidf
1
python实现情感分析(Word2Vec) ** 前几天跟着老师做了几个项目,老师写的时候劈里啪啦一顿敲,写了个啥咱也布吉岛,线下自己就瞎琢磨,终于实现了一个最简单的项目。输入文本,然后分析情感,判断出是好感还是反感。看最终结果:↓↓↓↓↓↓ 1 2 大概就是这样,接下来实现一下。 实现步骤 加载数据,预处理 数据就是正反两类,保存在neg.xls和pos.xls文件中, 数据内容类似购物网站的评论,分别有一万多个好评和一万多个差评,通过对它们的处理,变成我们用来训练模型的特征和标记。 首先导入几个python常见的库,train_test_split用来对特征向量的划分,
2021-09-26 10:35:21 421KB c ec OR
1
text2vec text2vec,中文文本给vetor。(文本向量化表示工具,包括词向量化,句子向量化) 特征 文本向量表示 字词粒度,通过腾讯AI Lab开放式的大规模扩展中文 (文件名:light_Tencent_AILab_ChineseEmbedding.bin密码:tawe),获取字词的word2vec矢量表示。 句子粒度,通过求句子中所有单词词嵌入的预先计算得到。 篇章粒度,可以通过gensim库的doc2vec得到,应用替代,本项目不实现。 文本相似度计算 基准方法,估计两个句子间语义相似度最简单的方法就是求句子中所有单词词嵌入的前缀,然后计算两个句子词嵌入之间的余弦相似性。
2021-09-25 10:16:25 141KB nlp word2vec text-similarity similarity
1
Word2VEC_java-master
2021-09-22 19:23:46 280KB Word2VEC java master
1
PyTorch SGNS Python中Word2Vec的SkipGramNegativeSampling 。 在实现了另一个但非常普遍的。 它可以与任何嵌入方案一起使用! 我敢打赌。 vocab_size = 20000 word2vec = Word2Vec ( vocab_size = vocab_size , embedding_size = 300 ) sgns = SGNS ( embedding = word2vec , vocab_size = vocab_size , n_negs = 20 ) optim = Adam ( sgns . parameters ()) for batch , ( iword , owords ) in enumerate ( dataloader ): loss = sgns ( iword , owords )
2021-09-20 18:52:25 7KB word2vec pytorch skipgram Python
1
问题描述 在语义连贯的句子中去掉一个词语,形成空格,要求在给出的对应备选答案中,系统 自动选出一个最佳的答案,使语句恢复完整。 相关语料 1、 train_data文件夹: 1.常老师提供的522个txt格式的文件 2.从 一共有811个训练文本 2、 test_data文件夹: 1、 Development_set: 一份含有 240 句话的语料及答案 2、 test_set: 一份含有 800 句话的测试语料,每句话有一个空格和 5 个备选答案 3、 middle_data文件夹: 存放数据预处理后的文本文件,方便进行后续训练 4、 model文件夹: 存放模型 5、data_preprocess.py 进行数据预处理 6、train_model.py 模型训练 7、test_data_score.py 输出测试集的准确率和输出结果文件 评测方法 准确率=正确填空句子的个数/全部句子的
2021-09-14 09:40:43 87KB Python
1
word2vec源码及文档,word2vec的原理分析
2021-09-13 11:58:34 2.19MB word2
1
这篇博客中的资源《自然语言学习——使用word2vec对文本进行情感分析》,其中包含代码,训练集,测试集、停止词。
2021-09-13 11:56:48 19.75MB nlp word2vec
1