只使用了numpy,没有使用tensorflow或pytorch框架,使用的是单线程,具有详细的注释,如有不对请大家指正,非常感谢,多交流
2022-05-20 15:20:01 101.72MB cbow Hierarchical softmax
1
自然语言处理第二次作业: data文件夹中存储语料(中文语料以及英文语料由老师提供,另一份为中文停用词语料) output文件夹中存储输出的词向量文件 script文件夹中为CBOW的脚本,同时处理中文语料与英文语料 运行步骤:在脚本中确定训练中文或者是英语后,直接运行即可
2022-05-11 10:42:22 13.58MB nlp pytorch cbow 词向量
1
连续词袋(CBOW) NLP中使用深度学习经常使用连续词袋(CBOW)和Skip-gram模型。 给定目标词之前和之后的上下文词范围N,它会尝试预测当前(目标)词。 此代码是PyTorch教程在以下链接的Word Embeddings的“获取密集的词嵌入”中给出的练习的实现: https://pytorch.org/tutorials/beginner/nlp/word_embeddings_tutorial.html#getting-dense-word-embeddings 参考 有关单词嵌入的进一步研究,请阅读以下文章: 向量空间中单词表示的有效估计 word2vec解释:推导Mikolov等人的负采样词嵌入方法 单词和短语的分布式表示形式及其组成
2021-11-18 16:18:13 2KB Python
1
word2vec中的数学原理详解,pdf高清版,学习Word2Vec最好的材料,Word2Vec看这个就够了。
2021-08-19 22:19:22 8.64MB word2vec 词向量 cbow skip-gram
1