轻松搞懂word2vec+BiLSTM、TextCNN、CNN+BiLSTM、BiLSTM+Attention实现中文情感分类。内含python代码加数据。(实在是没积分了,赚点积分,赚够就删了,宝贵资源来着)
2021-09-09 09:11:37 23.51MB python bilstm textcnn attention
1
轻松搞懂【TF-IDF、word2vec、svm、cnn、textcnn、bilstm、cnn+bilstm、bilstm+attention实现】英文长文本分类。 内含英文长文本数据加实现代码。 宝贵资源,缺积分了没办法
2021-09-09 09:11:36 79.14MB word2vec svm cnn textcnn
1
轻松搞懂word2vec+SVM(支持向量机)实现中英文情感分类。 内含python代码加数据。(实在是没积分了,赚点积分,赚够就删了,宝贵资源来着)
2021-09-09 09:11:31 23.5MB word2vec svm 支持向量机 python
1
根据已经训练好的word2vec词向量,对于文本相似度进行相关分析
2021-08-29 21:43:43 6KB lstm cnn keras
1
生成词向量的神经网络模型分为两种,一种是像word2vec,这类模型的目的就是生成词向量,另一种是将词向量作为副产品产生,两者的区别在于计算量不同。若词表非常庞大,用深层结构的模型训练词向量需要许多计算资源。
2021-08-27 18:07:09 31.79MB 人工智能 nlp 深度学习
1
通过Word2vec计算两个英语单词间的语义相似度(使用GoogleNews-vectors-negative300.bin) bin文件太大无法上传,Word2vec.ipynb里有网盘地址可以直接下载
2021-08-27 18:03:44 40KB NLP
1
word2vec数学原理
2021-08-20 01:37:56 13.64MB word2vec 自然语言处理 nlp
word2vec中的数学原理详解,pdf高清版,学习Word2Vec最好的材料,Word2Vec看这个就够了。
2021-08-19 22:19:22 8.64MB word2vec 词向量 cbow skip-gram
1
TX-WORD2VEC 腾讯开源的word2vec模型。 原版15个G,一般爱好者很难玩出来。 所以做了一些小的。方便大家使用。 5000-small.txt 这个有5000词,可以下下来玩玩 45000-small.txt 这个有4.5w的词,已经能解决很多问题了 70000-small.txt 7w词 133MB 100000-small.txt 10w词 190MB 500000-small.txt 50w词 953MB 1000000-small.txt 100w词 1.9GB 2000000-small.txt 200w词 3.8GB 再大就自己去下载吧 如何使用 读取模型 from gensim.models import KeyedVectors model = KeyedVectors.load_word2vec_format("50-small.txt") 把玩模型 m
2021-08-14 21:07:41 36.28MB JupyterNotebook
1
word2vec+维基百科中文语料库训练模型,从最初的数据处理,到最终的模型测试都有详细的代码,可供学习。
2021-08-14 10:55:34 2KB word2vec nlp
1