基于中文维基百科的词向量构建及可视化-附件资源
2021-04-17 13:38:47 106B
1
基于词向量和词频的词重要度评价
2021-04-16 09:52:11 1.46MB 词向量 词频 词重要度评价
1
包括了google的word2vec全部源代码,以及一份中文说明,值得学习。
2021-04-10 20:35:18 1.98MB 深度学习 word2vec 词向量
1
中文词向量表,包含全部中文的词汇+对应词向量。 使用word2vec训练后,输出中文的全部词向量,存在txt中。 格式为 “词汇 向量”。 资源为百度云链接地址,文件大小为3.44G。
2021-04-07 11:48:35 75B 词向量 中文 wiki word2vec
1
微博文本分析和可视化 0.数据来源和结构 新浪微博,爬虫链接: 微博内容数据结构(mongo数据库导出的json文档) content_example: [ {'_id': '1177737142_H4PSVeZWD', 'keyword': 'A股', 'crawl_time': '2019-06-01 20:31:13', 'weibo_url': 'https://weibo.com/1177737142/H4PSVeZWD', 'user_id': '1177737142', 'created_at': '2018-11-29 03:02:30', 'tool': 'Android'
2021-04-05 21:18:15 66.36MB visualization nlp weibo pyecharts
1
facebook的预训练 fastText 模型wiki-news-300d-1M.vec下载
2021-04-02 09:04:20 650.22MB 词向量
1
基于词向量的机器翻译Python代码,其中train_word2vec_model.py为训练词向量代码,test.py为测试翻译结果代码。(本文件夹不包含词向量模型、训练集和测试集,仅为代码!!!)
2021-04-01 15:20:00 30KB 词向量
1
基于ELMo词向量的textCNN中文文本分类python代码,ELMo是基于哈工大的HIT-SCIR/ELMoForManyLangs,文本分类代码是基于keras的,有数据有模型有代码。
2021-03-30 10:07:32 383.46MB NLP python 文本分类 ELMo
1
自然语言处理系列:中文维基语料词向量训练PPT
2021-03-22 15:13:19 162KB 自然语言处理
1
使用gensim对维基百科作为预训练语料(约1.6G语料),生成词汇量约13000个词汇,维度为300,文件大小为45.6MB。使用方法,参考博客:https://blog.csdn.net/qq_36426650/article/details/87738919
2021-03-21 12:55:40 45.65MB 自然语言处理 预训练词向量
1