ltp模型:3.4 模型链接https://download.csdn.net/download/llm765800916/12509692 https://download.csdn.net/download/llm765800916/12509682 https://download.csdn.net/download/llm765800916/12509681 https://download.csdn.net/download/llm765800916/12509665 https://download.csdn.net/download/llm765800916/12509652
2021-10-31 15:18:48 5.01MB 自然语言处理 nlp ltp 2
1
包含自然语言处理、语音识别、RNN网络结构、CNN网络结构等相关外文文献
2021-10-14 16:17:06 24MB 自然语言处理
1
文件中包含:(代码+分析) 1.最小编辑距离 2.文本分类 3.文本聚类 4.文本对齐
2021-10-13 11:07:09 89.92MB 自然语言处理
本项目是自然语言处理NLP在中文文本上的一些简单应用,如文本分类、情感分析、命名实体识别等。 文本分类 数据集用的是头条的标题和对应文章分类数据。数据集来自这里: 文本分类的例子对应zh_article_classify_bilstm_attention.ipynb,这里构建的是BiLSTM+Attention的模型结构。 具体模型搭建如下: def create_classify_model(max_len, vocab_size, embedding_size, hidden_size, attention_size, class_nums): # 输入层 inputs = Input(shape=(max_len,), dtype='int32') # Embedding层 x = Embedding(vocab_size, embedding_size)(
2021-10-08 11:53:47 107.97MB 附件源码 文章源码
1
教授的文本挖掘技术课程ppt 包含文本情感分析 特征提取
2021-09-22 11:16:30 23.62MB 自然语言处理 nlp 文本挖掘
1
这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但可以作为一个入门实验,通过这个案例,大家应该对Attention的使用有了更清晰、更全面的认识。
2021-08-28 18:14:36 4.39MB attention 机器翻译 自然语言处理 nlp
百度-吴华-互联网上NLP技术及其应用.pdf
2021-08-21 14:13:14 3.66MB 自然语言处理 NLP
自然语言处理如何落地互联网.pdf
2021-08-21 13:02:11 2.82MB 自然语言处理 NLP
官方的数据下载地址:http://mattmahoney.net/dc/text8.zip Word2Vec练习数据集 text8.zip
2021-08-20 18:33:55 59.61MB 文本数据集 text8.zip
1
课程分享——自然语言处理NLP原理与实战视频教程,课程包含了互联网公司前沿的热门算法的核心原理,以及源码级别的应用操作实战,直接讲解自然语言处理的核心精髓部分,自然语言处理从业者或者转行自然语言处理者必听课!!!
2021-08-20 01:38:42 779B 自然语言处理 nlp
1