自然语言处理的课件ppt,适合教学和演讲使用,内容很全,你可自行下载。
2021-11-15 09:09:06 7.39MB 自然语言处理 NLP PPT
1
利用百度api判断中文语句的通顺程度,如果一个句子很通顺,更像我们平时常见的句子,那么他的得分会比较低,相反如果句子不通顺,得分就很很高,可以通过设置分数阈值来分析句子的合理性
2021-11-03 21:35:03 1KB python 自然语言处理 nlp 中文语句
1
spacy的中文语言包,包含组件:tok2vec、tagger、parser、sender、ner、attribute_ruler。 安装方式:pip install YOUR_PATH/zh_core_web_sm-3.1.0.tar.gz 使用方式: import spacy nlp = spacy.load("zh_core_web_sm")
2021-11-01 18:14:32 47.27MB 自然语言处理 NLP spacy
1
ltp模型:3.4 模型链接https://download.csdn.net/download/llm765800916/12509692 https://download.csdn.net/download/llm765800916/12509682 https://download.csdn.net/download/llm765800916/12509681 https://download.csdn.net/download/llm765800916/12509665 https://download.csdn.net/download/llm765800916/12509652
2021-10-31 15:18:48 5.01MB 自然语言处理 nlp ltp 2
1
包含自然语言处理、语音识别、RNN网络结构、CNN网络结构等相关外文文献
2021-10-14 16:17:06 24MB 自然语言处理
1
文件中包含:(代码+分析) 1.最小编辑距离 2.文本分类 3.文本聚类 4.文本对齐
2021-10-13 11:07:09 89.92MB 自然语言处理
本项目是自然语言处理NLP在中文文本上的一些简单应用,如文本分类、情感分析、命名实体识别等。 文本分类 数据集用的是头条的标题和对应文章分类数据。数据集来自这里: 文本分类的例子对应zh_article_classify_bilstm_attention.ipynb,这里构建的是BiLSTM+Attention的模型结构。 具体模型搭建如下: def create_classify_model(max_len, vocab_size, embedding_size, hidden_size, attention_size, class_nums): # 输入层 inputs = Input(shape=(max_len,), dtype='int32') # Embedding层 x = Embedding(vocab_size, embedding_size)(
2021-10-08 11:53:47 107.97MB 附件源码 文章源码
1
教授的文本挖掘技术课程ppt 包含文本情感分析 特征提取
2021-09-22 11:16:30 23.62MB 自然语言处理 nlp 文本挖掘
1
这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但可以作为一个入门实验,通过这个案例,大家应该对Attention的使用有了更清晰、更全面的认识。
2021-08-28 18:14:36 4.39MB attention 机器翻译 自然语言处理 nlp
百度-吴华-互联网上NLP技术及其应用.pdf
2021-08-21 14:13:14 3.66MB 自然语言处理 NLP