MATLAB AMPL 是一种建模语言工具,它允许用户以类似于数学方式编写问题的语法编写优化问题。一旦在 AMPL 中制定了问题,就可以使用(已编译的)Ipopt AMPL 求解器可执行文件 ipopt 轻松解决问题。通过直接链接代码来连接您的问题需要花费点时间来编写,但对于大型问题可能更有效。具体参考:https://blog.csdn.net/caokaifa/article/details/125535963?spm=1001.2014.3001.5501
2022-06-30 18:13:01 2.27MB 优化控制 AMPL NLP Ipopt
1
udpipe-基于UDPipe的用于标记化,标记,合法化和依赖性解析的R包 该存储库包含的R包是绕UDPipe C ++库的RCPP包装物( , )。 UDPipe提供了与语言无关的标记,标记,词条化以及原始文本的依赖项解析,这是自然语言处理中必不可少的部分。 所使用的技术在论文中进行了详细说明:“使用UDPipe进行令牌化,POS标记,解密和解析UD 2.0”,可从以下网址获得: //ufal.mff.cuni.cz/~straka/papers/2017-conll_udpipe.pdf 。 在该论文中,您还将发现不同语言和流程速度的精确度(以每秒字数为单位)。 一般 在围绕UD
2022-06-29 13:12:39 4.69MB nlp natural-language-processing text-mining r
1
2022NUK-NLP大作业—基于深度学习的文本分类 最终项目介绍及代码说明 介绍 2022NUK NLP大作业 中文10类别单一文本分类 数据集采用gaussic的数据集,https://github.com/gaussic/text-classification-cnn-rnn 代码具体说明 通过对 torch_model.py 的修改可以将模型在 CNN、LSTM、GRU 中进行切换。 LSTM 和 GRU 同为 RNN 模型,代码区别如下:
张量流 该存储库实现了一个Tensorflow框架,用于执行自然语言处理(NLP)任务。 该存储库包含用于不同编程语言的脚本和库。 用于创建神经网络,执行训练和测试,导出网络模型的Python 。 Java,用于加载预训练的网络模型,执行推理或在生产中提供服务。 Node.js,用于加载预训练的网络模型,执行测试和推理。 为什么选择tensorflow-NLP? 该框架的目的是允许使用模块化代码轻松地为任何NLP任务设计网络,并始终保持相同的输入/输出结构。 如果您的主要用例是在生产中部署保存的模型,那么这非常有用,即使您想使用其他编程语言访问该模型也是如此。 通过使用同一脚本可以评估当前在不同任务上实施的所有网络这一事实,证明了该框架的有效性。 用法: 有关如何安装,配置和运行所有内容的说明,请参见其特定语言目录的自述文件。 您应该从Python库开始,从头开始训练任何网络。
2022-06-26 22:17:44 10.64MB nodejs python java nlp
1
BERT for Joint Intent Classifification and Slot Filling的中文实现
2022-06-25 20:11:28 372.43MB Nlp
1
尽管文本数据激增,但缺乏多应用文本语料库是文本挖掘和自然语言处理尤其是波斯语中的严重瓶颈。 该项目提供了一个新的波斯语新闻文章分析语料库,称为 Persica。 新闻分析包括新闻分类、主题发现和分类、类别分类和更多程序。 处理 NEWS 有特殊要求,首先要有一个有效可靠的语料库来对其进行实验。 请使用此参考引用我们:@inproceedings{eghbalzadeh2012persica, title={Persica: A Persian corpus for multi-purpose text Mining and Natural Language processing}, author={Eghbalzadeh, Hamid and Hosseini, Behrooz and Khadivi, Shahram and Khodabakhsh, Ali}, booktitle={Telecommunications (IST), 2012 Sixth International Symposium on}, pages={1207--1214}, year={2012}, or
2022-06-24 11:08:29 22KB 开源软件
1
NLP_Project 使用BERT的文本聚类 该存储库是DS8008-NLP课程的课程项目。 该项目是科学论文“基于加权BERT模式的文本文档聚类方法”的修改实施。 您可以找到一个摘要和一个笔记本,其中包括该项目中进行的过期代码的实现。
2022-06-23 21:57:04 1KB
1
Match-LSTM和答案指针(Wang和Jiang,ICLR 2016) 此仓库尝试在同一张纸上重现2016年论文中的match-lstm和answer指针实验。 许多预处理锅炉代码来自Stanford CS224D。 代码的内容在qa_model.py中。 为了使代码正确,我不得不修改tensorflow的原始注意力机制实现。 给定一组段落,运行train.py训练模型,并运行qa_answer.py生成答案。 请通过与我联系以获取更多信息。 该代码还充当示例代码,展示了如何将tensorflow的注意力机制连接在一起。 截至2017年8月13日,此类示例在任何地方都不可用。 预处理
2022-06-22 17:06:17 8.66MB nlp deep-learning tensorflow question-answering
1
自己整理的IJCAI2018自然语言处理方向的论文,总共95篇,有感兴趣的可以一阅。
2022-06-21 13:49:27 45.35MB IJCAI NLP 自然语言处理 机器学习
1
谷歌黑板报-数学之美 数学在信息检索和自然语言处理中的主导作用和奇妙应用 共45页.pdf
2022-06-19 19:06:46 841KB 信息检索 自然语言处理 nlp