chatbot_simbert 检索类型的微信聊天机器人/问答系统,通过API异步通信,实现在微信上交互,可以查询天气、重复问句识别等情况;本项目包括模型和工程化部署一体化。用到SimBert等模型。 描述 各位可以根据自己的需求部署或修改: 问答库如果是任务型的,就是一个任务型聊天机器人,如果闲聊的问答库,那就是闲聊型聊天机器人; 后续也可以添加意图,用来用意图识别的匹配;也可以添加个知识图谱的API... 总之可以添加的模块很多,扩展性非常强大。 品尝方式(使用说明) 准备: 环境准备:安装requirement中的依赖包 下载模型,并放置在code/1.retrieve_match/3.simbert_match/config路径下: simbert模型: 启动: 1、 启动code/2.API_serve/KG_service.py 2、 启动code/3.wx_project/c
2024-04-07 10:07:55 1.23MB Python
1
pytorch采用LSTM实现文本翻译,序列到序列学习Seq2Seq,数据集为Multi30k,从德语(de)翻译到英语(en),有编码层和解码层。
2024-01-12 13:15:19 51.87MB pytorch pytorch lstm Seq2Seq
1
基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实现文本摘要任务——数据集基于seq2seq+attention实
2022-11-24 11:25:54 10.17MB 深度学习
基于深度学习的聊天机器人源代码模型,主要是基于seq2seq模型
2022-11-04 22:45:34 7KB 聊天机器人
1
今天小编就为大家分享一篇pytorch实现seq2seq时对loss进行mask的方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2022-08-14 22:54:01 61KB pytorch seq2seq loss mask
1
seq2seq文本翻译数据集
2022-08-11 16:05:27 895KB ml
1
已淘汰 该项目建于2016年(旧的张量流时代),在新的张量流下,一些设计选择不再有意义。 您可能会在其他地方找到更好的seq2seq教程/实现。 seq2seq_chatbot 张量流中Seq2seq聊天机器人的实现。 特征 带智能加载程序的动态rnn (无填充) 预测中的波束搜索(全局最优快速近似) 解码器的信号指示器(解码器上的部分控制) 技术报告: : : Python 2.7依赖项 张量流1.8 麻木 json 操作说明 运行“ python train.py”,然后等待(在具有cuda 9.0和cudnn 7.0的GTX 1080 Ti上运行5分钟),直到训练完成 运行“ python test.py”以进入与聊天机器人的交互式会话 尝试自己的数据 可以对自己的数据运行它,但是您需要至少生成2个文件,其格式与bbt_data中的文件相同。 text.txt,这是
1
基于Seq2Seq模型的自定义古诗生成
2022-06-16 21:20:34 823KB 研究论文
1
matlab代码左移神经机器翻译(seq2seq)教程 作者:Thang Luong,Eugene Brevdo,赵瑞(,) 此版本的教程要求。 要使用稳定的TensorFlow版本,请考虑其他分支,例如。 如果您使用此代码库进行研究,请引用。 介绍 序列到序列(seq2seq)模型(,)在各种任务(例如机器翻译,语音识别和文本摘要)中都取得了巨大的成功。 本教程为读者提供了对seq2seq模型的全面理解,并展示了如何从头开始构建具有竞争力的seq2seq模型。 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意包装器,TensorFlow 1.2数据迭代器 结合我们在构建递归模型和seq2seq模型方面的专业知识 提供有关构建最佳NMT模型和复制的提示和技巧。 我们认为,提供人们可以轻松复制的基准非常重要。 结果,我们提供了完整的实验结果,并在以下公开可用的数据集上对我们的模型进行了预训练: 小型:由ET提供的TED演
2022-06-15 20:56:44 832KB 系统开源
1
​ 介绍从RNN到Attention到Transformer系列中Decode-Encode(Seq2Seq) https://blog.csdn.net/qq_39707285/article/details/124726403
2022-05-30 12:05:44 26.16MB rnn transformer 人工智能 深度学习
1