为解决泊位占有率的预测精度随步长增加而下降的问题,提出了一种基于注意力机制的泊位占有率预测模型。通过卷积神经网络获得多变量的时间模式信息作为模型的注意力机制。通过对模型训练、学习特征信息,并对相关性高的序列分配较大的学习权重,来实现解码器输出高度相关的有用特征预测目标序列。应用多个停车场数据集对模型进行测试,测试结果及对比分析表明,所提模型在步长达到 36 时对泊位占有率的预测数据能较好地估计真实值,预测精度和稳定性相比LSTM均有提高。
1
注意神经网络的序列到序列学习 更新:检出的beta版本,完全支持seq2seq-attn的功能完全重写。 Seq2seq-attn将继续受支持,但是新功能和优化将集中在新代码库上。 在编码器-解码器为LSTM的情况下,以(可选)注意标准序列到序列模型的实现。 编码器可以是双向LSTM。 此外,还可以选择通过运行卷积神经网络,然后运行基于字符嵌入的用作输入)来使用字符(而不是输入单词嵌入)。 注意模型是从,Luong等。 EMNLP2015。我们将全球通用注意力模型与本文中的输入反馈方法结合使用。 输入进纸是可选的,可以关闭。 角色模型来自“ ,Kim等。 AAAI 2016年。 在基线模型之上还有很多其他选项,这主要归功于的出色。 具体来说,有一些功能可以实现: 。 Luong等人,EMNLP 2015。 Costa-Jussa和Fonollosa,ACL,2016年。 。
2021-10-26 10:05:11 2.51MB Lua
1
序列到序列(Seq2Seq)模型已被广泛用于会话领域的响应生成。 但是,不同对话方案的要求是不同的。 例如,客户服务要求所生成的响应是特定且准确的,而聊天机器人更喜欢多样化的响应以吸引不同的用户。 通过使用一般平均可能性作为优化标准,当前的Seq2Seq模型无法满足这些多样化的要求。 结果,它通常会生成安全且平常的响应,例如“我不知道”。 在本文中,我们针对不同的对话场景提出了两个针对Seq2Seq量身定制的优化标准,即针对特定需求场景的最大生成可能性和针对不同需求场景的条件风险价值。 在Ubuntu对话语料库(Ubuntu服务场景)和中文微博数据集(社交聊天机器人场景)上的实验结果表明,我们提出的模型不仅可以满足不同场景的各种要求,而且在衡量指标上均优于传统的Seq2Seq模型。基础评估和人工评估。
2021-02-26 16:07:44 476KB 研究论文
1