Attention:注意力机制在Keras当中的实现
目录
所需环境
tensorflow-gpu==1.13.1
keras==2.1.5
LSTM中的注意力机制
在本库中,我将注意力机制施加在LSTM的Step上,目的是注意输入进来的样本,每一个Step的重要程度。我们使用的样本数据如下:
X = [[-21.03816538 1.4249185 ]
[ 3.76040424 -12.83660875]
[ 1. 1. ]
[-10.17242648 5.37333323]
[ 2.97058584 -9.31965078]
[ 3.69295417 8.47650258]
[ -6.91492102 11.00583167]
[ -0.03511656 -
2021-08-20 16:05:05
5KB
Python
1