这项与事件相关的潜能(ERP)研究检查了语音识别中上下文相关说话者标准化的时间过程。 我们发现三个ERP组件,即N1(100-220毫秒),N400(250-500毫秒)和后期正向组件(500-800毫秒),它们被推测涉及(a)听觉处理,(b)说话者标准化和词汇检索,以及(c)决策过程/词汇选择。 说话人标准化可能发生在N400的时间窗口中,并且与词汇检索过程重叠。 与非语音上下文相比,无论语音上下文是否具有语义内容,它们都使收听者能够调整到讲话者的音调范围。 以这种方式,语音上下文在潜在的候选词的激活过程中诱导了更有效的说话者归一化,并导致在语音单词识别中更准确地选择了预期的单词。
2021-02-24 18:04:55 1024KB Talker normalization; Tone perception;
1
recurrent batch normalization的pytorch实现
2021-01-28 04:58:24 5KB bn
1
基于Tensorflow实现BN(Batch Normalization)的代码,供大家参考!!
2020-01-14 03:10:58 10KB 深度学习
1
image normalization 对图像归一化的matlab程序 平移、缩放和旋转归一化! 可用于模式识别,数字水印。
2020-01-03 11:35:51 66KB image normalization 图像归一化
1
batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现;运行无误,示例为mnist手写体识别
2019-12-21 22:06:55 790KB batch/layer norma lization
1
对Batch Normalization论文进行了解读,用通俗的视角理解Batch Normalization。 对Batch Normalization论文进行了解读,用通俗的视角理解Batch Normalization。 对Batch Normalization论文进行了解读,用通俗的视角理解Batch Normalization
2019-12-21 21:28:55 3.36MB 批正则化
1
关于Batch Normalization的介绍,是组会中自己做的ppt。
2019-12-21 21:25:42 3.13MB 深度学习
1
有时候需要将一批图片进行尺寸归一化操作。如在训练AdBoost的时候,需要更选取的相应特征模型将标记并裁减出来的正样本进行尺寸归一化成20x20、24x24、64x64。这里基于OpenCV提供了一个对指定文件夹下的图片进行尺寸归一化的小工具,有需要的朋友欢迎下载。
2019-12-21 20:49:59 12.27MB 数据处理 尺寸归一化
1