CUDA中PyTorch的软DTW
用于PyTorch的快速CUDA实现。 基于但运行速度最高可提高100倍! forward()和backward()传递都使用CUDA实现。
我的实现部分受到启发,其中提出了基于对角线的Belman递归实现。
入门
此代码取决于和 。 只需在您的项目中包含soft_dtw_cuda.py ,就可以了!
您还可以运行随附的事件探查器/测试(已通过Python v3.6测试),并查看获得的加速效果:
git clone https://github.com/Maghoumi/pytorch-softdtw-cuda
cd pytorch-softdtw-cuda
python soft_dtw_cuda.py
用法示例
脚本中已经提供了示例代码。 这是一个简单的例子:
from soft_dtw_cuda import SoftDTW
# Crea
1