自注意力机制Self Attention——Pytorch源代码
2021-08-17 13:23:55 4KB pytorch attention 深度学习 图像处理
1
A2Attention——Pytoch源代码
2021-08-17 13:23:54 2KB attention pytorch 深度学习 图像处理
1
AFT——pytoch源代码
2021-08-17 13:23:53 2KB attention pytoch 深度学习 图像处理
1
BAM注意力机制——Pytorch源代码
2021-08-17 13:23:53 3KB attention pytorch 深度学习 图像处理
1
CBAM注意力机制——pytorch源代码
2021-08-17 13:23:52 2KB attention pytorch 深度学习 图像处理
1
两篇论文 《CBAM: Convolutional Block Attention Module》2018 ECCV 《BAM: Bottleneck Attention Module》2018 BWVC channel attention 通道注意力 spatial attention 空间注意力
2021-08-16 22:35:48 2.06MB 注意力机制 深度学习 attention
1
What-Is-JESD204-and-Why-Should-We-Pay-Attention-to-It_cn.pdf
2021-08-16 13:04:26 944KB JESD204 204B
1
该存储库代表Ultralytics对未来的对象检测方法的开源研究,并结合了在匿名客户数据集上数千小时的培训和发展过程中汲取的经验教训和最佳实践。 所有代码和模型都在积极开发中,如有更改或删除,恕不另行通知。 使用风险自负。 ** GPU速度使用批处理大小为32的V100 GPU测量超过5000张COCO val2017图像的平均每张图像的端到端时间,包括图像预处理,PyTorch FP16推理,后处理和NMS。 来自EfficientDet数据(批量大小为8)。 2021年1月5日: :nn.SiLU()激活,记录, 集成。 2020年8月13日: :nn.Hardswish()激活,数据自动下载,本机AMP。 2020年7月23日: :改进了模型定义,培训和mAP。 2020年6月22日: 更新:新机头,减少了参数,提高了速度,并提高了mAP 。 2020年6月19日: 作为
2021-08-16 09:52:44 105.73MB JupyterNotebook
1
注意力机制的语音唤醒mit代码
2021-08-15 02:00:31 1.56MB 语音唤醒
集中注意力的,倒计时
2021-08-11 09:13:42 36.01MB #资源达人分享计划# 安卓
1