MAE论文阅读汇报ppt,组会可参考
2023-05-11 18:28:11 660KB 论文分享
1
Autoencoders, 各种autoencoders的Torch 实现 Autoencoders这个存储库是在中构建Autoencoders的Torch 版本,但是只包含参考代码- 请参考原始博客文章以了解有关Autoencoders的解释。 培训hyperparameters还没有调整。 实现了以下模型:
2023-04-03 10:05:35 16KB 开源
1
解压后得到test文件夹,在下面的网址中下载预训练后的模型 https://dl.fbaipublicfiles.com/mae/visualize/mae_visualize_vit_large.pth 将其移动到test/demo中,进入demo文件夹,运行demo.py文件即可
2023-03-03 18:41:29 228KB 源码软件
1
ConvMAE: Masked Convolution Meets Masked Autoencoders 预训练权重
2022-05-26 22:05:15 325.75MB 综合资源
1
论文:Masked Autoencoders Are Scalable Vision Learners
2022-05-22 19:58:31 7.09MB MAE
1
Semi-supervised Anomaly Detection using AutoEncoders PDF全文翻译,属于缺陷检测的文档,适合于研究目标检测方面的研究者
2022-04-30 09:05:02 355KB 文档资料
1
Semi-supervised Anomaly Detection using AutoEncoders全文英文注解,适合于英文较好的研究者,看英文的文档更有味道一些
2022-04-30 09:05:02 1.48MB 文档资料
1
量子自动编码器:经典量子(变分)自动编码器的实现
2022-03-22 18:40:30 942KB quantum-computing autoencoders JupyterNotebook
1
用WiFi指纹进行地点识别使用Autoencoders和神经网络
2022-03-21 14:31:28 58KB Python开发-机器学习
1
堆叠式胶囊自动编码器 这段代码是从。 这是堆叠式胶囊自动编码器(SCAE)的Tensorflow实现,在以下论文中进行了介绍: , , 和 , 。 作者:牛津大学牛津机器人学院和统计系的亚当·科西雷克(Adam R. Kosiorek) 电子邮件:adamk(at)robots.ox.ac.uk 网页: : 这项工作是在亚当(Adam)在多伦多的Google Brain实习期间完成的。 关于该项目 如果查看包含对象的自然图像,您将很快看到可以从各种视点捕获同一对象。 胶囊网络经过专门设计,对于视点变化具有较强的鲁棒性,从而使学习数据效率更高,并且可以更好地概括未见的视点。 该项目介绍了一种新颖的胶囊网络无监督版本,称为堆叠式胶囊自动编码器(SCAE)。 与原始胶囊不同,SCAE是带有仿射感知解码器的生成模型。 这迫使编码器学习与视点变化等价的图像表示,并导致MNIST和S
2021-12-16 17:08:57 113KB Python
1