闪电战-火炬动物园中的贝叶斯层 BLiTZ是一个简单且可扩展的库,用于在PyTorch上创建贝叶斯神经网络层(基于“)。 通过使用BLiTZ图层和utils,您可以以不影响图层之间的交互的简单方式(例如,就像使用标准PyTorch一样)添加非证书并收集模型的复杂性成本。 通过使用我们的核心权重采样器类,您可以扩展和改进此库,从而以与PyTorch良好集成的方式为更大范围的图层添加不确定性。 也欢迎拉取请求。 我们的目标是使人们能够通过专注于他们的想法而不是硬编码部分来应用贝叶斯深度学习。 Rodamap: 为不同于正态的后验分布启用重新参数化。 指数 贝叶斯层的目的 贝叶斯层上的权重采样 有可能优化我们的可训练重量 的确,存在复杂度成本函数随其变量可微分的情况。 在第n个样本处获得整个成本函数 一些笔记和总结 引用 参考 安装 要安装BLiTZ,可以使用pip命令: pip
2024-04-24 16:41:44 136KB pytorch pytorch-tutorial pytorch-implementation
1
On the Choice of Priors in Bayesian Deep Learning Author(s): Fortuin, Vincent Publication Date: 2021
2022-02-05 12:06:49 8.48MB OntheChoiceof
1
bayesian_dnns 具有的贝叶斯深层神经网络的实践与实验。 GMVAE 提出的高斯混合变分自动编码器的实现。 通过对生成模型使用高斯混合先验,其对不平衡数据的鲁棒性要比Kingma的m2模型高得多。 我还提到了 示例:MNIST不平衡 数据 标记的[标签:图片数量] [0:1000、1:10、2:10、3:10、4:10、5:100、6:70、7:40、8:50、9:30] 未贴标签总计50000张图像。 每个标签的采样率与标签数据相同(不平衡)。 验证总计10000张图片。 每个标签的采样率相等(平衡) 结果 金马的M2模型 潜在变量(维度0和1)和重建的图像。 GMVAE 潜在变量(维度0和1)和重建的图像。 您可以看到每个标签似乎都有自己的分布。
2021-12-17 10:13:33 630KB pytorch bayesian-deep-learning pixyz Python
1