ckpt-person-reid-pytorch-deep-sort_20211201.rar
2021-12-17 16:26:31 41.09MB reid
1
SimCLR-in-TensorFlow-2 (至少)在TensorFlow 2中实现SimCLR(Chen等人)。使用tf.keras和TensorFlow的核心API的许多功能。 提供报告。 致谢 我没有从头开始编写所有代码。 这份特殊的研究论文读起来超级棒,而且常常很自然地被理解,这就是为什么我想亲自尝试一下并提出一个最小的实现的原因。 我将以下作品用于不同目的- 数据扩充政策来自此处: : 。 损失函数来自这里: : 。 从此处引用的TSNE可视化效果: : 。 除了本文之外,以下是我为了理解SimCLR而研究的文章: (此人在解释损失函数“ NT-XEnt损失”方面做得非常出色) 多亏了ML-GDE程序提供了我可以运行实验的GCP积分,并根据需要将中间结果存储在GCS存储桶中。 所有的笔记本都可以在Colab上运行。 数据集 ImageNet的子集:
2021-12-17 13:38:21 85.15MB deep-learning tensorflow keras unsupervised-learning
1
感情 该软件可从视频或摄像头提要中识别人脸及其相应的情绪。 由OpenCV和深度学习提供支持。 安装 克隆存储库: git clone https://github.com/petercunha/Emotion.git cd Emotion/ 使用pip3 install 安装这些依赖pip3 install 张量流 麻木 科学的 OpenCVPython 枕头 大熊猫 matplotlib h5py 凯拉斯 一旦安装了依赖项,就可以运行项目。 python3 emotions.py 训练情绪分类的新模型 从下载fer2013.t
2021-12-17 10:38:37 9.31MB opencv deep-learning tensorflow facial-recognition
1
bayesian_dnns 具有的贝叶斯深层神经网络的实践与实验。 GMVAE 提出的高斯混合变分自动编码器的实现。 通过对生成模型使用高斯混合先验,其对不平衡数据的鲁棒性要比Kingma的m2模型高得多。 我还提到了 示例:MNIST不平衡 数据 标记的[标签:图片数量] [0:1000、1:10、2:10、3:10、4:10、5:100、6:70、7:40、8:50、9:30] 未贴标签总计50000张图像。 每个标签的采样率与标签数据相同(不平衡)。 验证总计10000张图片。 每个标签的采样率相等(平衡) 结果 金马的M2模型 潜在变量(维度0和1)和重建的图像。 GMVAE 潜在变量(维度0和1)和重建的图像。 您可以看到每个标签似乎都有自己的分布。
2021-12-17 10:13:33 630KB pytorch bayesian-deep-learning pixyz Python
1
PyTorch滤波器响应归一化层(FRN) 过滤器响应归一化层(FRN)的PyTorch实现 0.如何将FRN应用于您的模型 自己用FRN + TLU替换模型中的BatchNorm2d + ReLU 。 当前,很难用功能轻松地替换它们。 因为许多模型在不同的地方使用相同的ReLU。 1.实验(分类) 我们使用 数据集。 该数据集包含49位艺术家及其照片。 在此实验中,我们按图片对艺术家进行分类。 1.0假定库 火炬== 1.3.1 催化剂== 19.11.6 配基== 0.4.3 如果使用--fp16选项 1.1获取数据集 如果可以使用kaggle API命令,则可以轻松下载 $ cd input $ kaggle datasets download -d ikarus777/best-artworks-of-all-time $ unzip best-artworks-of-a
2021-12-16 21:36:59 16KB python deep-neural-networks pytorch catalyst
1
ACCSS_Deep security试题(含H3C_150通过),含有部分在考的考试题目,9月份考题。
2021-12-16 20:45:25 200KB ACCSS亚信趋势安全
1
OptiML OptiML是支持向量机和深度神经网络的sklearn兼容实现,根据最新技术,它们都有一些最成功的功能。 这项工作的动机是,有可能通过广泛的优化算法研究对象解决这些模型的数学公式所产生的优化问题,并为“数值方法和优化”课程开发@@在教授的监督下。 内容 数值优化 无约束优化 线搜索方法 零阶方法 次梯度 一阶方法 最陡的梯度下降 共轭梯度 弗莱彻-里夫斯公式 Polak–Ribière公式 Hestenes-Stiefel公式 代formula公式 重球渐变 二阶方法 牛顿 拟牛顿 高炉 随机方法 随机梯度下降 势头 标准 涅斯捷罗夫 亚当 势头 标准 涅斯捷罗夫 毕业证书 势头 标准 涅斯捷罗夫 阿达克斯 势头 标准 涅斯捷罗夫 阿达格拉德 阿达达 RProp RMSProp 具有接口的近端捆绑包,用于 ,
1
pytorch-randaugment RandAugment的非官方PyTorch重新实现。 大部分代码来自 。 介绍 可以使用RandAugment对感兴趣的数据集训练模型,而无需单独的代理任务。 通过仅调整两个超参数(N,M),您可以实现具有竞争优势的AutoAugments性能。 安装 $ pip install git+https://github.com/ildoonet/pytorch-randaugment 用法 from torchvision . transforms import transforms from RandAugment import RandAugment transform_train = transforms . Compose ([ transforms . RandomCrop ( 32 , padding = 4 ), t
1
田春伟,徐勇,费伦克,王俊谦,文杰和罗楠发布的增强型CNN用于图像去噪,已在2019年CAAI Transactions on Intelligence Technology上发表。该方法由Pytorch实施。 ECNDNet的代码由Profillic(为您的项目提供动力的ML模型和代码的最大集合)收集,为 。 此代码使用Pytorch> = 0.4编写。 1.依存关系 pyTorch(> = 0.4) 火炬视觉 适用于Python的openCv 适用于Python的HDF5 Python 2.73 2.测试ECNDNet 如果噪声级别为15,我们将运行以下commod: python test.py --num_of_layers 17 --logdir sigma15 / --test_data Set68 --test_noiseL 15 或python test.py --num_
1
Pytorch中的Grad-CAM实现使网络认为图像标签是“ pug,pug-dog”和“ tabby,虎斑猫”的原因:针对“ pug,pug-dog”类将Grad-CAM与引导反向传播结合起来:Gra Grad -Pytorch中的-CAM实施使网络认为图像标签是“ pug,pug-dog”和“ tabby,虎斑猫”的原因:针对“ pug,pug-dog”类,将Grad-CAM与导向反向传播结合在一起:激活梯度类地图是用于深度学习网络的可视化技术。 参见论文:https://arxiv.org/pdf/1610.02391v1.pdf论文作者进行火炬实施:https://github.com/ramprs/grad-cam我的Keras实施:https://github.com/jacobgil / keras-grad-cam这
2021-12-15 16:28:47 1.69MB Python Deep Learning
1