我们表明,在Georgi-Machacek模型的标量势中不存在三线性项的情况下,重带电标量不一定与h→γγ衰减幅度解耦。 在这种情况下,希格斯到双光子信号强度的测量可能会在参数空间中施加严格的约束。 使用高光度LHC(HL-LHC)和ILC的预计精度,我们发现三重态真空期望值的上限可以低至10 GeV。 我们还发现,当与来自摄动统一性和稳定性的理论约束结合时,可以完全排除这种变体
2024-07-04 23:29:04 919KB Open Access
1
车辆路径优化问题(VRP)变体及数学模型
2024-04-25 15:15:13 72KB
1
rnaseq_variant_calling_workflow 下载 使用以下命令克隆git存储库: git clone https://github.com/durrantmm/rnaseq_variant_calling_workflow.git 安装 此工作流使用conda环境来满足所有必要的依赖关系。 确保您已安装anaconda。 下载。 您只需输入以下内容就可以安装工作流程: bash install.sh 在您的控制台中。 现在是时候进行配置了。 配置 这是正确运行工作流程中非常重要的一步。 打开提供的config.yaml文件以开始使用 设置GATK和Picard执行路径 config.yaml文件的前两个参数是 gatk_path: "java -jar /path/to/GenomeAnalysisTK.jar" picard_path: "java -jar
2023-04-23 16:56:04 9KB Python
1
nsga ii算法代码MATLAB 演示“工具箱” 多目标优化的差分进化 这些代码是由()在其理学硕士期间开发的。 在()教授的指导下,在米纳斯吉拉斯州联邦大学就读。 Octave-Matlab文件夹包含Octave的实现(也应在Matlab上工作)。 实现了以下算法: 后验方法(无首选项): – DEMO [1]:具有非支配排序的常规DEMO; – IBEA [2]:使用指标代替DEMO。 先验的或交互式的(具有首选项): – R-DEMO [3]:R-NSGA-II,但改用DEMO; – PBEA [4]:IBEA,但使用参考点; – PAR-DEMO(nds)[5]:我们提出的使用非支配排序的方法; – PAR-DEMO(ε)[5]:相同的方法,但使用指示符。 Fillipe的理学硕士论文可用,并包含了多目标优化和基于偏好的方法的广泛评论。 它还包含对基于首选项的自适应兴趣区域(PAR)框架的更广泛的描述和讨论。 如果您以任何方式使用这些代码,请引用我们的论文[5]: @article{Goulart2016, doi = {10.1016/j.ins.2015.09.015},
2023-04-13 19:25:49 307KB 系统开源
1
softmax_variants softmax变体的各种损失函数:中心损失,余面损失,高边距高斯混合,由pytorch 0.3.1实现的COCOLoss 训练数据集是MNIST 您可以直接运行代码train_mnist_xxx.py重现结果 参考文件如下: 中锋失利:温彦东,张凯鹏,李志峰和乔巧。 一种用于深度人脸识别的判别性特征学习方法。 ECCV 2016 Cosface损失:王浩,王一彤,周正,邢吉,狄宏恭,周静超,李志峰和刘伟。 CosFace:用于深脸识别的大余量余弦损失。 CVPR2018 大幅度高斯混合损失:万维涛,钟元仪,李天鹏,陈建生。 重新考虑图像分类中损失函数的特征分布。 CVPR 2018 COSO损失:刘宇,李洪阳,王小刚。 重新思考特征识别和聚合,以进行大规模识别。 NIPS研讨会2017 学到的二维嵌入功能包括: softmax损失 可可
2023-03-30 16:54:29 619KB deep-learning Python
1
PART ONE/为什么需要图神经网络 PART TWO/什么是图神经网络(包括图的基本知识,及基本GNN的操作) PART THREE/图神经网络的变体(图神经网络的3个变体,图卷积神经网络(又可分为基于空间域的图卷积神经网络和基于频域的图卷积神经网络),基于注意力的图神经网络,基于自编码器的图神经网络)。包括DCNN(Diffusion-Convolution Neural Network、NN4G(Neural Networks for Graph)、MPNN:Message Passing Neural Network、GAT (Graph Attention Network)、图自编码器(graph autoencoder,GAE)、变分图自编码器(variational graph autoencoder,VGAE) PART FOUR/应用,在自然语言处理方面的应用,在计算机视觉方面的应用,在推荐系统方面的应用,在预测问题方面的应用
2022-12-19 16:28:05 12.69MB 图神经网络 GNN DCNN GAE
1
1.GAN背景 2.GAN原理 3.最原始GAN 4.GAN变体 5.整整63页的ppt,下载就是赚到 到2014为止,最广泛使用和最成功的机器学习形式是监督学习。通过给定包含{输入X,输出Y}的训练数据集,监督学习算法学习从输入到输出的映射关系,以分类问题举例,监督学习算法得到的模型能够较好的识别特定的类别(一张照片属于狗或猫的情况)。 然而现有的监督学习通常需要数百万个训练数据来达到超过人类表现的效果,这对训练数据集的获取带来了极大的挑战。
2022-11-22 20:26:21 5.76MB 深度学习 GAN 人工智能
1
内容概要:原始的梯度下降法,三种变体,以及多个优化算法的基础介绍和伪代码。内含latex文件,有大量公式和伪代码的编写。 适合人群:想了解梯度下降法和latex学习人群
2022-11-22 15:29:29 266KB 随机梯度下降 梯度下降 latex
1
matlab的egde源代码快速RPCA 健壮的PCA和SPCP的所有变体的Matlab代码。 这实现了Aravkin,Becker,Cevher,Olsen的会议论文“采用可变方法实现稳定的主成分”中的代码。 UAI 2014。 该代码不仅速度很快,而且是我们所知的唯一代码,它可以解决所有常见的稳定主成分追踪(SPCP)变体,包括我们在本文中介绍的新变体。 从某种意义上说,所有这些变体都是等效的,但是其中一些更易于解决,而某些参数则更易于估计。 见 有关强大的PCA和稳定的主成分追求的更多信息(带有软件的网站,评论文章等) 引文 bibtex: @inproceedings{aravkin2014, author = "Aravkin, A. and Becker, S. and Cevher, V. and Olsen, P.", title = "A variational approach to stable principal component pursuit", booktitle = "Conference on Uncertainty in Artificial In
2022-11-08 22:58:46 3.65MB 系统开源
1
UNet模型医学视网膜血管2015年到最近的英文文献和源码统计 包括unet和unet变体源码文献r2unet和cenet和unet3+和3dunet和segnet和unet2和nnunet和Vnet源码等等以及注意力机制 可以复现到别的医学领域 视网膜数据集之前资源里有
1