CMS合作的Run-I结果显示,衰变h→μτe中存在大量事件,局部有效值为2.4σ。 这可能是希格斯行业中违反风味的第一个提示。 我们从直接搜索,低能量测量和计划的未来实验中总结了违反Yukawa耦合器风味的界限。 我们使用有效的场论框架讨论了即将到来的HL-LHC运行和未来的轻子对撞机在测量轻子-风味违规耦合方面的敏感性。 对于HL-LHC,我们找到BR(h→μτ)和BR(h→eτ)≲O 0.5%$$ \ mathcal {O}(0.5)\%$$和BR(h→eμ)≲O的极限 0.02%$$ \ mathcal {O}(0.02)\%$$。 对于质心能量为1 TeV的ILC,我们期望BR(h→eτ)和BR(h→μτ)可测量到O 0.2%$$ \ mathcal {O}(0.2)\%$$ 。
2024-07-04 21:30:26 1.29MB Open Access
1
1. 根据某一文法编制递归下降分析程序,以便对任意输入的符号串进行分析。 2. 本次实验的目的是加深对递归下降分析法的理解。
2024-05-31 10:59:11 481KB 递归下降
1
这是用于使用软边界模型和次梯度下降优化的 2 类问题的支持向量机代码。
2024-04-14 15:15:16 81KB matlab
1
梯度下降法(Gradient Descent)是机器学习和深度学习中最基本、最重要的优化算法之一。它被用于训练神经网络、拟合模型参数和解决各种问题。本博客将深入探讨梯度下降法的原理、不同变种、超参数调优和实际应用,帮助您全面理解这一关键概念。 目录 介绍 什么是梯度下降法? 为什么需要梯度下降法? 梯度下降法的原理 目标函数与损失函数 梯度的定义 梯度下降的基本思想 梯度下降的变种 批量梯度下降(Batch Gradient Descent) 随机梯度下降(Stochastic Gradient Descent) 小批量梯度下降(Mini-batch Gradient Descent) 超参数调优 学习率的选择 收敛条件 动量与学习率衰减 梯度下降的实际应用 线性回归 逻辑回归 神经网络训练 梯度下降的优化技巧 自适应学习率 Adam优化器 梯度下降的局限性 局部最小值问题 鞍点问题 总结与展望 梯度下降的优点 未来发展方向
2024-01-19 14:28:16 15KB 神经网络
1
库水位下降的饱和-非饱和土坝渗流数值模拟,徐杨军,夏元友,基于非饱和土渗流的理论,借助Geo-slope的有限元数值模拟软件,对库水位下降过程中的饱和-非饱和土坝进行了数值模拟分析,分析结果�
2024-01-11 13:20:44 613KB 首发论文
1
easyopt.jar包中求解VRP问题的节约里程法、改进节约里程法、Sweep扫描算法和λ互换下降法的源代码;算法具体文档说明后续给出连接。
2023-11-20 21:14:03 186KB java
1
easyopt.jar包中求解VRP问题的节约里程法、改进节约里程法、Sweep扫描算法和λ互换下降法说明文档,本准备粘贴,但是有些图片或公式上传起来比较复杂,所以还是直接上传pdf资料吧。
2023-11-20 10:29:47 1.98MB java
1
deep-learning personal practice 深度学习个人练习,该项目实现了深度学习中一些常用的算法,内容包括: 四种初始化方法:zero initialize, random initialize, xavier initialize, he initialize。 深度神经网络 正则化 dropout 三种梯度下降方法:BGD, SGD, mini-batch 六种优化算法:momentum、nesterov momentum、Adagrad、Adadelta、RMSprop、Adam 梯度检验 batch normalization recurrent neural network (RNN) Note: 下列 1-10中网络架构主要为四大块: initialize parameters、forward propagation、backward propagati
2023-10-06 17:02:27 341KB 附件源码 文章源码
1
1、内附Exel数据集,8000组作为训练集,剩余的作为测试集; 2、有监督学习方式:梯度下降优化中心向量C、宽度D、权值W; 3、目标误差为10*e-5; 4、纯matlab代码,未使用神经网络工具箱。
2023-05-16 22:08:34 543KB 神经网络 matlab 软件/插件
1