通过考虑与速率常数参数和动力学模型结构误差相关的不确定性,在该研究中使用贝叶斯推断来评估α-pine烯的热异构化速率同意的后验分布。 α-pine烯的热异构化动力学模型显示具有数学上不适的系统,这使得难以应用基于梯度的优化方法进行速率常数评估。 贝叶斯推断将速率常数的后验概率分布与满足实验测量浓度的反应产物模型浓度和参数的先验概率分布的似然概率相关联。 马尔可夫链蒙特卡洛(MCMC)用于从后验分布中抽取样本,同时考虑贝叶斯推断关系。 本研究应用多项式随机游走Metropolis-Hastings来构建速率常数,置信区间和相关系数矩阵的直方图。 结果表明,考虑到不确定性,贝叶斯方法可以成功地应用于估计反应模型速率常数的置信区间。
1
海鸥算法(SOA)优化随机森林的数据回归预测,SOA-RF回归预测,多变量输入模型。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2023-12-08 08:57:08 61KB 随机森林
1
针对超硬刀具PCBN(聚晶氮化硼)对难加工材料的车削加工过程建立数学模型;运用MATLAB软件中的遗传算法工具箱对切削参数进行优化;利用Mastercam软件对刀具加工时的路径进行优化,从而在理论和加工过程中实现了切削参数的优化。研究结果表明,当切削速度v=120.143 m/min,进给量f=0.154 mm/r时,经权重处理后的目标函数取得最小值;有效避免了加工过程出现刀具空走刀或撞刀等路径问题。
2023-12-08 00:57:45 219KB 数学模型 遗传算法 Mastercam
1
我们扩展了先前的工作(在D = 2上),以给出D = 4和D = 6尺寸的ΦD3大N矩阵模型(或重新归一化的Kontsevich模型)的精确解。 与D = 2相比,归纳证明和困难的组合没有变化,但是根据Zimmermann执行的重归一化要涉及得多。 作为主要结果,我们证明了由ΦD3-QFT模型在Moyal空间上产生的Schwinger 2点函数满足实际耦合常数,D = 4和D = 6维度上的反射正性。 关联的Wightman 2点函数的Källén-Lehmann质谱描述了一个散射部分| p |2≥2μ2和一个孤立的加宽的质量壳| p | 2 =μ2。
2023-12-07 23:49:00 624KB Open Access
1
特别详细,而且里面的操作教程是傻瓜文件,每一段在做什么都有解释,输出结果图片很详细,需要自己手动改的窗口期教程里也有详细讲,没基础也能直接上手!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! 我自己试过很好用!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
2023-12-07 20:45:49 83KB r语言 课程资源 毕业设计
1
麻雀算法(SSA)优化最小二乘支持向量机分类预测,SSA-LSSVM分类预测,多输入单输出模型。 多特征输入单输出的二分类及多分类模型。程序内注释详细,直接替换数据就可以用。 程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图。
2023-12-07 13:30:14 87KB 支持向量机
1
麻雀算法(SSA)优化混合核极限学习机(HKELM)分类预测,多特征输入模型,SSA-HKELM分类预测。 多特征输入单输出的二分类及多分类模型。程序内注释详细,直接替换数据就可以用。 程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图。
2023-12-07 13:28:01 75KB
1
循环流化床(CFB)锅炉密相区是焦炭型氮氧化物(NOx)生成的主要区域,利用小型鼓泡流化床实验台比拟CFB锅炉密相区,在850℃床温和10%O2浓度下,进行了单颗粒焦炭的燃烧实验,对不同床料粒度、制焦煤种、焦炭粒径和流化风速条件下焦炭氮向NOx的转化比例进行了研究。针对3种原煤制得的焦炭,均发现床料粒度增大后,鼓泡床乳化相内传质系数增加而传热系数降低,导致焦炭颗粒表面氧化性气氛增强,燃烧进程加快,焦炭氮向NOx转化率上升。初始焦炭粒径越大,焦炭氮向NOx转化率越低。流化风速的增大对焦炭氮向NOx转化有一定的促进作用,但并不显著。实验中对焦炭颗粒内部温度进行了测量,验证了前述的实验结果。同时,基于密相区传质传热特性与简化反应机理,建立了单颗粒焦炭燃烧及焦炭氮转化模型,计算结果与实验匹配良好,为CFB锅炉整体NOx排放模型的建立奠定了基础。
2023-12-07 13:19:37 541KB 行业研究
1
图一就是Transformer模型的框架,不过这里的encoder和decoder不再是RNN结构,拆开来看,细节如图二:原始论文里,作者设置了6层encoder与6层decoder结构。至于为什么是6,这就是一个超参数而已,可以根据实际情况设置为其他值。从图二中可以看到,计算流程是:输入的句子经过逐层编码后,最上层的encoder会输出中间结果,这个中间结果在每一层decoder中都会用到。同时decoder的计算也是从下往上进行,直到最后输出预测结果。这里省略的是最下层decoder的输入:如果是训练过程,输入则是真实的目标句子;如果是预测过程,第一个输入开始标识符,预测下一个词,并且把这
2023-12-07 08:45:25 924KB
1
深度学习自然语言处理-Transformer模型.zip
2023-12-07 08:37:08 26.59MB 深度学习 自然语言处理 transformer
1