ASC旁瓣相消----MSE准则.mASC旁瓣相消----MSE准则.mASC旁瓣相消----MSE准则.m
2021-09-27 05:26:05 923B matlab 旁瓣相消
1
基于最大偏差相似性准则的BP神经网络短期电力负荷预测算法.pdf
2021-09-25 22:05:24 1.71MB 神经网络 深度学习 机器学习 数据建模
最大后验概率准则 最大后验概率准则即选择后验概率集{P(sm|r)}中概率最大值的信号 由Bayes公式可得 其中 是给定sm条件下观测向量的条件PDF, 是第m个发送信号的先验概率, 当M个信号先验等概时 此时 最大等价于 最大 最大后验概率准则即等价于最大似然准则 称为似然函数
2021-09-25 19:14:41 665KB MIMO
1
4-----CNAS-CL01-G001:2018《CNAS-CL01《检测和校准实验室能力认可准则》应用要求》.pdf
2021-09-25 16:14:52 373KB CNAS
1
[精选]会计原则(准则)的性质(ppt31).pptx
2021-09-21 09:06:40 144KB 财务管理类 PPT 文档资料
[精选]会计账簿的设计准则.pptx
2021-09-21 09:06:26 311KB 财务管理类 PPT 文档资料
3.2 试验设计与初始样本选择 代理优化算法的第一步是选择初始样本点, 并建立初始代理模型。虽然理论上可以像梯度优 化算法那样只给出一个初始点,但针对全局优化 问题,更好的方法是通过试验设计选取一组样 本。 试验设计(DoE)的思想是通过选取 少的 样本点,使获取的关于未知设计空间的信息 大 化。Giunta 等人在文献[39]中将 DoE 方法分为两 类:经典试验设计和现代试验设计方法。经典试 验设计方法包括全因子设计、中心组合设计 (CCD)、Box-behnken 设计、D 优化(D- Optimal)方法等。经典试验设计方法主要用于安 排仪器实验,并考虑到如何减小实验随机误差的影 响。现代试验设计方法包括拟蒙特卡洛方法、准 蒙特卡洛方法、拉丁超立方(LHS)、正交试验 设 计 ( OAD ) 、 哈 默 斯 利 序 列 采 样 方 法 (HSS)。我国方开泰教授发明的均匀设计 (UD[40])也属于现代试验方法的范畴。现代试 验设计主要采用“空间填充”的思想,用于安排 确定性的计算机试验,其中尤以拉丁超立方和均 匀设计方法比较流行(如图 5)。 不同试验设计方法选取的样本点不同,导致 初始代理模型的近似精度不同,从而对代理优化 的效率有影响。同样影响优化效率的是初始样本 点的数目。文献[31]和[37]讨论了样本点数的选 择。对于传统代理模型优化方法,必须使代理模 型具有足够精度。因而一般初始样本点数与后期 增加的样本点数的比值在 2:1 以上。例如对于 二次响应面方法,对于 m 维问题的初始样本点数 必须大于 m(m+1)/2。而对于基于 kriging 模型的 代理优化算法,初始样本点数理论上不受设计空 间维数的限制,且优化效率对初始样本点数的依 赖也并不明显。一般情况下初始样本点数与后期 增加的样本点数之比在 1:2 以下。 v1 v 2 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 v1 v 2 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 图 5 采用拉丁超立方(左图)和均匀设计(右图)针 对 2 维设计空间选择的 25 个样本点示意图 Fig. 5 Schematics of 25 sample points selected by Latin hypercube sampling (left) and uniform design (right) for a 2-D problem 3.3 优化加点准则及其子优化求解 建立初始代理模型后,下一步是通过一定的 法则循环选择新的样本点,直到优化收敛。所谓 “优化加点准则” [15][31][71][106] ,是指如何由所建 立代理模型去产生新的样本点的法则或规则。所 谓“子优化”,是相对主优化而言,是指采用传 统优化算法求解由加点准则所确定的优化问题, 得到新的样本点的过程。主优化加点循环中的每 一步,都要进行一次完整的子优化迭代,直到子 优化收敛。但由于在子优化中,无需访问精确数 值分析,因此计算时间可以忽略。 针对基于 kriging 模型的代理优化算法,国 际上已经发展了多种加点准则 [31][106][107] ,包括 MSP 准则[15][108]、EI 准则[15][20][74]、PI 准则[106] [107][109] 、 MSE 准 则 [106][109] 、 LCB 准 则 [75] [106][107] 。为了说明这 5 种常见加点准则的原理和 子优化问题的建立,下面以某一维函数为例,采 用 4 个样本点 T[0,0.4,0.6,1.0]S 建立 kriging 模 型。该一维函数来自文献[31],表达式为: ( ) sin( ), [ , ]   y x x x26 2 12 4 0 1 (57) 3.3.1 小化代理模型预测准则 (MSP, minimum of surrogate prediction) 该方法是 简单、 直接,也是 早被采用 的方法 [15][106]-[110] 。其原理是直接在代理模型上寻 找目标函数的 小值。带约束的子优化问题数学 模型如下:
2021-09-20 11:05:15 1.04MB kriging 代理
1
ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!ABAQUS断裂准则培训资料!
2021-09-18 12:44:04 291KB ABAQUS 断裂准则 培训资料
1
本科模式识别的实验指导书和代码,比较简单的MATLAB实现,如果需要,可以看看。
1
运行环境: 1.python 3.7.4 2.pytorch 1.4.0 3.python-opencv 说明 预训练的权重文件[vgg_16] 具体的配置文件请看Config.py文件 训练运行python Train.py 单张测试 python Test.py ##目前进度: 1、PERCLOS计算 DONE 2、眨眼频率计算 DONE 3、打哈欠检测及计算 DONE 4、疲劳检测 DONE 5、人脸情绪检测 DONE 6、口罩检测Done 网络检测性能:准确率82.18% 主要文件说明: ssd_net_vgg.py 定义class SSD的文件 Train.py 训练代码 voc0712.py 数据集处理代码(没有改文件名,改的话还要改其他代码) loss_function.py 损失函数 detection.py 检测结果的处理代码,将SSD返回结果处理为opencv可以处理的
2021-09-13 19:40:36 212.52MB Python
1