文档中为测试函数的链接,资源很齐全,有非限制性函数和限制性函数,下载也很方便。
2021-12-23 15:20:49 107B 测试函数 最优化
1
1.3 特征融合方法与损失函数改进优化 与弱监督网络结构与定位方法不同的是,特征融合方法与损失函数的改进是在前两者的125 基础上帮助前两者可以得到到更好的特征,增加类间距离减少类内距离。关于特征融合现有 的方法大多只是级联 concat 和求和 sum,这些方法限制了层间和层内的本质高阶关系, HIHCA [32] 提出了层级卷积响应的核融合机制使得不同特征可以更好的融合,使得多特征的 优势最大化。通过将卷积激活作为一个局部描述符,层级卷积激活可以处理不同尺度的局部 表示。提出一个基于预测器的多项式核来捕捉卷积激活的高阶统计信息,并通过核融合将多130 项式预测器拓展来对局部建模。 本文的目的是捕捉部件之间更复杂的高阶的关系,写成所 有成分的线性组合,多项式预测如下公式(1)所示。另外 RACNN 引入的排序损失函数、 常用的 triplet loss [33] 、softmax loss 的变种及优化目的都是在缩小类内距离,增加类间距离, 从而使得细粒度识别的效果更好。其中 MAMC [34] 便是提取每张图像的多个区域,然后按照 类别和区域的不同,采用 Triplet Loss 和 Softmax Loss 来训练网络。现有的很多方法是把目135 标的每个部位单独处理,忽略了他们之间的相关性。MAMC 能够拉近相同注意力并且是相 同类别的特征,同时拉远不同注意力或者不同类别的特征。使得分类效果更好。特征融合方 法与损失函数的改进优化这两个方面在细粒度识别领域的应用是最经济适用的,因为在不增 加模型耗时与显存的情况下仅根据训练优化就会使得模型有更好的结果。 (1) 2 应用介绍 140 基于深度学习的计算机视觉近些年发展迅猛,但是视觉算法理论的发展与实际的落地还 有很大的距离。在细粒度识别领域,目前最直接的落地实现便是百度、搜狗等公司推出的车
2021-12-08 11:26:24 605KB 首发论文
1
粒子群算法工具箱,包含16个测试函数,对函数进行优化测试
2021-11-28 19:25:31 757KB 算法工具箱
1
在数学优化中,Rosenbrock 函数是一种非凸函数,用作 Howard H. Rosenbrock 在 1960 年提出的优化算法的性能测试问题[1]。 它也被称为罗森布罗克的山谷或罗森布罗克的香蕉函数。 全局最小值位于一个狭长的抛物线形平坦山谷内。 找到山谷是微不足道的。 然而,收敛到全局最小值是困难的。 它定义为 f(x, y) = (1-x)^2 + 100(yx^2)^2 它在 (x, y)=(1, 1) 处具有全局最小值,其中 f(x, y)=0。 有时会给出第二项的不同系数,但这不会影响全局最小值的位置。
2021-11-17 18:11:52 1KB matlab
1
MATLAB上实现了外点惩罚函数法对问题进行优化求解,有兴趣的有需要的可以下载学习学习
2021-11-01 21:16:21 10KB MATLAB 外惩罚函数法 优化设计
1
数学建模 MCM ICM 个人觉得是非常有用优质的一个手册。
2021-10-03 09:50:18 8.23MB 数学建模 函数 最优化
1
为了更好地改善多目标粒子群优化算法的收敛性和多样性的pso 算法
一种基于SIMD功能部件处理器的三角函数性能优化算法.pdf
2021-09-26 09:04:11 190KB 处理器 微型机器 数据处理 参考文献
在使用基本遗传算法的基础上做一些改进,可以在代码里修改是否选择改进方式以及选择常用测试函数的索引来更好地求得函数的最优值。
2021-09-15 12:13:22 15KB 遗传算法 格雷码 轮盘赌 模拟退火
1
Matlab神经网络(九)--粒子群算法(PSO)实现函数极值优化
2021-09-11 11:44:17 11.66MB Matlab神经网络(九)--粒
1