算法设计与分析课件:Weighted Graph Algorithms.pptx
2022-06-09 09:09:30 394KB 算法 文档资料
本研究介绍了一种名为weIghted meaN oF vectOrs(INFO)的创新优化器的分析和原理,以优化不同的问题。INFO是一种修正的权重均值方法,其中加权均值思想用于实体结构,并使用三个核心过程更新向量的位置:更新规则,向量组合和局部搜索。更新规则阶段基于基于均值的定律和收敛加速,以生成新的向量。向量组合阶段创建获得的向量与更新规则的组合,以实现有希望的解决方案。INFO中改进了更新规则和矢量组合步骤,以提高勘探和开发能力。此外,本地搜索阶段有助于该算法摆脱低精度解决方案,并改善开发和收敛。INFO的性能在48个数学测试函数和5个约束工程测试用例中进行了评估。根据文献,结果表明,INFO在勘探和开发方面优于其他基本和先进的方法。在工程问题的情况下,结果表明INFO可以收敛到全局最优解的0.99%。因此,INFO算法是优化问题中实现最优设计的有前途的工具,这源于该算法在优化约束情况下的可观效率。
2022-05-11 09:04:13 478KB 文档资料
Weighted-ELM
2022-04-16 10:26:40 7KB ELM Weighted-ELM 极限学习机
1
基于带权重系数的众数滤波方法进行深度上采样
2022-04-02 09:45:54 2KB matlab
1
迭代(重)加权最小二乘 论文 Describes a powerful optimization algorithm which iteratively solves a weighted least squares approximation problem in order to solve an L_p approximation problem
2022-03-15 08:19:15 241KB IRLS 迭代(重)加权最小二乘
1
这项工作介绍了 [1] 中提出的 LCI-ELM 的新改进。 新的贡献集中在训练模型对更高维度的“时变”数据的适应性上。 使用C-MAPSS数据集对提出的算法进行了研究[2]。 PSO[3] 和 R-ELM[4] 训练规则被整合到了这个任务中。 拟议算法和用户指南的详细信息可在: https : //www.researchgate.net/publication/337945405_Dynamic_Adaptation_for_Length_Changeable_Weighted_Extreme_Learning_Machine [1] YX Wu、D. Liu 和 H. Jiang,“长度可变增量极限学习机”,J. Comput。 科学技术,卷。 32号3,第 630-643 页,2017 年。 [2] A. Saxena、M. Ieee、K. Goebel、D. Simon 和
2022-03-08 22:17:47 3.46MB matlab
1
Constant Time Weighted Median Filtering for Stereo Matching and Beyond.
2022-03-01 15:41:05 518KB Constant Matching and Beyond.
1
损失函数(加权Hausdorff距离) 用于对象定位 该存储库包含本文描述的加权Hausdorff损失的PyTorch实现: 抽象的 卷积神经网络(CNN)的最新进展在对图像中的对象进行定位方面取得了显著成果。 在这些网络中,训练过程通常需要提供边界框或最大数量的预期对象。 在本文中,我们解决了在没有带注释的边界框的情况下估计对象位置的任务,边界框通常是手工绘制的,并且标注时很费时间。 我们提出了一种损失函数,可以在任何完全卷积网络(FCN)中使用它来估计对象位置。 此损失函数是两个无序点集之间的平均Hausdorff距离的修改。 所提出的方法不需要“猜测”图像中最大数量的对象,并且没有边界框,区域提议或滑动窗口的概念。 我们使用旨在定位人的头部,学生中心和植物中心的三个数据集来评估我们的方法。 我们报告了这三个数据集的平均精度和召回率94%,在256x256图像中的平均位置误差为6个像素
2021-12-29 09:33:00 4.26MB Python
1
用于单层前馈神经网络(SLFN)的极限学习机(ELM)是一种强大的机器学习技术,并且以其快速的学习速度和良好的泛化性能而受到关注。 最近,提出了加权ELM来处理具有不平衡类分布的数据。 加权ELM的关键本质是为每个训练样本分配了额外的权重。 尽管提供了一些经验加权方案,但是如何确定更好的样本权重仍然是一个悬而未决的问题。 在本文中,我们提出了一种Boosting加权ELM,它将加权ELM无缝地嵌入到经过修改的AdaBoost框架中,以解决上述问题。 直观地,反映训练样本重要性的AdaBoost框架中的分布权重被输入到加权ELM中作为训练样本权重。 此外,在两个方面对AdaBoost进行了修改,以更有效地实现不平衡学习:(i)初始分布权重设置为不对称,以便AdaBoost以更快的速度收敛; (ii)针对不同类别分别更新分配权重,以避免破坏分配权重的不对称性。 对KEEL存储库中的16个二进制数据集和5个多类数据集的实验结果表明,与加权ELM相比,该方法可以实现更均衡的结果。
2021-12-28 15:24:50 559KB Extreme learning machine; Weighted
1
加权KNN分类 在加权KNN算法中,逆距离加权方法已被用来确定距离点的重要性。 根据这种方法,最近邻居的标签比远邻的标签对分类的影响更大。
2021-12-06 10:40:09 2KB Python
1