Bertsimas D,BrownDB,CaramanisC.Theory and applications of robust optimization. SIAMReview2011;53(3):464–501.
2021-06-09 20:47:36 640KB robust
1
深度学习理论是当下研究的热点之一。最近来自UIUC计算机助理教授Sun Ruoyu撰写一篇深度学习最优化理论和算法的综述论文,共60页257篇文献,概述了神经网络的优化算法和训练理论《Optimization for deep learning: theory and algorithms》,并得到众多大佬的推荐,比如模仿学习带头人加州理工Yisong Yue,欢迎大家阅览,需要一番数学理论功底,方能扛过。
2021-06-08 18:13:23 789KB DL_optimization
1
IBM ILOG CPLEX Optimization Studio Free Edition V12.9 for Linux x86-64
2021-06-07 10:25:12 154B 高效计算 优化
1
K. Miettinen, Nonlinear Multiobjective Optimization. Norwell, A:Kluwer, 1999. Problems with multiple objectives and criteria are generally known as multiple criteria optimization or multiple criteria decision-making (MCDM) problems. So far, these types of problems have typically been modelled and solved by means of linear programming. However, many real-life phenomena are of a nonlinear nature, which is why we need tools for nonlinear programming capable of handling several conflicting or incommensurable objectives. In this case, methods of traditional single objective optimization and linear programming are not enough; we need new ways of thinking, new concepts, and new methods - nonlinear multiobjective optimization. Nonlinear Multiobjective Optimization provides an extensive, up-to-date, self-contained and consistent survey, review of the literature and of the state of the art on nonlinear (deterministic) multiobjective optimization, its methods, its theory and its background. The amount of literature on multiobjective optimization is immense. The treatment in this book is based on approximately 1500 publications in English printed mainly after the year 1980. Problems related to real-life applications often contain irregularities and nonsmoothnesses. The treatment of nondifferentiable multiobjective optimization in the literature is rather rare. For this reason, this book contains material about the possibilities, background, theory and methods of nondifferentiable multiobjective optimization as well. This book is intended for both researchers and students in the areas of (applied) mathematics, engineering, economics, operations research and management science; it is meant for both professionals and practitioners in many different fields of application. The intention has been to provide a consistent summary that may help in selecting an appropriate method for the problem to be solved. It is hoped the extensive bibliography will be of value to researchers.
2021-06-07 09:59:09 9.7MB Multiobjecti Optimization
1
svm-firefly-optimization 这是我在萤火虫上的实现,以找到用于SVM的最佳C-Gamma参数,即Optimisasi C dan Gamma参数pada SVM 我从todatoshi( )的萤火虫算法实现中进行了一些自定义 在Scikit SVM中找到最佳的C和Gamma参数 样本数据集50-50,我仅将朋友的部分数据集用于演示目的,而不发布完整的数据集。 使用K折交叉验证,添加更多数据集将提高准确性,在此演示中,我们仅获得65%到70%的准确性。 ======== Implementasi algoritma萤火虫pada SVM untuk mencari参数C dan Gamma terbaik
2021-06-03 11:15:02 29KB svm firefly-algorithm Python
1
进化多目标优化平台 由安徽大学BIMK(生物启发情报与挖掘知识研究所)和萨里大学NICE(自然启发计算与工程小组)共同开发 150多种开源进化算法 300多个开源基准测试问题 强大的GUI可并行执行实验 一键式生成Excel或LaTeX表格式的结果 最先进的算法将不断被包括在内 非常感谢您使用PlatEMO。 PlatEMO的版权属于BIMK集团。 该工具主要用于研究和教育目的。 这些代码是根据我们对论文中发布的算法的理解而实现的。 您不应以网站上的材料或信息为依据来做出任何业务,法律或任何其他决定。 我们对您在工具中使用任何算法所造成的任何后果不承担任何责任。 使用该平台的所有出版物都应承认使用“ PlatEMO”并参考以下文献: 版权 PlatEMO的版权属于BIMK组。 您可以自由地用于研究目的。 使用此平台或平台中任何代码的所有出版物都应承认使用“ PlatEMO”,并引用“田野
1
许多元学习方法的少数镜头学习依赖于简单的基础学习者,如最近邻分类器。然而,即使在少量射击的情况下,有区别地训练线性预测器可以提供更好的泛化。我们建议使用这些预测器作为基础学习者来学习少量镜头学习的表示,并表明它们在一系列少量镜头识别基准之间提供了更好的特征大小和性能之间的权衡。我们的目标是学习特征嵌入,在新的类别线性分类规则下很好地一般化。为了有效地解决这一目标,我们利用了线性分类器的两个性质:凸问题的最优性条件的隐式微分和最优问题的对偶公式。这允许我们使用高维嵌入改进的泛化,并适度增加计算开销。我们的方法名为MetaOptNet,在miniImageNet、tieredImageNet、CIFAR-FS和FC100的几次学习基准上实现了最先进的性能。
2021-06-01 22:06:07 2.64MB 可微 凸优化 元学习
1
Robust Optimization (Princeton Series in Applied Mathematics) (Aharon Ben-Tal, et al) 0691143684.pdf
2021-06-01 21:13:53 10.76MB Robust Optimization
1
% fodpso - 分数阶达尔文粒子群的 MatLab 函数% 优化 (FODPSO)。 % 仅限于九个变量的优化问题,但很容易% 被扩展为更多的变量。 % % xbest = fodpso(func) % xbest - 优化问题的解决方案。 列数% 取决于输入函数。 size(func,2)=xi 变量的数量% func - 包含数学表达式的字符串。 定义了变量% 为 xi。 例如, func='2*x1+3*x2' 表示这是一个优化问题% 两个变量。 % % [xbest,fit] = fodpso(func) % fit - 使用 xbest 解决方案返回 func 的优化值。 % % [xbest,fit] = fodpso(func,xmin) % xmin - xi 的最小值。 size(xmin,2)=xi 变量的数量。 默认% -100。 % % [xbest,fit]
2021-06-01 12:03:08 6KB matlab
1
一个国外开发者写的Matlab工具箱,主要用于优化无无约束的问题。 一个国外开发者写的Matlab工具箱,主要用于优化无无约束的问题。
2021-05-31 09:04:22 86KB Matlab 优化 Optimization minfunc
1