香蕉 注意:我们的naszilla / bananas存储库已被扩展命名为 ,并且该存储库已被弃用,不再维护。 请使用具有更多功能的 。 柯林·怀特(Colin White),威利·内斯旺格(Willie Neiswanger)和亚什·萨瓦尼(Yash Savani)。 arXiv:1910.11858 神经体系结构搜索的新方法 BANANAS是一种神经架构搜索(NAS)算法,该算法将贝叶斯优化与元神经网络结合使用来预测神经架构的验证准确性。 我们使用基于路径的编码方案来完善用于训练神经网络模型的神经体系结构。 在仅训练了200种架构之后,我们就能预测新架构的验证准确性平均在1%以内。 完整的NAS算法在NASBench和DARTS搜索空间上超越了现有技术。 在NASBench搜索空间中,BANANAS的效率比随机搜索高100倍,比我们尝试的次优算法高3.8倍。 在DARTS搜索空间上,
2022-01-08 11:42:29 1022KB Python
1
Dragonfly是一个用于可扩展贝叶斯优化的开源python库 Dragonfly 是一个用于可扩展贝叶斯优化的开源 Python 库。 贝叶斯优化用于优化评估通常很昂贵的黑盒函数。 除了普通的优化技术,Dragonfly 还提供了一系列工具来将贝叶斯优化扩展到昂贵的大规模问题。 其中包括特别适合高维优化(针对大量变量进行优化)、同步或异步设置中的并行评估(并行进行多个评估)、多保真优化(使用廉价的近似值来加速优化过程)和多目标优化(同时优化多个功能)。 Dragonfly 兼容 Python2 (>= 2.7) 和 Python3 (>= 3.5),并已在 Linux、macOS 和 Windows 平台上进行测试。 有关文档、安装和入门指南,请参阅我们的 readthedocs 页面。 有关更多详细信息,请参阅我们的论文。 安装 有关安装 Dragonfly 及其依赖项的详细说明,请参见此处。 快速安装:如果你以前做过这种事情,你应该可以通过pip安装Dragonfly。 $ sudo apt-get install python-dev pytho
2021-12-07 14:47:17 462KB 机器学习
1
贝叶斯优化 贝叶斯优化学习代码 什么是贝叶斯优化? 一种使用高斯过程优化黑盒函数 f (x) 的技术(可能) 我想有效地搜索并找到 x_opt = argmax_x f (x)。 假设评估 f (x) 需要时间。程序大致如下。 t = 0,D_t = {} x_t = argmax A (x | D_t) y_t = f (x_t) D_ {t + 1} = D_t \cup {(x_t, y_t)} 到 1. 因为 t = t + 1 所以代替了难以直接优化的f(x)迭代优化 A (x | D_t),这很容易(可能)直接优化。 A(x)被称为Acquisition函数,下面的大部分都是著名的。 最大平均值 (MM) 设 x_t 是使 GP 的后验分布的均值最大化的点 改进概率 (PI)设 x_t 是目前更新最好的概率最高的点 预期改进 (EI)让 x_t 成为最大化您可以针
2021-11-18 16:11:05 6KB Python
1
【预测模型】基于贝叶斯优化的LSTM模型实现数据预测matlab源码.zip
2021-11-13 16:40:22 1.5MB 简介
1
matlab代码粒子群算法BayesOptMat:MATLAB的贝叶斯优化 这是使用修正的高斯过程优化。 使用不同的采集功能执行贝叶斯全局优化。 除其他功能外,还可以使用BayesOptMat优化物理实验并调整机器学习算法的参数。 该代码具有以下附加功能: 采集函数优化的优化方法的其他选项,包括粒子群优化(PSO),CMAES,DIRECT, 贝叶斯优化诊断和测井工具,以测试优化速度和效率; 可视化和动画实用程序,用于低维数据和测试目标函数,以及性能指标的图表。 设置 根文件夹包含文件start.m ,该文件将相关依赖项添加到当前路径。 执行任何操作之前,请确保运行此文件。 根文件夹还包含有关如何使用各种功能的演示文件,并且这些方法具有有关其输入和输出的注释。
2021-11-03 09:44:17 191.69MB 系统开源
1
这本书的目的是提供一个从零开始全面的贝叶斯优化介绍,并细致阐述所有关键的想法。目标受众是机器学习、统计和相关领域的研究生和研究人员。然而,我也希望来自其他领域的从业者和研究人员能在这里找到一些用处。
2021-10-14 16:16:39 13MB 贝叶斯优化
1
贝叶斯优化方法和应用综述=
2021-10-13 14:35:49 814KB 贝叶斯优化
1
bo 用于模块化贝叶斯优化的Python软件包。 该程序包提供了对可能的噪声损坏函数f进行优化的方法。 特别是,此程序包使我们可以优先考虑f的可能行为并选择点,以便收集有关函数及其最大值的信息。 安装 安装此软件包的最简单方法是运行 pip install -r https://github.com/mwhoffman/pybo/raw/master/requirements.txt pip install git+https://github.com/mwhoffman/pybo.git 这将安装软件包及其任何依赖项。 安装软件包后,即可直接通过python运行随附的演示。 例如,通过运行 python -m pybo.demos.animated 演示的完整列表可以在查看。 之前的版本 当前版本的pybo与以前的版本相比,其界面已有一些更改。 该软件包的先前稳定版本可以在找到。 例
2021-10-11 13:04:40 74KB Python
1
代码运行效果图见压缩包
2021-10-08 23:10:02 208KB
1
HyperPower(Keras / TensorFlow +薄荷) 通过贝叶斯优化对硬件进行感知的超参数搜索 + 神经网络。 描述 神经网络(NN)的超参数优化已成为一个具有挑战性的过程。 如果我们发现最佳的(根据分类错误)NN配置也满足硬件约束,例如最大推理运行时间,最大GPU能耗或功耗,则此设计问题将变得更加艰巨。 HyperPower利用贝叶斯优化的有效性来采用受硬件限制的超参数优化。 该代码库是基础: HyperPower: Power- and Memory-Constrained Hyper-Parameter Optimization for Neural Networks Dimitrios Stamoulis, Ermao Cai, Da-Cheng Juan, Diana Marculescu Design, Automation and Test in Eu
2021-10-07 16:27:42 11KB Python
1