调谐斯克莱恩 Tune-sklearn是Scikit-Learn的模型选择模块(GridSearchCV,RandomizedSearchCV)的替代品,它具有尖端的超参数调整技术。 产品特点 以下是tune-sklearn提供的功能: 与Scikit-Learn API的一致性:在标准Scikit-Learn脚本中更改少于5行即可使用API​​ []。 现代调整技术:tune-sklearn使您可以通过简单地切换几个参数来轻松利用贝叶斯优化,HyperBand,BOHB和其他优化技术。 框架支持:tune-sklearn主要用于调整Scikit-Learn模型,但它也支持并提供了许多其他带有Scikit-Learn包装器的框架的示例,例如Skorch(Pytorch)[ ],KerasClassifier(Keras)[ ],和XGBoostClassifier(XGBoost)[]。 向上扩展:Tune-sklearn利用 (一个用于分布式超参数调整的库)在不更改代码的情况下并行化多个核甚至多个机器上的交叉验证。 查看我们的和(针对master分支)。 安装 依存关
1
这本书的目的是提供一个从零开始全面的贝叶斯优化介绍,并细致阐述所有关键的想法。目标受众是机器学习、统计和相关领域的研究生和研究人员。然而,我也希望来自其他领域的从业者和研究人员能在这里找到一些用处。
2021-10-14 16:16:39 13MB 贝叶斯优化
1
bayesian-optimization MATLAB
2021-10-13 18:04:30 6KB MATLAB
1
贝叶斯优化 Hyperband 超参数优化 实施 要求 - numpy - scipy - statsmodels - dask - torch (example) 安装 pip3 install bohb-hpo 用法 from bohb import BOHB import bohb . configspace as cs def objective ( step , alpha , beta ): return 1 / ( alpha * step + 0.1 ) + beta def evaluate ( params , n_iterations ): loss = 0.0 for i in range ( int ( n_iterations )): loss += objective ( ** params , step = i )
1
自动集群 autocluster是用于执行集群任务的自动化机器学习(AutoML)工具箱。 报告和演示幻灯片可在和找到。 先决条件 Python 3.5或更高版本 也可以使用Linux OS或 如何开始? 首先,安装 : sudo apt-get install build-essential swig conda install gxx_linux-64 gcc_linux-64 swig pip install smac==0.8.0 pip install autocluster 这个怎么运作? autocluster自动优化集群问题的配置。 通过配置,我们的意思是 降维算法的选择 聚类模型的选择 降维算法的超参数的设置 聚类模型的超参数的设置 autocluster提供了3种不同的方法来优化配置(复杂度不断提高): 随机优化 贝叶斯优化 贝叶斯优化+元学习(warm
1
An iterative nonlinear filter using variational Bayesian optimization
2021-02-07 20:05:33 446KB 研究论文
1