共轭梯度法 最优化 c++
2024-05-20 10:15:03 2KB 共轭梯度法
1
tensorflow1.x完成,适应了tensorflow2.x环境,DQN,DDPG,ACTOR-CRITIC等等强化学习卸载方案
2024-05-13 21:17:35 3.76MB 边缘计算
1
这是用于使用软边界模型和次梯度下降优化的 2 类问题的支持向量机代码。
2024-04-14 15:15:16 81KB matlab
1
FGSM:resnet50上的快速梯度符号方法实现
2024-04-12 18:58:12 130KB JupyterNotebook
1
今天小编就为大家分享一篇PyTorch的SoftMax交叉熵损失和梯度用法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2024-03-28 21:45:21 45KB PyTorch SoftMax 交叉熵损失
1
约束优化的分布式梯度算法在电力系统负荷分担中的应用
2024-03-20 21:18:54 701KB 研究论文
1
粒子群算法(PSO)优化极限梯度提升树XGBoost时间序列预测,PSO-XGBoost时间序列预测模型,单列数据输入模型。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-01-31 18:40:27 54.69MB
1
遗传算法(GA)优化极限梯度提升树XGBoost回归预测,GA-XGBoost回归预测模型,多变输入模型。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-01-27 19:15:04 54.7MB
1
灰狼算法(GWO)优化极限梯度提升树XGBoost时间序列预测,GWO-XGBoost时间序列预测模型,单列数据输入模型。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-01-27 17:36:46 54.69MB
1
梯度下降法(Gradient Descent)是机器学习和深度学习中最基本、最重要的优化算法之一。它被用于训练神经网络、拟合模型参数和解决各种问题。本博客将深入探讨梯度下降法的原理、不同变种、超参数调优和实际应用,帮助您全面理解这一关键概念。 目录 介绍 什么是梯度下降法? 为什么需要梯度下降法? 梯度下降法的原理 目标函数与损失函数 梯度的定义 梯度下降的基本思想 梯度下降的变种 批量梯度下降(Batch Gradient Descent) 随机梯度下降(Stochastic Gradient Descent) 小批量梯度下降(Mini-batch Gradient Descent) 超参数调优 学习率的选择 收敛条件 动量与学习率衰减 梯度下降的实际应用 线性回归 逻辑回归 神经网络训练 梯度下降的优化技巧 自适应学习率 Adam优化器 梯度下降的局限性 局部最小值问题 鞍点问题 总结与展望 梯度下降的优点 未来发展方向
2024-01-19 14:28:16 15KB 神经网络
1