使用卷积加循环神经网络加注意力机制进行时间序列预测。 适用于不懂时间序列预测流程的研究小白,使用这个资源能够很好的理解时间序列预测的整个流程。熟悉数据在网络中的形状变换。代码拿来修改一下数据集路径和些许参数即可运行。
2024-04-08 09:17:32 425KB lstm 数据集
1
Python实现LSTM长短期记忆神经网络时间序列预测(完整源码) Python实现LSTM长短期记忆神经网络时间序列预测(完整源码) Python实现LSTM长短期记忆神经网络时间序列预测(完整源码) Python实现LSTM长短期记忆神经网络时间序列预测(完整源码)
2024-04-04 09:49:24 255KB python lstm 神经网络
1
这篇文章给大家带来的是关于SCINet实现时间序列滚动预测功能的讲解,SCINet是样本卷积交换网络的缩写(Sample Convolutional Interchange Network),SCINet号称是比现有的卷积模型和基于Transformer的模型准确率都有提升(我实验了几次效果确实不错)。本篇文章讲解的代码是我个人根据官方的代码总结出来的模型结构并且进行改进增加了滚动预测的功能。模型我用了两个数据集进行测试,一个是某个公司的话务员接线量一个是油温效果都不错,我下面讲解用油温的数据进行案例的讲解SCINet是一个层次化的降采样-卷积-交互TSF框架,有效地对具有复杂时间动态的时间序列进行建模。通过在多个时间分辨率上迭代提取和交换信息,可以学习到具有增强可预测性的有效表示。此外,SCINet的基础构件,SCI-Block,通过将输入数据/特征降采样为两个子序列,然后使用不同的卷积滤波器提取每个子序列的特征。为了补偿降采样过程中的信息损失,每个SCI-Block内部都加入了两种卷积特征之间的交互学习。个人总结:SCINet就是在不同的维度上面对数据进行处理进行特征提取工作,从而
2024-04-02 22:41:20 52.97MB 数据集
1
时间序列预测调查 该项目的目的是使用新颖的机器学习方法改进对时间序列的预测,并将其向前推进几步,以便更好地预测异常值,例如资产负债表上的异常。 安装 将此存储库克隆或下载到您的计算机。 安装Jupyter Lab( pip install jupyterlab )。 cd到存储库的目录。 使用以下命令启动Jupyter Lab: jupyter lab 。 笔记本可以在Jupyter Lab窗口中打开并运行。 所需的数据很轻,因此已经包含在此存储库中。
2024-03-29 17:34:11 9.59MB JupyterNotebook
1
BP神经网络时间序列预测MATLAB源代码(BP时序预测MATLAB) 1、直接替换数据即可使用,不需要理解代码 2、代码注释详细,可供学习 3、可设置延时步长 4、自动计算最佳隐含层神经元节点数量 5、作图精细,图像结果齐全 6、各误差结果指标齐全,自动计算误差平方和SSE、平均绝对误差MAE、均方误差MSE、均方根误差RMSE、平均绝对百分比误差MAPE、预测准确率、相关系数R等指标,结果种类丰富齐全 7、Excel数据集导入,直接把数据替换到Excel即可 8、可自动随意设置测试集数量 9、注释了结果在工作区
2024-03-26 11:03:33 30KB matlab 神经网络 编程语言
1
基于麻雀算法(SSA)优化径向基神经网络SSA-RBF时间序列预测。 matlab代码,优化参数为扩散速度,采用交叉验证。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-03-17 13:51:12 26KB 神经网络 matlab
1
基于粒子群算法(PSO)优化门控循环单元(PSO-GRU)的时间序列预测。 优化参数为学习率,隐藏层节点个数,正则化参数,要求2020及以上版本。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-03-07 14:13:28 26KB
1
基于贝叶斯优化长短期记忆网络(bayes-LSTM)的时间序列预测,matlab代码,要求2019及以上版本。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-02-21 11:41:42 24KB 网络 网络 matlab lstm
1
MATLAB开发的LSTM深度学习网络来预测时间序列的工具箱-支持单时间序列和多元时间序列的预测
2024-02-18 16:01:02 4.25MB lstm MATLAB 深度学习 长短期记忆网络
1
18第18章 时间序列分析(Python 程序及数据).zip
2024-02-02 08:19:04 494KB python
1