传统用于总线系统或互联网的仲裁方法已不能很好地适应NoC应用环境。围绕NoC系统性能的关键影响因素——拥塞状态,提出了一种基于全局和本地拥塞预测的仲裁策略(GLCA),以改善NoC网络延迟。实验结果表明,相对于RR方法,新仲裁算法使得网络平均包延迟和平均吞吐量最大分别可改善20.5%和8%,并且在不同负载条件下都保持了其优势。综合结果显示, GLCA与RR方法相比,路由器仅在组合逻辑上有少许增加(25.7%)。
2023-10-23 22:17:33 729KB 片上网络 仲裁方法 拥塞 延迟 拥塞区域
1
工业用电功率预测时间序列
2023-10-23 20:37:40 101KB lstm 工业用电功率预测时间序列
1
气象数据国际地面交换站日间数据,包括降水、温度、湿度、压力、风向、风速、压力等气象信息。
2023-10-22 19:17:19 232.14MB 气象数据 降水数据 气象预测
1
通过C语言实现了分支目标缓存技术BTB,深度可改,内含注释
2023-10-21 17:03:31 810B C语言 分支预测 BTB
1
降雨预测.rar降雨预测.rar降雨预测.rar
2023-10-17 17:13:15 3.42MB 机器学习 降雨预测.rar
1
SARIMA-LSTM混合模型预测时间序列(Python) SARIMA-LSTM混合模型预测时间序列(Python) SARIMA-LSTM混合模型预测时间序列(Python)
2023-10-12 16:32:27 7KB lstm python SARIMA-LSTM
1
神经网络模型普遍存在过拟合问题,所以采用增加3层丢弃层避免梯度消失的问题,利用adam优化器自动优化学习率。 本文使用ReLu Activation函数激活参数特征,然后连接Batch Normalization层和Dropout层,再用Flatten层对数据进行平滑处理,最后将数据输入两个堆叠的LSTM层输出预测数据。 经过多次调整超参数后,确定丢弃率为0.15。 为该单特征LSTM模型的损失变化图。由图可见,该模型损失函数的下降速度极快,在训练次数达到三百次左右时,损失已经基本维持在0附近,并逐步趋于平稳,说明该模型能够很快地收敛到一个较优的参数状态,避免了过拟合或欠拟合的问题。该模型的整体MAPE最低时达到10.69%,整体的拟合程度较高。
2023-10-11 23:01:33 6KB lstm 神经网络
1
地下水是最大的资产之一。 地下水的持续下降是影响经济社会发展的关键因素之一。 根据可用性,将对水进行开采。 人口增长和新出现的气候变化导致水资源短缺问题。 这将增加对地下水的需求。 但是地下水分布不均。 在我们提出的系统中,我们规定了可供将来使用的年度地下水可用量。 它可以通过机器学习算法进行分类,例如逻辑回归,随机森林和决策树。 用于建模的输入变量基于各个季节的补水量和用水量。 回归任务需要较少的训练数据集,并且可以实现良好的性能。 本文的目的是对地下水位的机器学习算法及其准确性进行比较和分析。 本文使用机器学习算法对印度的地下水可用水平进行分类和检测。
2023-10-10 10:36:15 463KB Ground water Logistic regression
1
基于python模型的SpringBoot+Vue的水位预测网站
2023-10-09 19:39:33 10.44MB 预测模型 水位预测模型
1
鲸鱼算法(WOA)优化长短期记忆神经网络的数据回归预测,WOA-LSTM回归预测,多输入单输出模型 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2023-10-09 13:13:47 9.56MB 算法 神经网络 回归 lstm
1