本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。
1
本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。
2022-12-15 11:28:31 2KB pytorch bp 曲线拟合 多项式拟合
1
本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。
2022-12-15 11:28:31 2KB 深度学习 bp pytorch 曲线拟合
1
本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。
2022-12-15 11:28:30 3KB 深度学习 bp pytorch 曲线拟合
1
本程序实现了在PyTorch中利用前馈神经网络实现复杂函数拟合。主要包括基于nn.Module的神经网络搭建和训练方法和数据集生成、分割方法。展示了通过调参分析和模型训练过程,评估各种超参数对训练过程、模型性能的影响,并将测试结果可视化。
2022-12-15 11:28:29 1KB 深度学习 bp pytorch 曲线拟合
1
While(1)//死循环 { 任务 MyTask 实体代码; OSTimeDlyHMSM(x,x,x,x);//调用任务延时函数,释放 cpu 控制权, } } 假如我们新建了 2 个任务为 MyTask 和 YourTask,这里我们先忽略任务优先级的概念,两个 任务死循环中延时时间为 1s。如果某个时刻,任务 MyTask 在执行中,当它执行到延时函数 OSTimeDlyHMSM 的时候,它释放 cpu 控制权,这个时候,任务 YourTask 获得 cpu 控制权开 始执行,任务 YourTask 执行过程中,也会调用延时函数延时 1s 释放 CPU 控制权,这个过程中 任务 A 延时 1s 到达,重新获得 CPU 控制权,重新开始执行死循环中的任务实体代码。如此循 环,现象就是两个任务交替运行,就好像 CPU 在同时做两件事情一样。 疑问来了,如果有很多任务都在等待,那么先执行那个任务呢?如果任务在执行过程中, ALIENTEK 战舰STM32开发板 www.openedv.com
2022-12-15 09:22:43 48.5MB stm32 库函数
1
lodash 用 ES6 重写 90% 的 lodash 函数 别人看源码,我写源码 熟悉 ES6 语法,箭头函数,其中大部分函数一行写完 let const 解构赋值 扩展运算符\剩余操作符 Generator/for...of 写了 Util 下的高阶函数,对高阶有了更深的理解
2022-12-15 01:56:37 9KB JavaScript
1
Matlab串联校正函数,可用于自动控制校正传递函数的生成以及Matlab仿真。
2022-12-14 23:28:24 879B Matlab 串联校正
1
NSGA-Ⅱ算法大量测试函数实验结果展示
2022-12-14 22:42:50 2.04MB NSGA-Ⅱ算法
1
这个代码是用窗函数设计FIR滤波器的代码。
2022-12-14 19:57:07 2KB 使用窗函数设计FIR低通滤波器
1