matlab最简单的代码DNN_detection_via_keras 这是使用keras的OFDM系统中用于信道估计和信号检测的深度学习功能的最简单实现。 我尽力简化了代码,以便每个人都可以轻松地遵循它。 可以参考原始的tensorflow版本代码。 与其他框架(例如tensorflow,pytorch , MXNet等)相比,此keras版本是最简单的实现。 一些参考 根据许多读者的评论,我写了一个本文的简单博客,这可能对中国研究者了解本文的主要思想有帮助,您可以在以下网址找到该博客: 第一的 该问题已解答了一些常见问题,希望能对您有所帮助。 此外,如果这项工作对您有帮助,请加注星标或分叉该仓库以支持我。 要求 tensorflow-gpu> = 1.12.0因为代码是在tensorflow 2.0发布之前编写的。 数据集 我已将所需的数据集上传到 密码: 1234 正如一些读者所提到的,我还提供了for Google驱动程序。 这些是通过保存从原始提供的.txt文件加载的numpy数组生成的。 然后,直接将channel_train.npy和channel_test.npy移至当
2021-10-25 15:09:23 5KB 系统开源
1
点击率模型 基于纯Spark MLlib的CTR预测模型,无第三方库。 实现模型 朴素贝叶斯 逻辑回归 分解机 随机森林 梯度提升决策树 GBDT + LR 神经网络 内部产品神经网络(IPNN) 外部产品神经网络(OPNN) 用法 这是一个行家项目。 Spark版本是2.3.0。 Scala版本是2.11。 在maven自动导入依赖项之后,您可以简单地运行示例函数( com.ggstar.example.ModelSelection )来训练所有CTR模型并获得所有模型之间的指标比较。 有关点击率预测的相关论文 其他资源
2021-10-20 17:07:59 57KB machine-learning scala spark ctr-prediction
1
DNN 适用于Python的深度神经网络 这只是PyBrain库的包装,以支持对深层网络进行分层预训练。 我做了一次快速的一次性使用。 有更好的实现方式。 我建议: 但是,如果您想要一个非常简单的单类解决方案,请尝试一下: 设置 确保已安装 。 克隆仓库。 然后from DNN.dnn import AutoEncoder网络类from DNN.dnn import AutoEncoder
2021-10-20 16:30:16 5KB Python
1
包含了所有脑电领域可能用到的深度学习模型包含BIGRU,,lstm,cnn,gcn,dnn,rnn等等23个深度学习模型。 同时包含了相应模型所需要的数据处理过程所用代码。 当然也包含了最基本的读取edf文件,得到脑电信号。
2021-10-18 17:12:19 153KB 深度学习 脑电情绪识别 deap eeg
GB-DNN论文的代码实现,里面有我自己阅读的注释与相关解释,帮助需要的同学学习。
2021-10-15 23:27:46 89.45MB ai
1
在高炉炼铁过程中,对铁水中硅含量的预测是最重要但也是最困难的一项。提出了一种基于经验模态分解(EMD)和动态神经网络(DNN)的组合算法,用于预测高炉中铁水的硅含量。为了消除原始历史数据的不同频率分量的相互干扰,EMD算法将原始历史数据分解为一系列不同的频率和固定本征函数(IMF)和一个残差。然后将每个IMF和残差近似于其非线性自回归模型(NARM)并通过DNN进行预测,最后,通过将每个IMF和残差的预测相加,可以得出硅含量的预测。最后,通过对中国某钢铁厂采集的一些硅含量的样本数据进行实验以验证我们的算法,结果表明,我们提出的组合算法比没有EMD的单一算法具有更好的性能,这表明该算法的有效性。提出的算法。
2021-10-15 21:44:12 518KB blast furnace; silicon content
1
dnn训练matlab代码世贸组织 无线移动边缘计算中用于计算速率最大化的深度神经网络 Python代码可重现我们在无线移动边缘计算[1]上的工作,该技术使用无线通道增益作为输入,将二进制计算模式选择结果用作深度神经网络(DNN)的输出。 这包括: :WPMEC的DNN结构,包括培训结构和测试结构 :所有数据都存储在此子目录中,包括: data _#。mat :培训和测试数据集,其中#是用户号 Prediction _#。mat :DNN_test生成的预测模式选择 weights_biases.mat :受训DNN的参数,可用于在MATLAB中重现此受训DNN。 :运行此文件,包括设置系统参数 关于我们的作品 请参阅发布于的关于此主题的最新优势。 具体而言,提出了一种基于强化学习的在线算法,以最大化无线移动边缘计算网络中的加权计算速率。 数值结果表明,与现有的优化方法相比,所提出的算法可以达到近乎最佳的性能,同时将计算时间显着减少了一个数量级以上。 例如,在30个用户的网络中,DROO的CPU执行等待时间小于0.1秒,即使在快速衰落的环境中,实时和最佳的泛滥也切实可行。 Huang
2021-10-12 12:39:04 19.69MB 系统开源
1
如何证明您的模型属于您:基于盲水印的框架来保护DNN的知识产权 这是一个示例示例(在MNIST和CIFAR-10上),该示例演示了如何运行介绍的框架 快速开始 配置环境 Python=3.7 Pytorch=1.2.0 Others are the latest version 数据集 更改args.dataset='mnist or cifar10'定义数据集。 数据集将自动下载到/data 。 如果args.dataset='mnist' ,则排他徽标是从mnist数据集中随机抽取的样本。 如果args.dataset='cifar10' ,则专用徽标位于/data/IEEE/logo 。 您还可以选择其他徽标。 主机模型 如果args.dataset='mnist' ,则只能实现将水印嵌入lenet1, lenet3, lenet5 。 如果args.dataset='cif
2021-10-11 21:05:41 2.45MB Python
1
由于自带的cmake给的地址不对,导致编译失败,opencv_contrib编译所需的tiny-dnn
2021-10-11 19:33:21 12.61MB opencv contrib tiny-dnn 1.0.0a3
1
Deep Learning for EEG-Based Preference论文原文。在期刊官网也可以免费下载,为方便大家查看上传至此。稍后出一篇关于这篇文献的精读导读。
2021-10-04 20:07:12 946KB 神经营销 DNN 脑机接口 偏好预测
1