Matlab Toolbox for Dimensionality Reduction Matlab数据降维工具箱,包括几乎所有的数据降维方法:PCA、LDA、ICA、MDS、Isomap、LandmarkIsomap、LLE、LLC、Laplacian、HessianLLE、LTSA、DiffusionMaps、KernelPCA、KernelLDA、SNE、NPE、LPP、SPE、LLTSA、SPCA、CCA、MVU、FastMVU、AutoEncoder、AutoEncoderEA
2021-10-11 18:34:23 974KB Matlab 降维 Dimensionali Reduction
1
降噪 使用C语言实现的Log_MMSE方法降低噪声
2021-10-08 20:53:37 11.86MB C
1
SEWUNet 通过深波U-Net增强语音 在检查全文。 介绍 在本文中,我们提出了一种端到端的方法来从其原始波形上的语音信号中删除背景上下文。 网络的输入是音频,具有16kHz的采样率,并在5dB到15dB的信噪比内均匀分布地被附加噪声所破坏。 该系统旨在产生具有清晰语音内容的信号。 当前,有多种深度学习架构可用于此任务,从基于频谱的前端到原始波形,其结果令人鼓舞。 我们的方法基于Wave-U-Net体系结构,并对我们的问题进行了一些调整,在初始化主要任务的训练之前,建议通过自动编码器进行权重初始化。 我们表明,通过定量指标,我们的方法优于经典的维纳滤波。 如何使用 有两种使用此存储库的方式:1.使用数据训练自己的模型2.仅将技术应用于具有预先训练的模型的数据 如何训练 tl; dr:以与本文所示相同的方式训练最佳模型的步骤。 将LibriSpeech数据集和UrbanSound8K
1
matlab代码影响基于SWT的时间序列预测,降噪和贝叶斯优化-LSTM 基于SWT降噪和贝叶斯优化LSTM的时间序列预测,长期和短期存储网络LSTM近年来引起了人们对于短期时间序列预测问题的关注。 但是,由于此方法是一种深度学习方法,因此通常会面临许多超参数的影响。 众所周知,深度学习超参数的设置尚无明确的指导原则,其中大多数使用经验方法,例如学习率1e-3、1e-4等。迭代次数根据改变损耗曲线等。这种方法易于尝试,发现效果更好。一群人,既费时又费力。 为此,本文将使用贝叶斯优化对LSTM的参数进行优化,同时使用同步压缩小波SWT对原始数据进行滤波以降低噪声,并使用降噪会议的数据进行建模,最后通过实例验证说明SWT- Bayes-LSTM模型的预测效果更好。 该代码是由maltab2020b编写的,matlab代码,MATLAB代码,长短时记忆网络LSTM在针对短时时间序列预测问题上近来年受到大家的关注,但由于该方法为深度学习方法,通常面临着众多超参数的影响,而导致,关于深度学习超参数的设置并没有一直明确的指导方针,大多采用经验方法,选择性学习率1e-3,1e-4啥的,交替次数根据损
2021-06-23 16:20:36 2KB 系统开源
1
使用LMS算法的多麦克风降噪 录制一段语音信号input.wav(默认为无噪环境),为这段语音添加高斯噪声设定为主麦克风,得到主麦克风录制的受噪声污染的语音信号和参考麦克风录制的噪声LMSrefns.wav,利用LMS算法实现语音增强的目标,得到清晰的语音信号。 (1)主麦克风录制的语音信号是LMSprimsp.wav,参考麦克风录制的参考噪声是LMSrefns.wav.用matlab指令读取; (2)利用LMS算法对LMSprimsp.wav进行滤波去噪; (4)算法仿真收敛以后,得到降噪后的语音信号; (5)用matlab指令回放增强后的语音信号; (6)分别对增强前后的语音信号作频谱分析并plot出来。 主代码:main_.m LMS实现:LMSmyFilter.m 此处主程序没有调用自己实现的LMS算法函数,而是调用dsp工具箱中的LMS实现函数。 期望的语音信号 主麦克风的语音信
2021-06-23 09:21:37 3.87MB MATLAB
1
SAR影像数据处理过程中需要用到的滤波算法,matlab的一些滤波算法封装函数源代码,无其他依赖。 文件中包含滤波算法: Mean filter. -Frost filter. -Modified frost filter(added thresholds). -Lee filter(Using Masks, ENL ect). 如果想要知道怎么操作,欢迎访问我的博客,有一篇记录。 链接:https://blog.csdn.net/weixin_42727069/article/details/105456619
2021-06-22 11:03:52 26KB matlab 滤波算法 frost SAR
1
This book describes established and advanced methods for reducing the dimensionality of numerical databases. Each description starts from intuitive ideas, develops the necessary mathematical details, and ends by outlining the algorithmic implementation. The text provides a lucid summary of facts and concepts relating to well-known methods as well as recent developments in nonlinear dimensionality reduction. Methods are all described from a unifying point of view, which helps to highlight their respective strengths and shortcomings. The presentation will appeal to statisticians, computer scientists and data analysts, and other practitioners having a basic background in statistics or computational learning.
2021-06-21 15:31:31 21.97MB Nonlinear Dimension Reduction
1
星座图的matlab代码自动编码器用于降维 使用自动编码器进行降维的简单,单个隐藏层示例 在现代“大数据”时代,一项艰巨的任务是减少特征空间,因为在当今的超大数据集中执行任何类型的分析或建模在计算上都非常昂贵。 为此目的,有各种各样的技术:PCA,LDA,拉普拉斯特征图,扩散图等。在这里,我使用了基于神经网络的方法,即自动编码器。 自动编码器本质上是一个神经网络,在中间(以某种方式)对其进行编码之后,它会在其输出中复制输入层。 换句话说,NN在将其输入经过一组堆栈之后尝试预测其输入。 NN的实际体系结构不是标准的,而是用户定义和选择的。 通常看起来像是镜像图像(例如,第一层256个节点,第二层64个节点,第三层又是256个节点)。 在这个简单的介绍性示例中,由于输入空间最初相对较小(92个变量),因此我仅使用一个隐藏层。 对于较大的特征空间,可能需要更多的层/更多的节点。 我将特征空间从这92个变量减少到只有16个。AUC分数非常接近我为此数据集构建的最佳NN(0.753对0.771),因此我们的数据减少了5倍,因此没有牺牲太多信息。 建立自动编码器模型后,我使用它来将我的92个特征的
2021-06-16 20:24:28 1.64MB 系统开源
1
它包含用于以下操作的用户驱动代码: 1. 显示 QPSK 基带信号。 2. OFDM 功率谱。 3. OFDM 信号的误码率性能。 4. OFDM 信号的频谱。 5. 使用削波/过滤降低 PAPR。 6. 使用选择性映射降低 PAPR。 7. 使用选择性映射和裁剪/过滤的 PAPR 降低的比较研究。
2021-06-01 12:02:48 7KB matlab
1
本专着阐述了安全性降低的重要概念以及基于组的密码系统安全性降低的基本技术。 以数字签名和加密为例,作者解释了如何为这些加密原语编写正确的安全性降低。 本书选择并重新验证了各种方案,以证明并举例说明正确的安全性降低。
2021-05-30 16:38:10 2.25MB 密码学 可证明安全性 安全规约
1