城市声音分类:使用音频数据集,我们将提取特征并应用深度学习模型对声音进行分类
2021-10-26 15:24:31 1.83MB JupyterNotebook
1
免费口语数据集(FSDD) 一个简单的音频/语音数据集,由8kHz的wav文件中的口头录音组成。 修整录音,使其在开始和结束时几乎保持静音。 FSDD是一个开放的数据集,这意味着它将随着时间的推移随着数据的添加而增长。 为了实现可重复性和准确的引用,使用Zenodo DOI和git tags对数据集进行版本控制。 当前状态 6位演讲者 3,000个录音(每个扬声器每个数字50个) 英语发音 组织 文件以以下格式命名: {digitLabel}_{speakerName}_{index}.wav示例: 7_jackson_32.wav 会费 请贡献您的自制录音。 所有录音应为单声道8kHz wav文件,并进行修剪以使静音降至最低。 不要忘记使用发言人元数据更新metadata.py 要添加数据,请按照acquire_data/say_numbers_prompt.py的记录说明进行a
2021-10-07 19:23:06 15.66MB audio machine-learning dataset mnist
1
使用LSTM进行音频分类 使用基于LSTM的模型对城市声音音频数据集进行分类。 要求 pytorch == 1.0.1 scipy == 1.2.0 火炬视觉== 0.2.1 熊猫== 0.24.1 numpy == 1.14.3 torchaudio == 0.2 librosa == 0.6.3 pydub = = 0.23.1 按照测试数据进行测试的步骤 在当前目录中创建一个名为data / test的文件夹,其中将包含所有要测试的“ .wav”文件。 从此下载“ bestModel.pt”,并将其放置在当前目录中。 运行以下命令: python preprocess.py python eval.py 将会在当前目录中生成一个名为“ test_predictions.csv”的csv文件,其中包含所有测试文件及其相应的预测标签。 团队 阿尼什·马丹(Anish
2021-07-09 19:57:41 1.64MB audio pytorch lstm urban-sound-classification
1