基于PaddlePaddle实现的EcapaTdnn声纹识别,训练更大数据集,这个模型使用的是spectrogram 源码地址:https://github.com/yeyupiaoling/VoiceprintRecognition-PaddlePaddle/tree/develop
2022-11-17 19:27:12 27.92MB PaddlePaddle EcapaTdnn spectrogram 声纹识别
基于PaddlePaddle实现的EcapaTdnn声纹识别超大数据模型,这个模型使用的是声谱图(spectrogram) 注意是release/1.0分支,源码地址:https://github.com/yeyupiaoling/VoiceprintRecognition-PaddlePaddle/tree/release/1.0
2022-11-11 16:31:13 65.06MB PaddlePaddle EcapaTdnn spectrogram 声纹识别
基于PaddlePaddle实现的EcapaTdnn声纹识别超大数据模型,这个模型使用的是梅尔频谱(melspectrogram) 注意是release/1.0分支,源码地址:https://github.com/yeyupiaoling/VoiceprintRecognition-PaddlePaddle/tree/release/1.0
2022-11-11 16:31:13 62.85MB PaddlePaddle EcapaTdnn 声纹识别 melspectrogram
PPASR的V2版本训练Conformer模型文件,使用Fbank,纯PaddlePaddle,训练数据Wenetspeech。 源码地址:https://github.com/yeyupiaoling/PPASR
2022-11-11 16:31:12 476.29MB PPASR Conformer PaddlePaddle Wenetspeech
PPASR的V2版本训练DeepSpeech2模型文件,使用Fbank,纯PaddlePaddle,训练数据Wenetspeech。 源码地址:https://github.com/yeyupiaoling/PPASR
2022-11-11 16:31:10 65B DeepSpeech2 PPASR Wenetspeech PaddlePaddle
PPASR的V2版本训练Conformer模型文件,使用Fbank,纯PaddlePaddle,训练数据为超大数据集,13000+小时。 源码地址:https://github.com/yeyupiaoling/PPASR
2022-11-11 16:31:04 434.53MB PPASR Conformer Fbank PaddlePaddle
基于PaddlePaddle实现的EcapaTdnn声纹识别,训练中文数据集,这个模型使用的是spectrogram 源码地址:https://github.com/yeyupiaoling/VoiceprintRecognition-PaddlePaddle/tree/develop
2022-11-11 16:31:03 25.8MB PaddlePaddle EcapaTdnn 中文数据集 声纹识别
前言 CrowdNet模型是2016年提出的人流密度估计模型,论文为《CrowdNet: A Deep Convolutional Network for DenseCrowd Counting》,CrowdNet模型主要有深层卷积神经网络和浅层卷积神经组成,通过输入原始图像和高斯滤波器得到的密度图进行训练,最终得到的模型估计图像中的行人的数量。当然这不仅仅可以用于人流密度估计,理论上其他的动物等等的密度估计应该也可以。 本项目开发环境为: Windows 10 Python 3.7 PaddlePaddle 2.0.0a0 CrowdNet模型实现 以下是CrowdNet模型的结构图,从结构图中可以看出,CrowdNet模型是深层卷积网络(Deep Network)和浅层卷积网络(Shallow Network)组成,两组网络通过拼接成一个网络,接着输入到一个卷积核数量和大小都是1的卷积
2022-10-20 21:57:50 16KB deeplearning paddlepaddle crowdnet Python
1
对于七天打卡的一个总结体会 首先是很感激这次百度的七日打卡营活动; 对于一名什么都不懂的小白来说(真真正正的小白),百度的这次7日打卡活动给我带来的的有很多。 在加入这次打卡活动之前我就只有一些c语言和python的学习,还有一点机器学习的概念知识。还记得在第一天的打卡中接触到了爬虫,并且这也是我第一次接触了爬虫,在百度七日打卡活动的直播中明白了爬虫的使用方法,这应该是我第一天最大的收获了。而且第一天的作业应该是比较简单的,但是我还是由于知识的匮乏,特别是python和数学的知识,并不能解答出来,不过多亏群里面大佬的博客我也能顺利地完成的作业。 同时,在后面的几日打卡活动中,收获更是满满,了解
2022-10-15 15:50:28 43KB add dd ddl
1
Jetpack版本可以使用 jtop 命令查看。以下是该包编译时的设置项: -DWITH_CONTRIB=OFF -DWITH_MKL=OFF -DWITH_MKLDNN=OFF -DWITH_TESTING=OFF -DCMAKE_BUILD_TYPE=Release -DON_INFER=ON -DWITH_PYTHON=ON -DWITH_XBYAK=OFF -DWITH_NV_JETSON=ON -DPY_VERSION=3.6 -DWITH_TENSORRT=ON -DCUDA_ARCH_NAME=Auto
2022-10-05 16:40:23 88.61MB paddlepaddle 人工智能
1