BembaASR模型 该存储库包含用于在“ 重现实验的资源(数据集,代码和脚本)。 实验装置 在该项目中,我们使用版本进行了实验。 我们向读者推荐以获得最新更新。 资源资源 数据集 该项目中使用的数据来自语料库。 根据DeepSpeech输入管道要求,它包含大小不超过10秒的音频文件。 ID 数据集 关联的CSV文件 定义 1个 用于训练 2 用于验证 3 用于测试 语言模型 本实验中使用的5克LM是使用DeepSpeech v0.8.2的默认参数值创建的 声学模型
2021-08-25 23:02:08 1.91MB JupyterNotebook
1
此示例的主要目标是使用 MIT Places 数据集的子集和预训练模型 Places365GoogLeNet 演示 MATLAB 功能在场景分类解决方案中的使用。 代码结构分为四部分: - 在“第 1 部分”中,我们从头开始构建一个简单的 CNN,对其进行训练和评估。 - 在“第 2 部分”中,我们“按原样”使用预训练模型 Places365GoogLeNet。 - 在“第 3 部分”中,我们采用了一种迁移学习方法,该方法演示了使用 MATLAB 中的迁移学习进行图像分类的一些最新功能和最佳实践。 - 最后,在“第 4 部分”中,我们采用图像数据增强技术来查看它们是否会带来改进的结果。 该示例应易于修改并扩展到用户需求。 笔记: - 本示例中使用的数据集(Places365-Standard 数据集的子集)可在以下网址找到: https ://www.dropbox.com/s/a
2021-08-25 15:25:12 3KB matlab
1
MacBERT:重新审视中文自然语言处理的预训练模型(EMNLP的发现)
2021-08-23 22:55:02 128KB nlp tensorflow language-model bert
1
YOLO-complex预训练模型complex-yolov3,complex-yolov4
2021-08-16 22:11:56 446.6MB YOLO-complex 预训练模型 3D目标检测
1
yoloV5预训练模型,官方给的是谷歌网盘下载地址,下载速度较慢,压缩包包含yolov5m.pt,yolov5s.pt
2021-08-12 22:10:29 52.11MB yolo 目标检测
1
人像分割预训练模型
2021-08-09 21:05:44 168.15MB 计算机视觉 图像分割 预训练模型
1
url='http://drive.google.com/uc?id=0B9P1L--7Wd2vT0FtdThWREhjNkU' 从google drive中下载的FCN8s的预训练参数,上传到百度网盘上,有500MB左右。
2021-08-09 16:07:35 143B FCN-8s 预训练模型参数
1
将知识引入到依靠数据驱动的人工智能模型中是实现人机混合智能的一种重要途径。当前以BERT为代表的预训练模型在自然语言处理领域取得了显著的成功,但是由于预训练模型大多是在大规模非结构化的语料数据上训练出来的,因此可以通过引入外部知识在一定程度上弥补其在确定性和可解释性上的缺陷。
2021-08-08 14:08:54 5.45MB #资源达人分享计划# 预训练模型
1
electra的预训练模型改进
2021-08-06 13:03:09 131KB 文本生成
1
目前预训练模型在自然语言处理领域取得了广泛的成功。本报告的内容主要涵盖以下4部分内容:1)预训练模型的原理介绍,包括模型结构、学习准则、发展历程等;2)预训练模型的迁移方法:包括如何通过任务转换、多步迁移、改进精调等方法来进一步提高预训练模型在下游任务上的性能。
2021-08-04 10:36:39 12.75MB NLP 预训练模型
1