DarknetYolov3v4模型文件及对应预训练权重(tiny与非tiny)
2022-01-08 21:11:48 339.78MB Darknet
1
自然语言处理-基于预训练模型的方法 笔记
2022-01-07 09:16:39 21.29MB 自然语言处理
本文介绍了如何在pytorch下搭建AlexNet,使用了两种方法,一种是直接加载预训练模型,并根据自己的需要微调(将最后一层全连接层输出由1000改为10),另一种是手动搭建。 构建模型类的时候需要继承自torch.nn.Module类,要自己重写__ \_\___init__ \_\___方法和正向传递时的forward方法,这里我自己的理解是,搭建网络写在__ \_\___init__ \_\___中,每次正向传递需要计算的部分写在forward中,例如把矩阵压平之类的。 加载预训练alexnet之后,可以print出来查看模型的结构及信息: model = models.alexn
2022-01-06 17:33:43 92KB alexnet c ex
1
segmentation_models:具有预训练主干的细分模型。 Keras和TensorFlow Keras
2021-12-30 09:27:45 1.64MB tensorflow keras segmentation densenet
1
T5飞马 中文生成式预训练模型,以mT5为基础架构和初始权重,通过类似PEGASUS的方式进行预训练。 详情可见: ://kexue.fm/archives/8209 分词器 我们将T5 PEGASUS的令牌生成器转换成BERT的令牌生成器,它对中文更友好。同时,我们重新排列一版词表,从而里边的字,词都更加完善,目前的vocab.txt共包含5万个token,真正覆盖了中文的常用字,词。 预训练任务 具体来说,假设一个文档有n个句子,我们从中挑出大约n / 4个句子(可以不连续),因此这n / 4个句子拼起来的文本,跟剩下的3n / 4个句子拼写的文本,更长公共子序列重置长,然后我们将3n / 4个句子拼写的文本视为标题,n / 4个句子拼起来的文本透视摘要,通过这样的方式构成一个“(Reuters,摘要)”的伪摘要数据对。 模型下载 目前开源的T5 PEGASUS是基本版,总参数量为2
2021-12-29 19:58:22 418KB Python
1
预训练的卷积神经网络
2021-12-29 19:12:02 2KB 人工智能 深度学习
1
损失函数matlab代码我们的 CVPR 2016 论文的预训练模型:“通过最小化全局损失函数学习具有深度连体和三重卷积网络的局部图像描述符” 如果您使用此代码进行研究,请引用我们的论文: @InProceedings{G_2016_CVPR, author = {Kumar B G, Vijay and Carneiro, Gustavo and Reid, Ian}, title = {Learning Local Image Descriptors With Deep Siamese and Triplet Convolutional Networks by Minimising Global Loss Functions}, booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)}, month = {June}, year = {2016} } 要求:软件 MATLAB MatConvNet-13 ()
2021-12-29 06:11:35 36.49MB 系统开源
1
使用目标检测的Deep-CNN模型 在这种情况下,使用预训练的卷积神经网络(CNN)MobileNet SSD(单发多盒检测器)模型来检测对象,并通过在对象上方添加一个包含对象名称的框来将对象定位在图像边界内等级和准确性。 mobilenet-ssd模型是旨在执行对象检测的Single-Shot Multibox Detection(SSD)网络。 通过使用SSD,我们只需要单张拍摄即可检测图像中的多个对象。该模型是使用Caffe *框架实现的。 要运行代码,只需运行RUN:python object_detection_image.py或python realtime_object_detection.py
2021-12-26 18:29:14 20.51MB Python
1
本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMDB影评数据作为训练数据。 transformers模块简介 transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。 本来打算预训练bert-large模型,发现colab上GPU显存不够用,只能使用base版本了。打开colab,并且设置好GPU加速,接下来开
2021-12-25 13:21:21 101KB c OR 模型
1
GhostNet的PyTorch实施 如GhostNet中所述重现GhostNet架构的由Kai Han,Yunhe Wang,祁天,郭建元,徐纯景,关于框架的ILSVRC2012基准。 预训练模型 建筑学 # 参数 MFLOPs 前1名/前5名准确性(%) 5.181百万 140.77 73.636 / 91.228 from ghostnet import ghostnet net = ghostnet () net . load_state_dict ( torch . load ( 'pretrained/ghostnet_1x-9c40f966.pth' )) 培训策略 8个GPU上的批处理大小为1024 初学率0.4 重量衰减0.00004 辍学率0.2 BN重量无衰减 我们将上述设置保持不变,并使用以下不同的训练技术进行实验,以进行消融和繁殖。 在预热阶段,学
2021-12-24 09:17:57 18.68MB pytorch imagenet pretrained-models reproduction
1