结核杆菌数据集训练Faster-RCNN模型80世代所得模型权重文件
2021-08-05 16:01:36 345.12MB pytorch FasterRCNN
1
人工智能语音识别训练好的模型.zip
2021-07-14 22:39:00 235.76MB 人工智能
1
python训练好的模型保存与加载 当我们训练好一个模型model后,如果在其他程序中或者下次想继续使用这个model,我们就需要把这个model保存下来,下次使用时直接导入就好了,不需要重新训练。 方式一: 采用joblib模块来保存model,首先安装joblib: pip install joblib 核心两行代码如下 # 保存 model joblib.dump(regr, '../../model/regr.pkl') # 加载 model clf = joblib.load('../../model/regr.pkl') 完整示例代码如下: #!/usr/bin/env pyt
2021-07-12 23:35:48 37KB python 模型 编程语言
1
Easiest-SRGAN-demo 最简单的基于SRGAN网络的实现, 附带已训练好的模型及GIF生成代码, 更适合作为Demo展示。 Demo效果 上图就是训练了2000次后的模型的效果,只需要输入一张左边的低精度的图片, 就可以生成右边的高精度的图片。肉眼看上去效果还是非常不错的! (由于GIF较大可能加载不出来) 这张GIF则展示了整个训练过程的变化, 左边的图是由神经网络生成的, 中间的是原始的高精度的图片, 右边的是输入到神经网络的低分辨率图片, ==神经网络在整个生成过程中是没有得到高精度图片信息的,这里给出高精度图片只是为了对比体现生成的效果==。可以看到在100次epoch迭代之后,性能已经非常不错了。 环境要求 训练模型 tensorflow or tensorflow-gpu > 1.10.0 keras = 2.2.4 生成自己的GIF图片 imageio pip
2021-07-09 19:40:15 2.33MB 附件源码 文章源码
1
使用Keras训练好的模型用来直接进行预测,这个时候我们该怎么做呢?【我这里使用的就是一个图片分类网络】 现在让我来说说怎么样使用已经训练好的模型来进行预测判定把 首先,我们已经又有了model模型,这个模型被保存为model.h5文件 然后我们需要在代码里面进行加载 model = load_model(“model.h5”) 假设我们自己已经写好了一个load_data函数【load_data最好是返回已经通过了把图片转成numpy的data,以及图片对应的label】 然后我们先加载我们的待预测的数据 data, labels = load_data(<the path of th
2021-07-07 23:58:21 44KB AS ras 操作
1
针对cifar数据集,利用已有Xception模型,微调模型后,进行分类训练。
2021-07-06 17:10:36 2KB python cifar10 Xception网络
1
YOLOV4-Tiny:You Only Look Once-Tiny目标检测模型在TF2当中的实现 2021年2月7日更新: 仔细对照了darknet库的网络结构,发现P5_Upsample和feat1的顺序搞反了,已经调整,重新训练了权值,加入letterbox_image的选项,关闭letterbox_image后网络的map得到提升。 目录 性能情况 训练数据集 权值文件名称 测试数据集 输入图片大小 mAP 0.5:0.95 mAP 0.5 VOC07+12+COCO VOC-Test07 416x416 - 77.5 COCO-Train2017 COCO-Val2017 416x416 21.8 41.3 所需环境 tensorflow-gpu==2.2.0 注意事项 代码中的yolov4_tiny_weights_coco.h5和yolov4_tiny_weights_vo
2021-07-06 15:25:19 5.32MB 附件源码 文章源码
1
使用方法; from transformers import AutoTokenizer from transformers import TFAutoModelForSeq2SeqLM pre_trained_model_path = './t5/' model = TFAutoModelForSeq2SeqLM.from_pretrained(pre_trained_model_path) tokenizer = AutoTokenizer.from_pretrained(pre_trained_model_path) 模型加载完毕之后就可以对接下游任务或用自己的数据继续对模型进行微调。
2021-06-21 14:11:08 789.27MB tensorflow
1
使用Amazon SageMaker微调和部署ProtBert模型进行蛋白质分类 内容 动机 蛋白质是控制生物体的关键基本大分子。 蛋白质定位的研究对于理解蛋白质的功能很重要,对药物设计和其他应用具有重要意义。 它在表征假设的和新发现的蛋白质的细胞功能中也起着重要的作用[1]。 有几项研究工作旨在通过使用高通量方法来定位整个蛋白质组[2-4]。 这些大型数据集提供了有关蛋白质功能以及更普遍的全球细胞过程的重要信息。 但是,它们目前不能达到100%的蛋白质组覆盖率,并且在某些情况下使用的方法可能导致蛋白质子集的错误定位[5,6]。 因此,必须有补充方法来解决这些问题。 在本笔记本中,我们将利用自然语言处理(NLP)技术进行蛋白质序列分类。 想法是将蛋白质序列解释为句子,并将其组成部分-氨基酸-解释为单个单词[7]。 更具体地说,我们将从Hugging Face库中微调Pytorch Pro
1
vgg加载训练好的模型和参数,包括vgg16_exported.json和vgg16_exported.h5,本人亲测,代码有效!!!打包文件和代码!!! 本人第一次实现图像识别,CV的入门级别,却难到了多少人,都是因为网上资料不全!!! 模型本人还自写了一次!和提供的vgg16_exported.json结构一模一样!全在代码里!!! 代码演示:https://blog.csdn.net/mujie2015/article/details/117756243
2021-06-10 09:08:11 190B cv nlp vgg
1