基于Transformer的预训练语言模型(T-PTLMs)在几乎所有的自然语言处理任务中都取得了巨大的成功。这些模型的发展始于GPT和BERT。这些模型建立在Transformer、自监督学习和迁移学习的基础上。基于转换的PTLMs通过自监督学习从大量文本数据中学习通用语言表示,并将这些知识转移到下游任务中。这些模型为下游任务提供了良好的背景知识,避免了对下游模型从头开始的训练。
2022-03-29 22:14:18 5.63MB #资源达人分享计划# 预训练模型
1
TensorFlow 中 训练模型 train-saver.zip
2022-03-29 15:59:31 339.55MB tensorflow 人工智能 python 深度学习
1
https://github.com/NathanUA/U-2-Net工程的预训练模型,u2netp.pth,u2net.pth已有作者上传
2022-03-29 14:10:00 4.47MB 深度学习
1
yolo4_weights.pth
2022-03-26 22:20:18 245.92MB yolo 预训练模型 python
1
yolov4剪枝后预训练模型
2022-03-23 18:56:46 191.73MB cnn
1
本项目为基于CNN,RNN 和NLP中预训练模型构建的多个常见的文本分类模型
2022-03-22 16:04:58 290.11MB Python开发-自然语言处理
1
1、训练模型 2、运动物体检测识别 3、下载直接可用,包含训练器,正负样本,素材等
2022-03-18 13:09:54 58.58MB opencv python 人工智能 运动物体识别
1
在终端设备上实现语音识别的TensorFlow预训练模型
2022-03-17 16:45:10 19.59MB Python开发-机器学习
1
TensorFlow FaceNet google官网训练模型 CASIA-WebFace 20170511-185253
2022-03-15 09:22:25 167.65MB TensorFlow FaceNet 官网 CASIA
1
遇到的问题 当时自己在使用Alexnet训练图像分类问题时,会出现损失在一个epoch中增加,换做下一个epoch时loss会骤然降低,一开始这个问题没有一点头绪,我数据也打乱了,使用的是tf.train.shuffle_batch 在capacity中设置一个值,比如是1000吧,每次取一千个数据后将这一千个数据打乱,本次使用的数据集就是每个种类1000多,而我加载数据时是一类一类加载的,这就造成了每一批次的开始可以跟前一类数据做打乱处理,但是在中间数据并不能达到充分的shuffle 解决问题 在加载数据集的时候用numpy中的shuffle将数据集充分的打乱后在读入tfrecord中,之
2022-03-07 17:28:36 90KB c ep ex
1