u2net网络的预训练模型+抠图人群+通过python库backgroundremover直接抠图+冲吧
2022-10-22 22:05:36 168.12MB u2net u2net.pth backgroundremove
1
非官方的PyTorch实现 Kevin Clark的。 Minh-Thang Luong。 Quoc V. Le。 克里斯托弗·曼宁 复制结果 我从头开始对ELECTRA-small进行了预培训,并已在GLUE上成功复制了论文的结果。 模型 可乐 SST MRPC STS QQP MNLI 秦皇岛 RTE 平均的平均值 电子小OWT 56.8 88.3 87.4 86.8 88.3 78.9 87.9 68.5 80.36 ELECTRA-Small-OWT(我) 58.72 88.03 86.04 86.16 88.63 80.4 87.45
2022-10-18 21:47:16 52KB nlp glue pytorch deeplearning
1
marketduke模型预训练权重
2022-10-14 09:07:29 210.33MB 模型权重
1
语言模型预训练已经显示出可以捕获数量惊人的世界知识,这对于NLP任务(例如问题 解答)至关重要。但是,此知识隐式存储在神经网络的参数中,需要更大的网络才能 覆盖更多的事实。 为了以更模块化和可解释的方式捕获知识,我们使用潜在的知识检索器增强了语言模 型的预训练,检索器使模型可以从预训练、微调和推理期间使用的大型语料库(如 Wikipedia)中检索并使用文档。首次,我们展示了如何使用蒙版语言建模作为学习信 号并通过考虑数百万个文档的检索步骤进行反向传播,从而以无监督的方式对这种知 识检索器进行预训练。 我们通过微调开放域问答(Open-QA)的挑战性任务,证明了检索增强语言模型预训练 (REALM)的有效性。我们在三个流行的Open-QA基准测试中与最先进(SOTA)的显式和隐 式知识存储模型进行了比较,发现我们在性能上优于所有以前的方法(绝对精度为 4-16%),同时还提供了定性优势,例如可解释性和模块化。
2022-10-14 00:25:44 727KB 自然语言处理 REALM 预训练 问答
1
预训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分析等任务,性能良好
2022-10-12 14:57:35 547KB 语言模型
1
TimeSformer:​Is Space-Time Attention All You Need for Video Understanding?​(video transformer) TimeSformer在K400上预训练好的的模型:8 of frames,spatial crop:224,acc@1:77.9,acc@5:93.2。
2022-10-06 19:30:18 927.65MB Timesformer预训练好 Python videotransforme
1
百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 百度ernie1.0 建议去官网下载最新版,这里实验结果仅供参考
2022-09-21 21:05:17 356.17MB 预训练模型
1
MXNet 深度学习,人脸识别预训练模型:(1) arcface_r100_v1 :model-0000.params ,model-symbol.json (2) retinaface-R50: R50-0000.params, R50-symbol.json
2022-09-21 12:05:22 336.79MB mxnet 人脸识别 预训练模型 arcface_r100_v1
1
1 介绍 BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型,该模
2022-09-19 09:00:15 474KB 技术
1
如今NLP可以说是预训练模型的时代,希望借此抛砖引玉,能多多交流探讨当前预训练模型在文本分类上的应用。 1. 任务介绍与实际应用 文本分类任务是自然语言处理(NLP)中最常见、最基础的任务之一,顾名思
2022-09-19 09:00:14 139KB 技术
1