transformer分类代码
2024-05-22 16:50:55 35.03MB 人工智能 transformer
1
原亚马逊的网址下的wikitext-2-v1的标准数据包, 压缩包内包含wiki.test.tokens、wiki.train.tokens、wiki.valid.tokens transformer模型训练样例用
2024-05-22 14:25:12 4.27MB transformer
1
1.自己复现的一个 Restormer 训练测试方法。 2.Restormer 对于显卡的要求很高,而且训练时间非常久,自己跑需要自行改变一些参数。 3.只需要将图片放入对应路径下就可以直接运行。 4.敲代码不易,希望能不吝支持,有问题欢迎交流。
2024-05-21 10:32:55 83.03MB 图像恢复 Transformer
使用说明 分对话系统和机器翻译两部分 data为数据集 model为训练的模型 translation文件夹下又分了Seq2Seq和transformer两个模型,大家按需查看使用 以transformer文件夹为例,attention.py主要实现了注意力机制,transformer.py实现了transformer的主体架构,data.py为数据的预处理以及生成了词典、dataset、dataloader,readdata.py运行可以查看数据形状,train.py为训练模型,predict.py为预测,config.py为一些参数的定义。 transformer机器翻译的模型是用cuda:1训练的,如果要使用可能需要修改代码 如:gpu->cpu,即在CPU上使用 torch.load('trans_encoder.mdl', map_location= lambda storage, loc: storage) torch.load('trans_decoder.mdl', map_location= lambda storage, loc: storage)
1
案例系列:美国人口普查_预测收入超过50K_TabTransformer二分类 本示例演示了如何使用进行结构化数据分类,TabTransformer是一种用于监督和半监督学习的深度表格数据建模架构。TabTransformer基于自注意力的Transformer构建而成。Transformer层将分类特征的嵌入转换为强大的上下文嵌入,以实现更高的预测准确性。在这里,我们定义数据集的元数据,这些元数据对于读取和解析数据为输入特征以及根据其类型对输入特征进行编码非常有用。# 数值特征的名称列表"age", # 年龄"education_num", # 受教育年限。
2024-05-03 13:39:37 28KB transformer
1
本课件是对论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 的导读与NLP领域经典预训练模型 Bert 的详解,通过介绍NLP领域对通用语言模型的需求,引入 Bert 模型,并对其架构进行宏观微观的解读,然后详细介绍 Bert 每预训练阶段采用的两个任务,以及常见的微调下游任务场景。最后通过可视化的方式,给出 Bert 在向量表征上的优势所在。
2024-05-01 14:14:23 3.03MB 自然语言处理 bert transformer 预训练模型
1
一份PPT带你快速了解Graph Transformer:包括Graph Transformer 的简要回顾且其与GNN、Transformer的关联 【图-注意力笔记,篇章1】Graph Transformer:包括Graph Transformer 的了解与回顾且其与GNN、Transformer的关联 【图-注意力笔记,篇章2】Graphormer 和 GraphFormers论文笔记之两篇经典Graph Transformer来入门 【异构图笔记,篇章3】GATNE论文阅读笔记与理解:General Attributed Multiplex HeTerogeneous Network Embedding 包含这几个部分 可以参考我的博客:https://blog.csdn.net/qq_41895003/article/details/129218936
2024-04-26 13:32:10 3.38MB 深度学习 Transformer
1
swin transformer
2024-04-11 11:13:55 13.71MB 深度学习 人工智能 transformer
1
基于transformer的机器翻译
2024-04-08 17:02:16 204.93MB transformer 机器翻译
1
DETR(DEtection TRansformer)是一种基于Transformer架构的端到端目标检测模型,其主要流程包括: 1. 特征提取:通过卷积神经网络提取输入图像的特征。 2. Transformer编码器:将特征图输入Transformer编码器,利用自注意力机制和全连接层获取位置的上下文信息。 3. 对象查询:引入特殊的“对象”查询向量,指导模型在每个位置关注的对象类别。 4. 解码器:将Transformer编码器的输出作为解码器的输入,通过多层自注意力计算和全连接层计算生成每个位置的对象特征。 5. 对象匹配:将对象特征与所有可能的目标类别进行匹配,产生候选框和得分。 6. 位置预测:为每个候选框产生精确的位置预测。 DETR简化了目标检测流程,无需使用锚框或非极大值抑制,直接输出目标检测结果
2024-04-08 14:47:10 942KB transformer 目标检测 DETR pytorch
1