import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径 print(dirs, dirs) # 当前路径下所有子目录 print(files, files) # 当前路径下所有非目录子文件 file_name_walk(/home/kesci/input
2021-09-20 21:51:33 25KB c OR size
1
Keras注意机制 在Keras中为以下层实现了简单的关注机制: 密集(注意2D块) LSTM,GRU(注意3D块) 示例:注意块 致密层 inputs = Input(shape=(input_dims,)) attention_probs = Dense(input_dims, activation='softmax', name='attention_probs')(inputs) attention_mul = merge([inputs, attention_probs], output_shape=input_dims, name='attention_mul', mode='mul') 让我们考虑这个“ Hello World”示例: 32个值的向量v作为模型的输入(简单前馈神经网络)。 v [1] =目标。 目标是二进制(0或1)。 向量v的所有其他值(
2021-09-20 12:23:20 1.14MB Python
1
CS175分心驾驶员检测 #RESNET18 #PYTORCH#机器学习 分心驾驶: 建议作为导致致命事故从2014年到2018年增加的原因 由于使用智能设备的增加,引起公众越来越多的关注 我们在建筑物探测器中的数据:(由StateFarm在他们的Kaggle挑战赛中提供: 训练数据:在训练数据中包含22,424张图像,分为10个带标签的课程文件夹 测试数据:7.97万张未标记的图像(通过kaggle提交进行了准确性测试) 提供给我们的每张图像的大小为640×480像素 我们的模型: ResNet18(必须对图像进行预处理,并对在ResNet18中内置的pyTorch进行一些更改) 使用交叉熵损失和SGD优化器,其学习率为0.001,动量为0.9和Nesterov动量 火车精度大约为98%! 测试准确率近97%! 以下是我们所做操作和报告的全面说明:幻灯片: ://docs
2021-09-14 17:49:43 47.18MB JupyterNotebook
1
SE-Resnet注意力机制网络搭建,包含残差网络和全连接层,特征融合构建SE-resnet网络结构
2021-09-14 15:22:28 1KB SE注意力机制
1
关系提取中的位置感知注意力RNN模型 此存储库包含PyTorch代码,用于纸上的。 TACRED数据集:有关TAC关系提取数据集的详细信息可以在上找到。 要求 Python 3(在3.6.2上测试) PyTorch(在1.0.0上测试) 解压缩,wget(仅用于下载) 制备 首先,从斯坦福大学网站下载和解压缩GloVe载体,方法如下: chmod +x download.sh; ./download.sh 然后使用以下方法准备词汇和初始单词向量: python prepare_vocab.py dataset/tacred dataset/vocab --glove_dir data
1
MA-CNN Multi-Attention-CNN 说明 本仓库只是对ICCV 2017 论文《Learning Multi-Attention Convolutional Neural Network for Fine-Grained Image Recognition》中的多注意力卷积神经网络进行模仿和复现 论文作者GitHub地址 本项目的重点是全连接层聚类获得的注意力矩阵和通道损失函数 本项目主要用于图像中细粒度特征的识别和视频流中关键帧的提取 本项目由Pytorch实现,只能运行在GPU上 代码 data_macnn.py 对外提供数据接口,面对不同数据集需要修改继承于Pytorch数据相关模块的三个函数 conv_macnn.py 训练macnn的卷积部分,可以任选卷积网络,注意好输出的通道数量和尺寸就好 part_macnn.py 训练macnn的聚类部分 Dis已实现,D
2021-09-10 19:25:36 19KB Python
1
轻松搞懂【TF-IDF、word2vec、svm、cnn、textcnn、bilstm、cnn+bilstm、bilstm+attention实现】英文长文本分类。 内含英文长文本数据加实现代码。 宝贵资源,缺积分了没办法
2021-09-09 09:11:36 79.14MB word2vec svm cnn textcnn
1
深度排序 学习使用seq2seq模型对数字进行排序。 运行这段代码 调用pip install -r requirements.txt安装所有依赖项。 产生资料 可以使用所有数据 样品电话 python generate.py \ --name="train" \ --size=10000 \ --max_val=256 \ --min_length=2 \ --max_length=256 \ 训练 可以通过在设置适当的参数,然后将train.run()设置为在调用,最后一次调用python main.py (是的,我很抱歉,对于未配置命令行参数)。 从上面的示例调用生成的数据集中训练了1个纪元,大约花费了10分钟。 评估 在train.txt上训练模型后,使用生成测试集( name="test" ),然后以与上所述相同的方式运行 ,以查看该模型的一些示例评估。 再
1
基于 ML 的 COVID-19 下社交媒体用户注意力分析。|| 基于机器学习的COVID-19疫情背景下,分阶段的微博数据文本情感分析,先爬取,再用消息、情感词典和多维情感分析,并可视化
2021-09-07 13:03:45 44.84MB COVID-19
注意视觉化 缩放的点产品注意力可视化(单头)(如) b后面的值为-1,a后面的值为1; 目标是找到使用定点积乘以得到输出1(目标)的路由。 子图: 第一个子图显示了对每个参数a(值:1)和b(值:-1)进行了多少处理。 第二个子图显示了与a,b和查询(嵌入)相对应的键向量。 最后的子图显示了输出和目标线。
2021-09-05 21:29:48 785KB Python
1