Keras 自注意力 [| ] 处理顺序数据的注意力机制,考虑了每个时间戳的上下文。 安装 pip install keras-self-attention 用法 基本的 默认情况下,注意力层使用附加注意力并在计算相关性时考虑整个上下文。 以下代码创建了一个注意力层,它遵循第一部分中的方程( attention_activation是e_{t, t'}的激活函数): import keras from keras_self_attention import SeqSelfAttention model = keras . models . Sequential () model . add ( keras . layers . Embedding ( input_dim = 10000 , output_dim =
2021-11-30 20:14:56 26KB keras attention-mechanism Python
1
James Steven Supan的self-paced learning 追踪算法
2021-11-29 18:25:03 980KB self-paced learning ; tracking;
1
Retinex深度自调整低光图像增强的切换视图 论文“ Retinex的切换视图:深度自规则微光图像增强”的代码。 该实现仅用于非商业用途。 要求 python 3.6.12 火炬1.6.0 火炬视觉0.7.0 CUDA 10.1 科尔尼亚0.4.1 测试 python test.py 您应该指定测试图像路径和输出路径。 火车 在下载训练数据集(SICE) python main.py 接触 如有任何疑问,请通过与天联系。
2021-11-23 22:37:00 15.3MB Python
1
斯坦福自动驾驶汽车守则 进入DARPA大挑战的汽车的斯坦福密码 斯坦福自动驾驶汽车的软件基础架构 参见 最初在Sourceforge上找到
1
The Lottery Tickets Hypothesis for Supervised and Self-Supervised Pre-Training in Computer Vision Models
2021-11-18 10:01:19 5.11MB
SelfSAGCN Self-Supervised Semantic Alignment for Graph Convolution Network
2021-11-18 10:01:19 1.8MB
自关注与文本分类 本仓库基于自关注机制实现文本分类。 依赖 Python 3.5 凯拉斯 数据集 IMDB影评高度分类数据集,来自IMDB的25,000条影评,被标记为正面/纵向两种评价。影评已被预先为词下标构成的序列。方便起见,单词的下标基于它在数据集中出现的频率标定,例如整数3所编码的词为数据集中第3常出现的词。 按照惯例,0不代表任何特定的词,而编码为任何未知单词。 用法 训练 $ python imdb_attention.py 比较结果 算法 训练时间(每纪元) Val准确率 Val损失 所需Epoch数 LSTM 116秒 0.8339 0.3815 2 双向LSTM
1
自我监督的拼图游戏 TensorFlow和Keras中“解决拼图难题的无监督学习视觉表示”的论文实施
2021-11-16 11:24:45 808KB Python
1
A new algorithm for self tuning of proportionalintegral- derivative (PID) controllers is proposed. A combined least-squares estimation and Newton–Raphson search technique is used to determine the ultimate gain and period of an unknown system for the purpose of automatic tuning of PID controllers based on Ziegler and Nichols (ZN) or refined Ziegler and Nichols (RZN) formulas. The proposed algorithm can be applied to systems with known time delay, as well as those with unknown dead time. Simulation studies are used to demonstrate the performance of this algorithm. The performance of this PID self tuner is also compared with a popular commercial auto-tuner for simulated systems and a laboratory-scale real plant.
2021-11-12 11:15:25 253KB PID self-tuning Newton-Raphson
1
自监督算法的Pytorch-Lightning实现 这是一个实现,和使用。可以对配置进行调整,以实现一系列可能的自我监督实现。 我们最近添加了必要的功能来运行和进行比较。 有关更多详细信息,请参见博客文章。 安装 确保你在一个新的很conda或venv环境中,然后运行: git clone https://github.com/untitled-ai/self_supervised cd self_supervised pip install -r requirements.txt 复制我们的结果 您可以通过运行python train_blog.py复制我们博客文章的结果。 z和z'之间的余弦相似度报告为step_neg_cos (对于负面示例)和step_pos_cos (对于正面示例)。分类准确性报告为valid_class_acc 。 入门 要开始在STL-10(默认配置)上使用
2021-11-11 14:21:09 21KB Python
1