分层注意网络 我对“ ”的实现(Yang等,2016) Yelp的数据可从下载(与Yang的论文中使用的数据集相同) 下载链接: : 将数据放在名为“ data / yelp_YEAR /”的目录中(其中“ YEAR”为年份) 运行“ yelp-preprocess.ipynb”以预处理数据。 格式变为“标签\ t \ t句子1 \ t句子2 ...”。 然后运行“ word2vec.ipynb”以从训练集中训练word2vec模型。 运行“ HAN.ipynb”以训练模型。 运行“ case_study.ipynb”以运行验证集中的一些示例的可视化,包括注意力向量(句子级别和单词级别)和预测结果。 现在,我们在yelp2013测试仪上获得了约65%的准确度。 对超参数进行微调后,它可能会更好。 我们使用的超参数 时代 批量大小 GRU单位 word2vec大小 优化器 学
2022-05-06 10:34:48 5.69MB nlp rnn attention-mechanism paper-implementations
1
曲波-NN 9个问题及其各自的QUBO矩阵。 QUBO矩阵用于将优化问题描述为矩阵,以便量子退火器(例如D-Wave QA)可以解决该问题。 现在,这些矩阵是一个非常有趣的构造。因此,出现了一些问题: 是否可以根据QUBO矩阵对问题类别进行分类? 自动编码QUBO矩阵时,要权衡些什么呢,也就是说,在解决方案质量显着下降之前,还能走多远? 让我们找出答案。 项目结构 文件 目的 nn / 包含神经网络模型。 问题/ 包含针对特定问题(例如3SAT或TSP)的生成器和评估器。 曲/ 将包含通用QUBO库。 数据集/ 包含生成的数据集。 楷模/ 包含训练有素的模型。 config.py 配置(json)处理。 main.py 主入口点。 pipe.py 在QUBO矩阵上对NN进行端到端训练和测试。 Simulations.json 所有实验和配置。
1
独立递归神经网络 简单TensorFlow实现 Shuai Li等人 。 作者在Theano和Lasagne中的原始实现可在找到。 概要 在IndRNN中,循环层中的神经元彼此独立。 基本的RNN用h = act(W * input + U * state + b)计算隐藏状态h 。 IndRNN使用逐元素向量乘法u * state这意味着每个神经元都具有与其最后一个隐藏状态相关的单个递归权重。 IndRNN 可以有效地与ReLU激活功能一起使用,从而更容易堆叠多个递归层而不会使梯度饱和 允许更好的解释性,因为同一层中的神经元彼此独立 通过调节每个神经元的周期性体重来防止梯度消失和爆炸 用
2021-11-23 16:49:59 319KB tensorflow rnn paper-implementations indrnn
1
边缘计算代码 边缘计算是在生成数据的网络边缘附近处理数据的做法,而不是在集中式数据处理仓库中。 这个 repos 提供了边缘计算中提议算法的更好实现(它可能与原始算法不同)。 公告:原 repos: Implementation_of_MEC_papers已弃用。 UIC18 文件夹UIC18包含以下论文的代码: Hailiang Zhao 、Wei Du、Wei Liu、Tao Lei 和 Qiwang Lei, QoE Aware and Cell Capacity Enhanced Computation Offloading for Multi-Server Mobile Edge Computing Systems with Energy Harvesting Devices。 在:第 15 届 IEEE 无处不在智能与计算国际会议 (UIC'18) 的论文集,中国广州,2
1