Attention is all you need论文阅读笔记
2022-12-25 20:27:56 5.22MB 深度学习 Transformer
1
Attention is all you need 解读及详细代码,每个模块都有注释,代码详细易懂。哈佛出品,值得阅读。Transformer最基本的结构,也是BERT的基本结构,NLP和推荐都需要用到。
2022-12-07 12:27:41 2.57MB attention Transformer BERT NLP
1
论文Attention Is All You Need的翻译
2022-09-08 09:05:12 725KB
1
超级DllHijack 通用的DLL劫持技术,不需要手动导出DLL的相同功能接口,非常容易! 用法: 创建一个与被劫持的DLL具有相同名称的DLL(例如,target.dll),并将被劫持的DLL重命名为其他名称(例如,target.dll.1),然后调用SuperDllHijack函数来完成hajick工作。 更新: 2020-4-4 修复了在x64中获取peb的错误。感谢 , , 。 您可以在example代码中查看更多详细信息。 VOID DllHijack1(HMODULE hMod) { TCHAR tszDllPath[MAX_PATH] = { 0 }; GetModuleFileName(hMod, tszDllPath, MAX_PATH); PathRemoveFileSpec(tszDllPath); PathAppend(tszDllPat
2022-07-02 13:22:44 565KB hook inject dllhijack C++
1
该资源是qt用QCustomPlot实现鼠标实时回调xy轴数据并显示在曲线内的实现代码,详细请参考我的博客文章
1
NIPS-2017-attention-is-all-you-need-Paper 中文翻译版 有导航目录,看起来很方便
2022-05-19 09:10:19 636KB 深度学习 transformer 注意力 论文翻译
1
Attention is all you need 摘要 主要的序列转换模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单的网络体系结构Transformer,它完全基于注意力机制,完全不需要重复和卷积。在两个机器翻译任务上的实验表明,这些模型在质量上更优越,同时更具并行性,需要的训练时间明显减少。我们的模型在2014年WMT英德翻译任务中达到28.4 BLEU,比现有的最佳结果(包括集成部分)提高了2个BLEU以上。在WMT 2014英法翻译任务中,我们的模型在8个GPU上训练3.5天后,建立了一个新的单模型最新的B
2022-03-20 19:29:14 1.36MB al ALL attention
1
The Matrix Calculus You Need For Deep Learning 《深度学习所需的矩阵微积分知识》
2022-02-04 12:05:49 676KB 矩阵 深度学习 人工智能 微积分
1
文章为对attention is all you need的论文解读,详细的剖析了该文章的思想。
2022-01-01 18:09:00 461KB attention, deep learning
1
您是否希望RL代理商在Atari上继续前进? 彩虹就是您所需要的! 这是从DQN到Rainbow的分步教程。 每章都包含理论背景和面向对象的实现。 只需选择您感兴趣的任何主题,然后学习! 您甚至可以在智能手机上使用Colab立即执行它们。 如果您有任何改善建议,请随时提出问题或提出要求。 :) 如果您想要有关策略渐变方法的教程,请参阅。 内容 DQN [ ] [ ] DoubleDQN [ ] [ ] PriorityizedExperienceReplay [ ] [ ] DuelingNet [ ] [ ] NoisyNet [ ] [ ] CategoricalDQN [ ] [ ] N-stepLearning [ NBViewer ] [ Colab ] 彩虹[ NBViewer ] [ Colab ] 先决条件 此存储库已在Anac
2021-11-03 12:21:10 739KB reinforcement-learning rainbow pytorch dqn
1