深度主动学习 以下主动学习算法的Python实现: 随机抽样 最不信任[1] 保证金抽样[1] 熵采样[1] 具有辍学估计的不确定性采样[2] 贝叶斯主动学习分歧[2] K均值采样[3] K中心贪婪[3] 核心套装[3] 对抗-基本的迭代方法 对抗性-DeepFool [4] 先决条件 numpy的1.14.3 scipy 1.1.0 火炬0.4.0 火炬视觉0.2.1 scikit学习0.19.1 ipdb 0.11 用法 $ python run.py 参考 [1]一种新的深度学习主动标记方法,IJCNN,2014年 [2]使用图像数据进行深度贝叶斯主动学习,ICML,2017年 [3]卷积神经网络的主动学习:核心集方法,ICLR,2018年 [4]深度网络的对抗式主动学习:基于边际的方法,arXiv,2018年
2021-10-05 15:19:49 16KB Python
1
公用池资源系统中的深度多主体强化学习 中的论文中的实验源代码。 该论文已被接受并发表在IEEE CEC 2019上。 介绍 在复杂的社会生态系统中,具有不同目标的多个代理机构采取的行动会影响系统的长期动态。 共同资产池是此类系统的子集,在这些系统中,财产权通常定义不清,先验性未知,因此造成了社会困境,这是众所周知的公地悲剧反映出来的。 在本文中,我们研究了在公共资源池系统的多主体设置中进行深度强化学习的功效。 我们使用了系统的抽象数学模型,表示为部分可观察到的一般和马尔可夫博弈。 在第一组实验中,独立主体使用具有离散动作空间的深度Q网络来指导决策。 但是,明显的缺点是显而易见的。 因此,在第二组实验中,具有连续状态和动作空间的深度确定性策略梯度学习模型指导了主体学习。 仿真结果表明,使用第二种深度学习模型时,代理商在可持续性和经济目标方面的表现均明显更好。 尽管代理商没有完全的预见力或对他
1
基于深度机器学习和RFID的垃圾分类系统设计.pdf
2021-09-25 17:02:16 3.03MB 机器学习 参考文献 专业指导
从数据中学习动力系统 神经网络动力学,用于基于模型的深度强化学习,且无模型精调
1
This repository contains most of classic deep reinforcement learning algorithms, including - DQN, DDPG, A3C, PPO, TRPO. (More algorithms are still in progress)
2021-09-24 19:57:52 3.79MB Python开发-机器学习
1
多用户移动边缘计算的分散式计算分流:一种深度强化学习方法 多用户移动边缘计算的分散式计算分流:一种深度强化学习方法 这实现了论文中的算法 一些提示:尝试通过运行ipynb文件之一来开始您的旅程,例如test_save_model_multiple_t02_noBuf.ipynb。 “用于多用户移动边缘计算的分散式计算分流:一种深度强化学习方法” 如果您发现这对您的研究有用,请使用 @article {chen2018decentralized,title = {用于多用户移动边缘计算的分散式计算分流:一种深度强化学习方法},作者= {Chen,Zhao和Wang,Xiaodong},journal = {arXiv预印本arXiv:1812.07394},年= {2018}} 如有任何疑问,请通过与我联系。
2021-09-24 16:46:28 444.79MB JupyterNotebook
1
Survey_of_Deep_Metric_Learning:深度度量学习和相关作品的全面调查
2021-09-24 14:30:18 102KB deep-learning tensorflow pytorch metric-learning
1
研究了基于深度强化学习算法的自主式水下航行器(AUV)深度控制问题。区别于传统的控制算法,深度强化学习方法让航行器自主学习控制律,避免人工建立精确模型和设计控制律。采用深度确定性策略梯度方法设计了actor与critic两种神经网络。actor神经网络给出控制策略,critic神经网络用于评估该策略,AUV的深度控制可以通过训练这两个神经网络实现。在OpenAI Gym平台上仿真验证了算法的有效性。
1
分布式DRL 分布式深度强化学习 该框架的灵感来自OpenAI的通用RL培训系统Rapid 。 快速框架: 我们的框架: 教程 该框架将强化学习过程分为五个部分: 重播缓冲区(选项) 参数服务器 火车(学习) 推出 测试 @ ray . remote class ReplayBuffer : ... # replay buffer @ ray . remote class ParameterServer ( object ): ... # keep the newest network weights here # could pull and push the weights # also could save the weights to local @ ray . remote ( num_gpus = 1 ,
2021-09-18 15:12:57 874KB Python
1