利用粒子群算法解决寻求组合拍卖中最优组合的方法.
2021-10-08 19:32:37 9KB 组合拍卖 粒子群算法 多agent
1
主要介绍了根据user-agent判断蜘蛛代码黑帽跳转代码(js版与php版本),需要的朋友可以参考下
2021-10-04 17:12:47 45KB user-agent 蜘蛛
1
atlassian-agent.jar
2021-10-02 10:05:01 954KB atlassian-agent
1
jack是开发Agent的工具,多智能体控制是90年代以来新兴的控制学科,因其有较好的智能性,高度自治性而广受关注。
2021-09-30 19:43:16 10.43MB jack Agent
1
UserAgentUtils-1.20.jar 通过request请求的User-Agent获取客户端的浏览器类型、操作系统类型、客户端ip地址等的jar包
2021-09-30 14:09:19 44KB UserAgent Utils
1
支持CentOS7的CDH6.3.1、CDH6.3.2通用的cloudera-manager-server-6.3.1-1466458.el7.x86_64、cloudera-manager-agent-6.3.1-1466458.el7.x86_64、cloudera-manager-daemons-6.3.1-1466458.el7.x86_64
2021-09-29 16:05:20 376B CDH 大数据平台 Centos7
公用池资源系统中的深度多主体强化学习 中的论文中的实验源代码。 该论文已被接受并发表在IEEE CEC 2019上。 介绍 在复杂的社会生态系统中,具有不同目标的多个代理机构采取的行动会影响系统的长期动态。 共同资产池是此类系统的子集,在这些系统中,财产权通常定义不清,先验性未知,因此造成了社会困境,这是众所周知的公地悲剧反映出来的。 在本文中,我们研究了在公共资源池系统的多主体设置中进行深度强化学习的功效。 我们使用了系统的抽象数学模型,表示为部分可观察到的一般和马尔可夫博弈。 在第一组实验中,独立主体使用具有离散动作空间的深度Q网络来指导决策。 但是,明显的缺点是显而易见的。 因此,在第二组实验中,具有连续状态和动作空间的深度确定性策略梯度学习模型指导了主体学习。 仿真结果表明,使用第二种深度学习模型时,代理商在可持续性和经济目标方面的表现均明显更好。 尽管代理商没有完全的预见力或对他
1
AirSim PyTorch无人机DDQN代理
2021-09-25 20:34:28 30KB Python
1
XPlane_ML_Reinforcement_Learning_Autopilot 该项目记录了用于飞行控制的强化学习环境的设置。 这将使每个用户/学习者/学生/飞行爱好者都可以拥有自己的RL算法,该算法可以在模拟环境中与飞机互动并进行实时控制。 使用的模拟器是X-Plane (飞行环境)。 这提供了一个可与参数一起使用的真实环境,以帮助使仿真尽可能接近实际情况。 Update: Use the leaderboard wiki Page--> ( ) to add details of your own scenario or (reinforcement learning) algorithm. GYM-XPLANE ENVIRONMENT INSTALLATION To install the gym x-palne environment go through the read me file of the folder : 这是实际Gym-xplane环境的最新版本。 其他文件夹包含用于其他功能的其他模块。 此类文件夹的名称将使您了解每个此类模块的功能。 阅读
2021-09-23 14:33:38 48.59MB agent algorithm simulation xplane
1
本书与“多智能体原理与技术”互为姊妹篇。介绍多智能体机器人技术问题,深入讨论机器人群的行为计算机制。通过发布本书,我也想认识一些对这方面感兴趣的朋友,共同探讨,请与我联系,谢谢。
2021-09-22 16:25:26 5.5MB agent 多智能体 机器人 机器学习
1