图 12.25 输出量为车体垂向位移加速度的伯德图 另外,从频率响应图中可以反映,如果只研究低频激扰,那系统可以简化成非常简单的 模型,如研究轮对横移量为输出,系统的传函可以简化为一个普通的二阶振荡环节;以车体 垂向位移为输出,系统的传递函数也是可以简化为一个二阶振荡环节;而若以车体垂向加速 度为输出,由于在低频段幅频特性是一段斜率为 40dB/dec 的直线,而相频为相位超前 180 度,故可将系统简化为一个二阶微分环节。。 (3)谱分析 应用周期调制的随机过程来表达典型的轨道几何偏差较为适合。这种过程包括两部分, 一是平稳随机过程,用以代表钢轨随机不平顺,另一个是周期过程,用以描述规则排列的平 均幅值不为零的轨缝。轨缝幅值的大小是随机的,但其位置分布则是规则的。在分析周期调 制的随机过程中功率谱密度(PSD)是一种很有用的工具。在轨道几何 PSD 中,平稳随机过 程产生平滑连续谱。而轨缝的非零平均幅值(周期过程)则产生谱峰。现代铁路中的客运专 线大部分都为无缝轨道,轨道几何 PSD 中只有平稳随机过程代表的钢轨随机不平顺,而没有 代表轨缝的周期过程。在计算中,可以使用轨道横向不平顺为德国高速铁路横向高干扰,轨 道垂向不平顺是德国高速铁路垂向高干扰。输出向量为第一轮对的横向位移和横向加速度、 前转向架构架的横向位移量和横向加速度、车体中心的横向位移量和横向加速度、车体中心 的垂向位移量和垂向加速度。图 12.26 和 12.27 表示模型 A和模型 B的轮对、构架、车体和 激扰的横向位移谱。位移谱的主要峰值对应为该自由度的自然频率[14]。 从车体的横向位移谱和垂向位移谱分析中可见,谱的分布集中在低于 4Hz 的频域上。 故说明车体振动对低频十分敏感。从对各刚体位移谱分析来看,模型 B与模型 A 的差异主 要是体现在高频部分,但这种差异本身是很微小的。 10-1 100 101 102 10-9 10-8 10-7 10-6 10-5 10-4 10-3 D is pl ac em en t/[ m2 /H z] Frequency/Hz 轮对1 构架1 车体 轨道横向谱 10-1 100 101 102 10-9 10-8 10-7 10-6 10-5 10-4 10-3 D is pl ac em en t/[ m2 /H z] Frequency/Hz 轮对1 构架1 车体 轨道横向谱 图 12.26 模型 A的刚体横向位移谱 图 12.27 模型 B的刚体横向位移
2022-03-04 09:21:55 18.28MB simpack
1
qtrader 资产组合管理的强化学习 为什么要进行强化学习? 学习最佳行动,而不是为市场建模。 由于其在线培训,因此可以适应市场的暂时变化。 优化长期(累积)回报,而不是瞬时收益。 设置 由于typing s,因此与Python 3兼容 苹果系统 source scripts/setup.sh 文献资料 : qtrader简介 :现有方法的动机,利弊 :相关资源清单 :硕士论文 :15分钟的项目演讲
1
强化学习经典书籍,介绍了强化学习当前的各个细节,实用性很强。
2022-03-02 08:44:10 8.27MB 强化学习 经典书籍
1
强化学习导论第二版,网上虽已有,但有80M之多。这个版本仅10M多。
2022-02-27 21:56:05 10.39MB Learning Reinforcemen
1
Richard S. Sutton的关于强化学习经典的教科书,此书为2017最新版,涵盖DeepMind团队最新理论成果,无论是想学习强化学习还是作为机器学习的泛读材料,都值得一看。
2022-02-27 21:55:14 10.85MB 强化学习
1
Gym-UnrealCV:用于视觉增强学习的逼真的虚拟世界 介绍 该项目将Unreal Engine与OpenAI Gym集成在一起,用于基于视觉增强学习。 在此项目中,您无需任何虚幻引擎和UnrealCV知识即可在各种现实的UE4环境中轻松运行RL算法。 已经发布了许多用于机器人视觉任务的环境,例如Searching for objects , Active object tracking和Control a robotic arm 。 该项目的框架如下所示: UnrealCV是Unreal Engine和OpenAI Gym之间的基本桥梁。 OpenAI Gym是用于开发RL算法的
2022-02-25 22:04:26 15.52MB reinforcement-learning gym unreal-engine unrealcv
1
深度强化学习课程 探索神经网络和强化学习的结合。 Python和PyTorch中的算法和示例 您是否听说过和的取得了惊人的结果? 这都是关于深度神经网络和强化学习的。 您是否想了解更多? 这是您最终学习Deep RL并将其用于新的令人兴奋的项目和应用程序的正确机会。 在这里,您将找到这些算法的深入介绍。 您将学习q学习,q学习,PPO,演员评论家,并使用Python和PyTorch实施它们。 最终目的是使用这些通用技术并将其应用于各种重要的现实世界问题。 德米斯·哈萨比斯(Demis Hassabis) 该存储库包含: 主要来自DeepMind和Berkley Youtube的频道的讲
1
一本关于强化学习很好的教材,附带代码,非常值得拥有!
2022-02-14 10:02:39 19.13MB 强化学习
1
保护决策的深层强化学习_Deep Reinforcement Learning for Conservation Decisions.pdf
2022-01-22 09:02:10 518KB cs
从头开始训练机器人手臂 :建立培训框架 :学习从头开始构建环境 :完成基本的环境脚本,看看手臂如何运动 :插入强化学习方法并尝试对其进行培训 :优化和调试 :制定目标 依存关系 Python 张量流 g 麻木 此强化学习练习代码​​的中文教程为 。 您可以在上查看更多教程,或在了解有关我的更多信息。
1