unity动态贴花插件(可制作弹孔、溅血效果) Dynamic Decals 2.0.2
2022-03-02 17:29:34 7.75MB unity3d unity贴花
1
典型相关分析matlab实现代码动态脑网络模块 模块化脑网络组织的时间稳定性-及其与个体差异的关系(例如,一般智力) 下文提供了Kirsten Hilger,Fukushima Makoto,Olaf Sporns和Christian Fiebach共同撰写的“与人类智力相关的功能性大脑模块的时间稳定性”一文中使用的分析管道的详细说明(doi:即将出版)。 该存储库中的脚本可用于复制论文或更广泛的分析,以研究个体差异(例如,智力)与模块化脑网络组织的时间动态之间的关联,这些关联可作为模块化随时间推移的标准偏差进行操作。 此外,脚本还可以为每个受试者确定极端模块化状态(特别是高模块化或低模块化状态)的数量,它们与个体差异的潜在关系以及网络稳定性在大脑某些区域的定位(通过计算稳定性)。特定于节点的共分类值代表了大脑网络稳定性的另一种可操作性)。 此外,该存储库还包含其他脚本,用于研究模块化分区本身的时间动态(通过信息论的措施进行操作)以及网络最大模块的时间稳定性(网络集成的措施)。 最后,该脚本还包含分析代码,用于研究静态网络中的脑网络模块性以及具有个体差异的潜在关系。 如果您对脚本有疑问
2022-03-02 10:49:25 34KB 系统开源
1
本程序是对http://cybertron.cg.tu-berlin.de/eitz/hdr/#downloads上开源代码的修正版。该开源代码在实现“Photographic Tone Reproduction for Digital Images”论文算法时有一处错误。论文本身有一个符号错误和一个参数设置不合理。这些我都在程序中做了修正。关于该论文的色调映射算法讲解可参见我的博客https://blog.csdn.net/u014230360/article/details/108527016。相机响应曲线恢复部分后续可能也会写篇博客,敬请关注
1
包含《C#中的动态类型(Dynamic)》文章涉及到的应用场景示例,比如: ①序列化对象; ②动态解析转换;
2022-02-26 09:04:53 813KB C# 动态类型 Dynamic
1
feedback control of dynamic systems第6版;非影印版,文档中文字可复制!
2022-02-20 19:53:33 29.85MB 书籍
1
给定任何一组外生提供的有效投资组合,我们开发了一种动态规划算法,该算法构建了一个最佳投资组合交易策略,以最大化在指定时间范围结束时实现投资者指定目标财富的可能性。 我们的算法还可以适应任何规模的定期注入或提取,而不会降低运行时性能。 我们探讨了终端财富分布如何对投资者可用的投资组合有效边界部分的限制敏感。 因为我们算法的最优策略是在有效边界上,允许取决于投资者的财富,并允许取决于投资者的个人目标和规格,我们表明它在实现投资者目标方面明显优于目标日期基金的表现。 这些基于最佳目标的财富管理策略对于顾问驱动或机器人驱动的现代金融科技产品非常有用。
2022-02-18 16:18:07 2.42MB Dynamic asset allocation
1
该函数由 fitparp 函数实现。
2022-02-12 18:37:44 3KB matlab
1
考虑多级车辆,公共交通和停车场的多模式动态交通分配的一般公式 由马威和Xidong Pi(AlanPi1992)实施,在卡内基梅隆大学土木和环境工程专业的肖恩钱的建议下进行。 要求 cvxopt 1.1.9 numpy的1.14.2 MNMAPI:MNMAPI是MAC在CMU中开发的流量模拟库,请参阅和 MNM_mcnb:MNMAPI的文件夹接口,请参考 指示 请克隆整个存储库,然后使用jupyter notebook运行Runner.ipynb。 实验 要在exp_config.py中检查实验的详细信息,请参阅该论文。 档案规格 src / exp_config.py:论文中的实验设置 src / gp.py:渐变投影方法 src / models.py:多模式DUE的实现 src / runner.ipynb:运行MMDUE的脚本 img / .:本文中使用的想象 data /
1
软件介绍: Dynamic Trader是一款专业的波浪分析工具,内附注册机,以及破解文件,安装后将下面文件复制到BIN文件夹覆盖原文件即可。DT6.exeDTBackupSEA.exeportman5.exeUninstallDT6.exe
2022-02-09 10:37:58 17.81MB 其他资源
1
CUDA中PyTorch的软DTW 用于PyTorch的快速CUDA实现。 基于但运行速度最高可提高100倍! forward()和backward()传递都使用CUDA实现。 我的实现部分受到启发,其中提出了基于对角线的Belman递归实现。 入门 此代码取决于和 。 只需在您的项目中包含soft_dtw_cuda.py ,就可以了! 您还可以运行随附的事件探查器/测试(已通过Python v3.6测试),并查看获得的加速效果: git clone https://github.com/Maghoumi/pytorch-softdtw-cuda cd pytorch-softdtw-cuda python soft_dtw_cuda.py 用法示例 脚本中已经提供了示例代码。 这是一个简单的例子: from soft_dtw_cuda import SoftDTW # Crea
2022-01-28 10:40:49 10KB deep-learning cuda pytorch dynamic-time-warping
1