一般的 该存储库提供了代码和示例,用于生成最接近的反事实说明和最少的后续干预措施。 支持以下论文: (4c691b4 @ ) (9387e6c @ ) 代码先决条件 第一的, $ git clone https://github.com/amirhk/mace.git $ pip install virtualenv $ cd mace $ virtualenv -p python3 _venv $ source _venv/bin/activate $ pip install -r pip_requirements.txt $ pysmt-install --z3 --confirm-agreement 然后参考 $ python batchTest.py --help 并运行如下 $ python batchTest.py -d * dataset * -m * mod
1
计算机组成原理课程设计-基于EDA和FPGA技术的8位模型计算机的设计与实现 北京科技大学
2023-04-26 23:18:17 3.37MB 计算
1
matlab哈密尔顿代码弗洛里丁 在这项工作中,已经实现了FLORIDyn模型。 该模型允许在异构条件下动态模拟FLORIS唤醒。 这些条件是随着时间和空间的变化风速,方向和环境湍流强度。 该模型还包括尾流相互作用效应和附加的湍流模型。 该代码包括各种布局和条件,以及用于创建自定义模拟案例的指导注释。 高保真模拟SOWFA用于验证代码。 在当前版本中,可以比较生成的功率输出,复制SOWFA仿真的偏航行为并复制控制行为(贪婪控制或基于叶尖速度比和叶片桨距角)。 相关说明在代码中给出。 如何开始 您可以通过两种方式运行代码:从FLORIDyn App或通过运行主要脚本之一。 要使用该应用程序,请打开FLORIDyn_App.mlapp。 如果从资源管理器中打开它,则仅应打开“应用程序”窗口。 使用“预览”按钮查看涡轮机在哪里,风向是什么以及风切变曲线是什么。 单击“运行”后,将执行仿真并将绘制生成的功率以及流场(如果已激活)的图表。 如果从MATLAB中打开FLORIDyn_App.mlapp,则可以访问该应用程序代码并可以对其进行修改。 要获得更多选择,请使用脚本main.m,该脚本包含
2023-04-26 21:22:08 305.75MB 系统开源
1
基于yolov7实现卡车识别检测源码+训练好模型(9000多个卡车目标训练)+配置文件+评估指标曲线.zip 模型识别检测类别为1类 ['卡车'] 【模型介绍】 1.模型使用的是yolov7-tiny.yaml、hyp.scratch.custom.yam训练 2.模型使用高性能显卡+高质量数据集训练迭代200次得到,识别检测效果和评估指标曲线都不错,实际项目所用,不需要二次训练或者微调,可用作实际项目、课程实验作业、模型效果对比、毕业设计、课程设计等,请放心下载使用!
近年来,恶意软件呈现出爆发式增长势头,新型恶意样本携带变异性和多态性,通过多态、加壳、混淆等方式规避传统恶意代码检测方法。基于大规模恶意样本,设计了一种安全、高效的恶意软件分类的方法,通过提取可执行文件字节视图、汇编视图、PE 视图3个方面的静态特征,并利用特征融合和分类器集成学习2种方式,提高模型的泛化能力,实现了特征与分类器之间的互补,实验证明,在样本上取得了稳定的F1-score(93.56%)。
1
1. 金融量化-上证指数某股票的模型分析收益率 2. R语言版本
2023-04-25 22:21:02 275KB r语言 股票分析
1
RoboMaster- 基于DJI2015年步兵底盘模型和A型开发板编写的整车开源代码
2023-04-25 21:45:13 53.16MB 系统开源
1
农业基础设施包括生产基础设施和非生产性基础设施两大类别。以2000~2011年中国省级面板数据为例,验证农业基础设施对我国农业产出的影响。通过运用单位根检验、协整检验分析方法,具体衡量农业基础设施各项投入对农业总产出的影响。研究结果表明:农村通讯设施是农村经济发展的首要因素,水利基础设施对我国的经济增长的促进作用没有预期的高。农业基础设施对我国农业生产具有促进作用,因此要继续加大投资、优化结构、重视农业基础设施维护,从而构成我国未来农村经济持续、稳定增长的强大动力。
2023-04-25 08:48:38 171KB 农业基础设施 面板数据 产出影响
1
CNN的成功依赖于其两个固有的归纳偏置,即平移不变性和局部相关性,而视觉Transformer结构通常缺少这种特性,导致通常需要大量数据才能超越CNN的表现,CNN在小数据集上的表现通常比纯Transformer结构要好。 CNN感受野有限导致很难捕获全局信息,而Transformer可以捕获长距离依赖关系,因此ViT出现之后有许多工作尝试将CNN和Transformer结合,使得网络结构能够继承CNN和Transformer的优点,并且最大程度保留全局和局部特征。 Transformer是一种基于注意力的编码器-解码器结构,最初应用于自然语言处理领域,一些研究最近尝试将Transformer应用到计算机视觉领域。 在Transformer应用到视觉之前,卷积神经网络是主要研究内容。受到自注意力在NLP领域的影响,一些基于CNN的结构尝试通过加入自注意力层捕获长距离依赖关系,也有另外一些工作直接尝试用自注意力模块替代卷积,但是纯注意力模块结构仍然没有最先进的CNN结构表现好。
1