Open Source library to support interpretability and explainability of data and machine learning models
2023-04-04 22:58:10 14.28MB Python开发-机器学习
1
AI 开源工具 可解释AI特别是论文和代码。 wrt图像分类 2013年会议论文 标题 论文标题 源链接 代码 标签 CNN的可视化 深入的卷积网络:可视化图像分类模型和显着性图 Visualization gradient-based saliency maps 2016年会议论文 标题 论文标题 源链接 代码 标签 凸轮 class activation mapping 酸橙 trust a prediction 2017年会议论文 标题 论文标题 源链接 代码 标签 研究生院 Grad-CAM:深度网络通过基于梯度的本地化的视觉解释 Visualization gradient-based saliency maps 网络解剖 Visualization 2018年会议论文 标题 论文标题 源链接 代码 标签 战术视听 interpretability method 可
2023-02-12 17:06:13 124KB JupyterNotebook
1
摘要尽管机器学习在许多领域取得了巨大的成功,但缺乏可解释性严重限制了其在现实任务尤其是安全敏感任务中的广泛应用.为了克服这一弱点,许多学者对如何提高机器学习模型
2023-01-09 11:10:44 5.41MB
1
金星脚本 欢迎使用动态可注入脚本语言VenusScript的官方GitHub存储库。 请参阅,以进一步了解该语言的工作方式。 版本计划 版 州 描述 0.x 完成 定义 功能 功能参考 标准库 循环容器 分支组件 变量引用 初始动态注射 运行时解释 异步功能 同步功能 同类数组 1.x 当前 面向对象的功能(类,属性,方法,可能是多态等) Java互操作性 清单 字典/地图 异构数组 2.x 计划 功能特点 枚举 调试实用程序和断点 ? 计划 性能提升 自己的字节码编译器和解释器 如何使用 使用Gradle: dependencies { compile 'com.github.bloodshura:venusscript:1.3.0' } 使用Maven: com.github.bloodshura venusscript 1.3.0 对于其他构建系统: 如果您的构建系统支持从Mav
2022-12-29 21:59:11 147KB java language cryptography compiler
1
AI可解释性360(v0.2.1) AI Explainability 360工具箱是一个开放源代码库,支持数据集和机器学习模型的可解释性可解释性。 AI Explainability 360 Python软件包包括一套全面的算法,这些算法涵盖了解释的不同维度以及代理的可解释性指标。 通过逐步介绍不同消费者角色的示例用例,对概念和功能进行了简要介绍。 提供了更深入的,面向数据科学家的介绍。 完整的API也可用。 没有一种最能解释问题的方法。 有很多解释方法:数据与模型,直接可解释与事后解释,本地与全局解释等,因此弄清楚哪种算法最适合给定用例可能会造成混淆。 为了帮助您,我们创建了一些和
1
目前基于深度学习模型的预测在真实场景中具有不确定性和不可解释性,给人工智能应用的落地带来了不可避免的风险。首先阐述了风险分析的必要性以及其需要具备的3个基本特征:可量化、可解释、可学习。接着,分析了风险分析的研究现状,并重点介绍了笔者最近提出的一个可量化、可解释和可学习的风险分析技术框架。最后,讨论风险分析的现有以及潜在的应用,并展望其未来的研究方向。
2022-09-13 22:16:32 1.42MB 人工智能 风险分析 不确定性 可解释性
1
如何提升推荐系统的可解释性?京东智能推荐卖点技术全解析.doc
2022-07-08 14:06:26 11.34MB 技术资料
基于Lua解释性语言-脚本语言的手机跨平台架构 共11页.ppt
2022-06-10 09:08:49 2.37MB lua 脚本语言 跨平台
tsi研究 时间序列可解释性研究
2022-06-05 22:01:45 11KB Python
1
This Report is an expansion of a previous Report on the DARPA XAI Program, which was titled "Literature Review and Integration of Key Ideas for Explainable AI," and was dated February 2018. This new version integrates nearly 200 additional references that have been discovered. This Report includes a new section titled "Review of Human Evaluation of XAI Systems." This section focuses on reports—many of them recent—on projects in which human-machine AI or XAI systems underwent some sort of empirical evaluation. This new section is particularly relevant to the empirical and experimental activities in the DARPA XAI Program
2022-05-05 19:06:46 3.55MB 深度神经网络 可解释性
1