透明度和可解释性原则是当前欧盟人工智能方法的里程碑。 两者都在政策指南中作为管理算法决策的价值被引用,同时为现有的规范性规定、信息义务、访问权和控制权提供了基本原理。 这篇文章从欧盟消费者市场的角度解决了关于透明度和可解释性的辩论。 考虑了消费者相对于算法决策的立场,并讨论了他们在大规模监视、利用和操纵方面的风险。 分析了算法不透明度的概念,区分了设计选择所固有的基于技术的不透明度,以及对用户的关系不透明度。 然后考虑欧盟法律的React。 算法透明度和可解释性的新兴方法与有关消费者市场透明度的更广泛监管目标有关。 有人认为,欧盟法律侧重于向非专业消费者提供足够的信息(公开的透明度),而不是专家的可理解性(深奥的透明度)。 随后讨论了透明度的好处、其成本以及在不影响绩效的情况下实施透明度的程度。 最后,讨论了基于透明度的算法监管的优点,并提供了有关在欧盟法律范式内监管透明度和可解释性的见解。
2022-02-13 15:55:11 304KB consumer law EU
1
资本 使用Captum探索PyTorch模型的可解释性 Captum可帮助ML研究人员更轻松地实现可与PyTorch模型进行交互的可解释性算法。对于模型开发人员而言,Captum可用于通过识别有助于模型输出的不同特征来改进模型和对模型进行故障排除,从而设计出更好的模型并进行故障排除意外的模型输出。( ) 在这里,我们将解释Resnet模型对图像的预测,并使用归因技术(例如Captum提供的“集成梯度”和“遮挡”)来比较结果。 方案1-通过PyTorch模型进行正确的预测 在这里,输入图像是企鹅,模型预测是预期的“企鹅王”。 归因输出:综合梯度-
2022-02-11 14:10:09 1.15MB JupyterNotebook
1
由,,,和其他捐助。 该项目得到以下两项工作的支持: 最终产品: (更新中) 更新: 在CoNLL03上添加了一个SOTA NER系统和两个得分最高的系统,参阅。 感谢 和Stefan Schweter的分享成果。 1.动机问题 许多NLP任务的执行已达到稳定状态。 什么有效,下一步是什么? XX解决了吗? 还剩什么? 一个好的评估指标不仅可以对不同的系统进行排名,还可以告诉他们它们之间的相对优势(优势和劣势)。 下一代Leaderboard :具备强大的分析能力吗? 2.可解释的评估方法 评估方法通常包括以下步骤。 2.1属性定义 以NER和CWS任务为例,我们为NER任务定义了8个属性,为CWS任务定义了7个属性。 ID 内尔 标准煤 1个 实体长度 字长 2个 句子长度 句子长度 3 OOV密度 OOV密度 4 代币频率 字符频率 5 实体频率
2022-01-22 19:50:10 13.84MB HTML
1
LIME-Text_Data 在文本数据上实现LIME(本地可解释模型不可知的解释)。 这有助于直观地解释为什么模型预测了预测的内容。 笔记本使用简单的分类任务突出显示做出预测的贡献者(请参见下文): 了解更多信息并了解其下的功能 阅读: :
1
融合机器学习与知识推理的可解释性框架.pdf
2021-09-25 17:02:20 1.56MB 机器学习 参考文献 专业指导
机器学习模型可解释性方法、应用与安全研究综述.pdf
2021-08-31 13:16:42 5.37MB 机器学习
1
基于模糊聚类和遗传算法的具备解释性和精确性的模糊分类系统设计.pdf
2021-08-21 13:03:24 406KB 聚类 算法 数据结构 参考文献
随着机器学习模型越来越多地用于在医疗保健和刑事司法等高风险环境中帮助决策者,确保决策者(最终用户)正确理解并因此信任这些模型的功能是很重要的。
2021-08-13 16:57:19 19.57MB 机器学习 可解释性
1
可解释性背景 模型解释方法 可解释性实践 可解释性展望
2021-08-12 09:00:54 1.93MB 反欺诈 业务安全 风控 行业安全