判别学习、恢复学习和对抗性学习已被证明对计算机视觉和医学成像中的自监督学习方案有益。然而,现有的努力,忽略了它们在三元设置中相互之间的协同作用,我们认为,这可以显著地有利于深度语义表示学习。为了实现这一愿景,我们开发了DiRA,这是第一个将判别学习、恢复学习和对抗学习统一起来的框架,以协作的方式从未标记的医学图像中收集互补的视觉信息,用于细粒度语义表示学习。我们的广泛实验表明,DiRA (1) 鼓励三种学习成分之间的协作学习,从而在器官、疾病和模态中产生更一般化的表征; (2) 优于完全监督的ImageNet模型,并在小数据领域增强鲁棒性,减少多个医学成像应用程序的注释成本; (3) 学习细粒度语义表示,仅通过图像级标注即可实现病灶的准确定位 ;(4) 增强了最先进的修复方法,揭示了DiRA是统一表征学习的一般机制。所有代码和预训练的模型都可以
2022-04-27 09:14:50 1.15MB 学习 计算机视觉 文档资料 深度学习
1
公平性:衡量R中的算法公平性 套餐概述 fairness R包提供了用于计算不同敏感组之间算法公平性度量的工具。 基于二元分类任务中的模型预测来计算度量。 该软件包还提供了机会来可视化和比较敏感群体之间的其他预测指标。 该软件包包含用于计算常用的公平机器学习指标的函数,例如: 人口平价 比例平价 均等赔率 预测汇率平价 此外,还实现了以下指标: 误报率平价 假负利率平价 精度平价 负预测价值平价 特异性均等 ROC AUC比较 MCC比较 提供了有关使用该软件包的全面教程。 我们建议您阅读本教程,因为与本自述文件相比,本教程包含对公平性软件包的更深入的描述。 您还会在公平找到一个简短的教程: vignette( ' fairness ' ) 安装 您可以通过运行以下命令从安装最新的稳定软件包版本: install.packages( ' fairness ' ) library(
2022-03-03 14:57:30 368KB machine-learning r fairness discrimination
1
虽然大多数关于人工智能、算法和偏见的研究都是从信息技术和计算机科学领域的“公平”的角度进行的,但本章探讨了算法歧视的问题——一个不完全重叠的类别带有算法偏见——从非歧视法的具体角度来看。 特别是与目前大多数关于算法和歧视问题的研究侧重于美国背景相比,本章将欧盟非歧视法作为其调查对象。 我们提出了非歧视一般原则的弹性问题,即欧盟平等法有效应对算法歧视带来的具体挑战的能力。 由于欧盟法律代表了一个总体框架,并为欧盟成员国在国家层面上防止歧视制定了最低保障措施,因此重要的是测试对人工智能技术在日常生活应用中普遍且日益增加的使用所带来的风险的保护措施。这个框架允许。 因此,本章描绘了人工智能对平等和非歧视所带来的挑战,这既是欧盟法律的一般原则,也是一项基本权利。 首先,我们确定了基于人工智能的决策,尤其是机器学习算法所带来的具体歧视风险。 其次,我们回顾了欧盟非歧视法如何在其实体范围方面捕捉算法歧视。 第三,我们从概念的角度进行审查,绘制出从欧盟法院 (CJEU) 制定的直接和间接歧视概念的角度出现的摩擦点。 在最后一步,我们确定算法歧视在执法层面带来的核心挑战,并提出潜在的前进方向。
2021-11-01 16:33:28 597KB Discrimination Artificial intelligence
1
Fisher线性判别实验,.m文件,各行代码功能备注明确,有利于学习,matlab直接运行。
2021-06-03 15:15:09 778B Fisher
1