设为首页 - 加入收藏
广告 1000x90
您的当前位置:188144com黄大仙救世网 > 近似推理 > 正文

DeepMind提出特定路径的反事实公平减少敏感属性对决策系统的影响

来源:未知 编辑:admin 时间:2019-06-07

  原标题:DeepMind提出特定路径的反事实公平,减少敏感属性对决策系统的影响

  我们认为,学习公平决策系统所面临的问题在于场景的复杂性,其中,一个敏感属性可能影响公平和不公平路径的决策。我们引入一种因果方法,它能够忽略那些沿着不公平路径所产生的影响,从而对以往的研究成果进行简化和概括。我们的方法对受敏感属性所影响的观察结果进行了纠正,并将其用于形成一个决策。这能够避免忽视公平信息,而且也不需要对通常难以进行的、特定于路径的影响进行计算。我们利用深度学习和近似推理方面的最新发展来实现一个广泛适用于复杂的、非线性场景的解决方案。

  现如今,机器学习越来越多地被用来作出可能严重影响人们生活的决策,例如在警务、教育、招聘(Hoffman等人于2015年提出)、贷款和刑事风险评估(Dieterich等人于2016年提出)等领域。然而,大多数情况下,训练数据中包含了我们社会中常见的偏见。这种偏见可能被系统吸收甚至放大,从而导致在涉及敏感属性方面(例如种族和性别)做出不公平的决策。

  为了响应政府和机构的呼吁,研究界最近开始通过各种观点和框架来解决公平问题。解决这一挑战的最简单方法是降低或放弃敏感属性(Zeng等人于2016年提出)。这可能会对模型的精确度产生不利影响,并且通常不会产生一个公平的过程,因为这个敏感属性可能与其他属性相关联。一个更为复杂的方法是对数据进行预处理或提取不包含敏感属性信息的表示(Zemel等人于2013年、Feldman等人于2015年、Edwards和Storkey于2016年、Louizos等人于2016年、Calmon等人于2017年提出)。两种类型的方法都假定敏感属性对决策所产生的影响都是完全不公平的。

  为了使各种不同的公平观念更具标准化,社区引入了一些统计标准以确定决策系统是否公平,并且已经开发了一种算法,通过对优化施加约束或通过使用攻击者从而获得给定的公平标准。但是,对于给定的决策问题来说,哪种标准最适合往往并不清楚。更为棘手的问题是,直觉上似乎与类似公平相对应的标准并不总是能够在数据集上同时得到满足。最后,基于观测值之间统计关系的方法存在着不能区分因果关系的危险,并且不能区分敏感属性可能影响决策的各种不同的方式。

  最近有人提出,使用因果框架将导致一个更为直观、更有力、而且不太容易出错的关于公平的推理方式。这一建议是将不公平性视为敏感属性对决策所产生的不公平的因果效应,正如Pearl(于2000年)和Pearl等人(于2016年)所做的那样,例如,分析伯克利在研究生入学时的所谓性别偏见的情况。

  最近,Kusner等人(于2017年)引入了一个关于公平的因果定义,称为反事实的公平性(counterfactual fairness),它指出,如果一个决策与一个在敏感属性不同的反事实世界中所采取的决策相一致,那么该决策对于个体是公平的,并提出了一个用于实现这个概念的通用算法。该定义认为敏感属性对决策的整体影响是有问题的。但是,在许多实际场景下,情况并非如此。例如,在伯克利所谓的性别偏见案例中,相较于男性申请者来说,女性申请者更频繁地遭到拒绝,这是因为更多时候,她们申请的是入学率较低的学院。通过学院选择而产生的性别影响并不公平。

  图1.(a)带有混淆因子C的GCM导致A对Y产生因果效应(b)GCM具有从A到Y的一条直接和一条间接因果路径(C)带有混淆因子C的GCM导致M对Y产生影响

  针对这种情况,我们提供了一种新的公平定义,并称之为特定路径的反事实公平(path-specific counterfactual fairness),其中规定,如果一个决策与在反事实的世界(在这个世界中,沿着不公平路径的敏感属性是不同的)中所做出的决策一致,那么它对公众个体而言就是公平的。

  为了实现特定路径特定的反事实公平,决策系统需要能够辨别敏感属性沿公平和不公平路径对决策产生的影响,并忽视沿后者路径所产生的影响。Kilbertus等人于2017年,Nabi和Shpitser于2018年提出限制模型参数的学习,以减小或消除不公平的影响,但这种方法有几点限制和局限性:

  •它需要规定约束条件。Nabi和Shpitser于2018年明确地计算了不公平效应的近似值,并在此约束条件下对模型参数进行了优化,以使效应必须存在于一个很小的范围内。相反,Killbertus等人于2017年直接提出了决策变量在条件分布下的一组约束条件下决策变量的条件分布,从而消除了不公平影响。这两种方法都有赖于模型中随机变量之间线性关系的局限性。此外,对模型参数施加约束会扭曲潜在的数据的生成过程。

  •为了做出决定,Nabi和Shpitser于2018年提出的系统要求通过不公平路径对敏感属性后代的所有变量进行平均。这会对系统的预测精准度产生负面影响。Killbertus等人于2017年从这类后代的子集中删除了信息,尽管这不是必要的。

  我们提出了一种不同的方法,该方法不是通过对模型参数施加约束来消除不公平影响,而是通过不公平的途径修正敏感属性后代的变量,从而做出公平的决策。修正的目的在于消除由敏感属性印发所引发的后代中的不公平信息,同时保留剩余的公平信息。这种方法更自然地实现了特定路径特定的反事实公平,而不完全忽略来自有问题后代的信息。通过利用近期深度学习和近似推理方面的发展成果,我们提出了一种广泛适用于复杂、非线性场景的方法。

  我们引入了一种潜在的推理投影方法来实现特定路径特定的反事实公平,这简化、推广并超越了以往的文献研究成果。公平的决策是通过沿着不公平的路径修正作为受保护属性后代的变量实现的,而不是通过对模型参数施加约束来实现。这使我们能够保留存在问题的后代中所包含的公平信息,并保持原有的数据生成机制不变。未来,我们计划研究替代MMD的技术,以加强潜在空间和敏感属性之间的独立性。

本文链接:http://storkroadfarm.com/jinsituili/105.html

相关推荐:

网友评论:

栏目分类

现金彩票 联系QQ:24498872301 邮箱:24498872301@qq.com

Copyright © 2002-2011 DEDECMS. 现金彩票 版权所有 Power by DedeCms

Top