欢迎光临
我们一直在努力

基于“公平”的算法决策反思

  自动草稿

  算法每天都在大规模地支撑着大大小小的决定:谁会接受糖尿病等疾病的筛查,谁会接受肾脏移植,警察资源如何分配,谁会看到住房或就业广告,如何计算累犯率,等等。在适当的情况下,算法——用于解决问题或执行计算的程序——可以提高人类决策的效率和公平性。

  然而,为了使算法决策“公平”而设计的标准实际上可能会巩固和加剧差距,特别是在种族、民族和性别方面。这就是“设计公平算法”的主旨,这是斯坦福大学法学副教授Julian Nyarko,斯坦福大学计算政策实验室执行主任Alex Chohlas-Wood和哈佛大学的合著者本周在《自然计算科学》上发表的一篇论文。

  根据作者的说法,随着算法指导决策在生活中几乎所有方面的扩散,越来越需要确保在做出重要决策时使用算法不会导致意想不到的负面后果。

  “决策者可以定义他们认为是公平过程的标准,并严格遵守这些标准,但在许多情况下,事实证明,这意味着他们最终做出的决定对边缘群体有害,”尼亚科说,他的大部分学术研究都集中在如何使用计算方法来研究法律和社会科学重要性的问题。

  尼亚科以糖尿病筛查为例。算法被用作第一个过滤器,以确定谁需要接受进一步的测试。我们知道,给定一定的BMI和年龄,被认为是亚洲人的患者往往比那些不被认为是亚洲人的患者有更高的糖尿病发病率。一种可以访问患者种族的算法可以使用这些信息,如果患者被认为是亚洲人,那么在转诊决策中就会适当地更加宽松。

  “然而,如果我们坚持不考虑种族的决策,我们就会让算法很难利用这些信息,并调整对亚洲患者的预测。”最终,这意味着种族盲算法,尽管在技术意义上可能是“公平的”,但排除了一些明显具有高糖尿病风险的亚洲患者的进一步测试。在我们所谓的公平过程和公平结果之间,类似的权衡适用于实践中经常使用的最流行的公平标准。”

  他说,这样的结果在算法决策的文献中是众所周知的。然而,施加严格的公平标准仍然受到研究人员和从业人员的欢迎。尼亚科说:“我们认为,这一事实突显出,有必要就那些主张使用公平约束的人为什么这样做进行热烈讨论。”

  “正式的公平标准是否准确地反映了人们对做出道德决定意味着什么的看法,因此应该纳入其中?”坚持“公平”的决策过程(例如不考虑种族因素的决策过程)是出于自身的考虑而可取的,还是仅仅是一种有用的启发,通常会导致更公平的结果?只有我们明确了这些规范和伦理问题,我们才能希望在理解算法决策公平意味着什么方面取得进展。希望这也将导致更多的方法同质化。”

  尼亚科强调,许多研究,特别是在医学背景下,已经研究了强加公平约束的影响,比如种族或性别中立的决定。他说,这篇新论文旨在“为这些讨论提供一个统一的框架”。他说:“你可以看到很多跨学科的论文,涉及算法公平性问题,但我们认为辩论需要结构,这就是我们要做的。”“我认为,很多这样的个人讨论都没有很好地与更广泛的关于公平的道德讨论联系起来。”

  他们写道,这篇论文处理了三个最典型的公平约束中的每一个,它们都“直观地吸引人”,但可能导致对个人和整个社会不利的结果。公平性约束是:

  盲法,即限制人口统计学属性(如种族)对决策的影响

  均衡不同人口统计群体的决策率(例如,要求亚洲和非亚洲患者转诊接受进一步糖尿病检测的比例相同)

  均衡不同人口统计组的错误率(例如,要求错误患者的比例即使他们患有糖尿病也被排除在测试之外(所谓的假阴性率)对于亚洲和非亚洲患者是相同的)

  这篇论文为人们训练算法以帮助决策提供了一些建议,包括让他们了解“标签偏见”的陷阱。

  尼亚科说:“在机器学习文献中,人们普遍认为,给算法提供更多的数据不会造成任何伤害。”“这些信息要么有助于做出预测,要么被丢弃。但只有当我们训练算法预测的东西是我们真正关心的东西时,这才是对的。然而,事实证明这两者通常是发散的。

  “例如,在刑事司法的背景下,做出拘留决定的法官可能想知道被告再犯的可能性有多大。这将有助于法官决定被告是应该留在监狱里还是可以被释放。算法通常会帮助法官做出这些决定。然而,这些算法从来没有被训练来预测再犯的可能性。毕竟,一个人是否犯罪并不是一件可以大规模观察到的事情。

  “我们所知道的,以及经过训练的算法所能预测的,就是被告是否有可能再次被捕。一个人是否因犯罪而再次被捕,在很大程度上取决于他居住的地区是否有很多警察。这种类型的标签偏差是非常常见的,我们表明它对如何训练算法具有重要意义。

  “例如,在我们的累犯风险预测的例子中,我们表明,让常用算法访问被告的邮政编码,可以提高他们对被告是否会再次被捕的预测。然而,由于社区之间的治安差异,提供邮政编码会使相同的算法在预测被告是否会再犯时变得更糟。更普遍地说,我们的发现对常识提出了质疑,即添加更多数据不会使我们的算法决策变得更糟。”

  更多信息:Alex Chohlas-Wood等人,设计公平的算法,自然计算科学(2023)。DOI: 10.1038/s43588-023-00485-4

  斯坦福大学提供

  引用:重新思考算法决策问题

  sed on 'fairness' (2023, July 31)检索自https://techxplore.com/news/2023-07-rethinking-algorithmic-decision-making-ba

  本文档

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

 收藏 (0) 打赏

您可以选择一种方式赞助本站

支付宝扫一扫赞助

微信钱包扫描赞助

除特别注明外,本站所有文章均基于CC-BY-NC-SA 4.0原创,转载请注明出处。
文章名称:《基于“公平”的算法决策反思》
文章链接:https://www.xpn.cc/41657/fy.html
分享到: 更多 (0)

热门推荐

登录

忘记密码 ?