欢迎光临
我们一直在努力

人工智能偏见:有组织的反对自动歧视的斗争

  

  在整个欧洲的公共管理中,人工智能(AI)和自动决策(ADM)系统已经被广泛使用。

  这些系统通常建立在不透明的“黑匣子”算法上,可以在公共场合识别我们的面孔,组织失业计划,甚至预测考试成绩。他们的任务是预测人类行为并作出决定,甚至在福利、卫生和社会服务等敏感领域也是如此。

  正如我们在美国看到的那样,算法警务已经很容易被采用,这些决定本质上受到潜在偏见和错误的影响。这可能会带来灾难性的后果:2020年6月,在密歇根州,一名黑人男子因他没有犯下的罪行而被捕、审讯和拘留了一夜。他被人工智能系统错误地识别出来了。

  这些系统是根据预先存在的人为数据进行训练的,而这些数据本身就存在缺陷。这意味着他们可以延续现有形式的歧视和偏见,导致弗吉尼亚·尤班克斯(Virginia Eubanks)所说的“不平等的自动化”。

  这些系统的广泛采用引出了一个紧迫的问题:怎样才能让算法为自己的决定负责?

  最近在加拿大进行了测试,法院命令一家航空公司向一名客户支付赔偿金,该客户听从了人工智能聊天机器人给出的错误建议。该航空公司试图反驳这一说法,称聊天机器人“对自己的行为负责”。

  在欧洲,以最近通过的《人工智能法案》的形式,已经有了监管人工智能使用的制度性举措。

  该法案旨在监管大型而强大的人工智能系统,防止它们构成系统性威胁,同时保护公民免受潜在的滥用。该法案的启动伴随着欧盟成员国民间社会组织发起的一系列广泛的直接行动、倡议和运动。

  近年来,这种对有问题的人工智能系统日益增长的抵制势头和可见度越来越高。它还在关键方面影响了监管机构的选择,迫使他们出台保护基本权利的措施。

  作为设在瑞士圣加仑Universit?t的“人为错误项目”(The Human Error Project)的一部分,我们研究了民间社会行动者如何抵制欧洲日益严重的自动歧视。我们的项目专注于人工智能错误,这是一个涵盖偏见、歧视和算法和人工智能不负责任的总称。

  我们最新的研究报告题为“欧洲公民社会反对算法不公正的斗争”。基于对活动家和民间社会组织代表的采访,它探讨了欧洲数字权利组织如何理解人工智能错误,他们如何质疑人工智能系统的使用,并强调了这些辩论的迫切需要。

  我们的研究揭示了人们的担忧,因为我们采访的大多数人都同意人工智能学者提出的现在被广泛接受的观点:在理解人类时,人工智能往往会带有种族主义、歧视和简化主义。

  我们的许多受访者还指出,我们不应该将人工智能错误视为纯粹的技术问题。相反,它们是更广泛的系统性社会问题的症状,这些问题早于最近的技术发展。

  预测性警务就是一个明显的例子。由于这些系统是基于以前可能被伪造或损坏的警察数据,它们使现有形式的种族歧视永久化,往往导致种族定性甚至非法逮捕。

  对于欧洲公民社会行动者来说,一个关键问题是公众缺乏意识,即人工智能正在被用来在他们生活的许多领域做出决定。即使人们意识到了这一点,也往往不清楚这些系统是如何运作的,或者当他们做出不公平的决定时,谁应该负责。

  缺乏可见性意味着,为算法正义而战不仅是一个政治问题,也是一个象征问题:它让我们对客观性和准确性的观念产生了质疑。

  正如我们的第一份研究报告所显示的,众所周知,人工智能的辩论被媒体炒作和恐慌所主导。因此,欧洲民间社会组织被迫追求两个目标:清楚地说出问题,并挑战人工智能是解决社会问题的灵丹妙药的观点。

  在我们的新报告中,指出问题的重要性显而易见,受访者甚至不愿使用“人工智能伦理”这样的短语,或者根本没有提到“人工智能”。相反,他们使用了“高级统计”、“自动决策制定”或“ADM系统”等替代术语。

  除了提高公众的意识外,其中一个主要问题是遏制大型科技公司的主导力量。我们联系的几个组织参与了与欧盟人工智能法案相关的倡议,在某些情况下,在突出问题和填补科技公司可能利用的漏洞方面发挥了直接作用。

  根据一些组织的说法,在某些情况下,比如在公共场所使用生物面部识别技术,只要彻底禁止就足够了。其他人甚至对整个立法持怀疑态度,认为仅靠监管无法解决算法系统持续传播所带来的所有问题。

  我们的研究表明,为了解决算法系统的力量,我们必须停止将人工智能错误视为技术问题,并开始将其视为政治问题。需要修复的不是系统中的技术缺陷,而是这些系统使之永久化的系统性不平等。

  公司提供

  nversation

  本文转载自The Co在知识共享许可下的对话。阅读原文。The Conversation

  引用人工智能偏见:有组织的反对自动歧视的斗争(2024年,3月4日)2024年3月6日检索自https://techxplore.com/news/2024-03-ai-bias-struggle-automated-discrimination.html本文档

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

 收藏 (0) 打赏

您可以选择一种方式赞助本站

支付宝扫一扫赞助

微信钱包扫描赞助

除特别注明外,本站所有文章均基于CC-BY-NC-SA 4.0原创,转载请注明出处。
文章名称:《人工智能偏见:有组织的反对自动歧视的斗争》
文章链接:https://www.xpn.cc/33988/fy.html
分享到: 更多 (0)

热门推荐

登录

忘记密码 ?