分类
AI产生的 人工智能出了差错 算法 人工智能 犯罪 经济学 社会

公共服务中的人工智能的黑暗面

Getting your Trinity Audio player ready...
传递爱

人工智能和机器学习有可能彻底改变我们的生活和工作方式,但随着我们越来越依赖这些技术,我们必须确保它们是以道德的方式设计、实施和监测的。不幸的是,情况并不总是如此,来自世界各地的众多人工智能黑暗面的例子表明了这一点。从芝加哥用于预测犯罪的有偏见的人工智能系统,到澳大利亚由人工智能驱动的福利评估,以及德国在刑事司法系统中使用人工智能,这些技术往往延续了现有的偏见和不平等。在这篇文章中,我们将研究其中的一些例子,并讨论政府和社会需要做什么,以防止未来人工智能驱动的丑闻,减少社会和政府的盲点。

什么是社会的盲点?

盲点是指社会中个人或群体持有偏见或缺乏足够信息或理解的领域。在政治和社会中,这些盲点会以多种方式表现出来,包括。

  1. 缺少代表性。当某些群体,如妇女、有色人种或LGBTQ+社区,在政治决策中的代表性不足,没有考虑到他们的观点和经验,就会出现政治盲点。
  2. 无意识的偏见:社会盲点也可能来自无意识的偏见,即个人对某些群体持有先入为主的观念,这些观念影响了他们的认知和行动,即使他们没有意识到这一点。
  3. 理解有限。对某些社会问题或经历,如贫困或残疾,理解有限也会造成盲点。这可能导致不适当的政策或解决方案,无法解决这些问题的根源。
  4. 回音室。在社交媒体时代,个人经常接触到与自己的信仰和价值观相一致的信息和观点,从而形成 "回音室",难以挑战自己的偏见和假设。

政治和社会中的这些盲点可能会产生负面的后果,包括使不平等和不公正现象长期存在,并阻碍创造一个更加包容和公正的社会的进展。解决这些盲点需要不断努力,增加代表性和理解,挑战偏见和假设,并寻求不同的观点和经验。

无管制的人工智能应用的危险。持续的偏见和放大的盲点

大量采用人工智能和机器学习,以及政府不断增加的自动化,有可能导致社会出现更大的盲点。这是因为人工智能系统的好坏取决于驱动它们的数据和算法,如果这些系统的设计和实施没有考虑到多样性、公平性和透明度,它们可能会延续或放大现有的偏见和不公正。

例如,如果一个人工智能系统是在有偏见的数据上训练的,它将做出反映这些偏见的决定,可能会导致不平等的结果。此外,如果人工智能系统的决策过程不透明,就很难识别和解决偏见的来源,这可能进一步加剧现有的盲点。

政府人工智能出错的例子

荷兰

荷兰的儿童福利(荷兰语:toeslagen affaire)丑闻是一个例子,说明在政府决策中使用人工智能和机器学习会导致社会盲点和严重后果。

在这个案例中,荷兰政府使用了一个人工智能系统来检测儿童福利(toeslagenschandaal)计划中的欺诈。然而,该系统是基于不正确的假设,没有经过适当的测试,导致数以千计的家庭被错误地指控为欺诈,他们的福利被剥夺。这一丑闻导致了广泛的公愤,因为许多受影响的家庭正在为生计而挣扎,无法轻易地对这一决定提出异议。

儿童福利丑闻突出了在政府决策中实施人工智能和机器学习系统时考虑社会盲点的重要性。在这种情况下,政府没有适当考虑到低收入家庭的经验和观点,导致该系统不仅不准确,而且对受影响的人产生了破坏性的后果。

美国

在美国,芝加哥市实施了一个人工智能系统来预测哪里会发生犯罪,但该系统被发现对非裔美国人社区有很大的偏见。这导致警察在这些地区的监视增加,这对社区造成了伤害,并促成了过度治安和过度犯罪的恶性循环。人工智能系统的偏见是由于使用了历史上的犯罪数据,这些数据被歪曲了,反映了在非裔美国人社区的过度警务。

印度

在印度,人工智能被引入以评估小企业的财务健康状况并确定贷款审批,但人们发现,该系统对妇女和低种姓个人拥有的企业有偏见。这导致了融资机会的不平等,并使现有的社会不平等现象长期存在。人工智能系统中的偏见是由于这些群体在训练数据中缺乏代表性,导致对其财务健康状况的评估不准确。 

英国

在英国,引入了一个人工智能系统来确定残疾人福利的资格,但很快就发现该系统不准确且不敏感。这导致许多残疾人被错误地剥夺了福利并遭受经济困难。人工智能系统的不准确是由于对残疾人的复杂需求缺乏了解,以及对有缺陷的数据和程序的依赖。

澳大利亚

在澳大利亚,引入了一个人工智能系统来确定福利领取者的资格,但很快就发现它的惩罚性过强。这导致许多人被错误地拒绝发放福利,或减少他们的福利,造成严重的经济困难和压力。人工智能系统的严厉做法是由于对人们生活的复杂性缺乏了解,以及过度依赖严格的规则和算法。

德国

在德国,一个被设计用来评估刑事被告人累犯风险的人工智能系统被发现对有色人种有偏见。这导致了该国司法系统内的不平等待遇,与有类似记录的白人同行相比,有色人种更有可能被视为高风险,面临更严厉的判决或被拒绝假释。

加拿大

在加拿大,一个用于确定移民身份和福利资格的人工智能系统被发现有广泛的不准确之处。这导致许多人被错误地驱逐出境或被拒绝发放福利,给他们的生活和家庭带来了毁灭性的后果。

公平的人工智能创造更美好的未来

人工智能(AI)有可能彻底改变政府和社会的运作方式,但关键是要采取措施,确保其使用是公平、准确和无偏见的。为了实现这一目标,必须考虑和解决几个关键因素。

  1. 提高人工智能系统开发和部署的透明度和问责制。
  2. 持续监测和评估,以确保人工智能系统公平和准确地运作。
  3. 在人工智能系统的开发和部署中代表不同的观点和经验。
  4. 将来自不同种族、性别和社会经济背景的个人纳入发展进程。
  5. 解决人工智能系统中的潜在偏见和错误,特别是在刑事司法、福利和就业等敏感领域。

必要的阅读

对于有兴趣进一步探索人工智能黑暗面影响的读者来说,这本书 ‘Weapons of Math Destruction’ by Cathy O’Neil is a valuable resource. It highlights the ways in which mathematical models can perpetuate and amplify social inequalities, and provides recommendations for how to create more responsible and equitable use of data and technology.

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

zh_CNChinese