• +1

顶刊编译|算法政治的偏见

2022-09-02 07:44
来源:澎湃新闻·澎湃号·湃客
听全文
字号

算法政治的偏见

摘要:

一些人工智能系统可能会显示算法的偏见,即它们可能会产生基于社会身份不公平地歧视人们的输出。关于这个主题的许多研究都集中在算法偏见上,这些偏见基于人们的性别或种族身份而对他们不利。本文认为,针对人们政治取向的算法偏见可能以与算法性别和种族偏见出现的某些相同方式出现。然而,它与他们的重要区别在于,在民主社会中有反对性别和种族偏见的强大社会规范。这在政治偏见方面并不适用。因此,政治偏见可以更强大地影响人们,这增加了这些偏见嵌入算法的机会,并使算法政治偏见比性别和种族偏见更难被发现和消除,即使它们都会产生类似的伤害。

作者简介:

Uwe Peters,剑桥大学莱弗哈姆智能未来中心

编译来源:

Peters, U. (2022). Algorithmic political bias in artificial intelligence systems. Philosophy & Technology, 35(2), 1-23.

Uwe Peters

引言

人工智能系统是一种计算机程序,可以在大量数据中找到模式,并可以通过反馈自动提高自身性能,它们正在越来越多地做出重要的判断和决策。它们现在被用来决定,例如,求职者是否适合职位空缺,某人是否有资格获得贷款,罪犯应该多长时间继续监禁,或者患者应该接受什么医学诊断。

虽然 AI 系统具有客观性和准确性的光环,但它们可能会表现出算法偏差,即倾向于不仅从数据中进行中性转换或提取信息,而且以以下方式对其进行操作:偏离规范(道德、统计、社会等)标准,使得一种个人或群体基于其社会身份的各个方面而享有不公平的特权。

对算法偏差进行了一系列研究。其中大部分侧重于算法性别和种族偏见。理解和根除它们的确很重要。但是算法对社会身份的其他维度的偏见在很大程度上仍未被探索。这可能是有问题的,因为它们之间可能存在显着差异,但这些差异对于评估算法偏差的潜在风险至关重要。例如,针对某些社会身份维度的算法偏见可能比针对其他方面的算法偏见更难识别和抵消。

本文关注于算法的政治偏见(Algorithmic political bias),该偏见针对除性别和种族群体成员资格之外的社会身份维度,即人们的政治取向,即他们的自由、保守、温和的身份,抑或马克思主义者、无政府主义者等等。在这种情况下考虑政治取向特别有趣,因为每一个个题都可以被理解为是社会变革的引擎还是现状的维护者。因此他们在政治上是自由派还是保守派,是最常被引用的基本维度之一。不出所料,心理学上有很多关于人们的政治偏见的研究,特别是基于他们的政治倾向,他们对个人或群体的明确或隐含的刻板印象和负面情绪 。然而,算法的政治偏见,一种人工智能系统中针对个人、群体或内容的政治取向的偏见,尚未被充分地研究。

政治偏见

在人类认知中,政治偏见不是一种单一的、统一的心理现象,而可能是针对不同政治倾向的有意识外显或无意识的思想或情感过程。本文侧重于针对两个中央和国际共同政治立场的政治偏见,即自由主义或政治左翼观点,以及保守或政治右翼倾向。

虽然这两种立场的特点可能因国家而异,但研究表明,世界各地都有以国际主义和国家干预以规范经济为纲的左翼平等主义,而权力却时常是被认定为经济中的传统价值观、背书权威、秩序和民族主义的右翼所把持。众所周知,左翼和右翼的人们会在公共领域争夺政治权力。但这两个阵营并不相同,而且总是分得很清楚。左侧和右侧的某些位置可能重叠,并且两者都位于包含许多不同位置的频谱上,从略微向左或向右倾斜到极度向左或向右倾斜的视点。

关于对左翼或右翼人士的政治偏见的辩论仍然是一个敏感话题。本文并不会支持任何一方,而是旨在强调一个普遍的问题:左派和右派的人有同样的理由担心算法政治偏见以及他们发现和消除它的能力。

算法中的政治偏见

当人工智能系统的输出倾向于违反规范(道德或社会)标准,导致一种个人、群体或内容因其政治取向而受到不公平的特权或歧视时,就会出现算法政治偏见。在算法的背景下,“不公平”和“公平”的含义通常是根据一套法律或道德原则来判断的,这些原则往往因当地政策和文化而异。关于在每种情况下对公平的定义,目前人工智能领域中还没有明确的一致意见。因此,本文将使用粗略却普世的字典概念来理解公平作为“公正和被公正地对待”。

算法从来都不是完美的,所以对人进行分类时可能会出错。算法的准确性通常与他们接受训练的数据集的大小有关:较小的训练数据集通常会产生更多的不准确性,使数据集中代表性不足的群体更容易受到分类错误的影响。

假如一个保守人士申请硅谷公司的人工智能 CEO 职位。由于保守派在这种工作环境中的代表性往往不足,因此保守派可能成为招聘算法可能从其训练数据中获取的相关预测指标(例如,通过简历上的政治派别线索) ,将其视为隐含在先前人类决策中的招聘结果的代理。对于该算法,这种政治倾向将对担任人工智能CEO 职位的预测概率产生负面统计影响。如果算法在其招聘决策中获取并使用该信息,从而使其他同样合格的候选人在招聘中得到更差的待遇,那么它将显示出政治偏见。

算法政治偏见的重点就在上述这两种情况上,即算法做出与社会相关的预测或决策的情况,这些预测或决策基于政治取向,而该特征应该是不相关的。这种偏见是如何出现的呢?以下论点表明它们很容易出现在许多人工智能系统中。

算法中的政治偏见是如何产生的?

(1)AI 训练数据的错误标注

在以前的招聘中,由于隐含的偏见,雇主可能在他们的简历筛选过程中将特定性别、种族、某些政治志愿工作或保守/自由机构学位为线索。根据这些过去的数据训练算法可能会将这些特征作为招聘成功率低的预测指标,并且不喜欢某些性别、种族或政治群体,这些群体的资历与其他申请人相同,即使没有雇主明确表示表明先前决策中存在问题的预测结果关系。也就是说,正如隐含的性别和种族偏见可能导致人们错误地标记 AI 训练数据,政治偏见也可能如此。

(2)不具代表性的抽样

通常,当 AI 训练数据被正确标记但仍然不具代表性时,也会出现算法偏差,从而产生在欠采样组上表现更差的模型。例如,用于诊断新冠症状的算法的训练数据可能无意中取自白人、富有的男性经常光顾的医院。然后“使用来自电子健康记录的不具代表性或不完整的数据来训练该算法,这些数据反映了医疗保健访问和质量方面的差异,从而导致人工智能系统可能更频繁地错误标记不属于主导群体的个人,因此将重复预先存在的结构性歧视。同样,如果人工智能职位的招聘算法仅根据硅谷的招聘数据进行训练,因为激进左翼和保守派人士在该领域的代表性往往不足,该算法随后可能会降级他们的 AI 工作申请,因为他们的政治倾向在(不具代表性的)样本中对在该领域工作的预测概率产生负面统计影响,从而导致算法政治偏见。

(3)反映现有的社会不平等

最后,即使训练数据被正确标记并具有代表性,通常也会出现算法偏差。这是因为社会不平等(通常由历史不公正造成)在许多社会环境中很常见。准确表示这些环境的 AI 模型也将反映这些负面方面,并可能在其处理过程中复制它们。

举个例子,假设一个分配大学奖学金的算法是用以前学生的简历数据训练的,捕捉他们的人口统计、成绩和政治倾向(例如,简历包含自由派或保守派竞选的线索)。该算法学习将这些数据映射到学生随后的成就上。进一步假设,虽然数据具有代表性且标签正确,但它们来自一个环境,其中由于结构上的缺陷,女性和支持自由派的学生都与那些学业成绩低的学生形成规律。在训练过程中,算法因此形成了一个模型,将女性或自由派与较低成就联系起来,将男性或保守派与较高成就联系起来。假设该算法随后获得了来自申请奖学金的两组学生的新简历数据,其中两组的个人具有相同的成绩(和性别),但一组中的人也是自由派而其他人是保守派。使用其预测模型,该算法系统地根据自由学生的政治倾向将他们分类为不太可能取得高成就的学生,并将奖学金分配给其他群体的学生。

在这个例子中,政治倾向(和性别)与学业成就可靠地相关。但由于该算法对奖学金的判断是基于学生的政治倾向,所以它的输出显然是有偏差的。毕竟,如果我们将示例中的“自由”替换为“女性”,输出也会被视为不公平和有偏见的。该算法通过不公平地将保守派置于自由派学生之上而偏离了道德标准,因此即使在人工智能训练中没有涉及人类偏见,它也会实例化算法的政治偏见。总而言之,算法政治偏见的出现方式与算法性别和种族偏见的出现方式相同。它可能会导致一些相同的道德问题结果。

算法政治偏见的显著特征

(1)算法的政治偏见VS算法的种族/性别偏见

在许多情况下,人们的政治偏见可能对认知和行为产生更大的影响。因为对种族、性别和其他与群体相关的态度和行为受制于社会规范的社会分歧。但是没有相应的压力来缓和对政治对手的不满。如果有的话,一些政治领导人的言辞和行动表明,针对反对派的敌意是可以接受的,而且通常是适当的。例如,美国媒体经常展示政治对手之间公然的敌意,包括无节制地交换侮辱,这些侮辱在很大程度上被接受,有时甚至受到称赞。

美国媒体经常展示政治对手之间公然的敌意,而这在很大程度上是被容忍的

在西方国家中,不同政治取向的人之间存在某种程度的厌恶、敌意和不文明行为是常见的,并且在很大程度上是可以容忍的,这不足为奇。这是因为它是可以产生积极的影响的,例如促进选民的政治参与。基于此,在一个正常运转的民主国家中,政治反对者中应该有一些公开和容忍的厌恶,且通常被认为是有道理的。而这显然不适用于任何人基于性别或种族身份对人的厌恶。

尽管这种差异是可以理解的,但它也导致了政治偏见的一个重要问题。那就是这种差异使得政治偏见和敌意更有可能从可以接受的领域溢出到被广泛视为不可接受的判断和决策领域。 前文中政治偏见影响奖学金、工作招聘大例子已经说明了这一点。在任何情况下,根据候选人的政治取向而不是他们的能力或质量来做出判断显然被认为是不可接受的,即使许多人认为政治舞台上的一些政治敌意是民主社会可以接受的一部分。

(2)算法政治偏见的隐秘性

上述几点区别让人有理由相信,与算法的性别和种族偏见相比,算法的政治偏见特别容易出现,而且特别难以发现和消除。这是因为以下两点原因。

首先,人工智能系统开发人员和管理人员通常不关心政治。但他们通常和其他所有人一样具有某些政治立场。这些偏见可能会影响算法(就像他们的性别或种族偏见一样)。事实上,由于隐含的政治偏见比种族偏见更能影响人们的反应,因此有理由相信,这些偏见也更有可能、更自动地导致个人将负面特征与他们的负面特征联系起来。标记相关 AI 训练数据时的政治对手。这增加了这些偏见嵌入算法的机会。

此外,当政治偏见影响 AI 训练数据的标签和选择时,与性别或种族偏见相比,这些影响可能更难被相关人员发现。这是因为有强大而全面的社会规范反对针对性别和种族的偏见,使它们变得突出并提高人们对其潜在影响的关注。但是没有同样强大和广泛的规范来突出政治偏见并激励人工智能开发人员和管理人员关注它们。这应该会降低他们在标记和选择 AI 训练数据期间检查和识别这些偏差的能力。

为什么算法的政治偏见比人类的政治偏见更糟糕?

本文概述中对算法政治偏见的担忧也大多适用于人类的政治偏见。但是本文有一个重要的观点:当这些偏见出现在算法层面时,它所带来的负面影响要比人类的政治偏见大得多。这一点是由于两者在对政治立场的追溯上的差别。

在现实中,如果人们愿意,他们可以相对容易地在日常生活和社会环境、工作场所等中隐藏他们的政治身份。然而,人工智能算法改变了这一点。出于内容个性化的目的,各种网站现在采用经过专门训练的算法来追踪人们的数字足迹(例如他们的点赞、浏览记录等),即使网站用户没有明确表达任何政治声明。例如,其中一些算法可以简单地从人们的一组 脸书的点赞中推断出人们的政治倾向,。因此,即使在个人不希望这种情况发生并且更愿意在人类社交互动中隐藏相关线索的情况下,一些算法也可以检测到人们的政治倾向。结果,越多的人受制于这些算法,他们可以避免成为政治目标的空间就越小。隐瞒自己的政治倾向而产生偏见。这是因为即使经过训练以检测个人、群体或内容的政治倾向的算法也不需要对它们有偏见,它们可以为人类决策代理提供现成的洞察力,以了解其他人通常隐藏的政治倾向。如果这些人类代理随后在他们的决策中处理这些信息,例如,在人工智能训练数据的标签中,它可能会引发他们的政治偏见,这反过来又会影响他们的数据标签,并导致算法继承政治偏见以上述方式。

结论

算法偏见可能针对社会身份的不同维度,可能具有许多不同的伦理和认知上的重要影响,具体取决于针对哪一个。在人工智能文献中,对政治取向的算法偏见在很大程度上仍未得到探索。虽然各种现象可能被解释为算法的政治偏见,但本文重点关注算法根据人们的政治倾向在不相关的情况下做出预测和决策的情况。本文认为,人工智能算法可能会以这种方式对人和内容的政治取向产生偏见,其方式与他们获得性别或种族偏见的方式相同。它们随后可能会被用于社会结构中(比如招聘),在那里它们可能会产生一些相同的危害(例如不公平的决定)。

然而,尽管有这些共同点,尽管存在强大的、普遍的社会规范反对性别或种族偏见,但政治偏见的情况并非如此。因此,这些偏见可以更强烈地影响人们的认知和行为,这增加了他们被转移到算法的可能性,例如,人工智能训练数据的错误标签、不具代表性的抽样,或者仅仅是人工智能系统对社会现实的镜像。这里强调的社会规范差异也可能使人们更难发现和抵制算法政治偏见,因为它使这些偏见作为有问题的现象不那么突出。更糟糕的是,虽然人们以前可以通过隐藏他们的政治倾向来避免成为这些偏见的目标,但现在一些算法允许违背人们的意愿揭露他们的政治观点,使个人比以前更容易受到相关偏见的影响。改变支配人们对政治对手的反应的社会规范可能有助于减轻算法上的政治偏见。但这些规范也有可取的方面。这使得解决算法政治偏见的任务大大复杂化,人工智能开发人员、管理者和伦理学家应该考虑到这些问题。

编译|汪浩东

审核|华唐门生

终审 | 李致宪

©Political理论志

原标题:《顶刊编译|算法政治的偏见》

阅读原文

    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。

    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2026 上海东方报业有限公司