澎湃Logo
下载客户端

登录

  • +1

数据偏见是否可以消除?

杨庆峰(复旦大学教授,科技伦理与社会治理研究中心研究员)
2019-08-28 14:42
来源:《自然辩证法研究》
思想市场 >
字号

数据偏见已经成为在大数据和人工智能领域伦理反思的重要难题和关键问题。日常对数据偏见形成一种比较明确的观念: 需要控制并消除偏见。这一观念也影响到了数据偏见问题的哲学思考中。从认识论的“偏见—认识”框架看,作为错误的歧视行为,数据偏见是可以消除的; 从解释学的“偏见—理解”框架看,作为在先的行动或者理解的前提,数据偏见是无法消除的,甚至是会成为智能体行动和决策的先决条件。嵌入智能系统中的道德观念是 一种独特的偏见,无法消除,而且它们构成了智能体伦理行动的前提。

获得纯粹的、中立的知识是人类在追求知识的路径上一直努力的事情。为了实现这一努力,人们努力克服自身的各种偏见,排除了各种意见和无知的干扰。但是这种努力取得的微弱效果在技术时代不仅没有保持,反而被新的偏见形式冲击。大数据、人工智能等技术领域涌现出来的偏见现象已经 成为上述领域伦理反思中的重要难题和关键伦理 问题,甚至形成了一种有趣的悖论。牛津大学计算机系主任迈克尔·伍尔德里奇(Michael Wool-dridge)指出,AI技术目前面临的难题是算法偏见,它是指故意或非故意地将某个计算机程序设计为 可做出有偏见的决定。这意味着偏见会导致严重的后果,需要消除和避免; 但是,2018年英国上议院出台的报告《英国的AI:准备、意愿和能力?》中特别指出,偏见绝不能在不知情的情况下被纳入自动化系统。偏见可以在用户知情的情况下被纳入自动化系统中,这意味着偏见是无法避免和消除的。之所以产生这种悖论主要是对偏见的本质揭示不足,本文试图从解释学入手来阐述上述悖论并回应数据偏见是否可以消除的问题。

一、解释学与偏见

在一般哲学中偏见(prejudice)是根据认识论框架加以理解,即基于“偏见—认识”的概念框架做出解释。《哲学词典》中的解释是“任何无需恰当考虑其自明性或者缺乏自明性的信念,无论它是正确的还是不正确的。需要在其意义与作为强烈持有的滥用名义的使用之间做出区别。”1907年波兰哲学家卡兹米尔·特瓦多夫斯基(Kazimierz Twar- dowski)从认识论的框架中分析了偏见。“首先,每一种偏见都是一种信念,与我们的感情、欲望和希望有关的信念,构成了人类精神的、心理生活的整体。……我们通常把偏见定义为前想象的、未加证实的、错误的信念,换句话说,是前想象的、完全未加证实的信念,它感知了没有关联的事物之间的关系。”心理学家海尔·阿博特(While Allport)从心理学角度阐述了偏见的含义。他在1954年的《偏见的本质》中为偏见的研究奠定了基石,指出“内隐偏见是一个指向带偏见的判断和社会行为的相对无意识和相对自动的特性的术语。”

这一解释充分显示了偏见与真理观念的对比, 偏见缺乏自明性或者其自明性没有被认真对待。“自明性”与“信念”恰恰是认识论的核心概念。在信念的解释上,最主要的是认识论的解释,即信念是一种知识论的态度,是一种特定的心灵状态。“对于笛卡尔而言,是赞成某些理所当然的或者持 有的积极的心灵状态;对于休谟而言,是在某些前提没有出现或者出现的被动的心灵状态; 而对于赖尔来说,否认了信念是可内省的精神状态。”这种理解主要是从“认识内容——真理观念”出发,对偏见赋予了特定的规定性:偏见缺乏自明性论证。这种认识也决定了偏见在整个认识论哲学中是需要被克服的因素。

在现象学——解释学框架中偏见获得了新的可能性,即基于“偏见—理解”的概念框架做出的解释。根据海德格尔的解释,偏见是理解的先行结构。“在《存在与时间》中,将这个解释的先行条件作为‘理解的先行结构’来进行分析。”在伽达默尔哲学中,偏见与传统和权威一起构成了理解背后的三位一体,而且成为了最重要的因素。他极力凸显偏见的先行特征。“所有的判断以前判断为条件。这是伽达默尔想引起我们关注的古老的、前现代的偏见含义,尽管偏见的相似理解是无反思的判断或者仓促推理,导致了顽固的纯粹主体意见或者无反思的、机械模仿他人的被动智慧。这里要强调的是判断不是借助抽象的、中立的理性,而是借助一组前反思的、位于判断之后的与世界有关的集合,并使得判断成为可能。”相比海德格尔的形式规定,伽达默尔赋予偏见一种明确的规定性:历史地形成的视野。“成见是历史地形成的有效地平。我们总是被抛入一定的地平,从而在这一地平上理解所有事物。”所以,在“偏见—理解”的框架中,偏见被赋予了三个明确的规定性:(1)它的在先性,偏见是作为理解之在先的条件存在的;(2)它的根基性,是使理解成为可能的前提;(3)它的非对象性,偏见是我们自身之状况,而并非是作为对象存在。

在实践哲学中理解偏见是根据后果范畴进行的,即基于“偏见—行动”的概念框架来做出解释。这种框架所考虑的问题是偏见在行动中所起到的后果。特瓦多夫斯基指出了偏见会影响人们的行为。“被我们或者他人看成偏见的东西很平常,但 是非常清楚地是它们明显影响了人类的行为。”偏见的讨论逐渐触及一个独特的问题域:“善—恶” 概念。偏见逐渐表现为特定的恶,如歧视。具有负面价值的偏见概念不可避免地与“恶”或者“未加考察地滥用”联系在一起。也正是因为此,就出现了对偏见的克服或者抑制。而人们更多的是强调一种善的偏见,比如道德代码或者观念。国内学者田海平提出一个先行的伦理原则“算法遵循善法”。所以,这种框架给予偏见的规定性是:偏见自身有价值区分,而这会影响行动的结果。

总体上看,上述三种框架对偏见做出了不同的规定性:认识论框架中,偏见是需要被克服的、缺乏自明性论证的因素; 在解释学框架中,偏见是无法被克服的、是理解和解释得以可能的先验条件; 在后果论框架中,偏见自身具有价值特性,是影响行动结果的决定因素。但是这一概念是否适用于数据科学或者人工智能领域中的偏见理解? 我们还需要从数据伦理一端考察,才能更好地理解数据偏见这一问题。

二、数据伦理学中的偏见表达

如今,关于大数据、人工智能中偏见的讨论逐渐形成了一种独特观念:偏见等同于歧视(discrimi-nation)。2018年英国议会的人工智能报告充分显示了这一点; 英国学者塔迪欧(Mariarosaria Taddeo)和弗洛里迪最先提出了数据科学带来的伦理问题。围绕这一问题,他们(2016)建立了一个三元数据伦理框架:数据本身、算法以及相应的实践过程。在他们看来,数据本身包含了众多因素,如“数据的生产、典藏、处理、传播、分享和使用。”算法包括“人工智能、智能体、机器学习和机器人。”实践过程包括“负责任的创新、编程、黑客行为和专业代码。”这三者被放置在概念空间中,由“数据科学引发的伦理挑战可被描绘为数据伦理学、算法伦理学和实践伦理学三个轴。…… 虽然是截然不同的研究脉络,但很明显的是,它们是彼此交织在一起的,这就是为什么以三个轴来界定一个概念空间是更为可取的,在一个概念空间中,伦理问题好像是以三种值来区分的点。”应该说,他们建立的框架具有宏观性特点,有着比较大的拓展空间,当然也有局限的地方。比如他们的过程并没有完全按照数据处理过程来划分。在数据科学中,数据处理过程通常被划分为“从数据获取、数据分级、数据分析、应用分析过程和可视化等阶段。”数据获取的方式可以通过智能传感器,也可以通过人工的app调查工具。可视化是大数据处理的最后一个环节。本文主要从数据伦理学的总体框架出发来分析偏见的表达以及完善的可能性。

首先是数据偏见,即与数据相关过程有关的偏见。在这个环节中,数据偏见很容易表现出来,如根据某种利益、目的所进行的数据采集。另外在神经科学等领域,要对特定的数据进行标注,然后加以激活或者抑制。这些数据被标注出来的根据是由研究问题所决定的,而这显然成为标注数据背后的偏见之一。但是我们依然可以根据他们的框架确立起一个观点:数据偏见可以在不同的环节中表达出来,只是不同环节表现出不同的情况。采集阶段的偏见会不同于编码阶段的偏见,采集过程的偏见更多受制于人类自身的偏见,如提供给机器学习怎样的数据、设计怎样的采集对象;而在编码阶段的偏见多是与编码技术有着极大关系。严格说来, “数据偏见”需要做出界定:它需要针对不同数据而言的。笔者曾经在《数据共享与隐私保护——一种技术方案的哲学论证》中提出了两种数据观念:作为内容的数据和作为对象的数据。如果从两种数据观念出发,数据偏见与作为内容的数据无关,而只与作为对象的数据有关。

其次是算法偏见,即算法阶段表现出的偏见。目前算法偏见被看成是人工智能领域中“关键的伦理问题”或者“关键性道德问题”。MIT Technology Review在 2017年刊发了多篇与算法偏见有关的文章,如“带偏见的算法到处都是,但是好像没有人关心它”、“检查算法偏见”等。DeepMind尤其重 视算法中的偏见问题。哈佛大学的拉坦纳亚·斯维尼(Latanya Sweeney)也非常重视数据安全、隐私以及机器学习算法偏见等问题。她谈到了一类与种族主义 有关的偏见。她的研究表明带有黑人身份的名字至少有25%的可能性与逮捕相关的广告联系在一起。“在更多广告推送的网站上,黑人身份的名字得到一个有关逮捕记录搜索的可能性超过25%。”微软研究员沪巴哈·纳巴(Shubha Nabar)认为,我们需要重视人工智能的伦理问题,并建立公平负责的算法,拒绝传播现实世界数据中常常存在的偏见。凯特·克劳福德(Kate Crawford)认为偏见是机器学习中数学化的特殊定义,即指在评估或者当分样本时高于或者低于被表征群体的错误。较少讨论的是以完全不同机器学习名义出现的偏见可能产生对不同的群体产生影响。忽视后者会产生真正的危险。她分析了算 法偏见导致的伤害类型包括配置式伤害(allocative harm)与表征式伤害(representational harm)。配置式伤害是指当一个系统分配或者阻止一个特定的机会或者资源,比如银行AI经常拒绝给女性抵押、黑人罪犯要比白人罪犯更危险;表征式伤害是指当系统沿着同一的路线加强了一些群体的附属关系时产生的伤害,比如谷歌照片把黑人标记为暴徒、亚洲人笑的时候会眨眼睛。

最后是实践偏见,即和实践过程有关的偏见。在诸如负责任创新、编程以及专业代码等环节上, 偏见主要表现为主体的偏见。如负责任创新的主体、黑客、程序员以及代码写作者。实践偏见与人有着直接的联系,主要是来自人自身。

从上述三个框架看,数据伦理学所确立的数据偏见更容易在“偏见—行动”的概念框架中加以理解,这些有偏见(歧视)的因素会对算法、程序的结果产生较大的影响。

三、人工智能中的偏见问题

在笔者看来,人工智能领域的偏见问题具有几个明显特征:

(1)虽然数据与算法是人工智能的两个重要支柱,但人工智能领域中的偏见不能完全还原为算法偏见和数据偏见,还需要考虑智能体这一维度。如果说算法、数据被当作人工智能的重要基础,那么这一领域的偏见问题基本上可以还原为算法偏见和数据偏见。但是这种还原会遮蔽一个重要的维度:强人工智能主体。我们这里这类主体简称为智能体。从偏见的主体看,智能体成为道德偏见主体的可能性并不是等于零。目前很多学者正在探讨人工智能是不是一个能动体(agents),可以设想随着这一问题的破解,那么它们是否会具有偏见的问题就迎刃而解了。

(2)人工智能领域的偏见得到探讨的前提是基于偏见可以被消除或者被控制。一些企业积极探讨这方面的问题。如谷歌公司指出DeepMind已经有办法阻止AI的偏见;IBM找到特定的方法消除AI偏见。IBM的研究员丹尼斯·魏(Dennis Wei)指出,“在这篇文章中,我们引进了一种新奇的为减少歧视的数据前处理的可能性构想,其实现三个目标:控制歧视、限制个体数据样本中的扭曲和保留实用性。”德米斯·哈萨碧丝(Demis Hassabis)尝试提出研发不区分性别、种族和其他敏感特性的AI。这一观念的产生与人们对于偏见的普遍看法以及应用伦理学的原则有关。“大多数哲学的、政治的和法律的关于歧视的 讨论是基于这样一个前提:歧视在道德上是错误的, 而且就广泛事件来说,应该在法律上被禁止。”就偏见而言,也是如此。“在应用伦理学领域的研究者 可能较少关心原则上有罪的问题,而更多关心调查如 何改变和控制我们的隐含偏见。”

(3)人工智能领域中的偏见依然纠缠在工具论与价值论的长期争论中。2002年以来技术哲学界较多地讨论到技术工具论与价值论的问题。工具论观点认为,技术是中立的,偏见是人类自身赋予的结果。这一观点将偏见看作是人类因素驱动或者嵌入的结果,认为数据偏见是强调偏见是属人因 素驱动的结果。如法国学者塞巴斯蒂安·科涅奇内(Sebastien Konieczny)指出,系统再现人类偏见的原因是系统由大量人类言语的数据驱动的。还有一 种观点认为数据偏见是人类自身偏见嵌入的结果。强调人自身的偏见被嵌入程序设计、程序算法中的结果,这种嵌入是不可避免地、必然的过程。在这种观点中数据被看作是信息资源,而只有特定的算法对数据进行计算的时候才会出现特定的偏见结果。而算法的偏见如上面所分析的那样,又与设计者的偏见密不可分。所以我们就可以理解在英国 人的报告中提到的偏见纳入自动系统的条件是“让他人知情”。这条原则与嵌入构成了一种平衡。

与工具论的观点相对,形成了价值论的观点。这一观点认为,技术自身负载特有的价值,这一价值并不是人类完全赋予的结果。如此,数据技术偏见与人无关,是数据技术逻辑发展的内在本性。DeepMind伦理与社会部分在其主页上提到技术的价值特性。“技术不是价值中立的,技术学者必须 为他们工作的伦理和社会影响负责。”在这种理解中,偏见问题与公平问题紧密联系在一起。“需要什么路径来充分理解AI系统和数据中的偏见?在AI设计中用什么策略来抵消或者最小化这些效应?”如克斯·奥·尼尔(Cathy O Neil)指出,数据偏见是历史数据本身不可避免地产物。因为时代、地域和文化等限制,数据带有非常明显的偏见特性,而AI等在进行学习训练的时候,恰恰是依据这些有偏见的数据,自然其分析的结果带有了很明显的偏见。利用历史数据进行训练的算法程序可能会延续甚至加剧基于种族或性别的歧视。

四、结论

可以看到,日常“数据偏见是否可以消除?”这一问题的提出是传统伦理反思逻辑的必然结果,尤其是根基于后果论的“偏见—行动”框架。传统伦理反思必然会从伦理的角度出发去消除偏见。也正是在此必然结果之上,我们也就容易理解当基于伦理视域来反思大数据的偏见时,会出现两个结果:(1)数据偏见被看成为与算法和历史数据有关的歧视行为; (2)数据偏见被看成是可以控制或者改变的因素。但是这种理解容易遮蔽偏见可消除的认识论根基。在认识论中,必须排除意见和破除偏见,获得自明性知识。“大多数关于隐含偏见的哲学著作都集中在两个不同(但是相关)的问题上。第一个,能动体(agents)在道德上是否要为他们的隐含偏见负责? 第二个,能动体能否改变他们的偏见或者控制这种关于他们外显判断和行为的态度的影响?”

但是仅仅是基于这种理解的话,会无法理解为什么英国在人工智能报告中提到的“偏见绝不能在不知情的情况下被纳入自动化系统”的观点。因为这一观点推演出的结果是偏见是不可消除的。“一个人不可能真正消除被给予的偏见,但是必须剥夺他们产生的根基。他们的根基主要是无知和缺乏批判的心灵。”特瓦多夫斯基“偏见不可真正消除”这一观点存在不足:既然偏见的根基是无知和缺乏批判,那么当获得知识以及形成批判心灵以后,这种偏见是可以消除的。所以,对于偏见不可消除的理解需要从先验层次进行,将偏见看作是在先的、作为理解和行动前提存在的。

如此,回到最初的问题——数据偏见是可以消除的吗? ——现可以做出有效的回答了:从后果论的“偏见—行动”框架看,数据偏见是可以消除的。这种消除是通过善的因素或者善法加以引导和控 制的加以消除的。从认识论的“偏见—认识”的框 架看,数据偏见是可以消除的:(1)如果偏见是未加检验的信念,那么数据偏见的消除是经过理性检验或者机器自身的经验检验来加以消除的。(2)如果偏见是一种道德歧视,那么数据偏见的消除是通过确立一种理性的态度、客观的和公正的态度加以消除。(3)如果偏见是一种应用伦理学关心的因素, 那么应该从伦理或法律意义上消除。

但是从解释学的“偏见—理解”的框架看,数据偏见又是不可消除的。如果偏见是先验的存在,作为在先的行动或者理解的前提,那么数据偏见是无法消除的,甚至是会成为智能体感知行动和决策的先决条件。所以可以消除的偏见仅仅是道德意义上的歧视、不公正的信念,从公正的角度出发,这类偏见是必须 要加以消除的。但是,正如我们看到的,尚存在着无法消除的偏见,如嵌入智能系统中的价值观念,这些以伦理代码形式出现的偏见无法消除,因为恰恰是它们,构成了智能体伦理行为的前提。

转载自《自然辩证法研究》2019.(08)109-113,注释从略。

    责任编辑:韩少华
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈