澎湃Logo
下载客户端

登录

  • +1

数据伦理和治理丨算法的客观性预设与运作策略之蔽

段伟文(中国社会科学院哲学研究所研究员)
2022-11-10 12:30
思想市场 >
字号

随着大数据杀熟和算法歧视等现象受到关注与热议,算法透明与公正问题成为法律和伦理治理的焦点。目前,不论是对算法的批判,还是以透明和反歧视的法规和伦理规范对其加以治理,固然有助于形成批判性的舆论与合规的压力,但因未能揭示数据驱动的智能算法这一全新的机器认知和控制方式的内涵,在实践运作层面要么失之抽象,要么存在模糊的解释空间,难以产生切实有效的影响。而要认识到其中的问题所在,首先要揭示的是算法的客观性预设及其运作策略。

自20世纪中期以来,计算机和作为其基础的信息论和控制论的兴起,使当代人所面对的是由各种各样的控制论机器联结而成的技术社会系统。随着数字技术的发展,控制论机器发展出新的版本,它的“燃料”是由布满世界的传感器和网络源源不断地生成的数据流,其运行机制是由代码和软件构成的算法,不论称其为大数据与人工智能还是数据智能或计算智能,“科技智人”的生存、生命和生活越来越多地托付给基于数据和算法的自动化感知、认知和决策。展望未来,越来越多关于人的信息和数据将被搜集和分析,不但你说什么、做什么、去哪里和跟谁在一起被实时捕捉,而且你想什么、感受如何甚至将要做什么也成为智能算法预见和干预的目标。

“微妙的价值博弈”

智能算法的力量是如此的强大,使得算法滥用成为理论批判、舆论批评甚至监管治理的对象。算法不仅可以影响到平台推荐的内容和电商购物的价格,还会决定保险、信贷、就业等社会生活的方方面面。随着大数据杀熟和算法歧视等现象受到关注与热议,算法透明与公正问题成为法律和伦理治理的焦点。其应对的措施主要强调通过伦理审查等提升透明度和加强问责制,主张消除算法的“偏见”或“价值判断”,对有害的算法模型实施问责和监管,以克服算法的不透明性、不可预测性以及有目的与意外的不公正后果。

而实际上,不论是对算法的批判——如将其认定为数字时代的意识形态,还是以透明和反歧视的法规和伦理规范对其加以治理,固然有助于形成批判性的舆论与合规的压力,但因未能揭示数据驱动的智能算法这一全新的机器认知和控制方式的内涵,在实践运作层面要么失之抽象,要么存在模糊的解释空间,难以产生切实有效的影响。因此,出现了诸多不无矛盾的现象:尽管《个人信息法》等法规强调人脸等生物特征数据属于应该审慎对待的敏感个人信息,对人脸识别的应用乃至滥用依然呈不断扩张之势;隐私保护与可信的人工智能之类的价值伦理问题主要被还原为多方学习等技术解决方案和标准;企业将人工智能深度伪造重新命名为人工智能深度合成以避免对该技术可能的“污名化”。不难看到,很多讨论针对这些“微妙的价值博弈”拿不出有效的办法,最后往往将造成这些现象的原因归结为数字素养和科技伦理素养的不足导致的认识不足。而要认识到其中的问题所在,首先要揭示的是算法的客观性预设及其运作策略。

算法的客观性预设导致深层次冲突

在继承了莱布尼兹、霍布斯等人将理性等同于函数和计算观念的现代算法学家看来,基于“形式的”“机械的”“算法的”认知是更接近事实的“机器真理”,它们比“非正式的”“头脑中的”“凭印象的主观认知更准确,因而更合乎道德”。由此,他们主张在对犯罪风险、医疗结果和学生表现的评价中依靠客观的机械算法而放弃主观判断。值得指出的是,在这些观念的背后预设了实证主义、行为主义和社会物理学的等客观性的思想,即通过对人和社会的观测与量化分析,我们的认识可以从各种主观偏见和文化偏好中解放出来,从而有可能客观地把握人和社会到底是怎样的。

自19世纪后期以来,这些思想与信息技术的发展共同推动了现代社会的控制革命,并由此形成了对人与社会的“科学的”认知、管理和治理。虽然其中的“科学”很难达到物理学之类的精确科学的理论性,实际上是基于对经验和行为的量化分析与操作的实验科学或技术。但它们被称为“科学的”,其实蕴含着所谓客观性的承诺——这些量化分析与操作可以对世界进行快速而有效的认知与干预,而有效性的依据就是实证。

在马克斯·韦伯看来,机器的规则比人的规则更科学客观,因而也更公正。他强调,现代社会日益增长的理智化和理性化是一种信念,即任何时候,只要我们想了解就能够了解;原则上没有任何不可知的神秘力量在发挥作用,而且我们通过计算支配万物。从这种理性主义的信念出发,他认为官僚制度如同精密仪器,遵循“可计算的规则”,“不考虑人”地做出决定。现代社会对量化和客观性的推崇背后存在着一种贬低人的理性能力的观念。与此密切相关的是行为主义的主张:人类的心智脆弱且充满缺点,未能充分考虑到更大的替代选择架构,因此容易做出不理性的选择。20世纪末以来,这样的认识随着计算机和统计证据的普遍应用而得到了强化——算法的客观认知优于专家的主观判断。近年来,大数据和机器学习驱动下的人工智能进一步推波助澜,人工智能算法如同一个吞噬数据的大他者,日益以人类无法理解的方式认知和干预世界。相比之下,人类自身的信息与数据处理能力则越来越捉襟见肘,这似乎意味着人会越来越多地依赖算法。

由此可见,算法的客观性预设会导致算法认知与算法伦理政治价值的深层次冲突。一方面,算法的客观性基于对主观认知的排斥。在认知价值上肯定算法的客观性与对科学的客观性,特别是量化研究的客观性的推崇一脉相承,持有这一认知价值诉求的人似乎从根本上不相信人类的判断对认知活动的干预——所谓客观知识就是在知识获取过程中尽量消除具体的人的判断而使其成为一个无偏见的抽象主体的认知过程。另一方面,对于算法应用导致的透明、公正和责任等伦理政治价值问题的判断不能没有人的理解和参与。

重视相关性而回避因果性与情境的大数据认识论近年来颇有影响,这种让数据说话的主张是大数据版的算法客观性承诺,更是技术解决主义的新形式。2008年安德森(Chris Anderson)在《理论的终结》一文中宣称,大数据将使得关于人类行为的所有理论都过时,它可以直接替代分类学、本体论和心理学。在认识论等理论层面,大数据的出现及大数据方法的客观性承诺暗示,大数据的存在使人类决策越来越不充分,人们应该有意识地用大数据算法变革其推理方法。在技术应用层面,让数据说话不仅仅是认识论转向的承诺,而是进一步将这种认知直接转换为指向问题结果的行动。一方面,他们主张数据不言自明,只要有足够的数据,就能说明一切;另一方面强调不必知道人们为何做某事,只需要知道他这么做了。

对此,谷歌执行主席埃里克·施密特(Eric Schmidt)在2010年接受华尔街日报采访时似乎做出了呼应,大部分人不希望谷歌回答他们的问题……他们希望的是,谷歌能够告诉他们接下来该怎么做。次年,在MIT的一次演讲中,他强调,技术已不再仅仅涵盖硬件和软件,它实际上已经深入到庞大的数据挖掘和利用,从而让世界变得更美好。如果将施密特两次谈话的观点结合起来,无疑直观地体现了莫罗佐夫(Evgeny Morozov)在《技术至死:数字化生存的阴暗面》一书中所批判的技术解决主义或“解决方案主义”——把所有问题重新诠释为存在解决办法的问题。而该书原版的书名“点击这,解决所有问题”,则以鼠标隐喻揭示出人们在数字化生存中下意识的文化冲动,就像智能手机应用兴起的那段时间,遇到问题有人会不自觉地想,是不是可以做个应用软件(APP)。

《技术至死:数字化生存的阴暗面》书封

隐含着两个基本预设

在实际应用层面,大数据与人工智能中的智能算法及其驱动的自动化决策同时显示出巨大的力量和不容忽视的风险。一方面,大数据分析和智能算法呈现出无所不在的巨大的“客观性”力量。某些公司干预美国大选等案例似乎表明,算法能对世界进行某种“客观”的度量和操纵,甚至可通过精准的信息投喂让那些自己原本立场不确定的选民明确其立场。另一方面,在算法应用的法律和伦理治理中,大数据杀熟、不良内容推荐、算法歧视、算法不透明和不易解释等问题备受关注,在算法认知及自动化决策中消除偏见与不公正已成为社会共识。

当前,针对算法认知的问题,算法治理(对算法应用的治理)的目标指向提高透明度、加强可解释性,使算法更客观公正,更为人们所理解和接受。大致而言,算法治理的主要策略包括三个方面:其一是通过算法审计促使算法设计者与应用者端正其意图,其二是关注并减少算法认知和决策所采用的数据中存在的偏见、歧视和不公,其三是加强机器学习算法认知过程的可解释性。

透过算法治理的三个策略不难看到其中隐含着两个基本预设。首先是算法治理对算法认知的客观有效性预设,即算法认知可以客观地反映世界和社会实在,其认知能力接近无限,其认知结果是准客观的。由此,相关的法律和伦理治理也应以准客观为标准。虽然这些衡量标准是相对的,但在实践中一般会从可操作性出发,倾向于将其转化为技术标准。其次,算法治理的对算法认知的社会作用的政治影响性预设,即算法认知在社会生活中体现为一种普遍存在的算法权力,虽然它通常不透明和不可见,但其是否公正和让人受益却对人们生活产生着重大影响。显然,第二个基本预设折射出监管者不同于科技公司的角色差异,正因为如此,算法治理具有打开技术黑箱的诉求,同时它也使得作为技术解决方案的算法的运作策略成为技术批判者关注的对象。

隐藏的技术运行策略

人们由此注意到,算法的运行通常采取了“无摩擦技术”(frictionless technology)和“技术无意识”等设计策略。所谓无摩擦技术就是指那些在操作上非常顺畅、直观,而无需夹杂任何形式的人类思想和情绪的技术。技术无意识则指虽然软件、算法等技术无时不刻地对我们的生活产生着重要影响,却是隐而不显的,让人们意识不到它们的存在。从技术认知的角度来看,无摩擦技术设计消除了人与机器之间的界限,让人可以在将技术作为黑箱的情况下,自然而无障碍地操作,使人的感知和行为在机器中得以顺畅地延伸。例如,在员工进入公司上下班时,走过人脸识别考勤机就可以通过自动识别算法完成刷脸考勤。而技术无意识设计则意味着算法等技术通过嵌入而成为环境的内在构成部分,人们可以在无意识的情况下与被技术改造和重构的环境互动。例如,在疫情防控期间个人可能因为与患者有时空伴随而导致健康码变色;自动驾驶汽车有可能通过车辆之间信息交互由算法自动调节车速。

在科技公司看来,这种隐藏的技术运行策略似乎无可厚非。用施密特的话来说:“未来人们用更少的时间就能让技术运转起来……因为它就是无缝连接的。它就是会在那。‘网络’将席卷一切,却又好像不存在,就像电……如果我们把握好这一点,我想我们就能解决这个世界上所有的问题。”这段表白的启示在于,面对技术有意无意的自我遮蔽:像算法这样一种巨大的力量的运行,不能因其技术上的隐藏策略而变成伦理和政治层面的无形物,而应立足当下科技时代的趋势性特征,从多个维度对其内部构成和外在关联加以系统性审视。简言之,面对技术有意无意的自我遮蔽,要以相应的祛蔽应对之。

(本文原载于《社会科学报》第1825期第6版,经作者授权转载。

    责任编辑:龚思量
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈