澎湃Logo
下载客户端

登录

  • +1

张健|论我国平台用工算法的法律规制:反思与重构

2023-12-06 07:31
来源:澎湃新闻·澎湃号·政务
字号

原创 张健 上海市法学会 东方法学 收录于合集 #智慧法治 5个

为了遏制互联网餐饮外卖平台使用算法活动侵害劳动者权益的乱象,我国出台了设置收入最低标准、算法取中、严禁最严算法、优化算法、设置工作量上限、算法公示等多种措施并举的规制体系。然而,用工算法内部构成复杂、高度流变、非中立性的特征导致了算法趋严的“类问题”,而现有各项措施缺乏清晰可行性、措施之间缺乏路径和力度的一致性、整体上缺乏灵活性,不能从根本上加以解决。根据算法正义理论,我国规制体系仅针对算法趋严的具体表现加以规制,而没有意识到该问题的本质并非被讨论最多的算法黑箱、算法滥用、算法歧视和偏见,而是劳动者对自身劳动力定价权的弱势地位。只有以劳动者“绝对收入”作为落脚点出台规制措施,方能对用工算法实现有效规制。

一、问题的提出

近年来,以美团外卖、饿了么为代表的互联网平台快速崛起,创造了数千亿人民币消费市场和上千万灵活就业岗位。然而,依托平台就业的人却陷入了劳动强度过大、工作时间过长、收入降低、安全事故频发等诸多困境。这背后起到关键作用的是负责调度决策的“用工算法”,被平台企业用于指引、评价和约束劳动者的服务流程。一旦发生算法设计不合理或者滥用情况,往往造成劳动者难以忍受的工作境遇,因此进行法律规制是必要选择。在欧盟和美国,有关算法的立法活动仍局限在内容审核、广告定位投放、内容排名和推荐的范围之内,仍未将平台企业用于管理劳动者的算法或相关活动作为法律规制的直接对象。而我国却先行一步:国家网信办在2021年12月正式颁布的《互联网信息

服务算法推荐管理规定》将调度决策类算法服务纳入规制范围;网信办在之前参与发布的《关于落实

网络餐饮平台责任切实维护外卖送餐员权益的指导意见》对规制此类算法指出基本方向,即对影响劳动者报酬收入、劳动强度、工作量、奖惩的算法提出“设置实际收入最低标准”“算法取中”“严禁最严算法”“优化算法”“设置工作量上限”“算法公示”等多种措施并举的规制体系。

然而,当下的规制体系能否实质性地改善平台劳动者工作境遇尚不得而知。在既有的学术讨论中,用工算法所引发的法律和社会问题仍处于学界视线的边缘地带,不能为理解、评价和改进规制体系提供理论帮助。特别在国内,关心算法的学者多从基本概念出发进行宏观层面上的制度构建、对算法可能产生的危害进行类型化梳理,鲜有将算法置于平台用工场景中加以检视的尝试。关注灵活就业群体权益保护问题的学者虽然对用工算法有所关注,但往往将其与平台经济的其他议题放到一起简单讨论,做出诸如用工算法需要法律规制、算法技术封闭缺乏与外部的有效沟通、算法过度控制造成劳动异化等表面化的论断。在专门研究用工算法的成果中,有学者列举出算法可能泄露个人隐私、就业歧视、剥夺自主性、惩罚过度等具体问题并据此给出自己的规范性建议,没有去评价我国规制体系能否有效解决这些问题;还有学者将用工算法与女性劳动者保护议题联系起来,缺乏对用工算法的全景式研究。因此,实践与和理论之间产生了明显的鸿沟。

上述现状引发了一系列亟待解答的问题:(1)用工算法的工作原理和特征是什么,又是如何导致平台劳动者难以忍受的工作境遇,具体有哪些表现?(2)我国现有的规制体系能否对用工算法进行有效干预,实质性地改善平台劳动者的工作境遇?(3)如果我国规制体系的效果不如预期,背后的深层原因又是什么,是否还有更好的规制手段?正是基于这样的关心,本文以互联网外卖平台为例,深入互联网平台用工场景,并结合国内外算法规制的一般理论,试图完整地回答这些问题。

本文将在之后逐步证明,用工算法内部构成复杂、高度流变、非中立性的特征共同导致了算法趋严的“类问题”,不能简单归结为算法恶意或者技术原因,对法律规制提出了极大挑战。而我国规制体系的具体措施缺乏清晰可行性、措施之间缺乏路径和力度的一致性、整体上缺乏灵活性,不能从根本上遏制算法趋严持续发展。究其原因,我国规制体系仅仅针对算法趋严的具体表现加以规制,缺乏理论上的深层自觉,没有意识到该问题的本质是算法不正义。根据算法正义理论,算法趋严背后是劳动者失去自身劳动力定价权的弱势地位,只有对劳动者“绝对收入”划定底线,方能实现对用工算法的有效规制。

二、互联网平台用工场景下的算法

(一)

作为“黑箱”的用工算法

算法原本是数学和计算机学科的常用概念,广义上指的是由多个步骤组成的用于解决问题或者达成某些目标的程序。由于被广泛应用于搜索引擎、社交媒体、电子商务甚至行政司法等不同场景,

算法相应地会产生多种狭义概念。为了与之区别,互联网平台用工场景中的算法被称为“用工算法”或者“算法管理”,特指“平台企业为远程管理劳动者,通过收集数据和监督劳动者的方式实现决策过程的自动化或半自动化的工具”。用工算法以三种方式对劳动者发挥影响,分别为指引(告知劳动者需要做什么、用哪种顺序和多长时间完成、完成到什么程度)、评价(考察工作者活动、评估工作表现、识别表现不佳的个体)、约束(通过奖惩引导劳动者合作与服从)。由于算法直接或间接决定了劳动者的工作量、工作时间、劳动强度、收入、奖惩等诸多方面的工作境遇,国外甚至出现了“你的老板是算法”的流行语。

用工算法之所以获得平台企业的广泛应用,是因为它在数据搜集范围、计算规模和分析效率方面较传统管理方式有着先天优势。首先,传统管理方式一般仅搜集与劳动者工作表现相关的数据(如完成工作数量),而用工算法将搜集数据的范围扩展到了与工作表现弱相关的数据(如劳动者之间的交往或健康状态)。其次,用工算法能够将原本相互割裂的数据加以整合分析,形成劳动者个体为单位的综合性数据。再次,用工算法分析这些数据的能力是传统管理方式无法比拟的。正因为如此,用工算法为劳动者构筑起了一道“数字牢笼”。传统工业社会中的工人可以发明出规避、违抗、颠覆流水线命令的手段,但这种反抗能力正在遭受数字技术的破坏,因为互联网平台能够将工作规则转化成劳动者完成工作任务必须要借助的工具。

与其他应用场景类似,用工算法经常被描述为难以理解的黑箱。Burrell指出,算法工作原理通常不被外界所知,一是出自企业或机构主动进行的自我保护或欺骗;二是因为算法代码的读写需要专业技能;三是源于机器学习的高维度数学优化与人类的推理要求和语义解释风格之间的不匹配。反映到现实当中,除了平台内部少数核心技术人员(算法工程师)掌握相关技术外,很多平台还将算法视为商业秘密,或者以技术中立为理由规避法律规制。若要进行有效的法律干预,了解其应用场景下的构造与特征是基本的前提条件。

(二)

用工算法的工作原理与特征

不论国内外,餐饮外卖平台对同时远程管理庞大数量劳动者存在巨大需求,对用工算法依赖程度最高,使用的算法原理也大同小异。一般而言,算法从开发到投入使用需要经历多个复杂阶段。数据收集是开发和使用用工算法的关键所在。实践中,这些平台企业会利用GPS技术收集劳动者“一举一动”的数据,包括实时数据(比如,走路、骑行、奔跑、爬楼梯、乘扶梯、坐电梯等运动状态)和历史数据(到达商家的时间、在商家停留的时长、顾客住址楼层、通知顾客下楼取餐的时间、等待顾客取餐的时

长)。用工算法模型在这些数据的基础上被设计、训练、投入使用,其中对劳动者影响最大的是输入、输出、吞吐。

1.算法输入(input)

用工算法开发的逻辑起点是定义问题以及确定算法输入的范围,后者由数据和参数两个部分组成。在最初阶段,开发者思考算法需要完成的具体任务或者待解决的问题,比如,预估完成订单任务所用时间,就需要借助数据,既可以是历史数据,也可以是实时数据。在此阶段,开发者除了将算法需要完成的任务用术语或者概念加以描述,还要对使用哪些数据做出选择。开发者另外一项重要工作是确定参数,指的是算法必须要满足的额外要求。以计算餐馆与消费者之间的距离为例,如果说算法的主要任务是根据数据得出最短路线,而参数则指的是要排除掉不可通行的道路(如水路)和速度较慢的路线(如上坡路)等额外要求,以保证劳动者能够按照要求完成任务。

2.算法输出(output)

输出指的是算法给出的结果,例如完成订单过程中可供劳动者选择的不同路线。算法的输出在模型自动给出之后还受到平台管理者(并非开发者)的干预。一方面,管理者负责在分配订单时为劳动者个体提供算法结果;另一方面,管理者在发现算法输出结果不合理(某条送餐路线看上去不合逻辑或者不可行)的情况下会进行调整。算法的输出一般给出多个结果供选择,所以它本质上是一种工作“指引”或者“推荐”。算法的输出结果除了送餐路线,还有订单分配、任务进度报告(配送时限)、奖励金额、消费者评分等形式,都显示在劳动者使用的手机app等移动终端上。

3.算法吞吐(throughput)

吞吐是用工算法最为复杂和不透明的部分,是开发者在输入和输出之间进行的分析,主要有三种类型。第一种是描述性分析,主要用于分析过去发生的事情如何影响当下,比如,算法收集骑手行进路线、出现方位、聚集频率、上线时间等历史数据来监控劳动者是否继续保持工作热情。第二种是预测性分析,其根据历史和实时数据预估算法输出的结果,或者某一具体结果的可能性,例子就是刚刚提到的劳动者以某一置信水平(如95%)来估计完成一单送餐任务最短时间(如30分钟)。第三种是规范性分析,指的是算法在预测性分析的基础上再进一步,在多种可能的输出结果中寻找最优的结果。三种分析产生了相应的描述性、预测性、规范性算法功能,对劳动者产生的影响也不同。比如,描述性算法负责收集送餐路线长短的数据和参数;预测性算法的目的是得到数个可能的送餐路线;规范性算法则用于选择的最短或最快的送餐路线最终用于指导劳动者完成订单任务。

在这些要素开发完备的情况下,用工算法成为“具备自我学习能力的控制系统,自动做出和执行关乎劳动管理的决策,限制人类参与或监督劳动过程”。作为一个整体,用工算法具备内部复杂性、高度流变性、非中立性等特征。第一,用工算法内部构成复杂。一个完整的用工算法通常包括多个利用不同数据组和参数的次级算法,有负责预估订单完成时间的算法、规划导航路线的算法、计算劳动者收入的算法、还有专门评估劳动者等级的算法,等等。某些算法的变化会对其他次级算法和劳动者工作境遇产生牵一发而动全身的效果。例如,决定配送时限的算法的变化会直接决定劳动强度(时间越短意味着劳动强度越强,反之亦然),同时也会间接影响计算劳动者收入算法的数据和参数(时间越短意味着劳动者平均收入的下降)。第二,用工算法具有高度流变和动态化特质。随着劳动者历史和实时数据不断更新,开发者对数据使用范围和参数的调整,加之管理者对算法结果的调整,用工算法不断地被迭代和重新定义,在某种意义上总是处于不可知的状态。再加上算法由于不同地区和城市产生数据和参数上的时空差别,这种不可知状态甚至连开发算法的技术人员都无法理解。第三,用工算法不符合“技术中立”的神话,会经常受到人类客观和主观影响。在客观上,算法通过学习过去数据对未来做出预测和决定,会继承人类偏见。比如在国外平台的招募劳动者阶段,算法可以通过数据训练学会排除掉某些女性和少数族裔的申请者,因为之前(人工做出的)招聘决定总是不断拒绝此类申请者。在主观上,算法以商业价值、经济利益等人类价值作为追求目标,并不存在所谓的技术中立或者价值中立。

总之,用工算法内部构成复杂,本身具备高度流变的特质,虽然看起来是中立的,但开发者是人类、数据原始来源也是人类,负责调整算法的也是人类,其有可能将自己的偏见带入算法甚至根据人类价值观念滥用算法。

(三)

用工算法与“算法趋严”的现实问题

既然用工算法存在被滥用的可能性,在不受制约的情况下是否必然会对劳动者权益造成损害?现实已经给出了答案。在国外,优食和户户送等餐饮外卖平台国际巨头使用算法的行为在近年来饱受争议,出现了诸如算法追求配送效率造成劳动者遭遇交通事故;算法追求利益最大化导致劳动者收入低下;算法分配订单时偏袒某些劳动者;算法过度控制引发劳动者与平台之间的紧张关系等问题,不一而足。在我国也出现了类似情况,但招聘阶段的歧视问题并不突出,更多地表现为用工算法在工作期间对劳动者的考核标准水涨船高,展示出日渐严厉的面目,背后主要有三种推动因素:

首先,算法本身造成的考核标准趋严。正如其原理所展示的,算法会通过数据训练自我学习或者被人为调整。以配送时限为例,算法在最初阶段可以根据原始数据模型给出较为宽松的考核标准,但随着越来越多劳动者能够在更短时间内完成订单,算法迭代之后将配送时限设置的越来越短,劳动强度也随之提高。平台为了追求效率对算法进行的人为调整也可能导致更加严格的考核标准。比如,当有劳动者意外发现算法计算范围之外的近路,马上会被管理者“征用”以便提高平台整体配送效率,成为其他劳动者必须要选择的路线,即使抄近路会引发交通事故或者增加任务难度。为了满足算法要求,劳动者需要采用跑步、闯红灯、超速行驶等方式防止订单超时被平台惩罚,造成大量交通事故。虽然很多时候难以区分是算法自身迭代还是人为调整造成的考核标准趋严,但劳动者面临的高强度劳动和安全隐患已经成为无法否认的现实困境。

其次,平台企业基于算法建立起来的管理制度加剧考核标准趋严。用工算法有能力为劳动者个体建立数据档案,帮助平台企业建立具有心理操纵色彩的管理方式,典型的如劳动者评级和消费者惩罚权。国内的饿了么平台就设置了从“普通骑士”到“神骑士”七个等级,与准时率、差评率、订单取消率等

算法数据挂钩,并且规定只有更高等级配送员才能抽取更高比例的佣金。为了提升等级获得更多

收入,劳动者只能采取增加工作量和延长工作时间等方式满足平台预设的标准。这种人为制造“内卷”的后果就是仅有少数个体能够获得较高收入,而其他大部分劳动者的实际收入无法达到预期。此外,算法还将惩罚权转移给消费者。比如,饿了么平台在消费者手机程序中添加“我愿意多等5分钟/10分钟”的选项,被公众批评为“外卖平台手里握着刀,却问用户杀不杀”。为了防止消费者给出差评反馈,劳动者需要尽快完成订单,同时保持良好的服务态度、语言、姿态获得较高的评价(“五星好评”),无形中增加了工作强度以及被称为“情绪劳动”的额外负担。此类与算法挂钩的管理制度不仅直接对工作量、工作时长、劳动强度存在直接的负面影响,也间接降低了劳动者的收入水平。

再次,商家行为、算法技术失灵、算法设计不合理等外部因素加剧考核标准趋严。用工算法在设立考核标准时很容易忽略劳动者在工作过程中遭遇的现实困难。在商家出餐慢造成配送时间紧张导致订单超时的时候,算法往往自动将过错归咎为劳动者个体,并相应给出降级、减少订单等处罚。此外,算法技术失灵也会对劳动者带来负面影响。在高架桥或者信号不好的地段,算法系统如果无法准确识别劳动者所在位置实时数据,就会偶尔出现将订单派给距离更远的劳动者等不合理的情况。算法开发设计缺陷是更为常态化的问题。如果算法没有将订单配送路线相似性作为重要参数,在出现多个路线重合订单的时候分配给不同的劳动者,或者让一名劳动者在同一路线上反复折返完成多个订单。

根据上述列举可以发现,算法趋严现象的背后有着多种互相作用的推动因素,属于有着多种表现的“类问题”,不能完全归结为平台企业滥用算法的恶意等人为因素,或者技术缺陷等客观因素。因此,相应的规制活动不能简单地以平台企业是否存在主观上滥用算法为切入点,而是要充分考虑用工算法所处的复杂环境,这也为法律规制提出了更多挑战。

通过对用工算法黑箱内部的观察可以暂时得出三点简单结论。一是用工算法应用场景具有特殊性,与个性化推送、检索过滤等其他类型算法的开发原理明显不同,发挥作用机制以及对劳动者的影响也无法简单与其他类型算法进行类比。二是法律规制用工算法很有必要。有国外学者指出,在劳动者与平台企业之间存在天然不平等的现实面前,希冀后者通过自我规制改善现状只能沦为天真的想法。三是规制用工算法极具挑战性,算法趋严的现象既有自身迭代调整的技术性原因,又有平台企业管理制度的原因,还有商家行为、算法设计和技术等外部原因互相影响,亟待精准、有效的规制方案加以调整。

三、反思现有用工算法规制体系

为了遏制用工平台算法日益侵蚀劳动者权益的现象,我国于2021年出台《互联网信息服务算法推

荐管理规定》(以下简称《推荐管理规定》),将用工算法在内的“调度决策类”服务活动纳入规制范围。《推荐管理规定》第二十条要求平台企业“应当保护劳动者取得劳动报酬、休息休假等合法权益,建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法”,但没有提及具体规制措施。国家网信办等部门联合发布《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》(以下简称《指导意见》)对此进行了补充,其中前三条意见分别针对劳动者报酬收入、劳动强度、工作量、奖惩四个方面的算法规制提出了相对具体的举措(见下表1)。

表1 《指导意见》中算法规制措施

我国《推荐管理规定》与《指导意见》代表了简略的正式法律条文与具体化的指导性政策文件相结合的算法规制体系,符合科技法学者Ebers定义的“多层级立法”模式,据称其优势在于既可以防止科技快速发展对正式法律造成冲击,又可以随时调整指导性文件内容以保障规制措施的灵活性。然而,Fenwick等学者认为在科技发展已经超过法律反应速度的情况下,规制体系的合理性、有效性与立法类型没有必然联系,而是要细致分析规制体系的内容、形式和时机,即“什么规制”“怎么规制”“何时规制”三个关键方面。对于如何判断具体规制措施、规制路径、规制体系整体上的合理性和有效性,国内外理论均有相应的评价标准。据此可以引申出评价我国用工算法规制体系的三个维度:一是各项具体规制措施是否清晰准确并且能够切实可行地解决问题;二是规制措施之间在路径选择和干预力度上是否体现出一致性避免措施之间相互冲突;三是规制体系整体上是否存在法律原则的灵活性以跟上算法的快速变化。

(一)

现有规制措施缺乏清晰性与可行性

在微观层面,不论立法者和政策制定者采用了哪种具体措施或规则干预算法,都应当使用清晰或易于理解的语言表述出来、而且被证实能够在现实中切实可行地解决现实问题。按照这一标准,《指导意见》提出的各项具体措施在细究之下有着或多或少的问题。

1.关于劳动强度的规制措施:算法取中、严禁最严算法、优化算法

首先,“算法取中”概念模糊。作为调整劳动强度的主要手段,《指导意见》要求平台企业采用算法取中方式确定订单数量和配送时限,但未对其概念做出详细解释。特别是关于“取中”,按照字面意思至少存在三种解释:一是在算法结果中选取订单数量和配送时限的某一恒定值(比如平均值、中间值)作为考核劳动者的标准;二是考核标准的严厉程度在整体上实现“中庸”,对劳动者不应过于严苛;三是使用算法开发技术中的取中法,按照特定方式在订单数量和配送时限的多个算法排序结果中选定考核标准。这三种解释分别代表了立法者/政策制定者、劳动者、算法开发人员、社会公众对同一概念可能产生的不同认识,必然产生潜在问题。如果将“取中”理解为在算法结果中“锚定”某个固定的考核标准,就无法回避用工算法高度流变的事实。订单数量和配送时限不但会随着数据和参数变化在短期内发生波动,长期内会出现订单数量增多、配送时限逐渐缩短的趋势(算法趋严),使得这种做法在理

论上不具备可行性。同样地,如果将“取中”理解为考核标准不应过于严苛,必须事先划定订单数量和配送时限“严”与“不严”之间的界线,但是订单任务在配送距离和难度层面上的不均质性使得这种划分难以实现。如果将“取中”理解为特定的算法技术,则开发人员能否在现实当中应用该项技术以及向外界解释如何实现取中的功能就成了疑问。因此,算法取中最终很可能因为自身概念模糊无法成为具有可操作性的规制措施。

其次,“严禁最严算法”缺失法律或事实标准作为调整算法的依据。《指导意见》提出将严禁最严算法作为算法取中的补充手段,同样没有给出解释。从平台企业的做法来看,它充其量是形式上的操作方法,即在算法得出的多个可能结果中选择对劳动者最宽松的一个结果作为考核标准。最直观的例子是美团平台对配送时限算法的调整,在原本模型之外增加了城市地理特性、时间段、距离等参数模型得出数个长短不一的配送时限,并选择最长时限作为考核劳动者的最终结果。这与国际上正在兴起的“算法认证”之间存在显著相似性:规制主体在充分考虑算法使用场景的基础上,直接规定算法结果必须满足的法律或者非法律(事实)标准。劳动法学者Schubert强调,如果算法认证依据的是法律标准,就必须满足实际可操作这一条件,即本国或者国际层面上保护劳动者的法律条文能够切实可行地转化到对算法结果的测试和监管过程之中。如果算法认证依据的是事实标准,就必须保证来源的可靠性和科学性。例如在美国,自动驾驶汽车的算法就被要求每10亿英里驾驶距离内导致的伤亡事故必须少于1.35起,所依据的事实标准就是美国国家公路交通安全管理局统计出来的交通事故数据,背后的逻辑是算法造成交通事故风险不能高于人为驾驶的风险。同理,严禁最严算法必须结合免于高强度劳动的法律或事实标准才有意义。而现实情况是我国劳动法律法规和统计数据中均找不到可以为订单数量和配送时限划定范围的标准,既不满足国外学者提出的算法认证条件,也无法为劳动者提供实质保护。以订单数量为例,如果没有特定时空下劳动者群体在一个小时内平均完成配送任务的真实数据,加之没有相关法律标准加以明确限制的情况下,算法模型可能得出一小时内向劳动者分配10单到20单任务,就算按照严禁最严算法选择最小值(10单)也可能远超劳动者能够正常完成工作任务的数量上限。

再次,“优化算法”难以控制方向和范围。《指导意见》中调整劳动强度的措施还有优化算法,虽然在法律上仍然是模糊概念,但在专业技术领域指的是调整算法输入(数据、参数)以达到输出最大值或者最小值的目的,一般借助增减输出参数、降低算法错误几率、简化算法模型、防止过度拟合、微调参数影响力、充分考虑算法使用场景等手段实现。优化算法是算法工程师等开发人员的日常任务,但是除了某些诸如定位信号不准确等暂时无法克服的技术难题外,在法律上如何控制优化的方向与范围也有着不确定性。就优化方向而言,开发者通常根据历史和现实数据做出有利于平台效率的优化,只有极少数情况下才会出现立法者和政策制定者期待的有利于(部分)劳动者的优化。优化的范围也是如此,平台企业更愿意对个别次级算法做出有利于劳动者的片面优化,因为整体优化就意味着技术投入、用工成本总体上升,与市场主体追求经济效率的内在要求相悖。这也从侧面印证了现实中平

台企业仅调整影响劳动强度的算法、不去触及决定劳动者收入(订单提成)、工作时长、工作量、奖惩、评级等其他算法的做法,背后可能有着对优化成本的考量。所以,过度相信算法优化能够改善劳动者工作境遇会产生诸多风险,很可能因为优化范围和方向难以控制、成本过高等现实困境而最终无法实现预设的规制目的。

2.关于工作量的规制措施:设置工作量上限

正如上文所述,用工算法和带有心理激励色彩的管理制度会变相迫使劳动者连续接单增加工作量,《指导意见》给出的方案是对“连续送单超过4小时的(劳动者)……20分钟内不再派单”。设置工作量上限与严禁最严算法措施类似,同样贴近算法认证手段,而且还给出了更加具体的操作方法。然而,要求算法对连续工作一定时间的劳动者停止派单的做法在法律上也找不到可以直接对应的依据,特别是我国劳动法中有关劳动者休息休假的规定主要适用于每天工作8小时的传统劳动者,与灵活就业现实情况相去甚远。此外,以4个小时为限的规定似乎缺乏事实标准,因为没有统计数据或者相关研究证明平台劳动者连续工作某个固定时长之后就达到了疲劳度的极限。况且平台服务工作具有特殊性,劳动者可以选择在一天中的任何时段上线接单,经常面对高峰时段“爆单”与非高峰时段无单可接交替出现的情况。因此,设置工作量上限的做法就显得过于简单武断。如果严格执行这一措施,更可能出现的结果是劳动者延长工作时间弥补订单数量损失;不排除有些“聪明”的劳动者在接近工作量上限的时候采用重新上线、切断手机信号等方法防止被停止派单。简言之,设置工作量上限与严禁最严算法一样,缺乏明确合理的法律或事实标准作为调整算法的依据。

3.关于奖惩制度的规制措施:向劳动者公示

《指导意见》要求平台企业在调整考核和奖惩制度之前向劳动者公示,背后有着提升算法透明度、通过向外界展示算法自动化决策过程防止滥用的意图。实际上,欧盟在制定一般数据保护条例(GDPR)时就将透明度确立为处理个人数据相关活动所遵守的原则,要求任何有关公众和个人的数据应当以简洁、易于获取、容易理解、清楚平实的语言,且在有必要的情况下用可视化方式表达出来。算法作为处理数据的重要载体也应遵循透明原则,比如我国《推荐管理规定》第4条提到了算法服务活动应当遵循公开透明原则,但未作细化解释。国内学者将其定义为“要求以一定方式和程度向用户或公众说明自动化决策的内在逻辑,尤其是解释用户或公众所关心的特定因素对算法决策的具体影响”。Waltl和Vogl两位学者则指出,算法公示若要实现理想中的透明度必须能够达到“可解释性”的水平,能够回答七个具体问题:(1)“算法结果是如何得出的”,(2)“为什么不是其他结果”,(3)“何种情况下算法模型会得出可靠结果”,(4)“能否为算法结果提供可靠来源”,(5)“在何种情况下算法结果是可以被信赖的”,(6)“哪些参数最能影响算法结果”,(7)“如何修正算法错误”。当然,透明原则并非适用于所有算法活动主体。国内学界普遍认为,对于平台企业这种不涉及公权力和公共服务的私人商业机构不必强制要求公开算法。暂且不论平台企业应当公开到何种程度的问题,即使劳动者所关心的问题全部被回答,也会出现Pasquale在《黑箱社会》中指出的困境:在制度化的权力和资本面前,仅仅依靠算法透明本身不能总是产生救济或者大众信任。一味要求平台企业公开算法决策逻辑和过程还会带来劳动者的算计行为,反过来破坏算法本身的效率和公平。Kellogg总结出平台劳动者

在知晓算法原理之后的算计行为,既有忽视算法给出的指令和奖励、操纵算法输入达到预期结果、批评投诉算法、切断算法监控和数据收集过程、更换新账号等不合作行为,也有私下要求消费者提前保证给出高评价、取消负面评价、用额外服务交换高评价等操纵算法的行为。概言之,对算法某一方面仅仅适用算法公示(透明)对改善劳动者工作境遇的意义不大。

4.关于报酬收入的规制措施:设置劳动者实际收入最低标准

《指导意见》设置劳动者实际收入最低标准以及给予额外补贴措施看似清晰可行,但这些规制措施的缺陷不在于自身,而是与其他措施之间的冲突,下面将专门进行讨论。

总的来看,大多数规制措施有着各自的内在缺陷,归结起来主要有三种表现。一是规制措施本身概念模糊无法直接适用,比如算法取中。二是规制措施虽然看似明确,但缺乏法律和事实标准等保障有效性的关键部件,如严禁最严算法和设置工作量上限。三是规制措施的实际成本过高或者难以达到理想中的规制效果,如算法优化和算法公示。将这些措施直接用于实践可能带来更多法律上的不确定性,无法满足清晰可行的基本要求。

(二)

规制措施之间缺乏路径和力度一致性

立法者和政策制定者除了要保证规制措施本身是否清晰、具有可行性,还应当尽量让各项规制措施之间满足路径和干预程度上的一致性。

就规制路径的一致性而言,各项规制措施应当尽量保持预设逻辑和规制重点的同质性。目前为止,各国理论和实践对如何规制算法大致形成了“预设规范型”、“行为导向型”、“结果导向型”三种可能路径,有的以规制算法结果为重点,有的以规制算法开发和使用的过程为重点,背后预设逻辑也不尽相同。规制算法的第一种可能路径是“预设规范型”,以高度细节化的方式提前告知规制对象应当做什么以及怎么去做。预设规范型路径起源于传统建筑行业使用的建筑规范,通常以几百页篇幅详细描述承重墙铆钉样式、横梁间距、房顶与隔热材料等施工者必须满足的操作标准;严格履行预设标准是这一路径的核心要求,满足规制要求就意味着好的结果(房屋安全)。遵循同样的思路规制算法,就应当对算法开发、训练、使用各个阶段制定极为细化的要求,包括算法的问题如何定义,数据如何收集、清洗、分区,模型如何选择和训练,以及如何将算法最终应用于实践。Seyfert批评此种路径实际上是将算法本身作为规制对象,实施效果往往并不理想,因为算法的某一行代码发生变化就意味着成为了新的算法(新的规制对象),必须由专业人员或专家在第一时间更新规制内容,这在现实当中几乎不可能做到。规制算法第二种可能路径为“行为导向型”,以审查被规制主体的行为目的是否合法、公平为重点。此种规制路径最先在金融市场行业得以实施,用以判断市场参与者的投标活动是否存在最终取消投标的欺诈恶意。如果被用于规制算法,规制主体主要审查算法活动主体是否存在诸如歧视某些群体等主观故意。较之预设规范型路径,行为导向型路径的优缺点都很突出。优点是不需要提前设置复杂的规则,也不会随着算法内部代码发生些许变化实时更新规制内容;缺点则是需要相关规制主体具备算法运作的专业知识,准确证明算法活动与主观恶意之间的因果关系,造成规制活动的过高成本;更为重要的是在实践中由于算法滥用背后存在着复杂成因,判断主观意图这件事本身就很困难。规制算法第三种可能路径为“结果导向型”,非常类似于上文提到的“算法认证”,指的是为算法设置标准来衡量输出结果,将如何达成标准的方式和策略留给被规制主体自主决定,不再干预算法内部运作细节或者行为目的等过程性要素。O’Reilly认为在算法结果清晰和可被衡量的前提下,结果导向型路径是最有效的方案,既可以避免其他规制路径因为算法的快速变化而失效,又可以更好地

使算法达成社会责任和伦理价值等实质性结果。当然也有学者对此提出异议,指出结果导向型路径对所有算法而言并非最优方案,选择何种路径应当参考算法具体应用场景加以综合判断,而且公平交易、公平劳动等程序性算法结果也同样重要。

这也就意味着各种规制路径的预设逻辑和规制重点各不相同,立法者和政策制定者对劳动者收入、劳动强度、工作量、奖惩各方面的算法应当采用较为统一的路径。比如,在规定劳动者最低实际收入的同时设置每天工作总时间、接单数量、惩罚金额或次数的上限等结果导向型措施,将如何满足所有要求的策略留给平台企业自行发现,反而在客观上更有可能达成规制的总体目标。但现实情况却是我国各项措施之间存在着明显的路径不一致的现象。具体来说,设置劳动者实际收入最低标准相当于规定了一个可衡量的结果,属于典型的结果导向型路径;给予劳动者补贴、算法公示等措施更加注重平台企业的行为和目的,大致可以归为行为导向型路径;优化算法、严禁最严算法、算法取中、设置工作量上限等告知企业调整算法的具体方案则更加贴近预设规范型路径。这种既规定算法结果又干涉算法使用过程的“多样化”取向看似全面合理,却有可能在各项措施之间引发冲突。在现有的规制体系下,平台企业迟早会发现保障劳动者最低实际收入最实际的做法是缩短配送时限和提高订单分派数量,很难严格执行优化算法、严禁最严算法、算法取中等规制措施,反之亦然。

就规制措施的力度的一致性而言,干预算法的程度应当与规制主体的权责相匹配。根据Tutt的总结,规制算法力度最轻的是低成本的“助推”规制,为算法活动主体保留选择自由、不干涉算法具体的开发和使用,例如算法公示,不论要求公开算法代码和训练数据等部分内容还是公开算法全部细节都没有超过轻度规制的范畴。中度规制则开始介入算法的内容,主要表现设置标准,按照目的和作用可以分为四类:对算法分类管理的区分标准;为算法安全的设计、测试、表现提供参考的指导性标准;用于衡量算法安全性、可解释性的评估标准;以及在算法开发者、实施者、经销者、终端使用者之间划分侵害责任的标准。力度最强的重度规制是对算法做出禁止性规定,要求算法在投入使用之前必须获得规制主体的审查或者许可。规制力度直接决定了立法者、政策制定者、监管者等规制主体所承担的职责和权限范围。一般而言,助推规制对规制主体的要求相对较低,只要确定和审查诸如算法公开的范围和特定事项就能够实现规制目的;中度规制要求规制主体具备有关算法的专业知识制定科学合理的标准供被规制主体参考;重度规制的要求除了具备专业知识之外,还有依据这些知识对算法内容履行严格审核、监管以及行政处罚的职责。

根据上述划分,可以发现我国除了有关奖惩制度的措施(即算法公示)属于助推规制之外,调整报酬收入、劳动强度、工作量算法的措施更接近于为平台企业提供指导性标准的中度规制,对规制主体的专业知识提出了更高要求。但根据公开信息分析,不论是主导制定《推荐管理规定》的国家网信办还是参与起草《指导意见》的国家市场监督管理总局、国家发改委、公安部、人力与社会保障部、商务部、全国总工会等其他部门当中均找不到制定标准的主体和相应权责。这可能解释了为什么许多规制措施缺乏清晰可行的法律或者合理的事实依据。以前文提到的设置工作量上限为例,《指导意见》起草者将连续接单4个小时作为判断劳动者是否应当休息的依据,不难想象是将平台劳动类比每天8小时工作制(上午工作4小时、下午工作4小时,中间休息)或者交通法规中的类似规定(司机连续驾驶时间不

得超过4小时)。这种类比只有在工作量与工作时间之间呈现线性对应关系时才有意义,即工作量会随着工作时间近乎等比例增长。但是平台劳动的性质决定了某种非线性关系,一名平台劳动者可能在高峰时段完成很多订单,即出现工作时间短但工作量大的情况,也有可能在非高峰时段完成少量订单,即工作时间长但工作量小的情况。从某种程度上而言,将连续工作时间等同于工作量犯了基本的概念错误,反映出政策制定者欠缺互联网平台用工基本事实和知识的短板。

总结起来,规制用工算法在路径和规制力度上的不一致在很可能导致平台企业形式性、选择性守法的现象。正如《指导意见》出台前后美团外卖等平台企业开始主动向公众(而非劳动者)解释“预估到达时间”和“订单分配”算法逻辑和决策过程,在此基础上还声称采取了严禁最严算法、优化算法两项措施以降低劳动强度。不论公开算法逻辑的程度和对象还是迎合算法的具体措施的范围都只是在表面上满足了部分要求,更为关键的是没有任何证据证明劳动者的工作境遇较之以往得到了实质性的改善。

(三)

规制体系整体缺乏灵活性

用工算法一直处于高度流变之中,但其产生的侵蚀劳动者权益等问题却是长期性的,这就要求规制措施在宏观上保持灵活性以跟上算法的快速变化。早在2010年代,Callon等学者就意识到法律在科技领域保持灵活性的重要性,认为针对科技的立法不应当被看作是一劳永逸的“最终事件”,而应当是对规制措施和路径不间断的选择活动。在判断灵活性的问题上,Fenwick等其他学者提出基于具体规则与基于法律原则两种范式的区分,前者是将具体规制措施直接用于科技引发的社会问题,后者指的是法律原则,不会由于规制过程中获得的新知识和新发现对规制体系和框架造成冲击;保持法律规制灵活性的关键在于前者向后者的范式转变。

显而易见,我国当下规制用工算法的体系整体上属于基于具体规则范式,如果用工算法某一方面发生细微变化,相应规制措施的预期效果有可能打折扣、扭曲甚至失效。例如,美团平台在将原来的履约服务费细化为距离、价格、时段三个部分,并且根据距离的远近和价格的高低收费。这一变化相当于为用工算法加入更多参数成为新的算法(迭代),对劳动者产生的影响体现在配送距离更远的订单会有更加宽裕的配送时限和单位时间内较少的订单数量,相对降低了劳动强度,但是严禁最严算法、算法取中是否还具有操作意义就不得而知了。更为关键的问题是算法迭代会产生新的问题。不难想象距离更远、高峰时段、高价的订单成为更受欢迎的工作任务,向劳动者个体分配订单的算法规则就变得更为关键。尤其是劳动者与配送起点的距离不是分配订单的首要参数,还可能有受骑手等级和“抢单”制度的影响,负责分配订单任务的算法会进一步加剧不同劳动者个体之间的机会不平等,意味着算法对大部分劳动者将会更加严厉。但是由于立法者和政策制定者难以预料算法迭代的内容、方向以及引发的潜在问题,之前出台的规制措施无法对此类问题做出快速反应。

为了避免规制体系灵活性缺失的问题,转向法律原则似乎是更好的解决方案。近几年国外计算机领域针对算法黑箱、算法歧视和偏见、算法滥用等不正当行为提出的机器学习公平、责任、透明等伦理原则受到法律领域越来越多的关注。这些原则在概念上存在彼此联系。除了上文提到的透明原则,与之高度关联的责任原则被定义为在算法透明的基础上要求算法活动主体对算法决策做出解释、回答来自行业内部利益相关方和监管者的问题、对算法产生的后果承担责任。算法公平更多地强调算法透明和算法责任基础上的程序性公平,要求每个人必须置于同样的算法决策规则与同样的数据之下被评价和管理。这些伦理原则开始被一些国家和地区的法律系统吸收成为法律原则,特别是算法透明与算法公平原则在欧盟一般数据保护条例(GDPR)第5条(以合法、公平和透明的方式对数据主体进行处理)、22条(禁止个人画像和歧视)等条款均有所体现。有个别国家开始将其作为监管执法的依据。2021年8月意大利个人数据保护监管机构对“户户送”和Foodinho两家外卖餐饮平台开出数百万欧元的罚款,理由就是在没有将相关情况告知劳动者的前提下,利用算法进行个人画像和评级并以此为依据在订单分配时对不同劳动者歧视对待,违反了GDPR的有关规定。在这一案件当中,法律原则的灵活性体现在平台企业均因违反算法公平原则受到处罚,但违法行为却有着明显差异:Food-inho对劳动者个体设置初始分数值,然后根据客户和商家反馈、工作时段、交付订单率、总体生产力等不同权重的指数调整分数,最终作为是否享有优先获得订单的条件;户户送则是以劳动者是否在高峰时段工作、取消订单率、完成时限长短作为个人画像的数据来源,但不论哪种情况均落入公平原则的涵摄之下,不会因为算法本身的设计和使用细节在不同平台之间出现的差异、迭代变化导致监管失效的尴尬局面。

上述列举的内容并不是为了说明立法者和政策制定者必须转向法律原则,而是在灵活性的维度看,法律原则单独确立或者作为具体规制措施的法律依据是必不可少的。而这正是我国当下用工算法规制体系的内在缺陷。

通过以上简要分析可以发现,我国当下规制用工算法的基本思路是分别针对影响劳动者收入、劳动强度、工作量、奖惩的算法制定规制措施,打出一套全面保护劳动者“组合拳”。然而,这一规制体系呈现出缺乏清晰可行性、一致性、灵活性等漏洞,无法在真正意义上解决算法趋严的问题以保护知情甚少的劳动者免于高强度、长时间、低收入的工作境遇,更像是头痛医头、脚痛医脚式的便宜式规制。由于现有规制体系从各个方面均难以满足相应要求,在原有基础上进行增减、细化、修改的价值并不大,在中国语境下结合算法规制的一般理论进行重构反而更有智识和实践价值。

四、重构中国语境下用工算法的规制体系

我国用工算法规制体系难以达到预期目的主要原因在于仅仅根据算法趋严的种种表现加以规制,无法触及背后的真问题,加之算法快速变化不断产生新的表现,造成了相应规制措施模糊、内部冲突、僵化的严重漏洞。因此,重构的起点应当是识别出种种乱象背后的本质,并据此设计适合的规制路径和力度,再落脚到更为具体的规制措施上来。

(一)

以算法正义理论识别算法趋严的“真问题”

表面上看,发生在我国的算法趋严现象和国外的算法黑箱、算法歧视、算法偏见有着很多相似性。因此,一个简单的思路是我国在立法上借鉴国外的算法透明、算法责任、算法公正等法律原则加以回应,而且我国《推荐管理规定》第4条也提到公正公平、公开透明、科学合理和诚实信用的原则表现出了这种倾向。但这并不代表能够解决用工算法导致的“真问题”。首先,算法趋严并不是算法黑箱引发的,而且现有规制措施中也有算法公示等契合算法透明原则的内容,但实践证明其对救济劳动者而言无

多大益处。其次,将算法趋严等同于平台企业违反了算法向善、诚实信用等原则的滥用行为,那么引入国外的算法责任原则,要求平台企业对可能存在的算法滥用行为进行说明并承担相应责任看似可行。然而,鉴于用工算法本身的特征和所属场景,判断滥用行为属于主观故意、过失还是受限于技术原因的无过错、哪种情况下落入该原则的涵摄范围等问题原本就很困难,更不用说规制主体还必须在平台企业责任与劳动者权益受损之间建立令人信服的因果关系。再次,假定算法趋严属于算法歧视和偏见,那么确立算法公平原则,在程序上保障劳动者平等获得工作机会和收入的权利,似乎也能对平台劳动者进行有效救济。诚然,算法公平确实是为了解决算法偏见和歧视,在国外更多地来自于劳动者性别、年龄、种族、宗教信仰等个人特征,在我国劳动者基于同样理由被歧视的问题并不突出。虽然国内基于算法画像建立起来的劳动者评级制度放到国外很可能被认定为歧视,但它充其量也只是算法趋严问题的一个部分或者一个侧面。凡此种种说明,对算法趋严的病灶没有诊断清楚,就无法开出准确的药方。

从这一逻辑出发重新审视我国用工算法引发的问题,就会发现平台劳动者作为一个群体(而非个体)在用工算法的控制下长期从事高强度、长时间、低收入的工作,实际上是与程序性的算法偏见和歧视有着本质区别的“算法不正义”。因此,我国应当以更有针对性的算法正义(algorithmic justice)理论为透镜观察算法趋严这个“类问题”。作为法律和机器学习领域新近出现的概念,算法正义的提出是为了解决算法公平原则的内在缺陷,后者只是建立在形式逻辑之上的工具,不能为算法加入规范性的、政治性的价值。对算法正义理论的构建和应用做出了突出贡献的是美国学者Green。他认为,如果算法造成的社会问题背后存在某个社会群体劣势地位,那么直接采纳程序性的算法公平原则并不能解决相关问题。在详细对比其他法律原则的情况下,Green提出了判断算法不正义的标准以及改进算法三个关键步骤(要素):

第一步应当抛开与算法不正义有关的种种表象进而寻求不正义的本质。具体方法是考察算法决策是否反映出某个社会群体的弱势地位、算法决策是否加剧了他们的弱势地位。比如,美国法庭使用的预测再犯率的算法更加倾向于对非裔美国人群体做出可能再犯的预测结果,进而导致法庭更容易对非裔被告人作出审前羁押的决定。然而,这种算法结果反映出的不是非裔群体更容易再犯的现象,而是他们在教育、社会福利、住房方面较之白人群体的劣势地位更容易导致再犯的本质。同样道理,我国平台劳动者身处高强度、长时间、低收入工作仅仅是算法不正义的表象,其本质是这些劳动者与受到劳动法保护的传统劳动者(并非平台企业)相比处于更为劣势社会地位,付出等量劳动获得的对价更低,甚至在算法的控制下处于持续走低的态势。平台劳动者拉长工作时间、提高工作量、甘冒交通风险完成订单、算计行为、内卷式的恶性竞争甚至集体抗议都不过是对抗算法、挽救自身弱势地位的无奈之举。如果工作报酬回报率更高的话,就无法解释平台企业和劳动者行为背后的逻辑。一个侧面的例证是平台企业的评级制度,其本身是在变相压低劳动者“整体”工作报酬回报率,少数劳动者个体获得高等级、高收入也不过是对这种本质进行掩饰的遮羞布。

第二步是在厘清算法不正义的本质之后考虑采用哪种应对方式。主要有两种思路。一种是重塑造成不同群体之间社会地位差距的关系,即所谓“关系型回应”。比如,预测再犯率的算法对非裔群体的不正义可以通过提高该族群的教育、社会福利、住房保障水平加以解决,即通过提高弱势群体的社会地位来预防可能遭遇的算法不正义。另一种思路则是降低算法不正义产生后果的权重、减少不正义带

来的好处和伤害,即所谓的“结构性回应”。同样以预测再犯率的算法为例,结构性回应可以是法庭不再以较高的再犯率为由对被告人施加更长的审前羁押期限。这两种思路对规制用工算法均有借鉴意义。按照关系型回应,可以将平台劳动者置于劳动法保护和社会保障范围之内,明确平台劳动者的基本权益、提高抗风险能力、赋予劳动者谈判权以提高社会地位。当然,这种救济更类似于传统劳动法领域的规范进路,需要对现有的劳动法律框架进行伤筋动骨的改造,既见效慢,又与规制算法为中心的命题关系不大。更具相关性的是结构性回应,可以限制用工算法对劳动力对价的决定权减少不公正带来的好处、降低算法趋严造成的伤害。

第三步是评估算法是否有利于或者推动救济手段的实施。有些时候,对救济手段起到反作用的规制措施将被禁止使用,也有可能发现或者设立新的规制手段,这也是算法正义法律原则之下的规制体系灵活性的体现。这一步骤的核心理念是对算法进行“去中心化”处理,将其看作是救济手段的组成部分。Green仍然以预测再犯率的算法为例阐述如何评估算法不正义是否得到遏制:在关系性应对思路下考察非裔群体在获得更多社会福利之后是否出现了再犯率实质性的下降;在结构性应对思路下考察法院对算法测量之下的高再犯率非裔群体是否实质性地缩短了审前羁押期。回到我国用工算法语境,如果采用限制用工算法对劳动力对价的决定权,则需要在事后统计平台劳动者每个月的实际总收入所得是否有了实质性的提高。

综上所述,只有在识别出算法趋严背后的本质,才能为后续规制路径选择、具体措施的弃留提供坚实依据。

(二)

确立与算法正义理论相适的规制路径与力度

在确立实现算法正义作为规制用工算法的起点的基础上,我国应当配套以相应的规制路径和规制力度完成重构。在可能的规制路径中,只有结果导向型(算法认证),即为算法结果设置必须满足的标准,与算法正义原旨高度契合。首先,判断算法正义与否的依据就是令人怀疑的算法结果,比如预测出非裔群体更高的再犯率、平台劳动者难以忍受的工作境遇等等。其次,实现算法正义途径是干预算法决策的结果及其造成的社会影响,本质上仍然是以算法结果为规制重点。再次,算法正义的最终目的也是直接或者间接地使算法结果对社会、政治、经济、伦理价值的实现。其他诸如预设规范型、行为导向型路径由于自身存在的缺陷无法满足算法正义的所有要求。

选择结果导向型路径就必然要厘清为哪个(些)算法结果设置标准。如前所述,我国出现的算法趋严的本质是算法不正义,平台劳动者处于劣势地位造成的劳动报酬率持续走低,算法趋严是这种劣势地位的表象。因此以劳动者实际收入作为规制路径的(惟一)重点、限制用工算法对劳动力供给的定价权就可以实现釜底抽薪式的规制效果。在此需要区分关于收入的两个概念。一个是“相对收入”,即平台企业主观上决定的订单任务的提成比例和报酬计算方法、或者客观上劳动者每月实际总收入等“相对收入”。规制相对收入没有意义,正如现有规制措施设定劳动者每月最低实际收入标准看似合理,但用工算法全可以通过提高劳动者工作时间、工作量的方式表面实现规制要求,出现绕过规制本意的选择性合规守法。另外一个是“绝对收入”,即劳动者在单位时间、单位里程内正常工作能够得到的最低实际收入。对绝对收入干预既可以避免平台企业避重就轻,又具备易于测量和监管的优势,可以为规制措施提供切实可行的发力点。至于结果导向型路径如何设置劳动者的绝对收入标准,本文稍后将在微观层面讨论如何在此路径下构建具体的规制措施。

除此之外,选择何种规制力度也是必须要考虑的问题。很显然,轻度的助推规制不干预算法具体内容,并不符合算法正义原则对算法结果进行直接干预的期待。在余下的中度规制与重度规制当中,二者关键区别在于规制主体依据专业知识对算法结果提供指导性标准,还是在给出标准的同时赋予规制主体行政处罚权的强干预。鉴于已经出台的大部分规制措施均属于中度规制且无法改变平台企业表面化、选择性守法行为这一事实,采用重度规制、对违反算法正义原则和相关规制措施的平台企业予以警告、责令改正、罚款等似乎更具实效。

(三)

以干预劳动者绝对收入为落脚点

识别出算法趋严的本质、选择解决这一本质问题的规制路径和力度是不够的,最终还是要具体化到微观层面的规制措施上来。根据之前的论证,规制措施应当以限制用工算法对劳动力的定价权为目标,在算法结果上对平台劳动者的绝对收入划定底线,减少算法不正义为平台企业带来的好处以及劳动者可能遭受的伤害。因此,制定措施的内容需要考虑两个方面的问题:

一方面,规制措施应当明确设置劳动者绝对收入的最低标准,包括认定绝对收入方式和确定收入数额,以减少算法不正义为利益相关方带来的好处。设置绝对收入最低标准有两种可能方式:劳动者完成单位里程数(1公里)获得的最低收入、在单位时间(1小时)获得的最低收入。具体而言,规制措施也可以表述为“平台劳动者在完全服从算法管理的情况下每行驶1公里获得的实际报酬的最低数额,其中里程数包括劳动者从取餐地点行进至送餐地点之间的真实距离”。但这种方式存在明显漏洞,导致平台企业和劳动者之间的猫鼠游戏:劳动者会多绕路增加里程数,算法会让劳动者抄近路减少里程数。相比之下,另一种方案明显更好,即表述为“平台劳动者在完全服从算法管理的情况下工作1小时获得实际报酬的最低数额,其中工作时间包括劳动者在线上等待订单的时间”。如此设计既可以防止个别劳动者逃避接单拿“干薪”的算计行为、平台企业对某些劳动者少派单的歧视行为,又允许平台企业在高峰时段、节假日、雨雪天气等特殊时段自行提高报酬激励劳动者。在此基础上,还要划定单位时间内绝对收入的明确数额。按照算法正义理论,平台劳动者的弱势地位是相较于传统劳动者而言的,后者在付出等量劳动之后能够获得更高报酬。因此,设置绝对收入最低数额应以诸如当地非全日制从业人员每小时最低工资为锚。例如,北京地区2021年非全日制从业人员小时最低工资标准为25.3元/小时,将这一标准适用于工作地点在北京的平台劳动者可以弥合两个群体之间的在实质意义上的不平等。

另一方面,规制措施应当明确对惩罚劳动者的算法决策结果设置底线,以减少算法不正义对劳动者造成的伤害。刚刚所述的规制措施都是在劳动者完全服从算法管理的理想情况下设计的,不排除现实当中会经常出现劳动者故意或者因不可抗力无法满足考核标准导致报酬被扣等处罚情况。不论哪种情况,规制措施应当限制扣除劳动者收入金额的上限。对于金额的确定仍然可以比照用人单位处理传统劳动者的相关规定,比如参照国内地方条例内容,不妨以劳动者在单位时间(1小时)内总收入的30%为限。劳动者被扣除金额超出这一限度的,用工算法可以自行采用处以1小时之内停止派单,或者强制下线等其他处罚手段约束劳动者行为,在技术上都能实现,平台企业可以自行选择,不必作为规制措施的内容。

综合起来,规制用工算法的具体措施可以表述为:(1)平台劳动者在完全服从算法管理的情况下工作1小时获得实际报酬的最低数额不得低于25.3元/小时,其中工作时间包括劳动者在线上等待订单的时间。(2)平台劳动者因故意或不可抗力无法满足算法考核标准的,扣除报酬金额不得高于劳动者1小时内实际收入的30%。

(四)

小结

以上内容以识别算法引发的问题的本质、选择规制路径、设计规制措施为进路对我国用工算法规制体系进行了重构和论证(见表2)。然而,这一努力需要相关制度建设加以支撑,包括将算法正义原则吸收为立法内容,赋予专门的行政部门处罚违反规制措施的平台企业的权力,在微观层面需要具备专家部门评估具体规制措施的效果。此外,在有必要的情况下,各个层级的规制主体应当共同商讨增设新的规制措施和内容,以及决定应当采用事前规制还是事后规制,均有待我国在实践中不断摸索和尝试。鉴于篇幅原因,本文不在此赘述。

表2 重构算法规制体系进路和具体内容

结语

算法引发的法律与社会问题由于算法种类、使用目的、使用领域以及参与主体不同而有着各异的表现,不能采取一刀切式的规制体系。本文对我国用工算法规制体系的反思恰好印证了将算法至于具体场景下加以检视的重要性,尤其是如何规制算法关系到数千万人的工作境遇和福祉,不可不察。此外,本文评估算法规制体系所依据“清晰可行性、规制路径与力度一致性、灵活性”评价标准以及重构算法所依据的识别问题本质、选择规制路径、设计规制措施进路具有方法论上的普遍意义,可以用于衡量和改进其他场景下的算法规制体系。

原标题:《张健|论我国平台用工算法的法律规制:反思与重构》

阅读原文

    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。

    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈