您的位置  > 互联网

《外卖骑手,困在系统里》引发舆论风暴

近日,《人物》杂志发表了一篇聚焦外卖骑手的深度报道《被困在体制里》,引发舆论风暴。 外卖公司开发的实时配送系统作为采用AI智能算法和深度学习的系统,极大地提高了智能配送的效率。 外卖骑手不需要自己优化路线,只要按照系统指示操作,就不会浪费一分钟。 及时为顾客送外卖。 但配送骑手越努力,系统就会自动修改参数,缩短配送时间要求。 这就迫使配送骑手通过超速、逆行、闯红灯等方式缩短配送时间,以避免因延误而被罚款。 但问题是,对于通过如此“艰苦的努力”取得的配送效率,智能配送系统进一步默认将其设定为普遍化、标准化的要求。 这是一个可怕的自噬循环:送货骑手越努力(无论这种努力是如何实现的),系统就越觉得骑手仍有潜力被挖掘,并进一步提出几乎不可能完成的任务。 本来是为人服务的制度,结果却控制人、支配人。 科幻电影《黑客帝国》中描述的无所不在、掌控一切的矩阵()似乎正在成为现实。

其实问题并没有那么复杂。 我们面临的是数字时代的算法问题。 由于信息技术的发展,我们已经可以通过收集和处理大数据来计划和安排社会生活中的许多事务。 这样不仅效率更高,而且判断也更准确。 例如,银行可以根据收集的海量金融消费数据,使用算法来决定是否向申请人发放贷款以及利率是多少。 法院可以基于司法大数据设计一个算法,来决定是否批准相关人员的保释或减刑申请,甚至让算法来决定量刑。 电商平台可以根据商业大数据确定商家在搜索结果中的排名,以追求最高的用户点击率和购买率,最大化平台的GMV(总交易额)。 可以说,随着大数据技术的不断进步,算法的使用将得到全面普及。 我们正在迎来一个算法时代。

算法的应用在给我们带来各种好处的同时,也带来了很多随之而来的问题。 算法运行的数据是否客观真实? 算法的使用会加深和加强歧视吗? 我们是否有权质疑算法给出的结论? 此外,我们是否有权利质疑算法本身的公平性和合理性? 这些都是近年来引起学术界越来越多关注的重要话题。

从本质上来说,算法实际上是数据技术公司开发的一套运营管理工具。 它在很大程度上取代了自然人的决策和判断。 然而,即使拥有高科技背景,算法仍然应该归属于相应操作者的决策和判断。 我们不能仅仅因为该算法采用了自动决策、深度学习等技术,就认为该算法享有一定的“技术中立”地位。 算法本身是一门技术,但算法运营者赋予了它灵魂和价值选择。 因此,算法问责和监管的基础仍然在于将算法运营者置于监管的中心。 没有这个基础,任何关于算法监管的讨论都注定是一句空话。

具体来说,算法运营者必须对其算法造成的实际问题负责。 例如,特定算法的使用是否导致明显违法歧视、是否对公共秩序造成损害、是否侵犯公民的基本权利和人格尊严、是否构成违反公民的必要义务等。社交方面的关心等等。 在这里,我们不想套用传统意义上的“产品责任”概念来理解和界定算法运营者法律责任的性质,因为两者确实存在重大区别,但无论如何,算法运营者需要对算法的使用负责。 我们必须承担后果,这是不争的事实。 这种算法责任的具体制度框架当然需要进一步明确和更多关注。 作为初步框架,算法监管可能需要包括以下要素。

首先,对算法可以使用的场景建立审慎的评估体系。 对于涉及公民重大权益的情况,比如刑事诉讼、量刑等领域,如果要用算法来做决策,就需要更严格的控制和审查机制。 其次,要建立社会审查机制,对算法的使用是否产生不良后果进行持续跟踪研究。 这有点类似于新产品投入使用后的跟踪观察义务。 如果社会审查机制有充分理由认定特定算法的使用导致了不良后果,则应启动相应的问责机制,要求相应的算法运营者作出解释并做出相应的优化。 三是责任机制覆盖算法领域。 从司法和行政理念来看,无论是法官还是行政执法者都需要将算法作为算法运营者行为的延伸。 无论运营者是否有过错,是否存在行政违规等,算法因素都应纳入问责考虑。

希望关于外卖骑手被系统困住的报道,不仅能引起人们对外卖骑手这一特定群体的关注,也能引发人们对我们日益进入的算法时代的深入系统思考,以及关注和研究。建立相应的算法监管体系。 。 在这方面我们还有很多工作要做。

(作者为北京大学法学院教授、北京大学电子商务法研究中心主任)