马上注册入会,结交专家名流,享受贵宾待遇,让事业生活双赢。
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
梁正(清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长) 算法缺陷及其产生的问题
以外卖配送系统为例,外卖平台利用大数据分析计算最优配送路径,极大缩短了骑手的配送时间,提高了配送效率。但也存在诸多问题,有些问题是算法本身缺陷所导致的,有些则是因其他社会问题与算法相伴而产生。
算法程序中可能存在不尽合理之处。算法中的程序几乎是算法控制者单方设定的,即使程序中可能有不尽合理之处,算法相对方也只能被动接受。例如,外卖配送系统中设定了骑手等级,骑手需要通过每日登录APP、分享邀请有礼活动链接、上传健康证、完成各种订单配送等方式获取晋升等级所需要的积分。其中也有减分项目,比如配送超时减3分,获得一星差评或不满意评价减5分等,甚至一个差评或延时会直接扣除骑手工资。在这种规则之下,配送时间成为非常重要的考核指标,骑手面临很大压力。尽管这些规则在人性化、合理性上还值得商榷,但骑手只能被动适应,接受算法规则的约束,甚至对算法产生依赖。
算法容易使个体失去自主性。自泰勒提出标准化管理模式之后,工作逐渐被标准化和简单化,工人操作的自由度降低了,简单重复的动作让人越来越像机器。正如媒体曾经报道的富士康工厂的情况一样,在高度标准化的生产中,工人的工作效率以秒来计算,工人往往处于高度疲态和枯燥之中。算法的运行与此相似,算法具有隐蔽性和高度专业性的特征,每个参与算法的个体就是一个数据节点,在算法高速运转中,个体只能被动接受信息并执行算法命令。骑手属于劳动密集型的职业,需要耗费大量精力,若只受算法支配而丧失自主性,他们作为劳动者的休息权则无法得到保障。同时,骑手与社会其他群体具有紧密联系,一旦发生事故不仅会伤害自己,还会伤及他人。从这一点来看,保障骑手休息的权利也在一定程度上意味着保护社会公共利益。如英国对长途汽车司机有严格规定,一天只能工作12小时,否则会受到严厉惩罚;网约车平台Uber将英国司机的工作时长限制为每天10小时,为了强制执行,Uber会阻止司机在应当休息的时间登陆应用;国内网约车平台滴滴也有类似举措。
仅靠算法的自我迭代难以有效解决问题。算法的设计或许可以在数学逻辑上做到完美,但缺乏对人性和社会环境的综合考虑,从“真空”环境中诞生的算法本身带有机械性。在外卖配送算法中,为了追求效率,可以对所有阻碍因素进行优化,把配送时间不断压缩。但如果因为计算最优路径而忽视了实际道路状况、实时天气状况和小区管理情况等影响因素,计算结果往往就会不准确,算法不断迭代的过程也就可能演变成了加大骑手困难的过程。实际上,其他社会因素会深刻影响算法的运转情况。现实中经常可以看到,由于城市交通违章查处、电动车限速标准执行不够严格,大量违章、超速电动车上路等现象。如果这些公共安全规则可以得到严格执行,导致骑手在客观条件下无法在30分钟内送达,就会促使平台更改时间预期,给骑手更宽松的配送时间,而且也会调整消费者的预期,让整个配送体系处于合理的时间预期之内。除了交通规则外,一些小区的管理也需要调整,如一些商务楼、医院、小区等不允许骑手进入,骑手只能在外等待或者步行送餐,最后导致送餐延迟。如果忽视这些问题,单靠算法本身的迭代是无法有效解决问题的,并且算法的治理也不是单纯治理算法本身。
算法治理的路径
为应对上述算法的缺陷,可以从内部的算法自我优化与外部的监督规范中找到解决路径。
设计算法应该走出“真空”接受社会实验。算法背后是代码,代码是“冰冷”的,没有人文温度,忽视人性的算法无法为人类带来福祉。在现行外卖配送算法中,如果骑手因偶然因素实现了快速送餐,算法就会提供奖励,让骑手接到更多订单。这样一来,骑手出于利益最大化的动机,肯定会追求速度越快越好,订单越多越好,由此陷入恶性循环。为了避免速度成为唯一的考量因素,算法评价机制中也应该引入其他考量因素,比如为从来没有发生交通事故的骑手提供奖励,引导骑手更加注意安全。
制定算法规则需要多方参与尽量避免不合理之处。基于机器学习的算法具有“黑箱”特征,算法相对方无法就算法规则提出建议或意见,只能被迫“追赶”算法设定的目标。多方参与规则制定是正当程序的必然要求,比如一些电商平台推出“规则众议院”,平台上的买卖双方都可以通过众议院机制就规则制定发表意见。也有学者提出算法解释权,即赋予主体知晓及理解算法运行逻辑的权利。该观点认为,受到自动化决策不利影响的人应有权知晓决定的内容与理由,并拥有申诉和申辩的机会。算法解释权是赋予个体对抗“算法权力”的重要武器,因为个体知悉算法规则后才能就其不合理之处提出建议,并参与到规则的制定之中。
应对算法的负外部性需要多种公共政策相互补充。算法实际是嵌入在社会的多样应用场景中的,需要找准算法的角色,研判其在社会决策中的效果与地位。对算法的治理应该尊重语境与场景,因为各个场景所牵涉的主体、外部因素和行为规范都不相同。因此,不能将算法视为单纯的技术问题进行治理,而要匹配不同政策工具进行综合治理。对于“困在系统”中的骑手,国家应该重视对这部分人群劳动权益的保障,特别是休息、薪酬、安全等合法权益。2020年我国将“网约配送员”正式纳入国家职业分类目录,对该类新职业人群的劳动权益保障措施也应该跟上。外卖平台应该参照其他平台的举措,设置强制骑手休息的规则,保障骑手安全,进而维护社会安全。为了应对骑手闯红灯、超速等问题,交通管理部门也应该严格制定和执行交管规则,对骑手进行外部约束。社区管理部门也应参与其中,对外卖、快递进社区等管理规范进行完善细化,如允许骑手安全送餐,或者配置取餐柜等,缓解骑手“最后一公里”送餐难的问题。
为算法建立法律监管与道德约束机制。2017年1月,美国计算机协会专门发布了算法治理伦理原则,涵盖利益相关者责任、救济机制、算法使用机构责任、鼓励可解释算法研发、数据治理、算法审查要求、实时检查责任等七个方面的内容。2019年4月,美国参议员提出《2019年算法问责法案》,要求美国联邦贸易委员会对企业进行算法审查。欧盟也在《人工智能时代:确立以人为本的欧盟人工智能战略》《通用数据保护条例》和《人工智能道德准则》等多个文件中,重视人工智能的伦理问题,强调以价值观引导人工智能技术的发展。因此,需要从外部规范的角度为算法制定伦理标准,并建立相应的伦理审查制度。特别是在算法设计和研发的标准、规则和透明度等方面出台法律规范,并建立算法问责机制,保障个体权利,包括算法解释的权利、更正或修改数据的权利、退出算法决策的选择权等。
算法治理的理念
治理算法需要以基本原则和理念为指导,并根据情况的变化适时调整算法治理的具体方法。
算法治理应坚持利益平衡原则。利益平衡既包括算法内部所涉主体之间的利益平衡也包括算法使用者与社会公众之间的利益平衡。外卖平台连接了商家、消费者及骑手,通常外卖平台将消费者置于首位,而商家次之。在这种机制下,平台为了消费者的满意只能“压迫”骑手。实际上,有时消费者提出的配送要求客观上无法实现,或者商家出餐慢导致骑手配送延迟,这些因素都会导致算法的失效。算法使用者应该平衡好这三方的利益,对算法的治理也应该平衡好企业与社会公众之间的利益,在尊重企业逐利天性的基础上为算法立规矩,保证算法在正确的轨道上运行,只有这样才不会因噎废食。
算法治理应坚持人本主义。在算法时代,尊重个体主体性、自治性和人格尊严始终是发展底线,算法治理也应该注重保护人类尊严、公民权利以及社会公平。特别是要加大对弱势群体的关注,避免“数字鸿沟”,实现实质公平。可以通过强化企业社会责任的方式在算法治理中体现人文主义,比如从社会福利的角度评估企业在关怀弱势群体、保护用户隐私、尊重个体人格以及劳动者休息权利等方面作出的努力。
总之,算法治理是一项长期工程,算法在不断演进,对算法的治理也应该不断迭代,其中算法问责机制、算法评估机制、算法监督机制都是需要继续讨论的重要话题。对算法的治理不应局限于算法本身,而是需要将算法嵌入到整个社会体系中评估,分析算法运行所牵涉的各个环节,以体系化的思维为算法向善提供解决方案。
|