在计算机技术发展早期,算法主要被用来提升计算机软件的运行效率。随着互联网技术尤其是移动互联网和物联网的迅速发展,算法的运算对象逐渐由物变成了人,因而对其进行伦理规范也变得迫切起来。
当人成为算法的运算对象时,算法会把人作为获取利润或其他“理性”目的的分析对象,人在这个过程中会被打上标签“分拣”。比如,根据“用户画像”将同类商品和服务差异化定价、对应聘人员的简历经过计算机筛选后差异化投递等。在这个关系中呈现的是用户的工具化,这种算法歧视源于为提升攫取利润的效率而造成人在算法下被物化。算法的歧视有其隐蔽性,因为“算法黑箱”并不会向外界公布,而且即使公布了也并不能让大多数人看懂。由于提供的服务和商品个性化越来越强,被算法施加影响的不同个体之间,也不容易通过对比发现问题。因此,会出现因手机品牌、历史购买频次、居住区域等变量不同的用户,在购买同样的服务和商品时显示的价格不同,甚至通过显示“售罄”等方式拒绝为特定用户服务。除消费歧视外,算法的歧视还会加剧社会不公平现象的产生,即使这种不公平的影响可能并不能在当下体现或者被发现。比如,一些美国高校的简历筛选系统会自动根据现有生源情况对应试学生分门别类,这会阻碍社会结构向着更加公平的方向变化。
生命伦理学家恩格尔哈特在《生命伦理学基础》一书中提出了“道德异乡人”的概念,指那些持有和我们不同的道德前提的人,他们生活在不同的道德共同体中,在与他们合作时会存在基础的价值取向冲突,会导致对话困难。正因如此,我们需要基于一个能够让大多数人都认可的核心价值或公共理性的原则,来划定算法的伦理边界。现代文明进步的重要成果,就是打破了不同群体之间的界限,突出了人本身的尊严。而算法的伦理边界,应是促进或至少不能破坏这些成果。
面对算法发展导致的各类现实问题,需要我们在设计算法时严守非歧视性、用户的非物质性、个人选择权的不可剥夺性这三条原则。非歧视性原则,指不能根据“用户画像”的不同实行差别化待遇,这里体现的是平等的价值。用户的非物质性,意味着算法应尊重用户作为人的主体性,不能对其简单地进行“物化”或“数据化”。同时,由于技术的演进,算法对人的控制已开始由工作的特定时间发展为充斥于人的生活的方方面面,更加快速的信息流已在逼近人的生理极限,效率提高的同时也在剥夺人的闲暇时光。科技的发展应给人带来便利而非控制,算法在设计之初就应尽可能地考虑到主体之间的强弱势支配关系,不能仅以技术中性为挡箭牌,间接助长“效率之恶”。个人选择权的不可剥夺性,则是指要保障人自主获取信息的权利,这是对人类探索精神的尊重和保护。我们不能仅用算法来判断人们的需求和偏好,精准的“个性化匹配”应有更多的伦理考量。
算法与很多其他科技不同的一点在于,不少科技的产生是基于“发明”这一人类实践活动的,而算法则是以“设计”作为技术产生的呈现方式。发明是科技适应人的体现,是为了给人带来更多的便利。伦理对发明往往是进行后续的回应和规范,不论从规范需求还是规范可能性上来看,都很难做到前置约束。从目前的实践看来,也只有以人为对象的医学伦理能够做到一定程度的前置约束。但设计作为算法的前置性程序,伦理提前介入进行评估是可行的。正因如此,我们应守住科技造福人类这一根本原则,并更加深入研究讨论“何为人类之福”这一深刻而又基础的伦理问题,为算法的狂飙突进戴上缰绳,守住伦理边界。
(摘编自王家亮《把握算法的伦理边界》)