资料图。图片来源:Unsplash 


新京报讯(记者 王春蕊)随着科技进步,以算法为核心的智能技术改变了我们的生活,在给人们带来更多方便与快捷的同时,也暴露了技术与人类、科技与人文之间的问题。


为此,6月18日,清华大学新闻与传播学院智媒研究中心、新京智库联合举办了“算法善用 智能人文:智能信息的多学科融汇”的线上高端论坛,与会专家就算法等技术对价值创造、社会发展的积极意义展开讨论。


会上,深圳大学传播学院院长、教授巢乃鹏表示,随着算法社会的来临,人类正在进入一个“算法无处不在”的世界。算法社会的到来意味着算法越来越多地帮助人们进行决策,管理着信息、劳动力和各种资源的分配,协调着各方利益。


有研究者指出:智能技术算法伦理问题之所以受到如此大的关注,关键原因在于其能实现某种可计算的感知、认知和行为,从而在功能上模拟人的智能和行动。而这种以算法为基石的智能技术具有技术属性和社会属性高度融合的特点,能够深刻地改变人们的生产生活方式。


巢乃鹏指出,人类社会早已形成一个相对完善的伦理道德体系。虽然这些伦理道德会因为文化、宗教各方面因素的影响,在人类社会的不同地区会形成不同的准则,但总体而言,人类最根本的伦理道德,比如以善为主导的伦理道德,是人类社会公认的社会伦理道德体系。


即便我们已经进入了算法时代,但是人工智能(AI)还远远无法真正模仿人的情感、精神和思维,即便再乐观的科学家也不得不承认,AI与人之间还存在着巨大的距离。因此就目前而言,面对AI这一类人化的技术系统,人类社会已有的伦理道德体系显然还无法覆盖,我们需要更多地思考和讨论如何从人的角度对AI这样的类人化技术系统做有效的治理。


有研究者尝试将英国伦理学家弗洛里迪提出“分布式道德”概念用于构建人工智能的伦理风险防范。AI或者算法引发的伦理风险可以分解为算法设计者责任的伦理风险或责任,使用者的伦理责任,以及末端受众的伦理责任。对于设计者而言,他有多种动机(从善、中性到恶的选择),这一部分伦理风险要通过具有强制性的政策手段(严重违规就上升到法律规约)来遏制;对于使用者而言,他要为自己的使用承担相应的伦理责任;受众作为社会成员,有监督算法使用的间接责任(个体责任最小,但是由于公众数量庞大,无数微小的努力汇聚起来就是强大的伦理风险防范力量)。


巢乃鹏表示,虽然算法的治理和风险防范各个方面,从设计者到使用者,再到受众,每一步都有相关的进展,但是似乎每一步进展都是举步维艰。从政策和法规角度来看,全世界各国都在对算法所带来的风险防范的各方面进行研究、调查和制定相关法规,但是似乎并没有形成一种共识。或者说,即便推出相关法规,执行的成效也有待于进一步的检验。


鉴于算法治理体系各个环节都面临着相当大的困难,可行的解决方案自然是逐步推进,但在逐步推进的过程中必须有一个共识性的理念:以算法善用为核心。算法善用这一理念应该在算法伦理风险防范体系的各个环节中(政策法规的制定、科学文化/算法素养的养成)、在面向社会和组织的伦理体系和面向个体的道德观念中,都应得到充分体现和强化。


事实上,世界各国也都在探索算法善用的可行性,欧盟人工智能委员会2018年发布了《可信任人工智能伦理指南》,其基本原则和目的就是让算法遵循善的道德伦理,即可以理解为“善用算法”原则。在设计算法和使用算法的时候,人们应当遵循善的道德原则。但是也有研究显示:作为直接参与算法制作的重要主体,算法工程师大多缺乏从伦理层面评估智能媒体的意识,倾向于低估算法中的伦理问题,不认为自己有必要对当下的算法在伦理层面进行改进,因而被学者称为“局内的外人”。这表明作为影响算法价值的关键一环,算法工程师仅接受一般意义上的教育是不够的,接受专门的道德培训十分必要。


在实现“善用算法”或者“算法善用”的过程中,由利益相关者参与决策的合作型算法善用模式也是一种可行的方式。有研究者推出WeBulidAI框架,通过“建立个人决策模型”、“进行模型的集体聚合”、“解释和进行决策”三个步骤,让利益相关者参与到算法设计的过程中,从而形成利益相关者参与决策的算法治理模式。这一模式有助于增强算法决策的合法性,增强信任和满意度,也有助于实现道德价值。因此,多利益者共同参与的算法设计,能够在一定程度上将所谓算法黑箱等伦理问题予以有效治理。


作为一个技术的乐观主义者,巢乃鹏一直认为算法对人类社会发展的积极意义要大于负面意义。因此,在回顾、反思算法的同时,更需要把这样的善意倡导和批判落到算法的有效开发中来。只有这样,才能够更好地运用算法,用社会诉求来推动科技创新。


记者:王春蕊  编辑:张笑缘  校对:赵琳