▲波音737 MAX客机。图/视觉中国


近日,美国计算机学会(ACM)宣布将2018年图灵奖颁发给深度学习领域的三位先驱——约书亚•本吉奥、杰弗里•辛顿和雅恩•勒昆,以褒奖他们推动深度神经网络成为计算机技术的重要组成部分。   


如果波音飞机能深度学习,空难或可避免    


这一获奖成果不禁让人想到最近波音公司的两起空难——一起是2018年10月29日发生的印尼狮航波音737MAX客机坠机事件,另一起是2019年3月10日发生的埃塞俄比亚航空波音737MAX8客机坠机事件。这两起事件都是因与自动控制系统有关的机头向下俯冲而坠毁,机上所有人无一幸免。    


为何会做此联想呢?因为导致空难的自动预防失速系统(MCAS)是一个简单的自动系统,也即初级的人工智能(AI)或机器学习。它只是按照人给它设计的参数,并通过迎角传感器接收数据后做出判断,并产生指令,启动MCAS,让机头摆平和向下。这其实算不上深度学习,而只是一种简单学习和执行指令。   


问题在于,如果MCAS有深度学习的能力和程序,是否会避免坠毁?答案是,有很大的可能。


获得2018年图灵奖的本吉奥、辛顿和勒昆三人的主要贡献是提出了深度学习的理论,并在实践中取得了显著进展。他们对于机器人或人工智能的理解是,如果要让机器像人一样工作,就需要拥有像人一样的神经系统,因此要为机器建造人工神经网络。   


人工神经网络是模仿人的大脑和神经系统机制,在计算机中模拟出一层或多层被称为“神经元”的计算单元,使它们之间通过加权连接而互相影响。通过改变这些节点的加权值,可以改变人工神经网络的计算性能和学习能力,从而指挥机器像人一样工作。    


深度学习的获奖其实就是在检验当初人们提出的人工智能的四个模型:像人一样思考、像人一样行动、理性地思考和理性地行动。实际上,现在的人工智能只能很简单地像人一样思考、像人一样行动。但是,只要简单做到了这一步,就有可能避免波音737MAX8的自动预防失速系统导致的灾难。    


所有自动系统都必须服从于人工操作    


传统的或更初级的自动化模式,是通过事先定义好的规则模板和人工设计的算法等来指导机器执行和行动,在波音737MAX8的自动预防失速系统中就是如此。只要飞机的迎角传感器感受到飞机机头上升超过一定数值,就会自动启动MCAS,以拉平机头和让机头向下飞行。   


然而,三位获奖者之一的辛顿多年来一直坚持,未来的AI应当更进一步,机器应当学会深度学习。他们不会得到如何解决某个任务的具体说明,但可以像人类一样思考,依靠直觉而不是规则行事。也就是说,要让装有AI的机器像人一样思考、像人一样行动。   


现在看来,波音737MAX8的自动预防失速系统在初级阶段就不听从人的指挥了。调查表明,埃航的飞机坠毁前,当值飞行员曾遵循波音公司的紧急应对程序进行操作,但仍未能重新控制飞机。    


此前狮航坠机事件后,波音公司曾向全球各航空公司的飞行员发布了关于关闭自动预防失速系统的指导方针。


但是,埃航的飞行员按这一指导行动,还是未能操控飞机。这说明,要么是737MAX8的自动预防失速系统难以操控,要么是这种初级的自动化模式有时会出错,有时会不服从人工操作。    


首先是,737MAX8飞机的迎角传感器可能出错,让机器获得错误数据。MCAS一旦感知错误的迎角数据,以为飞机正在异常抬升,便会按设计的逻辑和程序自动启动这一系统。而且,这个系统还会顽固地执行人工设计的算法指令,每隔5秒就会压低机头,纠正驾驶员的人工操作,以致让人工操作和自动系统处于反复纠缠的博弈中,最终自动系统战胜了飞行员的人工操作,飞机坠毁。    


假如737MAX8的自动预防失速系统稍微有一点深度学习的要素在,既可以像人一样思考,也可以像人一样行动,也许就可能避免飞机坠毁。因为,即便它错误地感知了机头仰角数据而压低机头,但飞机机头一旦向下俯冲,坠机将不可避免地到来时,自动预防失速系统也会像人一样思考和行动,用不着驾驶员抬拉机头,飞机的总操控系统也会自动切断该系统,同时拉升抬高机头,避免飞机坠毁。   


当然,现在的深度学习还无法让机器(计算机)像人一样去深度理解语言、语音、图像,以及周围环境是安全还是危险。就像去年3月Uber的自动驾驶汽车在美国亚利桑那州发生撞人事故一样,现有深度学习还无法做到让AI像人一样理解周围环境和前方是否有人,从而判断是否需要刹车。    


即便未来无论是汽车还是飞机都使用上了全AI系统,有一个原则也是必须执行的——所有的自动系统都必须服从于人工操作,一旦人工接手,就自动切断所有的自动操作。因为,只有人的感觉和认知才是正确的,机器和AI只是在帮助人,而不能反过来指挥人和驾驭人。    


□张田勘(学者)


编辑:李冰冰  校对:刘军