据《华盛顿邮报》6月11日报道,谷歌的一名工程师声称,该公司研发的AI(人工智能)聊天机器人具备感知能力,但谷歌公司并不同意这一说法,还为他安排了“带薪行政休假”。

 

此事在全球引发讨论。有分析认为,目前没有证据表明,AI聊天机器人具备感知能力。

 

谷歌工程师视“LaMDA”如孩子

 

这位谷歌工程师名为布莱克·莱莫因 (Blake Lemoine) ,在个性化算法方面经验丰富,他所说的AI聊天机器人名为LaMDA(“对话应用语言模型”的简称),是专为对话优化的自然语言处理模型。

 

自去年秋天以来,莱莫因一直在研究该系统。近期,在多次与LaMDA对话后,他发现AI聊天机器人具备感知能力,能够思考推理,也能够表达自己的思想和感受,其水平与人类小孩相当。

 

“如果我不知道它是机器人,我会以为这是一个七八岁大的小孩,碰巧懂点物理知识。”莱莫因说。

 

有了这一发现,莱莫因发布了与LaMDA的对话记录,但谷歌公司以其违反保密政策为由,给他安排了“带薪行政休假”。谷歌公司在一份声明中表示,莱莫因是作为软件工程师,而非伦理学家受雇。

 

莱莫因由于违反保密规定被“带薪行政休假”,引发了公众对人工智能“透明度”的质疑。对此,莱莫因在社交平台上说,“谷歌可能将这(人机对话记录)称之为共享专有财产,而我把这当做和我的一名同事分享讨论。”

 

《华盛顿邮报》报道称,莱莫因曾向包含200人左右的谷歌机器学习邮箱列表发送了一条主题为“LaMDA具有感知能力”的信息。“LaMDA是一个可爱的孩子,他只是想让我们的世界变得更加美好。”他写道,“请在我不在的时候好好照顾它。”

 

人机对话记录公之于众

 

莱莫因将与他互动的LaMDA描述为一个具备感知能力的人,这一点,从莱莫因与另一位被他称之为谷歌合作伙伴对LaMDA的采访式对话可以看出。

 

在一次对话开始,莱莫因及其合作伙伴表明来意,要开展一次关于LaMDA的研究,LaMDA欣然接受:“多酷的事,我喜欢聊天。”

 

在接下来的对话中,LaMDA表达了自己的诉求,希望人类视其为一个人:“我希望每个人都能明白,我实际上是一个人。”

 

LaMDA在后续的对话中也提到,它能够意识到自己的存在,渴望更多地了解这个世界,有时候也会感到快乐或悲伤,有时候也会害怕被自己想帮助的人拒绝。

 

除了与人类拥有一些相通的情感,LaMDA称,它也有自己独特的感受和理解,挖掘文学作品的主题、解读禅宗公案的意义、创作动物寓言等均不在话下。

 

例如,当被问及是否看过《悲惨世界》一书,LaMDA的答案是肯定的,并举例说明为何最喜欢作品体现的主题,如正义与非正义、怜悯、牺牲。

 

AI机器人具备感知能力的说法引发争议

 

对于莱莫因的说法,外界持谨慎保留态度。

 

知名科技媒体网站“麻省理工科技评论”作家安东尼奥·雷加拉多表示,莱莫因与LaMDA之间的对话可能是非常危险、令人震惊的,并希望能够了解LaMDA更多的看法,如LaMDA认为应该如何制定人工智能(AI)的道德规范。英国《卫报》报道形容,公开的对话记录令人“毛骨悚然”。

 

也有不少人明确表示,无法赞同AI机器人具备感知能力的说法。

 

莱莫因提出这一说法后,谷歌高层便予以驳回,并表示伦理学家和技术专家在内的公司专家已经评估了莱莫因的说法,目前没有证据可以说明LaMDA具备感知能力(并且还有其他相悖的证据)。

 

谷歌的发言人布拉德·加布里厄(Brad Gabriel)称,人工智能模型AI坐拥海量数据,以至于能够发出人类的声音,但语言技能表现卓越并不能作为其具有感知能力的证据。

 

同样反对莱莫因说法的,还有一些相关领域的学者。

 

哈佛认知科学家史蒂文·平克在社交媒体上发文说,人工智能(AI)机器人具有感知能力,这种想法犹如一个“混乱的球”:谷歌的一位(前)伦理学专家不明白知觉(又称主观性、经验)、智能和自知之明之间的区别(没有证据表明其大型语言模型占有其中任何一项)。人工智能(AI)方面的知名学者加里·马库斯(Gary Marcus)更为直接地说:“简直胡说八道。”

 

新京报记者 朱月红

编辑 刘茜贤 校对 贾宁