“我们已经进入人工智能时代,人工智能将是未来新一轮科技革命和产业变革的核心力量。如何从法律上应对生成式人工智能可能造成的侵权,是应当高度关注的话题。”7月6日举行的2023全球数字经济大会知识产权与数字经济发展论坛上,中国法学会副会长、中国人民大学一级教授王利明提出上述问题。


王利明发表主旨演讲。新京报记者 行海洋 摄


侵害何种权利?

 

王利明指出,人工智能侵权不同于一般的产品侵权。生成式人工智能不会对用户的生命权、身体权或者健康权造成严重损害,也不会给用户造成重大财产损失,因此与传统侵权责任法中的产品责任不同。此外,人工智能侵权也不完全等同于一般网络侵权,生成式人工智能产生的虚假信息需要借助用户或者其他主体的传播才可能影响社会公众。


“所以从侵权的客体来看,生成式人工智能主要侵害的是人格权和知识产权,但是这种侵权有可能带来很大的法律风险,它可能会生成虚假的图片、视频和信息,这些虚假信息一旦大面积传播,不仅会造成人格权等权益的重大侵害,甚至可能引发严重的社会问题。”王利明说。

 

谁构成侵权?

 

王利明认为,生成式人工智能侵权的责任主体具有复杂性与多元性。如服务提供者可能大量收集公开信息用于训练,这些公开信息中可能既有隐私信息,又有个人信息,还可能涉及商业秘密;用户使用生成式人工智能的产品时,采取故意引诱等方式使生成式人工智能产生虚假信息,并且对虚假信息进行传播;服务提供者开发的生成式人工智能具有缺陷,用户利用这些缺陷生产具有侵权性质的文字或者图片。

 

“针对这些复杂性与多元性,我们必须要区分不同的场景,来明确不同主体的责任。”王利明说。

 

王利明强调,对生成式人工智能侵权的责任认定,应该采取何种价值取向是需要考虑的重大问题。“我们还是应该秉持一种鼓励创新、预防风险的态度。我一直认为,我们现在最大的风险是技术落后,所以法律上要尽量强化预防,而不是强化制裁。”


如何承担责任?

 

责任划分方面,王利明指出,要区分两类情形,一是生成式人工智能服务提供者非法处理、泄露个人信息的责任。“这一类责任应该是比较重的,现行的民法典和个人信息保护法已经做了明确规定。”二是对生成式人工智能产生虚假信息造成侵权的责任,王利明认为,可以适用“通知—删除”规则。

 

“利用生成式人工智能侵权和利用网络实施侵权,在性质上具有极大的相似性。民法典之所以采用‘通知—删除’规则,一个很重要的原因就是网络平台上存在海量信息,网络服务提供者基本上无法一一甄别这些信息。同样,生成式人工智能服务提供者也无法确定其生成的每一项信息的真实性、客观性。因此,是不是只有在受害人提出通知后,如果服务提供者没有采取措施,才让其承担适当的责任?”他说。

 

此外,王利明提出,应该确定生成式人工智能服务提供者对个人信息和隐私的安全保障义务。“对收集的数据进行分类处理,采取必要措施,避免利用收集的信息进行深度伪造。”

 

“我认为生成式人工智能目前所造成的侵权,还没有完全超出民法典和个人信息保护法的相关规定,现行法律规则仍然可以作为处理和解决纠纷的依据。”王利明认为,在未来条件成熟时,有必要通过特别立法进行有效应对,从而更好地预防生成式人工智能带来的各种侵权风险,有效保障民事组织的合法权益,促进人工智能产业的发展。

 

新京报记者 行海洋

编辑 樊一婧 校对 吴兴发