新京报讯(记者 苏季)9月14日,一款针对儿童的人工智能发展原则《面向儿童的人工智能北京共识》在京发布,宣称将用于降低人工智能技术与产品对儿童产生的不利影响。


“人工智能应用在教育场景中会不会有风险?特别是疫情之后在线教育越来越普及,这是必须思考的问题。”中国科学院自动化所研究员、智源研究院人工智能伦理与可持续发展研究中心主任曾毅指出,如果只是用人工智能做个性化教育,提升教育有效性,是不够的。

 

他进一步解释到,近年来儿童能够接触并使用的人工智能的场景越来越多,他们在接受使用AI产品时存在一定的特殊性与被动性,对风险和隐患识别能力严重不足。另外,当下许多人工智能产品针对数据保护、授权范围、隐私安全等问题的重视程度仍有待提升,而在全球范围内,也缺乏与儿童有关的人工智能伦理原则,因此有必要针对儿童这一特殊群体接触使用的人工智能技术产品加以伦理研究和规制。

 

据介绍,《面向儿童的人工智能北京共识》涵盖了“以儿童为中心”、“保护儿童权利”、“承担责任”和“多方治理”四大主题,共包括19条细化原则,呼吁社会各界高度重视人工智能对儿童的影响,人工智能的发展应保护和促进儿童的权益,避免剥夺和损害儿童的权利。

 

“儿童隐私问题、家庭隐私问题等都给在线教育企业提出了挑战,这些场景需要学术界和企业界共同梳理。 ”曾毅表示,目前,该共识已得到中科院幼儿园、北京大学附属小学和部分教育机构的支持。


据悉,《面向儿童的人工智能北京共识》由北京智源人工智能研究院联合北京大学人工智能研究院、清华大学人工智能研究院、中科院计算所和人工智能企业等共同发布。北京智源人工智能研究院成立于2018年11月,是北京市科委和海淀区政府推动成立的新型研究机构,聚焦人工智能领域原始创新和核心技术。2019年5月25日,该团队发布《人工智能北京共识》,为规范和引领人工智能健康发展提供了“北京方案”,目前已在疫情防控、安防等热点领域进行试点示范。

新京报记者 苏季 校对柳宝庆