当前位置: 主页 > 法律法规

人工智能时代的“内忧”“外患”与刑事责任

时间:2022-10-13 17:31|来源:网络[特别声明:人工智能之窗的图文来源于网络,如有侵权,请联系我们删除。]

测的动作,这些都是汽车所有者和驾驶者既无法预知、也无从回避的,因而难以追究他们的过失责 任。当然,也可以把人工智能软件已经嵌入汽车作为理由,根据产品责任法向厂商请求赔偿;〔32〕或者 设立以人工智能为保险对象的服务,通过保险制度来解决问题。至于对自动驾驶汽车造成的事故追 究刑事责任,必须通过修改法律或者制定新法另设犯罪类型。〔33〕

另外还有提供给人工智能进行学习的数据所伴随的权利问题。例如通过读取绘画进行深度学习 是否侵害作者的复制权,个人的消费信息、健康信息、经历信息以及识别信息作为学习数据使用时是

否侵害隐私权,把生产方法、销售方法以及其他营业活动的大数据提供给人工智能是否引起不正当

竞争,怎样保护具有经济价值的数据,数据的大量积蓄和集中化会不会导致市场的垄断,这些都需要

深入研究,制定必要的法规、政策以及伦理标准。对于匿名加工个人信息以及相关数据库的建设也应 该有统一的规格和方法。2018年5月开始实施的欧盟一般数据保护条例被称为21世纪的人权宣言,就 是因为在网络化社会特别强调尊重个人的原则。该条例第21条规定数据主体对数据的存档具有异议 权,如果数据管理者不能提供不得不这样做的正当性根据(例如防止传染病蔓延),就必须停止相应 的信息处理。第22条还进一步规定,数据存档等信息自动化处理本身不得给数据主体带来任何法律

效果。也就是说,关于个人特征的完全自动化评价,不得成为侵害该个人权益的决定的唯一根据。如 果产生了诸如此类的重大影响,数据主体有权不服从。〔34〕这种机制设计是值得我国留意和借鉴的。

不得不承认,我国以及各国的现行制度在保护人工智能方面仍然存在一些明显的缺陷。我国的 著作权法及其实施条例以及计算机软件保护条例承认软件产品、程序以及相关文书的著作权,以独

立开发、登记以及固定在实体物件上为前提条件给予法律保护,但关于算法即人工智能本身还没有 明文规定。如果算法是由复数的软件程序构成,当然可以作为程序作品申请著作权上的保护,但算法 即人工智能本身仍然无法申请专利权。人工智能仅有算法并没有实用价值,而必须与数据的学习结

合起来才能产生真正的意义。但对需要大量投入资源的学习用数据以及学习方法,法律却不能提供 保护。还有学习完毕的模型也具有很大的经济价值,需要对其利用问题制定必要的管理规则。随着人

工智能及其网络化的加速发展,这些问题势必层出不穷,需要在制度和机制的设计上及时跟进甚至 未雨绸缪。 此外,还有人工智能与行业法规之间关系如何处理,也是非常重要的课题。例如人工智能在相当

程度上开始从事司法和法律服务,〔35〕但从事法律实务活动本来是存在严格的门槛限制的,需要通过 国家考试取得必要的资格。当中国的“睿法官”机器人(北京)、“明镜系统”(浙江)、“法务云”(江苏)、 美国的ROSS律师机器人、JUDICATA法官机器人纷纷用于业务处理时,是否有违反法官法和律师法的

嫌疑?如果人工智能被赋予法律人格,那么能否也被赋予法官资格或律师资格?不言而喻,同样的问

题也存在于医疗等行业。现在人工智能已经广泛应用于疾病的预测、预防以及诊疗服务,如果发生医 疗事故应该如何追究责任正在成为热议的话题。以上描述的这一切都在告诉我们:讨论对人工智能

怎样进行适当的规制,逐步建立和健全相关的法律、政策以及道德的规范秩序,此其时也。



ICP证:粤ICP备17121702号-21 Copyright © 2002-2023 人工智能之窗 版权所有 网站地图

特别声明:人工智能之窗的图文来源于网络,如有侵权,请联系我们删除。 联系我们