当前位置: 主页 > 法律法规

浅析人工智能相关法律问题

时间:2022-12-13 09:50|来源:网络[特别声明:人工智能之窗的图文来源于网络,如有侵权,请联系我们删除。]

文/徐发强

江苏省南京市玄武区人民检察院

文/陶沁言

扬州大学商学院

互联网及科学技术迅速发展,人工智能呈现出蓬勃发展的态势,并上升到国家战略高度。其应用领域不断扩大,应用形式不断丰富,影响力不断增强。人工智能对生产力和产业结构产生革命性突破,并且作为当代人类社会必不可少的一部分,发挥其高效便利的服务效用。人机互补互动、协同一体化趋势加强的同时,“人类中心化”受到质疑与挑战;相关民事及刑事等法律问题频发,人工智能的非法应用及技术算法漏洞对伦理道德、隐私权益、财产安全、系统安全等方面造成巨大威胁。而对人工智能违法的法律责任划分及其法律地位定性也存在巨大争议,在人工智能是否有意识等层面产生一定法律偏差。当下,亟待把控大数据与个人信息安全平衡,建立健全人工智能相关法律体系,推动技术研究及科学发展,加强监督监管机制。完善人工智能研发、供应、使用、管理及事发机制,让人工智能在法治的轨道上合理运用,造福人类,在安全的前提下,促进强国建设。

一、人工智能技术带来的相关法律问题

(1)隐私泄露导致的侵权诈骗行为

产业模式的进一步创新,虚拟现实等新技术涌现,自然人格要素虚拟化呈现需要原型……各类新发展的驱动下,逐渐增大了用户隐私被窥探利用的风险,个人信息被过度读取分析,造成隐私保护和数据读取失衡。恶意读取人像、声音进行非法AI合成,造成隐私权、肖像权受损。更有不法分子通过仿真模拟,利用合成的虚假信息等进行诈骗,通过互联网及大数据追踪用户,并造成一系列财产损失。

(2)人工智能陷入“伦理困境”

人工智能由算法支撑,利用大数据和植入信息进行判断,它不具有人的判断及随机应变能力,可以说它是不具有人的意识,并且是具有局限的虚拟化。在特定的陌生的情况下,易发生系统混乱和故障,从而导致灾祸的发生,这时谁来承担法律责任?“虚拟”与“现实”交错、“现实性”与“可能性”交织,人工智能显示出复杂化的倾向,并增强了人工智能运用的风险性和不确定性,一定程度上增加了人身安全威胁。伦理和法律产生碰撞,伦理责任与道德规范正在被消解,社会伦理秩序濒临挑战。

(3)更大范围上的安全系统威胁

利用非法手段,逃避安全系统防控。实施干扰或破坏技术,进行非法入侵、数据投毒、数据争夺……造成一系列数据泄露和安全隐患。轻则引发社会矛盾,扰乱社会秩序;重则泄露国家秘密,损害国家利益。人工智能是一把双刃剑,其潜在危险不可忽视。

二、人工智能面临法律责任划分的难题

(1)人工智能法律地位定性

人工智能的主体性一直备受争议。人工智能通过算法设定特定的性能,使机器“拥有人的智慧”,而其本质上是人类的工具,依附于人类而生,更多的是一种仿真模拟,无法通过自身感知人类社会文化的多样性。人工智能并不具有独立意识,无自主性,没有成为法律主体的能力,无法自然建立权利和义务的关系。人格权,是指民事主体专属享有,以人格利益为客体,为维护民事主体的独立人格所必备的固有民事权利。同时,具有人格权的前提是必须为独立的民事主体,即成为法律主体,需要拥有法律人格,履行相关民事责任,享受民事权利。人工智能作为无意识的附属品,无法平等参与民事活动。故笔者认为,人工智能若具有人格权,则是与社会伦理背道而驰,故其不能够成为法律主体。

(2)人工智能归责不明引发法律纠纷

人工智能的民事主体身份的确认是明确其法律责任、法律行为和归责问题的基础。当人工智能无法作为法律主体承担责任时,那由其产生的事故该由谁来承担?拥有植入意识的人工智能客体又能否完全摆脱其法律责任?

法律责任该如何划分:是归咎于技术研发部门的不成熟性,还是将其定性为意外?是由所有者承担还是由开发者承担?算法制定者与技术研究者承担起创造的职责,其主观思维、判断能力、社会心理以及仁义观念都会对人工智能产品产生巨大影响。由弱人工智能产品引起的意外,在未有过大损失及人身安全受损的前提下,且在提供保险的可赔控的范围内,更多体现为消费者和经营者的纠纷,这时的矛盾一定程度转化为消费者对权益的要求和控诉。而一些强人工智能产品,可在限定范围内,进行独立思考并制定解决问题的最优方案,具有一定价值观和世界观体系,具有与人类相近的知觉能力。它们应用形式更加复杂,应用到现实中必然面临人类社会特定选择,面临伦理道德的考验。这时基于数据库作出的“错误”选择该如何划分?未制定详细且完善的风险分控机制,也未能在人工智能产品、投放者和消费者之间建构起稳定桥梁等,一定程度导致人工智能归责界限不清。而赔偿等法律责任的履行又将怎样贯彻实施,归责方式又该如何合理制定,是当下急于解决的问题。

三、人工智能相关问题亟需法律优化

(1)完善立法,综合考虑法理及社会利益

对于人工智能法律地位提出了“电子人格说”,框括了由人工智能“自主化”作出决策部署的能力。其人格具有有限性,而也需对人工智能各发展领域进行标准评估判定。对通过不同程度“图灵测试”的强人工智能,或许也应当明确其在法律上的地位。

(2)建立健全法治体系,建立透明算法问责制度

增强对违法行为的管控力度,划分法律责任界线,建立人工智能问责机制,对相应程度的事故认定进行严格约束。而对人工智能本身,其算法的不透明性、决策结果的不可估量性、源头研制的单一性需进行法律管控,设定相关标准与规则。

(3)人工智能干预司法行政实践

人工智能应用于司法服务中,能够有效减少法官因为主观意愿而产生的冤假错案,有效提高司法裁决效率,构建清朗的司法环境。而将大数据、信息化、人工智能、智慧法院几者融合发展,则能更好地提升司法服务水平。当然,需界定人工智能司法行政地位,制定法律参考标准,设定司法审判边界,将其运用的合理性以法律的形式明确下来。

四、人工智能实质性发展所需

(1)采取监督监管新形势

强调监管的科学性和灵活性,利用多方协调治理促进人工智能领域的合法发展。采取分散式和渐进式措施有效预防控制,预测评估风险等级,从源头加以把关,从而避免人工智能利用算法“控制人类”恶果的发生,减少伦理道德颠覆的威胁,降低人工智能发生意外被问责的损失。同时,在信息网络发达的当下,构建风险监管、智慧监管、精准监管“三位一体”的信用监管新模式。提高监管效力,降低监管成本,实现监管防控最优化,形成人工智能一系列因地制宜的监测防控链。保证算法设计、产品研发和成果运用的透明化,赋予用户更清晰的认知选择,提升跨行业、跨市场交叉风险的甄别、防范和化解能力。

(2)提升人工智能伦理风险防范能力

总体上坚持以人为本,遵循人类基本价值观,稳定提升人工智能应用的包容性和安全性,深入推动人工智能应对危机及变故反应优化。促进人类与人工智能和谐共处发展,统筹规划人机平衡,积极引导人工智能健康发展。研发部门坚持将人类社会实践文化成果进行合理转化,遵循人工智能研发规范规定,多方面考虑用户及应用的差异化诉求,并且不进行违背伦理的人工智能研发,提升数据及算法的科学性和可行性,保证透明化和可控性。监管部门加强伦理审查,管控算法歧视,保障人类拥有操控权和充分自主决策权,化解人工智能对人类文明的威胁及冲击。

(3)加强政策引导

政策是否适当直接决定了人工智能的发展方向是否清晰。制定与时代科技发展相适应的政策,精准完善政策引导,明了政策限制,在法律的框架内,真正发挥政策的导向作用。审时度势,保障各方利益,尊重用户信息知情权,严厉打压侵犯隐私权的行为,保障个人隐私和数据安全,稳定社会秩序。将生产研发的标准界限以明确的法律政策落实下来。提高政策约束力,使各方在一定的规范下合理安排利用,使人工智能在法律的轨道上造福人类,可持续性发展。

(本组责编梁爽)




ICP证:粤ICP备17121702号-21 Copyright © 2002-2023 人工智能之窗 版权所有 网站地图

特别声明:人工智能之窗的图文来源于网络,如有侵权,请联系我们删除。 联系我们