内容摘要:人工智能时代的到来对现行刑法的适用提出了挑战,包括智能机器人的刑事责任主体认定及无人驾驶汽车交通肇事的刑事责任承担等问题在内。基于此,我国刑法应在未来赋予具有自主意志的人工智能产品以刑事责任主体地位,并考虑设置包括报废、回收改造、罚金在内的特殊刑罚措施;将故意利用智能机器人实施犯罪的行为人作为直接正犯予以认定;在增设单位作为交通肇事罪行为主体的基础上,对无人驾驶汽车的智能芯片研发和制造者及汽车制造公司适用该罪进行处罚,并考虑引入重大人工智能事故罪对相关责任主体进行专门规制。
关键词:人工智能;智能机器人;无人驾驶汽车挑战刑法应对
一、问题的提出
人工智能的概念于1956年在达特茅斯会议上被首次提出,并在之后一度成为全社会关注的热点问题。人工智能作为一项对模拟、延伸和扩展人类智能的相关理论、方法及应用系统加以研究开发的技术,越来越多地在人类的社会经济生活领域被加以运用。现阶段,全球正处于从互联网时代向人工智能时代的转型期,可以想象,在不久的将来,人类将完全置身于人工智能时代并享受由其带来的便利。从IBM研发的仅“出诊”十秒便为癌症患者开出一张详细的西医诊疗方案单的机器人医生沃森,到在乌镇围棋峰会上战胜世界围棋冠军柯洁的AlphaGo,到无人驾驶汽车辅助系统百度无人驾驶平台Apollo2.0的正式开放,人工智能正从不同领域不断介入人类的社会经济生活,并逐步完成由弱人工智能向强人工智能的转变。然而,科技的进步总会伴随风险的产生,人工智能也不例外。人工智能所呈现出的深度学习、人机协作、自主操纵等新特征,使其区别于传统的智能工具而存在,并对传统的社会伦理及现有的法律规定造成了极大的冲击。对此,国务院于2017年7月出台的《新一代人工智能发展规划》中明确指出,应对人工智能的保障措施在于,加强人工智能相关法律问题研究,建立保障人工智能健康发展的法律法规,开展与人工智能应用相关的民事与刑事责任确认问题研究,及明确人工智能法律主体、相关权利义务和责任等。对此,学界已有较多学者对人工智能所可能涉及的知识产权侵权及民事责任方面的问题加以研究,但专门针对其中所可能涉及的刑事责任问题展开研究的学者却为少数。因此,笔者拟从智能机器人及无人驾驶汽车这两项人工智能产品出发,厘清现行刑法在规制人工智能造成的违法行为时所面临的挑战,并对未来我国刑法应如何合理有效地应对人工智能时代所带来的刑法挑战展开分析,以期将人工智能所带来的刑法风险降至最低,并保障科技进步与社会秩序稳定的双向平衡。
二、人工智能对现行刑法的挑战
传统的刑法学理论将犯罪构成分为四个部分,即主体、主观方面、客体及客观方面。人工智能涉及的违法行为与传统意义上的自然人和法人所实施的违法行为在客体及客观方面并不存在差异,关键在于犯罪主体及主观方面的差异导致现行刑法在人工智能领域的适用分歧。笔者拟从智能机器人及无人驾驶汽车这两类人工智能产品具体分析人工智能对现行刑法的挑战。
(一)智能机器人
智能机器人作为人工智能的代表产品,逐步参与到人类生活的各个行业、各个领域。从餐厅里摆放的智能点菜机器人,到前文提到的机器人医生沃森,到被沙特阿拉伯授予公民身份的索菲亚机器人,都是智能机器人参与人类生活的剪影。未来,智能机器人还会深入渗透到工业、农业,甚至是各个家庭内部,以充分发挥其对人类生活水平的促进作用。目前,大部分的智能机器人仍属于初级阶段,其仅能依据人类为其设计和编制的程序实施行为,属于人类意志的实施者,而不具有自主的意思能力。此时,智能机器人就相当于传统意义上的工具,当其涉及违法行为时,应由智能机器的制造者或使用者作为实施违法行为的直接正犯受到刑事处罚,因而不影响现行刑法的适用。然而,随着科技水平的进步,未来大部分智能机器人都将会从原先的初级阶段迈入更深层次的高级阶段。这一阶段,智能机器人能够通过深入学习而产生自主的意思能力,并通过该自由意志实施人类为其设计和编制的程序外的行为。科幻作家艾萨克·阿西莫夫在《我,机器人》一书中提到“机器人三原则”,即机器人不得伤害人类或目睹人类将遭受危险而袖手旁观,机器人必须服从人类给予它的不与第一定律冲突的命令及机器人在不违反前两条定律的情况下必须保护自己。但即使是该原则指导下制造的智能机器人,也难以避免其依据自由意志作出伤害人类的行为。此时,若该行为侵犯了社会公共法益或者公民私人法益而成为刑法意义上的犯罪行为,现行刑法便难以对该违法行为加以规制。原因在于,高级阶段的智能机器人能够脱离于人类的程序控制而行动,而具备了与人类相同的辨认能力及控制能力,若其在该项自由意志支配下实施了违法行为,则无法再将其作为一项工具而存在,而应将其作为一个具有独立承担刑事责任能力的主体认定。而现行刑法所规定的犯罪主体仅限于自然人及单位,因此无法对上述智能机器人所实施的违法行为加以规制。
同时,若在未来刑法中将智能机器人作为一个犯罪主体而存在,随之而来的便是刑事处罚的设置问题。由于智能机器人不同于自然人及单位,生命刑、自由刑和财产刑无法施加于智能机器人之上,因此现行刑法的刑罚种类设置在人工智能的大环境下同样存在缺陷。
(二)无人驾驶汽车
无人驾驶汽车是指能够通过计算机智能车载传感系统感知道路环境,自动规划行车路线并控制车辆达到预定目标的智能汽车。①其独立于传统汽车驾驶人的控制,并实现了行驶的自主性、路线选择的自主性及停车的自主性,这也是无人驾驶汽车区别于普通汽车的重要标志。国家发改委于今年1月发布的《智能汽车创新发展战略》(征求意见稿)中提到了美国汽车工程师学会对智能汽车所划分的五个等级。其中,4级对应的高度自动驾驶汽车及5级对应的完全自动驾驶汽车便是本文所述的无人驾驶汽车。虽然无人驾驶汽车作为一项技术产品能够较之于人类驾驶员更好地感知及判断风险的产生并在可实现的短时间内避免危险的发生,但由于各种内外在因素的影响,无人驾驶汽车难免会发生交通事故。就好比近期在美国亚利桑那州发生的Uber自动驾驶测试车撞上在人行道之外横穿马路的女子,并致其死亡的事件,令无人驾驶汽车的安全性问题再次被推上舆论的风口浪尖。同时,不得不注意到的是此类事件导致的有关交通肇事罪的责任承担问题。无人驾驶汽车所造成的交通事故区别于传统的交通事故,虽然二者在客观行为及所侵害的客体方面并无二致,但在无人驾驶的状态下,车辆上所乘坐的自然人未实质参与驾驶行为,传统意义上作为刑事责任承担主体的机动车驾驶人已不复存在。在整个车辆运行过程中,乘车的自然人仅仅是实施了启动无人驾驶状态的初始行为,与最终造成的损害结果之间并无因果关系。同时,在主观方面,构成交通肇事罪的主观罪过在于过失,这里既包括疏忽大意的过失也包括过于自信的过失。然而,无人驾驶状态下乘车的自然人基于相信安全、可靠的无人驾驶技术的缘故,完全不可能也没有义务预见到车辆会发生交通事故,因此并不存在主观过错。可见,在无人驾驶状态下盲目地对车上的自然人课以交通肇事罪的处罚不符合罪刑法定的原则。因此,在现行刑法的适用体系下,无人驾驶汽车导致的交通肇事行为的刑事责任主体的认定显得尤为困难。无人驾驶汽车具有商品的固有属性,既然属于商品,在由于其自身所具有的质量问题导致交通事故发生时,相关责任主体必应承担相应的刑事责任。由于无人驾驶汽车的制造和流通环节涉及包括智能芯片研发和制造者、汽车制造公司及汽车销售商在内的多个主体,如何将这些主体作为新的责任主体适用刑法相关规定同样是亟待解决的问题,需保证在合理惩罚犯罪行为,保障被害人权益的同时,不阻碍新兴科技的发展。同时,在无人驾驶技术的背景下,交通事故发生后的原因认定也不像传统的交通肇事那样简单明了。传统的交通事故完全可以依赖于诉讼双方的举证质证及现场的监控还原事故的发生过程,从而认定各自的责任,但在无人驾驶的技术背景下,人工智能系统成为一个“黑箱”,所有决策都存在于这个“黑箱”中,机器学习模型的内部决策逻辑并不总是可以被理解,即使是设计者也可能无从知晓系统是如何进行决策的。因此,无人驾驶汽车所涉及的技术原因认定难的问题同样是实践中阻碍对相关责任人适用刑法加以规制的因素之一。
三、人工智能环境下的刑法应对
根据前文对人工智能环境下现行刑法适用风险的分析,可以看出面对人工智能的高速发展,我国现行刑法显得力有未逮,具体表现在,无法将人工智能产品作为单独的刑事责任主体加以规制,并对其处以特定种类的刑罚措施及无法对人工智能犯罪所涉及的其他相关责任主体进行有效地刑事处罚。若不及时对现行刑法加以调整,人工智能所可能带来的对社会秩序稳定的不良影响将会愈演愈烈。因此,笔者认为有必要通过以下方式对现行刑法加以完善及适用,以应对人工智能环境对现行刑法发出的挑战。
(一)人工智能的刑事责任主体地位及相关刑罚设置
基于前文的分析,未来人工智能将由初级阶段向高级阶段迈进,大部分人工智能产品将拥有自主意志,并能够根据其自由意志实施人类为其设计和编制的程序外的行为。因此,笔者认为,未来在必要的时候于刑法中赋予具有自主意志的人工智能产品以刑事责任主体地位不失为一项解决人工智能刑事法律风险的有效措施。主要基于以下两点理由:
其一,类似于刑法中将单位拟制为刑事责任主体,将具有独立意志的人工智能产品做同样的拟制又何尝不可?单位不同于自然人,之所以能够将其拟制为刑事责任主体,是由于单位具有自己的独立意志,即单位内部决策层所作出的集体意志。而具有独立意志的人工智能产品拥有比单位更强的意志自由,因为其是模拟人类的思维体系制造而成的,相比于单位更类似于人。因此刑法据此进行法律拟制,赋予其刑事责任主体地位具有合理性。
其二,赋予具有独立意志的人工智能产品以权利是未来发展的必然趋势,而作为与权利相对应的义务体系,也必然是此类人工智能产品所必须承担的。对此类人工智能产品赋予刑事责任主体地位并要求其承担作为义务体系其中一项分支的刑事责任是未来发展之必然。此类人工智能产品所具有的自主意志作为权利赋予之基础要件,本文不再过多赘述,此处主要从社会影响力角度论述为何须赋予其权利。权利之赋予之所以是未来发展的必然趋势,理论依据在于约翰·厄姆拜克提出的“实力界定权利”一说,即在原有权利遭遇新兴事物冲击的情况下,不同群体的实力博弈将重新构筑权利体系,强调的是群体性优势对于社会的影响力。实践中也不乏相应的例子对这一理论加以验证,比较典型的例子便是妇女选举权的取得。在19世纪40年代之前的美国社会,选举权被认为是仅属于男性的政治权利,而后,随着美国全国妇女选举权协会的成立及妇女地位的逐步提升,1919年初,众议院以304:90的票数比例通过关于妇女选举权的修正案,至此,女性拥有了与男性平等的选举权。未来,当具有独立意志的人工智能产品所具有的功能及产生的效益不断地扩大从而全面地影响人类的发展进程时,此类人工智能产品在人类社会中占有的优势是无法取代的,未来社会也必然会根据此利益关系的变化对已有的法定权利结构加以改变,属于此类人工智能产品的权利也将会因此应运而生。2017年10月,沙特阿拉伯授予由美国汉森机器人公司生产的索菲亚机器人以公民身份便是人类社会在赋予人工智能产品以权利方面迈出的第一步。欧盟议会法律事务委员会在其向欧盟委员会提出的立法建议中同样提出,考虑赋予复杂的自主机器人法律地位(即在法律上承认其为“电子人”)的可能性,并明确其权利和义务。可见,未来权利的赋予已成为大势所趋。当然,任何权利的享受必定伴随着义务的承担,具有独立意志的人工智能产品在享受特定权利的同时也必定需承担相应的义务。因此,理应赋予该类人工智能产品刑事责任主体的地位以使其承担其所应承担的刑事责任。法人刑事责任主体地位的获得便是一个很好的例证,由于其在现代社会生活中所发挥的影响力越来越大,成为了一项重要的组织形态,改变了原先的权利结构而获得了权利主体资格,因而刑法赋予了其刑事责任主体地位以使其承担相应的刑事责任。
因此,在未来赋予具有独立意志的人工智能产品以刑事责任主体地位之后,智能机器人及自动驾驶汽车均能对由于其自身意志导致的犯罪行为独立承担刑事责任,并受到相应的刑罚处罚。同时,值得关注的是,对具有独立意志的人工智能产品赋予刑事责任主体地位后,其所可能实施的犯罪形式及相关的责任认定。具体包括:一是单独犯罪,即人工智能产品在独立的思想支配下实施的犯罪行为;二是共同犯罪,即当人类与人工智能产品共谋实施了某项具有社会危害性的行为,应将二者作为共犯加以规制;三是间接正犯,即人工智能产品虽然基于自主意识在客观上实施了某项犯罪行为,但是该项行为是人类利用其“无知”,即无犯罪意识而实施的,此时应将人类认定为此犯罪行为的间接正犯,而人工智能产品则不成立犯罪。