法治在线
地址:杭州市上城区解放东路18号市民中心F座8楼  邮编:310026
邮箱:hzsfxh@126.com
电话:0571-85252137
传真:0571-85252154
当前位置: 首页 > 法治在线

论人工智能产品致伤致死类犯罪的责任归属

发布时间:2019-06-24 来源:中国法学会 浏览量:200

内容摘要

随着各种无人操作技术的发展以及互联网的升级,人工智能已经成为这个时代的一个鲜明主题,尽管人工智能技术发展到多么精湛,在当代社会中也不能脱离法治的轨道。目前在司法实践以及理论中仍没有一套统一的责任归责机制。分析人工智能特产品的特性、犯罪因素以及当前理论界上关于人工智能法律地位的两大学说(辅助工具说与法律人格说),结合当前“弱人工智能”的时代背景,分析其归责原理并且提出关于人工智能产品对被害人造成致伤致死类犯罪的刑事责任归责思路。提出从源头预防人工智能产品犯罪的几点建议,以更好应对人工智能产品实施犯罪行为时出现“责任空缺”的情形。

关键词:人工智能  责任归属  辅助工具说  法律人格说  拟人心理

image.png

人工智能产品特性及犯罪因素

人工智能概念自上个世纪五十年代在达特茅斯会议上被提出以来,人类对人工智能就开始各方面的研究,至今人类对人工智能已经不再陌生,如电影《流浪地球》中空间站上的“莫斯”正是对人工智能的典型刻画,又如现实生活中的无人驾驶汽车、手机智能语音助手以及智能生产车间等。人工智能具有三大特性,第一,自主意志性,即能凭借自身意志(主要指算法和程序)独立实施行为;第二,自主学习性,虽然人工智能实施行为的前提是预先设定好的程序,但程序在运用的过程中可根据数据变化以及使用范围的扩大等具体情况自动升级或更新系统以便适应使用需求;第三,社会性,当今时代下人工智能已经广泛运用到人类社会的生活生产中,甚至成为社会劳动力的主要力量,而人工智能产品则是人工智能技术的客观物质载体(通常称为“机器人”),以上人工智能三大特性也为人工智能产品实施犯罪行为提供了理论依据。

所谓人工智能产品致伤致死类犯罪即人工智能产品对被害人的身体健康权与生命权实施侵害行为并且达到刑事法律所规制的危害结果的人工智能犯罪,在人工智能的运用与研究的几十年里,人工智能产品关于此类的犯罪逐渐出现在人类社会生活中,从1987年日本切割机器人“转身”将工人抓住切割致死(世界上第一宗机器人杀人事件),到1989年轰动全球的人工智能机器人落败于苏联国际象棋冠军释放强大电流致冠军死亡事件,再到当代社会中无人驾驶汽车交通事故等,越来越多关于人工智能产品致伤、致死以及损坏财产等事件见诸于媒体,不禁让人引起反思。

人工智能产品犯罪与自然人犯罪的最大区别及难点在于人工智能犯罪的主观意志难以得到评价,在排除人工智能产品的“主观意志”因素的条件下,人工智能产品犯罪的原因大致可归为以下几点:

第一,人工智能产品自身缺陷的因素,人工智能产品在作为一件流通于社会的产品而言,在生产销售及使用过程中,难免会出现产品质量瑕疵的问题,而对于要求具有及高精确度的人工智能技术而言,稍有瑕疵则可能引起严重的系统错误从而导致产品实施其他非程序设定范围内的行为。

第二,网络病毒入侵影响,人工智能技术与互联网具有紧密的衔接性,因此互联网也时刻影响着人工智能产品的工作与运行,但互联网世界并非是一个稳定、“干净”的环境,恶意病毒无处不在,若人工智能产品系统“防火墙”被攻破则将导致病毒入侵从而影响甚至控制人工智能产品实施行为。

第三,电路或其他硬件设施干扰,人工智能产品作为高精确度的客体存在于复杂的电路系统与磁场电波的环境中,不免会受到影响,如2007年某餐厅炒菜机器人对老板及其妻子各打了一耳光,经查明炒菜机器人的“打人”行为系受到厨房附近的高频电磁波干扰而导致机器人“失手”打人。第四,人为因素,主要指自然人把人工智能产品视为自己的犯罪工具,在人工智能产品程序中设定某种犯罪指令使人工智能产品实施设定中的犯罪行为(行为人包括设计生产者、使用者以及网络黑客等)。

人工智能产品犯罪刑事责任归责

原理分析

通常情况下自然人犯罪的责任归责主要考量的要素包括主观要素、认识错误、刑事责任能力、不可抗力、人身危险性等,但人工智能产品并没有自然人一样的主观心理状态,因此也就没有必要按照自然人犯罪的责任归责模式来对人工智能产品犯罪进行归责,关于人工智能产品犯罪的责任归责所需要考量的因素更应多注重客观方面的要素。

第一,基于人工智能产品实施犯罪行为的原因进行考量,如上文所述,人工智能产品实施犯罪行为的主要原因在于受外界干扰所致(包括磁场、电流等干扰与网络病毒入侵),其中可分为两个方面进行分析,一方面,责任归责于发出干扰的一方,若能认定干扰人工智能产品正常工作的源头系行为人故意向人工智能产品发出干扰讯号则可将责任直接归责于该行为人,另一方面,若不能证明有人故意实施干扰行为,则可认定人工智能产品系统管理者或操作者承担责任。

第二,基于产品质量问题而产生的责任,就目前人工智能发展水平而言,人工智能产品在没有确定有无法律主体资格之前,暂时将其默认为具有商品属性的社会生产结果,若从民事法律的角度对产品质量责任进行分析,其中的责任主体可以是生产者或者销售者,就责任承担而言可承担连带责任,但刑法具有较高的严谨性,并无“连带刑事责任”之说,那么如果基于产品质量问题产生刑事责任应当如何归责,笔者认为应归责于研发生产者,人工智能产品从研发到投入市场应当是经过非常严格的程序以及检测,产品质量通常不会因销售者产生,因此基于产品质量问题而产生的刑事责任应由研发生产者承担较为妥当。

第三,需判断被害人是否存在过错,人工智能产品犯罪中的被害人过错是指由于被害人的过错原因导致人工智能产品对自己实施致伤致死的行为,此时被害人应属于自陷风险或者以意外事故处理,而对于人工智能产品的使用(管理)者不应承担刑事责任,但应对被害人予以适当赔偿。除此之外,还应考虑其他客观要素,比如人工智能产品是否定期进行检测、产品的使用方式与维护是否正确、产品是否已经达到使用年限仍在使用等因素,在无法判断人工智能犯罪的主观意志的时候,只有通过综合分析其客观因素才能更准确将刑事责任进行归责认定。

刑事责任归属认定的意义及思路

多年来人工智能产品对自然人致伤、致死的事件频发不断,因此人工智能产品也必然被列入刑事法治轨道,若不能将人工智能产品犯罪的刑事责任归属予以相对准确的认定,则刑事法律关于人工智能的规制将毫无意义所言。在对人工智能进行法律规制的问题上,我们应立足于当前的立法现状对人工智能犯罪问题进行审视,没有必要超前地对人工智能进行单独立法或者另设新罪,并且应当结合当今“弱人工智能”的时代背景以及现实最可能发生的人工智能致伤致死犯罪事件进行探讨。由于人工智能的特殊技术要求以及人工智能产品的行为特性,给人工智能产品致伤致死类犯罪的刑事责任归属认定带来了挑战,在此问题上,学界目前存在着两大争辩理论:辅助工具说与法律人格说。

(一)刑事责任归属的确定是人工智能法治化的需要

刑事法治建设需要不断克服和超越实践中出现的特殊问题和困难,在关于人工智能产品致伤致死类犯罪的刑事责任归属问题上无疑是给刑事法治建设带来了挑战,解决刑事责任归属问题也将成为法治建设的重要任务之一。人工智能产品致伤致死类犯罪在责任归属上的主要问题在于无法确定其责任主体,在没有责任主体的情况下就会造成犯罪行为“责任空缺”的现象,从而导致犯罪行为无法被刑法所规制,往更严重的发展则可能导致更多的新型犯罪的出现。人工智能产品的出现同时也预示着其必须列入法治的轨道,也就意味着人工智能产品犯罪必须由刑事法律予以规制,其中刑事责任归属是刑法规制中一个必不可少的程序,若因此出现了“责任空缺”的现象,则将可能违背“违法必究”的依法治国理念,因此在刑事法律中关于人工智能产品犯罪的责任归属问题,需要一套相对确定的责任归责方法以适应法治化建设的需要。

(二)辅助工具说是责任归责的主要理论依据

要确定人工智能产品致伤致死类犯罪的刑事责任归属,则必须确定人工智能产品本身是否能成为责任主体,关于此问题,学界上对于人工智能产品法律人格理论存在着支持与反对两大对立观点,支持的观点认为(即法律人格说),人工智能产品是责任主体,人工智能的研发、生产单位和使用者均无法预料和控制具有自主意识的人工智能的“意识”和“行为”,同时,我国也有学者认为“在机器人社会化应用不可避免的情况下,我国(乃至世界各国)应当肯定机器人的法律主体地位,赋予机器人必要的权利”“人工智能具有独立自主的行为能力,有资格享有法律权利并承担义务,人工智能应当具有法律人格”。

但是此类看法及观点过于片面,我们不能一味地追求简单快捷的方法来解决人工智能产品所带来的各种法律问题,从而直接将人工智能产品视为法律主体,而更应该考虑的是赋予人工智能产品法律人格之后对整个法律体系、社会关系以及所有法律主体的影响与问题,赋予其法律人格即意味着人工智能产品与自然人在法律上具有相对同等的地位,因此在法律关系主体中就会出现一类全新的主体,传统法律的调整对象也将发生改变。

若赋予人工智能产品以法律主体地位,可能会出现以下问题:

第一,造成社会关系混乱,若人工智能产品具有法律主体地位则在法律所调整的社会关系中将出现一种新的社会关系:人工智能产品与自然人之间的社会关系,同时也意味着人工智能产品依靠程序进行的各种民事活动也因此合法有效。

第二,增加社会风险,无论是当前的“弱人工智能”时代还是未来的“强人工智能”时代,人工智能产品通常脱离人类控制而独立实施行为,并且在技术上并未达到最优状态,因此人工智能本身就是一个并非绝对稳定的产物,若赋予其法律主体地位对于社会而言犹如一枚定时炸弹,存在各种社会风险。

回到责任归责问题,若站在法律人格说的立场上让人工智能产品独自承担刑事责任并且成为刑罚执行对象是否可取?有学者提出观点:“人工智能可以像人类一样直接承担刑事责任,甚至原本只能适用于人类的传统刑罚,如死刑、自由行、缓刑、社区服务、罚金等手段,经过适当调整同样适用于人工智能。

再者,未来的强人工智能时代里,强人工智能产品将具有辨认能力和控制能力,刑法上应当承认其具有独立的人格和刑事能力,并且可以对其使用删除数据、修改程序、永久销毁等刑罚手段”。

笔者认为并不可取,首先,人工智能产品犯罪基础与自然人犯罪基础存在较大差别,正如上文所述,人工智能产品犯罪原因主要为外界因素的干扰导致系统错误(网络病毒、电磁波干扰等),而自然人犯罪以一定的主观目的为前提;其次,刑法的目的在于预防犯罪,要达到预防犯罪的目的需要在刑罚方面体现出威慑性,则需要在对人工智能产品实施刑罚的时候对其他所有人工智能产品公开警示,但人工智能产品并没有像自然人一样的被强制力所震慑的畏惧心理,所以对人工智能产品认定刑事责任且执行刑罚毫无意义;最后,没有准确的法律规定予以适用,法律总存在滞后性,若要将人工智能主体视为法律主体,需要重新制定新法或者在现行生效的刑事法律中增设新的罪名并且在适用过程中仍需不停修改法律以适应人工智能技术的发展,这样一来法律的稳定性将没有保障。

综上所述,关于人工智能产品致伤致死类犯罪的责任归责问题不能简单地赋予人工智能产品法律主体地位进而使其承担法律责任,而更应该通过重新审视刑法与刑罚的目的与原理进行考究,因此,在刑事责任归责的认定问题上,不宜以法律人格说作为其理论基础。

另一方面,持反对人工智能法律人格论(辅助工具说)的一方观点认为,“人工智能的‘意志’并非来源于天赋人权,而是来源于预设的程序以及指令,人工智能产品根据其预设的程序和指令自行实施一定的行动”,具体来说,人工智能产品尽管能脱离人类的操作控制即可主动实施行为,但其本身并不具备“人格”的基础以及特性,人工智能产品与自然人的“工具性”关系大致可以认为是:若自然人的意志来源于天赋人权,则人工智能产品的“意志”则应来源于“人赋”,因此从该立场出发,人工智能产品只能是自然人赋予其程序和指令的辅助工具。

将人工智能产品始终视为为人类生活生产提供便利的辅助工具,也就意味着人工智能产品犯罪的刑事责任也应始终归责于自然人,此类自然人责任主体包括研发、生产销售者与使用(管理)者。

此外,在责任形式方面,我国学者认为,“人工智能产品的责任形式可分为两个主要阶段:一、生产阶段:研发者、生产者的保障产品安全义务与故意责任;二、流通阶段:生产者的召回义务、所有者(使用者)的安全管理义务与过失责任”。

站在辅助工具说的立场上,看似已形成完美的责任链条,其实仍有新的问题存在并非一帆风顺,我们需要考虑到,人工智能产品与自然人在法律上的关系仅仅是民事关系中对物的所属关系,并无其他人身关系,并且考虑到人工智能产品的行为特性,即人工智能产品在实施行为时作为自然人的第三者对其行为可以说是毫无知情,那么在人工智能产品实施犯罪行为后,将责任归责于自然人并且对其实施刑罚是否公平妥当?比如人工智能产品实施了致人死亡的行为,是否可以对其使用者(或其他自然人责任主体)直接适用故意杀人罪或者其他罪名并且对其处罚?又如苏联人工智能机器人比赛落败后释放强电流“电击”杀害国际象棋冠军事件,假设人工智能产品出现“拟人心理”(在肯定辅助工具说的前提下),是否可以认为当时人工智能机器人落败冠军后导致“心情不悦”或者“恼羞成怒”进而将冠军杀害,若人工智能“拟人心理”确实出现在当今社会,直接将其物权所有人或者使用(管理)者套用罪名处罚是否公平?

笔者认为可以通过出台相应的法律解释以及司法审判上的变通来解决这些问题,首先,可通过法律解释,在无需增设新罪名的前提下对刑事法律中部分罪名针对人工智能犯罪的特殊情况予以解释,从中可直接规定其生产销售者、使用(管理)者的权利义务,从而规定对应的刑事责任,如在故意杀人罪的规定中,可将人工智能产品实施杀人行为的情形列入解释中,规定其使用者承担安全管理责任或者过失责任,对使用的处罚应从轻处理,根据危害结果的严重性可调整刑罚程度。

其次,司法审判过程中在关于人工智能产品犯罪的范围内可适当扩大法官的自由裁量权,法官可根据具体情况对责任主体作出适当判决,如根据责任主体(自然人)的知情程度以及是否存在对人工智能产品犯罪积极补救行为的情形等多方面进行考量。

最后,刑罚以财产刑为主,慎用或不用自由刑与死刑,考虑到人工智能产品犯罪的特性、责任主体的不知情以及人工智能产品的“拟人心理”与保障被告人合法权益等多方面情形,作为责任主体的自然人在人工智能犯罪的责任形式主要为过失责任,并且不是致伤致死犯罪行为的直接实施者(且不考虑犯罪行为人直接输入犯罪指令使人工智能产品实施犯罪的情形),因此在刑罚处罚上不宜判处过重的刑罚,若造成相对严重的后果也可通过高额罚金或赔偿予以调节。

综上所述,无论是在当前的“弱人工智能”时代还是在未来的“强人工智能”时代,在理论上与实践中都不足以支持给予人工智能法律主体地位,尽管人工智能技术在不断革新并且不断趋于完美,甚至可能取代自然人进行社会工作,同时也将面临各种未知的法律风险与挑战,但可以肯定的是,人工智能机器人绝不可能获得完全的不受限制、与自然人平等的主体地位,因此笔者认为关于人工智能产品致伤致死犯罪的责任归责应采用辅助工具说将自然人确定为责任主体更为合适。

将人工智能产品犯罪扼杀于摇篮之中

为了减少人工智能产品致伤致死犯罪的出现,须从源头开始进行预防,在人工智能产品生产之前可对其研发生产者进行应有的义务规定,既然人工智能产品被视为商品或工具而存在,则研发生产者应承担产品质量担保义务,如果研发生产者对自己所研发生产的人工智能产品中的质量瑕疵等问题明知而不告知且导致严重后果的,其研发生产者可直接构成故意犯罪。

另一方面,人工智能产品应作为特殊产品对待,人工智能产品生产者或者生产单位应当具备相对严格的生产资质,在研发生产人工智能产品前应当获得相应机关部门的生产许可,并且由政府机关部门对人工智能的研发生产工作通过行政手段进行监督。尽管人工智能产品不能等同于人类,但有着“拟人”的学习能力,因此在研发生产过程中应当将部分或者全部法律法规输入人工智能系统(应作为人工智能产品生产环节的强制性要求),并且在法律法规出现修改时也能通过互联网实时更新,虽不能完全杜绝人工智能产品致伤致死等犯罪行为,但可极大程度降低犯罪风险。

人工智能时代的到来已成定局,但人类是否能应对人工智能时代带来的风险仍没有定数,著名物理学家史蒂芬.霍金生前表示:“人工智能的出现可能是人类文明史上最糟糕的事情,”面对未来诸多不可预知的风险,霍金解释说:“人工智能的创造者需要采用最佳实践和有效管理”。总之,人工智能时代的发展离不开法律对人工智能的规范,只有首先应对和解决人工智能给法律带来的风险挑战才能给人工智能的发展营造良好的法律环境。

版权所有:中国共产党杭州市委政法委员会