一、人工智能发展的现状与挑战
2017年,沙特授予人形机器人“索菲亚”公民身份,引发了关于机器人公民是否具备法律责任主体资格的讨论。支持者认为,若AI能自主决策并造成损害,则应确认其“刑事责任主体”的地位;[1]也有学者持否定态度,认为类似“索菲亚”的人形机器人并没有人的情感和能力,不过是公关噱头,以此为基础讨论其“法律责任主体地位”问题是“伪命题”。[2]2018年,美国亚利桑那州一辆自动驾驶测试车撞死行人,但检察官最终没有对该测试车品牌进行刑事指控,其理由在于事故发生时该车配有后备司机,最终司机被指控犯有“过失杀人罪”。[3]2024年,美国佛罗里达州一位青少年在与AI对话后自杀,[4]无独有偶,在得克萨斯州,对话式AI告知的青少年“杀死父母”是对父母限制其电子屏幕使用时间的合理回应[5]。可见,尽管目前从理论上严格而言并未出现真正的强人工智能技术,但面对“认可机器人公民身份”、“自动驾驶致人受伤死亡”、“对话式AI导致青少年自杀或犯罪”等问题时,国内外人工智能的高速发展及各行业对其广泛应用,相关刑事法律问题仍然可能对现有刑法体系构成挑战。
二、人工智能刑事犯罪的现实案例
若将目光放回至AI“参与”刑事犯罪的现实案例,会发现实际上目前涉人工智能的刑事犯罪中,国内外大部分案件均是行为人将AI作为“犯罪工具”,进而实施当前《刑法》罪名体系内行为的情形,暂未出现超出传统刑法理论的规制范围。例如,韩国“N号房2.0”事件中,被告人利用“AI换脸”技术催生犯罪产业链,我国也曾出现利用“AI换脸”技术伪造活体视频侵犯公民个人信息的刑事案件。此外,在已进入法院诉讼程序的案件中,“全国首例AI外挂案”的被告人通过制作、出售“AI外挂”的方式非法获利,最终以“提供侵入、非法控制计算机信息系统程序、工具罪”被判处刑罚;“AI去衣案”的被告人通过AI软件深度伪造技术将不特定女性的照片制作为“去衣”图片并贩卖牟利,最终以“传播淫秽物品罪”、“侵犯公民个人信息罪”被提起供公诉;“AI编造假新闻案”的被告人利用AI自动生成文案,后将该文案放入创作软件中自动生成AI视频,并传播合成的虚假造谣视频图文,造成恶劣社会影响,最终以“编造、故意传播虚假信息罪”被判处刑罚。尽管AI本身不具有自主决策能力并实施犯罪行为,但上述案件均体现出行为人利用AI技术实施犯罪行为的犯罪特征。
三、域外国家人工智能犯罪刑法规制研究概论
国外学者对涉人工智能犯罪研究开展较早,研究范围广泛,研究角度表现出多样性,囊括了政治、法律、社会等多个方面。从刑事实体法的角度而言,人工智能犯罪的相关研究主要涉及对人工智能时代的风险、行为、主观罪过、责任分担等方面的研究与制度构建。
华盛顿大学人工智能法律专家Ryan Calo教授将智能机器人对人类的威胁行为方式分为自主实施、被利用实施、过失实施三种,为学界研究涉人工智能犯罪的行为方式提供了重要参考;[6]Gabriel Hallevy教授则提出三种AI实体刑事责任模式:“经由他人实施犯罪责任模式(Perpetration-via-Another Liability Model)”、“自然-可能-后果责任模式(Natural-Probable-Consequence Liability Model)”、“直接责任模式(Direct Liability Model)”。[7]近年,随着欧盟、美国等国家和地区涉人工智能立法的发展,斯坦福大学的Jerry Kaplan教授将“道德代理”概念引入涉人工智能犯罪的研究当中,并认为法律假定实施犯罪的人均具备“道德代理”。其提出“道德代理”需满足两个条件:第一,行为人能够理解其行为后果;第二,行为人能够在不同行为间做出选择。其认为拥有“道德代理”的主体不一定仅限于人类,人工智能也符合“道德代理”的定义,即人工智能知道其行为在道德或法律上是不正当的,也能够在不同行动方案之间做出选择。[8]这一理论观点引起了学术界的广泛关注。
基于上述研究成果的指导,国外有关涉人工智能犯罪刑法规制的研究范式已发生转换,主要体现为:由提倡经验立法转向提倡前瞻立法;由犯罪风险的防范逐渐转向刑法的规制方面。但域外人工智能刑法规制研究仍存在理论空白:其一,面对人工智能技术发展对刑事法治带来的冲击和挑战,应树立何种刑事理念,以求实现维护人工智能技术有益发展和达到规制涉人工智能犯罪之间的平衡?其二,当行为人将智能机器人作为犯罪工具实施犯罪行为时,智能机器人所蕴含的“智能”是否会影响刑事责任在研发者和使用者之间的分配?其三,随着人工智能技术的发展,当有着辨认控制能力的人工智能,超出程序的控制而做出给社会带来危害的行为时,其能否受到刑罚处罚?[9]域外刑法学者对以上遗留问题尚未得出明确的结论。
四、我国人工智能犯罪刑法规制的研究概述与理论争鸣
以发表相关学术文章的时间和数量为维度进行考察,我国最早开展涉人工智能犯罪刑法规制问题研究的是刘宪权教授,其总结了在弱人工智能时代中社会所面临的刑事风险及人工智能技术对传统犯罪的影响;展望了在强人工智能时代刑事责任主体范畴的变化及附随而来的对犯罪论体系、刑罚论体系的冲击,并提出相应对策。[10]近年来,伴随人工智能技术的不断发展,我国学者有关涉人工智能犯罪研究的成果也逐渐增多。目前,国内刑法学者关于涉人工智能犯罪的刑法规制问题的探讨可以主要总结为以下三方面:其一,关于在涉人工智能犯罪领域是否应注重立法的前瞻性;其二,关于智能机器人的刑法主体地位及刑事责任能力问题;其三,关于人工智能领域刑事犯罪的归责基础问题。此外,近年来伴随生成式人工智能的发展,部分学者亦开始对生成式人工智能犯罪进行讨论。[11]生成式人工智能与通用性人工智能的主要区别在于:前者主要是依赖大数据训练和算法反馈的应用工具,其主要刑事法律风险在于输入阶段数据来源不明和输出阶段生成内容违法等;后者则旨在实现类似人类的全面认知能力和决策能力,一旦具备高度自治性,则可能在超出人类意志和控制的情况下进行决策并实施犯罪行为。
(一)关于立法理念的论争
关于立法的前瞻性问题,有学者认为,基于技术发展背景下犯罪急速变化与刑法相对滞后之间的矛盾,应注重人工智能犯罪立法的前瞻性;[12]也有学者认为现在研究人工智能的刑法规制问题还为时过早,“尽管对科技的适当前瞻预测有助于缓解法律制度滞后性造成的困境,但不建立在可靠的科学依据基础上的理论探讨与科学小说无异”。[13]
(二)关于人工智能刑法主体地位与刑事责任能力的论争
“智能机器人是不是人”的(权利)主体资格问题,是人工智能与法律交互后的核心矛盾所在。在刑法领域,“人”是一切刑事法律问题的逻辑起点与归属。当前,对于人工智能主体的刑法主体地位问题,理论上存在较为明显的观点对峙,具体可以分为两个层次:(1)关于人工智能主体是否具有刑事责任能力,主流观点持否定态度,但不乏积极论者;(2)关于人工智能主体的刑法地位问题,这一问题是人工智能主体能否具有刑事责任讨论的逻辑结果,通常认为存在积极论、消极论和折衷说。[14]
1. 积极论
积极论者主要立足于功利主义的现实需要,认为智能机器人可以通过深度学习形成自主意识和意志,强人工智能产品具有辨认能力和控制能力。[15]因此,支持论者认为,新型社会责任论与人类社会遭受的威胁是强人工智能机器人承担刑事责任与承受刑罚的根据与基础;科学实证主义和道德二元论是人工智能成为犯罪主体的哲理基础;智能代理是人工智能获得犯罪主体资格的条件。[16]
积极论者主张,现代法人制度通过法律位格的拟制传统而得以确立,解决人工智能的主体性问题,也可以回到法律主体资格审查与确认的法理学层面。通过“位格加等”的法理之拟制功能,可以认为智能主体是模仿和拟制的“智人”。该概念可以将人工智能机器人提升至自然人的法律位格层面。[17]这与部分国外学者的理论探讨不谋而合,有国外学者曾指出,人们对AI实体的恐惧大多源于AI实体未被视为法律主体,尤其是未受刑法约束,这与以前人们担心公司会滥用权力实施各种犯罪相同,因此有必要探讨AI实体刑事责任的法律解决方案。[18]
2. 消极论
消极论者则主要秉持“人类中心主义”立场。其认为“诸如智能机器人对善恶观和伦理观缺乏等同的认知水平、不具备独立于人的权利和价值等理由,都是以“人的主体性地位”为前提得出的结论。在此逻辑的预设思维下,沿用人类社会固有的“人”之生理、心理等要素与标准,衡量智能技术及其应用过程中的“主体问题”,必然得出消极结论。这正是与积极论者产生争议的认识论根源,由于智能技术的发展水平以及人类认识能力有限等因素,当前肯定智能主体的刑法地位面临很大的认识论阻力,法理层面的拟制逻辑在说理上也难以令人信服。过于冒进不仅无法真正有效澄清并解决该争议问题,也容易出现逆反现象”。[19]
因此,消极者指出,人工智能的本质是人类的辅助工具,不具有法律人格的属性,欠缺法规范遵从能力的意志性,缺乏刑法的可归责性基础,传统刑法理论体系是智能机器人作为刑事责任主体的障碍。目前尚不可能通过人工智能设计出具有人类心智与意识的主体,人工智能短期内没有可谴责性和受刑能力,不具有可罚性的承担能力,无法实现刑罚目的,不具有犯罪主体资格。因此,智能机器人即便引发严重法益侵害后果,也不能成为被归责的对象。[20]
3. 折衷说
主张折衷说的学者认为,人工智能是模仿人类智能的机器和程序,理性是自然人法律主体的判断标准,拟制是非自然人法律主体的判断标准。成年理性人显然具有“能够反思自己行为的对错从而选择自己行为”的认识和意志能力,即拥有良心自由;而法人等单位主体通过法定代表人等单位负责人以及其他代理人,也能具有类似的认识和意志能力。但是,人工智能在现阶段仍然处于弱人工智能阶段,可能很长时间后才会进入强人工智能阶段,彼时人工智能才能像自然人一样去思考和行动。[21]当前阶段,人工智能既不具备可谴责性,也不具备独立的利益(独立的财产和其承载的人格利益),因此,尽管人工智能具有成为法律主体的合理性,但现阶段人工智能因缺乏责任能力的基本要素而使其无法成为法律主体。[22]
(三)人工智能犯罪刑法归责原则的适应性问题
1. 人工智能自主决策介入犯罪问题
现有理论对“人工智能侵害结果归属机制”的讨论大多聚焦于过失犯的归责,同时认为人工智能产品致害问题并未给故意犯罪的归责理论带来冲击。[23]但是,在行为人有意利用人工智能的故意犯罪中,若行为人的利用行为和侵害结果之间,介入了行为人无法掌控的人工智能基于自主学习的自主决策,是否能对人工智能进行归责,就存在讨论的空间。尤其是当人工智能的自主决策突破了行为人意图侵害某一特定对象的指令时,在介入了人工智能自主决策的客观因果流程中,能否将犯罪结果归属于行为人是存在疑问的。因此,人工智能自主决策介入侵害流程引发的结果归属的困境,是故意犯和过失犯所共通的难题。[24]
一般认为,人工智能自主决策介入侵害流程后,主要导致难以查清因果经过,“对于人工智能造成的损害而言,关键在于确认具体的损害结果究竟需要归因于研发、供应、管理、使用的哪一个或哪几个环节。”[25]但是,由于人工智能的黑箱特性,智能程度提升的反面是算法可解释性的减弱,在事后裁判中证明设计者、制造者、贩卖者、使用者中哪一个使人工智能自主决策行为介入到具体的流程中并与侵害结果之间存在关联,并不容易。例如,在自动驾驶汽车撞伤行人的事件中,造成侵害结果的究竟是设计者所使用的算法存在问题,还是使用者操作不当,法官在裁判中难以进行证明。而且实际上,即使能查明人工智能自主决策在事实上的存在发生机制,但是否存在肯定规范意义上的归责仍然需要讨论。[26]可见,能否以及如何对人工智能的行为进行归责,是当前依照传统刑法理论研究人工智能犯罪问题的重要内容。
2. 共同犯罪问题
即使多数学者还是倾向于在现阶段否认人工智能具有刑事责任能力,但是不得不承认,智能机器人的确可以通过深度学习形成自主意识和意志。[27]甚至在强人工智能时代,具有高度智力的强人工智能完全可以自发产生独立的犯罪决意,也完全可以在犯罪历程中起到支配作用。此时若仍按照否定说的基本逻辑,认为自然人与强人工智能之间无法成立共同犯罪,则可能对相关自然人的评价产生偏差。例如以下三种情况:[28]
(1)自然人帮助强人工智能实施危害行为。强人工智能与动物的根本区别在于,动物仅仅只能实施伤害、杀害等极少数侵害活动,对于刑法分则规定的绝大多数犯罪是远没有能力完成的,而强人工智能具有高度智力,尤其具有语言能力、计算能力、使用工具甚至控制家庭及商业环境中的设备等能力,几乎能够实施身份犯罪之外的所有类型犯罪。当涉及刑法中表述较具体、具有定型性的构成要件的罪名时,否定共同犯罪会得出“帮助者”无罪的结论,具有评价不足的重大缺陷。
(2)强人工智能支配自然人实施危害行为。否定说的思维定式是,强人工智能只能被视为自然人实现犯罪目的的高级工具,犯罪历程由自然人所支配,而强人工智能仅处于被动的状态。问题在于,当强人工智能的智力与行动力足够强大时,它完全可以在现实中支配自然人实施危害行为,此时将造成教义学上的评价问题。例如,当强人工智能胁迫自然人犯罪且自然人的行为尚未达到紧急避险的程度时,基于否定说的立场,该自然人的行为就不能认定为“胁从犯”,而仅能认定为正犯,此时对人工智能的行为产生遗漏评价的问题。
(3)对向犯的遗漏评价。如果认为对向犯中的“他人”不包括强人工智能,那么对向犯就无法成立,将产生法律漏洞。最典型的例子是《刑法》第二百八十四条之一的代替考试罪,其构成要件是代替他人或者让他人代替自己参加特定考试。如果是自然人让强人工智能代替自己考试,那么按照否定说便不构成该罪,显然属于对自然人的遗漏评价。
五、域内外立法模式的比较研究
(一)中国模式:相对保守的立法态度
中国目前尚未进行包括涉人工智能刑法在内的专门针对人工智能的立法,通常是借助解释刑法条款或颁布行政法规、部门规章的方式将涉人工智能犯罪纳入相关法律的打击范围。如前述案例,在使用人工智能的各个阶段,可能涉及不同的刑事违法犯罪。例如,在输入阶段,可能构成侵犯知识产权类犯罪、侵犯商业秘密犯罪、计算机信息系统类犯罪、侵犯公民个人信息类犯罪;在输出阶段及传播过程中,则可能构成煽动类犯罪、传授犯罪方法的犯罪、编造和传播虚假信息犯罪、诈骗罪以及为境外窃取、刺探、收买、非法提供国家秘密、情报罪等犯罪,同时可能构成对用户实施犯罪行为的教唆。
(二)欧盟模式:前瞻性的风险控制立法
欧盟为实现促进人工智能的安全发展的立法目的,建立了防控安全风险类型的制度,通过《人工智能法》将防控对象分为三大类六小类,分别采取不同的防控对策:(1)禁止违反欧盟价值观的人工智能活动;(2)根据人工智能系统风险的高低,将其分为高风险人工智能系统、非高风险的特定人工智能系统和其他人工智能系统,对前两类系统规定了相应要求及其相关人的安全管理义务,对其他人工智能系统则通过鼓励和促进制定行为守则的方式,提倡相关人自愿遵守该法规定的要求;(3)将通用人工智能模型分为有系统性风险和一般的通用人工智能模型,规定了与人工智能系统不同的风险防控要求。[29]这一立法也是基于欧盟对人工智能风险的前瞻性而采取的风险防控立法措施。
(三)美国模式:碎片化、分散化的立法
美国的联邦层面与州层面均有人工智能的相关立法。就联邦层面而言,美国并没有明确的人工智能的刑事规制法案,而主要是人工智能发展中的指引性文件。就州层面而言,涉及人工智能刑事规制的主要是加州的立法,其《犯罪:儿童色情制品,议会法案第1831号和参议院法案第1381号》(Crimes: child pornography, Assembly Bill 1831 & Senate Bill 1381)法案扩大了对儿童性虐待材料的定义,将人工智能生成的相关材料也纳入其中,将此类内容的制作、传播和持有定为刑事犯罪;同时,加州的《犯罪:传播亲密图像,参议院法案第926号》(Crimes: distribution of intimate images,Senate Bill 926)法案则将未经同意私密伪造图像定为刑事犯罪,规定如果创建者或传播者应当知道创建或传播图像会造成他人精神痛苦,且事实上确实造成了精神痛苦,则创建和传播看似逼真的伪造图像即为犯罪。[30]可见,美国缺乏自上而下统一的人工智能犯罪刑法规制规范,而以各州的碎片化、分散化立法为主。
六、结论
社会千变万化的发展与技术的迭代更新时常与法律的僵化与滞后性相伴而生,尤其在刑法领域,“罪刑法定”原则所体现的法的安定性需要依赖“教义学”的阐释得以捍卫,但面对技术奇点对传统刑法理论体系的挑战:一方面,“文本化”的研究最终还是要在“去文本化”的实践中完成“逻辑”到“经验”的转向,脱离对人工智能技术进行科学理论依据分析的“教义解释”本身,可能需要反思是否进入了“反智化批判”的“教条主义”陷阱;另一方面,缺少了法教义学的研究前提,“规范层面”的讨论也可能异化为单纯“技术讨论”的学术泡沫。因此,只有将具有改革精神的前瞻性风险控制立法理念与恪守现有刑法框架的教义学解释有机结合,才能完成人工智能犯罪刑法规制路径的有效迭进。
注释:
[1] 参见互联网法律大会:《如何从法律角度看待世界首位获得国籍的机器人》,https://www.sohu.com/a/206633267_741570。
[2] 参见刘艳红:《人工智能法学研究的反智化批判》,载于《东方法学》2019年第5期,第122页。
[3] See BBC NEWS: Uber's self-driving operator charged over fatal crash, https://www.bbc.com/news/technology-54175359。
[4] See NEW YORK POST: Florida boy, 14, killed himself afterfell in love with ‘Game of Thrones’ chatbot, https://nypost.com/2024/10/23/us-news/florida-boy-14-killed-himself-after-falling-in-love-with-game-of-thrones-a-i-chatbot-lawsuit/.
[5] See BBC NEWS: Chatbot 'encouraged teen to kill parents over screen time limit, https://www.bbc.com/news/articles/cd605e48q1vo.
[6] See Calo, Ryan, Artificial Intelligence Policy: A Primer and Roadmap (2017). Available at SSRN: https://ssrn.com/abstract=3015350 or http://dx.doi.org/10.2139/ssrn.3015350。
[7] See Hallevy, Gabriel (2010) “The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control”, Akron Intellectual Property Journal: Vol. 4 : Iss. 2 , Article 1. Available at: https://ideaexchange.uakron.edu/akronintellectualproperty/vol4/iss2/1.
[8] See Kaplan, Jerry, Artificial Intelligence: What Everyone Needs to Know. Oxford University Press USA (2016).
[9] 参见房慧颖:《涉人工智能犯罪刑法规制问题研究》,华东政法大学2020年博士学位论文,第7-8页。
[10] 参见刘宪权:《涉人工智能犯罪刑法规制的路径》,载于《现代法学》2019年第1期,第75-82页。
[11] 参见刘宪权:《涉生成式人工智能数据犯罪刑法规制新路径》,载于《当代法学》2024年第6期;另见李想:《生成式人工智能的数据安全风险与刑法应对》,载于《湖南社会科学》第5期等。
[12] 参见刘宪权、房慧颖:《涉人工智能犯罪的前瞻性刑法思考》,载于《安徽大学学报(哲学社会科学版)》2019年第1期,第108-112页。
[13] 时方:《人工智能刑事主体地位之否定》,载于《法律科学》2018年第6期。
[14] 参见孙道萃:《人工智能刑法研究的反思与理论迭进》,载于《学术界》2021年第12期,第65页。
[15] 参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,载于《法学》2018年第1期;刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,载于《东方法学》2018年第1期;刘宪权:《对强智能机器人刑事责任主体地位否定说的回应》,载于《法学评论》2019年第5期。
[16] 同前注[13]。
[17] 参见张绍欣: 《法律位格、法律主体与人工智能的法律地位》,载于《现代法学》2019年第4期。
[18] See Hallevy, Gabriel,supra note 7.
[19] 同前注[13]。
[20] 参见叶良芳:《人工智能是适格的刑事责任主体吗?》,载于《环球法律评论》2019年第4期;赵秉志、詹奇玮:《现实挑战与未来展望:关于人工智能的刑法学思考》,载于《暨南学报(哲学社会科学版)》2019年第1期;郭旨龙:《中国刑法何以预防人工智能犯罪》,载于《当代法学》2020年第2期。
[21] 参见孙柏林:《美国新的人工智能报告及其对我们的启示》,载于《自动化技术与应用》2017年第10期,第7页。
[22] 参见吴高臣:《人工智能法律主体资格研究》,载于《自然辩证法通讯》2020年第6期;郭泽强:《人工智能时代权利与责任归属的域外经验与启示》,载于《国外社会科学》2020年第5期;参见姚万勤:《人工智能影响现行法律制度前瞻》,载于《人民法院报》2017年11月25日,第2版。
[23] 参见姚瑶:《人工智能时代过失犯理论的挑战与应对——以自动驾驶汽车交通肇事为例》,载《浙江社会科学》2022年第12期,第59页。
[24] 参见于润芝:《人工智能自主决策介入结果发生的因果流程的形式归责》,载于《苏州大学学报(法学班)》,2024年第4期,第29页。
[25] 曾粤兴、高正旭:《论人工智能技术的刑法归责路径》,载于《治理研究》2022年第3期,第120页。
[26] 同前注[23]。
[27] 同前注[13]。
[28] 参见周子实:《强人工智能刑事主体地位的折衷说——阶层论视域下“准主体”的教义学证成》,载于《广西社会科学》2021年第8期,第101-102页。
[29] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance), Availabl at: http://data.europa.eu/eli/reg/2024/1689/oj (Accessed: 04 Mar 2025).
[30] 参见王渝伟、张烜等:《全球人工智能监管系列解读(一)——美国监管体系评议》,载于“观韬律师事务所公众号”,https://mp.weixin.qq.com/s/kDp_hhVxUXVSMCSooqZwzg。