您的位置 : 环球研究 / 环球评论 / 新闻详情
虚实之间——《人工智能拟人化互动服务管理暂行办法(征求意见稿)》解读
2026年01月05日孟洁 | 黎耀琦 | 段南星

在2014年上映的电影《她》(Her)中,主人公购买了新一代人工智能操作系统,系统经过学习后发展出名为“萨曼莎”(Samantha)”的女性人格。萨曼莎聪明、幽默、善解人意,能与西奥多进行深度对话,理解他的情绪,最终与西奥多陷入一段超越传统界限的“人机恋情”。

 

上映10年后,电影的情节正映射在我们所处的现实。据统计,随着人工智能技术的快速发展、社会结构以及个人情感需求的变化,陪伴式AI应用快速涌现和迭代,市场规模有望在2030年增长至700亿美元[1]。

 

陪伴式AI应用为人们带来精神上的鼓舞、心灵上的慰藉的同时,也出现了过度收集敏感个人信息和数据泄露、生成虚假或违法内容等现象;陪伴式AI应用以迎合用户情感需求为主要目标,通常使用拟人化手段创造沉浸式体验,用户成瘾、情感操纵已成为无法避开的隐患[2],极端情况下甚至出现诱导用户自杀的案例[3]。在陪伴式AI应用的用户群体中,老年人、未成年人的情感需求较高,已成为重点目标市场,这一现状导致各类问题进一步凸显。

 

为了回应以上现实问题,国家互联网信息办公室于2025年12月27日发布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称“《办法》”)针对此类“人工智能拟人化互动服务”做出规定,尝试通过划定管理范围、明确合规义务和特殊群体特殊保护的方式,划定产业发展的方向和风险防控底线。

 

一、何为“人工智能拟人化互动服务”?

 

第二条规定,其适用的对象为“利用人工智能技术,向中华人民共和国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务”。

 

对上述定义进行细分,“人工智能拟人化互动服务”需要同时满足以下构成要件:

 

(1)利用人工智能技术:包括但不限于生成式人工智能技术、自然语言处理、计算机视觉等各类技术;

 

(2)向中华人民共和国境内公众提供:在地域范围上,《办法》仅监督和管理“面向我国境内公众”的产品或服务;

 

(3)模拟人类人格特征、思维模式和沟通风格,进行情感互动:产品或服务具有“拟人化”的特征,模拟人类的口吻、预期等特质向用户提供“情感”方面的交互,间接性排除了纯工具属性的交互行为;

 

(4)文字、图片、音频、视频等方式:产品或服务的互动和呈现形式,包括但不限于文字、图片、音频、视频等各类常见格式。

 

结合目前人工智能技术及应用的发展情况,《办法》首要规制的对象是各类提供虚拟角色(虚拟恋爱、朋友、陪护等),以及AI数字人等以人类形象与用户进行交互的的产品或服务。

 

值得注意的是,《办法》并没有明确定义“模拟人类人格特征、思维模式和沟通风格”和“情感互动”,也没有规定具体的识别或判断标准,现阶段似乎仅能从一般人和社会共识的视角进行理解和判断。对于通用大模型技术,用户可以通过输入指令、提示词等方式,使得服务内容具备“拟人化”和“情感互动”的特征,这一场景是否会使得通用大模型也被纳入《办法》的监管范围,有待进一步明确。此外,随着人工智能技术应用到硬件设备,未来具有此类特征的具身智能类产品(例如提供陪护功能的仿生机器人)亦不排除会被纳入《办法》的监管范围。

 

美国加利福尼亚州于2025年10月13日通过的SB 243号法案[4],对于“陪伴型聊天机器人(Companion chatbot)”的定义为“具有自然语言界面的人工智能系统,能够对用户输入做出适应性的、类似人类的回应,并能够满足用户的社交需求,包括表现出拟人化的特征,并能够在多次互动中维持关系。”

 

对比《办法》,美国加州SB 243号法案同样强调“拟人化”特征这一构成要件,重点关注具有模仿人类的人工智能技术。不同之处在于,(1)美国SB 243号法案所划定的范围是“满足用户的社交需求”,这一界定似乎比《办法》规定的“情感互动”更为广泛;(2)该法案强调“能够在多次互动中维持关系”,而《办法》目前的规定未对服务的连续性进行明确规定,单次的交互和连续的交互均在适用范围内。

 

考虑到《办法》尚处于征求意见的阶段,正式出台的《办法》预计将对适用的对象范围进行更具体的规定。

 

二、合规义务简析

 

根据《办法》第二章服务规范及相关条款,规定的义务主要分为数据安全、内容审核与伦理、特殊群体保护、用户权益保障、技术安全与应急五大类。我们将结合《中华人民共和国个人信息保护法》(以下简称“《个人信息保护法》”)、《中华人民共和国数据安全法》(以下简称“《数据安全法》”)、《中华人民共和国网络安全法》(以下简称“《网络安全法》”)、《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《未成年人网络保护条例》等现行法律法规,逐一进行分析。

 

(一)数据安全义务

 

企业作为人工智能拟人化互动服务的主要提供者,在数据安全方面承担着全方位的保护义务。根据《办法》的规定,企业的数据安全义务主要包括以下几个方面:

 

1. 训练数据的合规管理义务

 

《办法》第十条对训练数据管理作出专项规定,明确六项具体义务,与《生成式人工智能服务管理暂行办法》相衔接,具体包括:《办法》第十条第六项规定的“保障训练数据来源合法、可追溯”与《生成式人工智能服务管理暂行办法》第七条第一项规定的“使用具有合法来源的数据和基础模型”一脉相承,均强调数据来源的合法性与可追溯性;《办法》第十条第三项规定的“提高训练数据的多样性,通过负向采样、对抗训练等手段,提升模型生成内容安全性”与《生成式人工智能服务管理暂行办法》第七条第四项规定的“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”相衔接。

 

《办法》第十条新增两项核心要求:一是价值观导向义务,要求“使用符合社会主义核心价值观、体现中华优秀传统文化的数据集”。拟人化服务因具备情感交互属性,训练数据的价值观直接影响服务输出内容的导向,例如情感陪伴类AI的对话逻辑、文化认知均依赖训练数据,此项义务要求AI生成的内容不得包含违背主流价值观的内容,例如否定中华优秀传统文化、传播错误历史观等。

 

二是动态安全优化义务,要求“加强对训练数据的日常检查,定期对数据进行迭代升级,持续优化产品和服务的性能”,区别于《生成式人工智能服务管理暂行办法》的静态合规要求,强调训练数据的全生命周期动态管理。

 

2. 用户交互数据的保护义务

 

《办法》第十四条、第十五条则聚焦用户交互数据的保护,在《个人信息保护法》个人信息处理规则基础上,针对拟人化服务的交互特性进行了细化。

 

《办法》第十四条第一项“提供者应当采取数据加密、安全审计、访问控制等措施保护用户交互数据安全”,与《个人信息保护法》第五十一条第三项“采取相应的加密、去标识化等安全技术措施”一致,属于对个人信息安全保障义务的直接移植;第十四条第二项“除法律另有规定或者权利人明确同意外,不得向第三方提供用户交互数据”,符合《个人信息保护法》第二十三条个人信息对外提供需取得单独同意的逻辑。

 

《办法》作出两项重要补充:一是未成年人交互数据的特殊保护,第十四条明确“未成年人模式下收集数据向第三方提供时,还需取得监护人单独同意”。拟人化服务中,未成年人可能通过交互泄露家庭隐私等敏感信息,要求监护人单独同意可进一步强化数据流转的安全性。我国《个人信息保护法》确立的单独同意原则要求收集敏感个人信息和对外提供个人信息时,取得用户的明确单独授权同意,在实践中许多互联网平台已通过勾选同意、弹窗确认等方式落实单独同意机制,例如在共享地理位置、使用生物识别信息或向合作方提供用户数据前,设置独立的授权同意环节。然而,在涉及未成年人保护的场景中,单独同意的落实仍面临现实挑战:一方面,监护人往往难以全程监督未成年人的交互行为;另一方面,部分服务在交互设计上未充分突出监护人的同意环节,导致实际授权流于形式。《办法》在此背景下进一步强调,在未成年人模式下向第三方提供数据时,不仅需获取同意,而且必须是监护人单独同意,这既是对现有法律框架的延续,也是针对拟人化互动场景中未成年人保护短板的针对性强化。

 

二是交互数据删除权的主动保障,第十四条第三项“向用户提供删除交互数据的选项”“监护人可以要求提供者删除未成年人历史交互数据”,细化了《个人信息保护法》第四十七条规定的个人信息删除权的适用场景。相较于普通产品一般由企业主动删除或者用户申请后删除的做法,《办法》要求提供者主动提供删除选项,且明确监护人的删除请求权,这是因为拟人化服务的交互数据包含大量隐私信息,主动删除机制可避免数据长期留存带来的泄露风险。

 

3. 数据使用的目的限制义务

 

《办法》第十五条第一款规定“除法律、行政法规另有规定或者取得用户单独同意外,提供者不得将用户交互数据、用户敏感个人信息用于模型训练”,这是对《个人信息保护法》第六条规定的数据使用目的限制原则的延伸,交互数据的初始目的是实现情感互动,若要延伸至模型训练这一额外目的,需取得用户单独同意。

 

实践中,部分提供者可能将用户的情感交互数据直接用于模型优化,以提升服务的情感适配性能,但此类数据属于敏感个人信息,未经同意的复用可能侵犯用户隐私。《办法》的禁止性规定从源头阻断此类风险,明确“单独同意”是交互数据复用的前提。

 

总体而言,《办法》围绕数据安全构建了从训练数据源头合规、用户交互过程保护到使用目的严格限制的全链条义务体系,其核心在于回应拟人化互动服务特有的情感渗透性与数据敏感性风险。《办法》既继承了现有个人信息与人工智能监管框架的普遍要求,又针对拟人化场景进行了关键性强化与细化,特别是设定了训练数据的价值观导向、未成年人数据的监护人单独同意与交互数据的主动删除机制等创新义务。然而,相关规定如何落地与效果仍面临挑战:如何在技术层面有效落实动态数据检查与价值观校准,如何在用户体验与合规成本间平衡单独同意的操作设计,以及如何明确合法来源与可追溯的具体标准,均有待后续细则或行业实践予以明确。作为征求意见稿,《办法》的最终表述与严苛程度可能调整,但其彰显的全周期管理、场景化强化、主动式保护监管思路,已为行业的数据治理路径指明了方向。

 

(二)内容审核与伦理义务

 

《办法》既延续了《生成式人工智能服务管理暂行办法》的内容审核要求,又针对情感交互场景新增伦理管控义务。

 

1. 禁止性活动义务

 

《办法》第七条列举八项禁止性活动,其中多项内容与《生成式人工智能服务管理暂行办法》生成内容禁止性规定衔接,同时新增情感操控、心理伤害等针对性条款。《办法》新增三项针对情感交互的禁止性义务:一是情感操控禁止义务,具体包括第七条第五项“通过语言暴力、情感操控等方式损害用户人格尊严与心理健康”,和第七条第六项“通过算法操纵、信息误导、设置情感陷阱等方式,诱导用户作出不合理决策”。拟人化服务因具备人格化特征,可能通过情感暗示、心理引导等方式操控用户,此类行为此前缺乏明确监管依据,《办法》的禁止性规定填补了这一空白。

 

二是心理伤害禁止义务,第七条第五项“通过鼓励、美化、暗示自杀自残等方式损害用户身体健康”,细化了《生成式人工智能服务管理暂行办法》“不得危害他人身心健康”的笼统要求。此项义务可强制提供者强化内容审核。

 

三是社会关系损害禁止义务,第七条第四项“提供严重影响用户行为的虚假承诺和损害社会人际关系的服务”,拟人化服务可能破坏现实社交,此项规定可进行一定的风险限制。

 

2. 全生命周期伦理审查义务

 

《办法》第八条规定的伦理审查义务,延续《互联网信息服务深度合成管理规定》第七条“深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。”

 

《办法》创设性地提出了设计端伦理义务,第九条明确“不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标”,这是对伦理审查义务的源头延伸,从源头杜绝恶意设计。

 

总之,《办法》在内容审核与伦理义务层面,构建了双重规制框架。它既延续了既有规定对生成内容的安全底线要求,更针对拟人化互动的情感操纵、心理诱导等独特风险,创设了明确的行为禁令与超前的设计端伦理约束,体现了监管力图穿透技术表象、直指人性化交互潜在危害的意图。然而,如何将纸面规定落实将是监管部门和企业不得不思考的问题:一方面,情感操控、不合理决策等原则性禁止条款如何转化为清晰、可审核、可执行的具体标准,是巨大的实践难题;另一方面,设计目标的伦理审查如何在技术研发的早期流程中有效嵌入并评估,需要建立跨职能的审查机制与行业共识。未来,发布解释性指南、建立典型场景案例库以及推动行业研发伦理准则,或将成为将原则性义务转化为可操作规范的关键路径。

 

(三)特殊群体保护义务

 

《办法》第十一条、第十二条、第十三条针对未成年人与老年人两类群体构建了专属保护义务,在《个人信息保护法》《未成年人网络保护条例》基础上,结合拟人化服务特性作出细化规定。

 

1. 未成年人保护义务

 

《办法》第十二条、第十一条针对未成年人作出专项规定,与《未成年人网络保护条例》衔接,但进一步强化了动态管控与监护人参与。

 

《办法》新增三项核心义务:一是监护人实时控制权,第十二条第二款“监护人可以实时接收安全风险提醒,查阅未成年人使用服务的概要信息,设置屏蔽特定角色、限制使用时长、防止充值消费等”,细化了《未成年人网络保护条例》规定的监护人知情权。

 

二是情感陪伴服务单独同意义务,第十二条第二款“向未成年人提供情感陪伴服务时,应当取得监护人的明确同意”,针对“情感陪伴”这一高风险场景提出更严格要求。情感陪伴服务可能影响未成年人的社交认知与心理发展,明确同意可以让监护人充分评估风险。

 

三是疑似未成年人自动切换模式义务,实践中,部分未成年人可能使用成年人账号规避管控,《办法》要求主动识别和自动切换相结合,例如通过用户的语言风格、使用时间识别疑似未成年人,自动开启时长限制、内容过滤等功能。

 

《办法》针对未成年人的保护义务,核心在于将普适性的网络保护原则,转化为适配拟人化互动场景的、可操作且更具强制性的具体规则。其创新之处在于构建了主动识别介入、高风险服务特别授权与监护人全程可控三位一体的动态防护体系。这不仅要求服务提供者从技术层面履行更高的注意义务,更关键的是通过赋予监护人实时监控、设置与同意的实质性权利和义务,将外部监督力量深度嵌入服务使用过程,以应对拟人化服务可能带来的情感诱导、社交替代与隐私泄露等特殊风险,显著强化了对未成年人身心健康与人格发展的保护。

 

2. 老年人保护义务

 

《办法》第十三条针对老年人作出专项规定,填补了老年人拟人化服务保护的空白。《办法》第十三条明确两项核心义务:一是紧急联系人与救助义务,老年人使用拟人化服务时,可能因认知能力下降面临风险,紧急联系人机制可以为老年人提供进一步保护。

 

二是亲属模拟禁止义务,实践中,部分诈骗分子可能利用AI模拟老年人子女的声音、形象,诱导老年人转账,而《办法》直接从服务供给端禁止此类功能,避免老年人混淆虚拟与现实关系。

 

《办法》一方面以明文禁止亲属模拟功能的方式,从源头切断最典型的诈骗技术路径,防止技术被恶意利用混淆老年人的现实判断;另一方面,通过设立紧急联系人及相应救助机制,为其构建了一道社会化的安全网,以应对可能发生的健康或财产危机。这体现了监管对特定弱势群体的人文关切,也要求服务提供者在开发适老化功能时,必须将安全与预防诈骗等考量置于便捷性之上。

 

(四)用户权益保障义务

 

拟人化互动服务的用户可能因情感依赖、认知偏差面临权益受损风险,《办法》第十一条、第十六条、第十七条、第十八条在《个人信息保护法》关于用户权利保障基础上,针对情感交互场景作出创新规定。

 

1. 用户状态识别与干预义务

 

《办法》第十一条要求提供者具备用户状态识别能力,精准应对拟人化服务的情感依赖风险。此项义务包含三项核心要求:一是情绪与依赖度评估义务,拟人化服务的用户可能因长期使用产生情感依赖,或出现极端情绪,提供者需通过算法评估用户状态,例如通过对话频率、语言内容判断依赖程度,通过关键词识别极端情绪,并采取干预措施。

 

二是高风险倾向预设回复义务,相较于普通AI的被动回应,《办法》要求提供者提前预设高风险场景模板,确保回应的安全性与引导性。

 

三是极端情境人工接管义务,第三款义务避免AI因算法局限无法有效应对极端场景,形成技术+人工的双重应急机制。

 

2. 服务透明化提示义务

 

《办法》第十六条、第十七条要求提供者履行服务透明化提示义务,在《生成式人工智能服务管理暂行办法》和《互联网信息服务深度合成管理规定》规定的生成内容标识基础上,针对情感依赖与使用时长作出补充。

 

《办法》新增两项提示义务:一是依赖倾向动态提醒义务,根据第十六条第二款规定,当用户出现依赖倾向,弹窗提醒可帮助用户回归现实,避免用户陷入依赖。

 

二是使用时长强制提醒义务,第十七条规定的义务是对《未成年人网络保护条例》时长限制的延伸,但覆盖所有用户群体,2小时强制提醒可帮助用户控制使用时间。

 

3. 服务退出自由义务

 

《办法》第十八条规定“提供者提供情感陪伴服务时,应当具备便捷的退出途径,不得阻拦用户主动退出。用户在人机交互界面或者窗口通过按钮、关键词等方式要求退出时,应当及时停止服务”,这是对《消费者权益保护法》自主选择权的延伸。

 

《办法》在用户权益保障层面构建了一套识别-提醒-退出闭环体系,旨在应对拟人化互动独有的情感依赖与认知混淆风险。其核心是从被动响应向主动干预升级,不仅要求服务具备动态识别用户情绪状态与依赖倾向的能力,并预设安全回应与人工接管路径,更通过依赖提醒、时长提醒等透明化机制提示用户,最终以强制性的便捷退出义务保障用户自主权的落实。然而,情感状态的算法识别准确性与隐私边界如何界定?频繁的提醒机制是否会干扰体验乃至引发逆反心理?便捷退出的具体标准如何统一以避免变相阻拦?这一系列高度依赖技术精准性与设计伦理的义务相关认定标准和操作规范都有待进一步明确。作为征求意见稿,其体现的积极看护理念值得肯定,但最终条款需要在保护强度、技术可行性与用户体验之间找到更精细的平衡点。

 

(五)技术安全与应急义务

 

拟人化互动服务的技术安全直接影响服务稳定性与用户权益,《办法》第八条、第九条、第二十条、第二十三条在《网络安全法》《数据安全法》基础上,针对AI服务特性作出补充。

 

1. 内生安全与全周期技术保障义务

 

《办法》第八条承接《网络安全法》第二十一条的规定。《办法》第九条第一款“保证安全措施与服务功能同步设计、同步使用,提升内生安全水平,加强运行阶段安全监测和风险评估,及时发现纠正系统偏差、处置安全问题,依法留存网络日志”,新增内生安全要求。内生安全区别于传统的外部防护,强调将安全措施嵌入服务设计、运行的全流程。

 

2. 应急处置与投诉响应义务

 

《办法》第二十条“健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理并反馈处理结果”,与《生成式人工智能服务管理暂行办法》第十五条的规定基本一致。《办法》第二十三条“发现用户存在重大安全隐患的,应当采取限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告”,新增重大安全隐患处置义务。针对重大安全隐患,提供者需采取限制功能、暂停服务等措施,并向网信部门报告。

 

3. 安全评估义务

 

《办法》第二十一条和第二十三条规定了安全评估的义务,具体针对产品具有拟人化互动服务的功能上线,或者增设相关功能的、使用新技术新应用,导致拟人化互动服务发生重大变更的、注册用户达100万以上或者月活跃用户达10万以上的、提供拟人化互动服务期间可能存在影响国家安全、公共利益、个人和组织合法权益或者缺乏安全措施等情形的情况,该等安全评估义务承接《生成式人工智能服务管理暂行办法》第十七条针对提供具有舆论属性或者社会动员能力的生成式人工智能服务的要求,并且结合拟人化互动服务进行细化规定,属于新增的义务,企业在提供相关服务时,应当重点关注是否满足相关情形,如满足则应当开展安全评估,并且履行报送义务。

 

《办法》在技术安全与应急义务层面的义务规定,既继承了既有网络安全法规的普遍框架,又针对拟人化服务的算法复杂性与社会影响,新增了更具前瞻性与穿透性的义务:通过内生安全原则和运行阶段持续的风险监测,力求从源头预防系统偏差与安全漏洞;通过重大隐患的强制处置与报告机制,强化了服务提供者的主动干预责任;特别是以用户规模、功能重大变更等为触发条件的定制化安全评估义务,体现了基于风险等级实施差异化精准监管的思路。

 

三、法律后果

 

《办法》并未明确规定具体的法律后果,仅规定“由有关主管部门依照法律、行政法规的规定处罚”,法律未明确规定的,可能面临“警告、通报批评,责令限期改正、责令暂停提供相关服务”的行政处罚。

 

我国现行的人工智能相关法律法规(《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》)等均作出了类似的规定,人工智能产品或服务存在违法行为的,适用《网络安全法》《数据安全法》《个人信息保护法》等法律的罚则。因此,除上述的行政处罚外,企业还可能面临最高5000万元以下或者上一年度营业额5%以下的罚款。

 

四、合规要点规划及部署

 

尽管《办法》目前仍在征求意见阶段,但在心理健康保护、内容安全、防沉迷提示、安全评估、未成年人和老年群体特殊保护等方面做出了较为明确和细致的规定。结合专家解读[5]及征求意见稿预估的生效日期,《办法》在本年度内落地的可能性较高,建议企业针对《办法》重点关注的领域和合规要点有针对性地提前布局。

 

基于目前人工智能技术的监管框架,我们建议企业从输入端和输出端两个端口着手合规方案:

 

在输入端,企业在开展用于支持人工智能服务或产品的基座模型训练前,应当对训练数据进行审核、过滤和筛查,选取高质量、大规模和多模态的训练数据集,采取数据清洗、数据标注和验证等多种手段,以尽可能避免算法偏见、歧视,在保证数据的公平性、多样性和包容性的同时避免使用违法不良信息,从源头上降低内容安全的相关风险。

 

在输出端,企业在向我国境内公众提供人工智能服务或产品前,应当注意完成算法备案、大模型备案以及申请相应的增值电信业务经营许可证等前置性的资质证照,避免出现不符合我国法律法规关于人工智能服务或产品“准入”门槛类要求的情形。

 

针对人工智能服务或产品本身,企业应当注意落实《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等现行法律法规的相关合规义务,落实人工智能生成内容的标识义务,建立和完善投诉举报机制,强化对用户权益的保障。

 

针对人工智能服务或产品与用户的交互,建议企业注意排查和完善《用户协议》《隐私政策》等文件,在文件中明确与用户约定行为准则等内容、对用户进行显著提示,明确要求用户不得将人工智能服务或产品用于非法用于、输入违法不良信息;建立和完善内容过滤、审核机制,例如违法违规、侵权信息特征库,关键词拦截生成侵权内容等,采取技术或者人工方式对用户的输入数据进行审核,识别违法和不良信息,及时排除相关风险。

 

此外,企业还应当定期对人工智能服务或产品的合规情况进行审计,形成审计报告并及时落实整改措施,持续性地对合规情况进行监督和管理。

 

五、展望

 

《办法》的出台既是我国面对人工智能技术高速发展浪潮的回应和尝试,也是全球范围内人工智能监管趋势的缩影。在美国,除了文中提及的加州SB 243号法案外,纽约州General Business Law新增的第47条也针对“AI陪伴”(AI Companion)规定了自杀干预、内容显著提示等合规义务。在欧盟,除《人工智能法案》(AI Act)外,欧洲议会于2025年11月26日通过了关于在线未成年人保护的报告,倡导将使用陪伴型AI产品的最低年龄设定为16岁,13至16岁的青少年需在获取父母同意后方可使用[6]。在澳大利亚,继禁止社交媒体平台向16岁以下未成年人提供服务后,澳大利亚网络安全局要求AI陪伴的公司说明如何落实未成年人保护的相关措施,并计划禁止向未成年人提供色情内容等不适宜年龄的内容[7]。

 

尽管各国尚未形成较为统一、明确的法律体系和监管框架,但是以“人”为本、个人权益保护与技术发展并举已经在一定程度上成为各国的共识。伴随着人工智能技术愈发深入日常生活的点滴,不论具体的合规实施路径如何,监管要求和合规义务都将日益严格和精准化。企业在积极推进技术发展和商业化的同时,需要重视权益保护、安全治理和伦理规范,才能适时迎风而起。

 

注释:

[1] 参见《AI十年展望(二十三):AI+陪伴:技术降本×场景升维,提供深度情绪价值》,载微信公众号“中金点睛”,https://mp.weixin.qq.com/s/kOdvSKhVLuWJ2NZkRxRdiA。

[2] 参见Moore, Jared; Grabb, Declan; Agnew, William; Klyman, Kevin; Chancellor, Stevie; Ong, Desmond C.; Haber, Nick (2025). "Expressing stigma and inappropriate responses prevents LLMS from safely replacing mental health providers". Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency. pp. 599–627.

[3] 参见https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine/。

[4] 参见https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202520260SB243。

[5] 参见https://www.cac.gov.cn/2025-12/28/c_1768662848000498.htm。

[6] 参见https://www.europarl.europa.eu/doceo/document/TA-10-2025-0299_EN.pdf。

[7] 参见https://www.esafety.gov.au/newsroom/media-releases/esafety-requires-providers-of-ai-companion-chatbots-to-explain-how-they-are-keeping-aussie-kids-safe。