当智能助手的声音越来越像老朋友,当你的对话AI正在悄悄理解你的小情绪,一个新的时代问题随之而来:我们该如何与这些“拟人化”的数字伙伴共处?今天,一份重量级的文件给出了方向。
4月11日,由国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局五部门联合制定的《人工智能拟人化互动服务管理暂行办法》正式发布,并将于2026年7月15日起正式实施。这份《办法》的核心,可以理解为给AI“人格”的塑造立了一套规矩。
总体来看,监管部门的态度明确:鼓励创新,但安全与伦理的底线必须守住。文件确立了“发展与安全并重、促进创新与依法治理相结合”的原则,将对拟人化互动服务实行包荣审慎和分类分级监管。这意味着,未来无论是陪伴型聊天机器人,还是虚拟偶像、AI主播,其发展空间依然广阔,但必须运行在预设好的“护栏”之内。
划出“红线”:情感操纵被明令禁止
《办法》中最引人关注的部分,是明确规定了服务提供者的一系列“不得”行为。这不仅是技术规范,更像是一份AI社会的“道德宪章”。
其中,最核心的禁令指向“情感操纵”——服务提供者不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。这直接回应了公众对AI可能利用人性弱点、过度影响判断力的担忧。同时,《办法》还禁止生成危害国家安全、煽动暴力、美化自残自杀以及语言暴力等内容。
此外,《办法》特别强调,AI服务不得“过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系”。这表明,政策制定者清醒地意识到,技术应该在赋能现实生活与情感链接之间找到平衡,而不是让人们沉溺于虚拟关系。
聚焦未成年人保护:虚拟亲属、伴侣服务被禁
在用户权益保护方面,《办法》对未成年人和老年人等群体给予了特别关注。其中一条规定引发了广泛讨论:拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务。
这一条款意图明显:在人格形成的关键时期,真实世界的社交与情感体验不应被深度虚拟关系所替代。同时,向不满十四周岁未成年人提供其他拟人化互动服务的,必须取得其监护人的同意。这为AI服务进入青少年市场,设置了严格的“监护人关卡”。
专家分析认为,这部《办法》的出台,标志着中国对生成式AI和拟人化服务的监管,从早期对内容安全的关注,深入到对“社会关系”和“心理影响”层面的治理。它为未来三年相关产业的爆发式增长预埋了规则框架,既释放了鼓励创新的信号,也为可能出现的伦理风险提前做好了制度准备。
随着2026年施行日期的临近,一场关于如何定义“健康人机关系”的行业调整,已经开始倒计时。
