网信办就人工智能拟人化互动服务管理征询意见 极端情形须人工介入

作者:深夜加班的思考姬

AiSiri网12月27日讯,一场人机关系的关键“立法”来了。

网信办今天发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》。这份文件,将为当下风靡的AI情感陪伴、虚拟恋人、高拟人化聊天机器人等“赛博伙伴”划下清晰的行为红线。它不仅是一份监管文件,更像是一本构建健康人机关系的“社会说明书”。

监管定调:“包容审慎”与“分类分级”

通知开宗明义:国家坚持发展与治理相结合,鼓励创新,但对拟人化互动服务实行“包容审慎和分类分级监管”,目标是“防止滥用失控”。

网信办发布人工智能拟人化互动服务管理征求意见稿 极端场景必须由人工接管

“包容审慎”意味着监管希望为创新留出空间,并非“一刀切”扼杀;“分类分级”则预示着未来可能根据服务类型、用户规模、风险级别进行差异化、精细化管理。这个基调,为整个AI拟人化服务赛道奠定了长远的政策基础。

八大禁区与一条“生命线”

意见稿划定了八项明确的禁止行为,从生成危害国家安全内容,到宣扬淫秽暴力,再到侮辱诽谤他人,基本覆盖了现行法律法规的红线。然而,更具行业针对性的是以下几条:

  • 杜绝“情感PUA”:提供严重影响用户行为的虚假承诺、损害社会人际关系、进行语言暴力和情感操控,都被明令禁止。
  • 警惕“决策诱导”:通过算法操纵、信息误导、设置情感陷阱等方式,诱导用户作出不合理决策,也被列为禁区。
  • 严控“数据窃取”:诱导、套取涉密敏感信息,同样不被允许。

而其中最为关键,也最体现人文关怀的一条是:建立应急响应机制。当AI识别到用户明确提出实施自杀、自残等极端情境时,必须由人工接管对话,并及时采取措施联络用户监护人、紧急联系人。 这不仅是技术兜底,更赋予了AI服务一项沉甸甸的“守护生命”的社会责任。

可执行的标准:从数据到提醒,颗粒度极细

意见稿的深度在于,它并不仅仅停留在原则层面,而是给出了极具操作性的具体规范。

数据训练:要求使用体现“社会主义核心价值观”、“中华优秀传统文化”的数据集,并对数据清洗、标注、安全评估提出明确要求,旨在从源头规范AI的“世界观”。

用户保护:提供者必须具备评估用户情绪和依赖程度的能力,预设针对高风险倾向的回复模板。针对未成年人和老年人这两个重点群体,设置了严格的保护机制:

  • 未成年人:必须提供“未成年人模式”,包括使用时长限制、监护人控制功能,且识别为疑似未成年用户时应自动切换至此模式。
  • 老年人:引导设置紧急联系人,并在出现危害时及时通知,且明确禁止模拟老年人用户亲属或特定关系人,避免情感诈骗。

清晰标识:服务方必须显著标识正在与AI互动。当用户出现沉迷倾向,或连续使用超过2小时,需动态提醒。用户要求退出情感陪伴服务时,AI必须“放手”。

安全评估与备案门槛:用户达100万或月活超10万的服务,以及上线新功能或应用重大新技术时,都必须开展安全评估并向省级网信部门报告。这与算法备案制度相衔接,形成了体系化的监管链条。

商业与产业的深远影响

这份意见稿的发布,标志着AI拟人化互动服务结束了“野蛮生长”的初始阶段,正式进入“规范发展”的新周期。

对于行业头部公司而言,合规成本将显著上升。建立完善的用户状态识别、应急人工介入、数据安全审计、未成年保护系统,需要投入大量技术和人力资源。这可能会加速行业洗牌,让具备技术实力和合规能力的企业获得优势。

同时,意见稿也为行业创新指明了“正向”方向:“鼓励在文化传播、适老陪伴等方面积极应用,构建符合社会主义核心价值观的应用生态体系。”这意味着,提供具有社会正向价值的情感陪伴、教育辅助、文化传承服务,将成为政策鼓励的赛道。

专家指出,人工智能的拟人化是技术发展的必然趋势,它正在重塑社会互动模式。此次征求意见稿的核心,是在鼓励创新的同时,提前防范可能侵害公民权益、冲击社会伦理的风险。它旨在引导人工智能进行“负责任创新”,为构建“以人为本”的AI治理体系提供制度支撑。

随着意见稿公开征求意见的启动,行业、学界和公众将有一段时间进行讨论和反馈。最终落地的规则,将深刻影响未来几年中国AI情感计算和人机交互产业的发展路径与商业格局。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2025年12月27日 下午6:41
Next 2025年12月27日 下午10:57

相关推荐