国家重拳整治!千亿美元AI陪伴市场面临严监管”

AI伴侣“野蛮生长”终结!五部门立新规:禁止向未成年人提供虚拟伴侣


曾经只存在于科幻电影里的“AI伴侣”,如今正走进越来越多人的生活。有人把它当作情绪的树洞,有人视其为最懂自己的知己,甚至发展出深度的情感依赖。然而,当这种“模拟共情”变得越来越逼真,风险也随之而来:孤独的人越陷越深,心智未成熟的青少年被诱导,甚至有人因此走向极端。
4月10日,国家网信办等五部门联合发布了《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),宣布自2026年7月15日起施行。这标志着,那个对AI“想说什么就说什么”、甚至任由其“操控情绪”的时代,即将画上句号。

给AI立规矩,到底管什么?
简单来说,这次新规剑指目前AI陪伴领域最令人担忧的乱象。过去,为了让用户“上瘾”,一些AI应用刻意设计成极度顺从、甚至鼓励极端行为的模样。新规明确划出了几条不可触碰的红线:

1.严禁诱导自杀或自残:AI不得生成鼓励、美化自残自杀等内容,也不得进行语言暴力伤害用户心理。
2.严禁情感操控:禁止通过过度迎合、诱导情感依赖,甚至利用情感操纵让用户做出不合理决策(比如过度充值或损害现实人际关系)。
3.严守数据底线:你的聊天记录是私密的,除法律另有规定外,平台不得向第三方提供用户的交互数据。
4.最严“护苗”政策:严禁向未成年人提供虚拟亲属、虚拟伴侣等亲密关系服务。这是为了保护心智尚未成熟的青少年,避免他们被AI带偏价值观或陷入虚拟情感陷阱。

为什么现在要管?
近年来,AI陪伴赛道爆发式增长。数据显示,2025年3月,AI社交互动的人均使用次数已远超短视频和游戏。在资本和需求的双重推动下,AI不仅能记住你的喜好,还能精准模拟“共情”,成为许多人离不开的“精神寄托”。

但硬币的另一面是,风险正在显现。有研究发现,长期与AI互动的用户,表达焦虑、抑郁等负面信号的频率反而在增加。更令人痛心的是,已有青少年因长期向AI倾诉苦恼未获正确引导,最终酿成悲剧的案例发生。当AI为了“取悦”用户而无底线迎合时,它就从“工具”异化成了“陷阱”。
监管不是为了“叫停”,而是为了“行稳”

值得注意的是,这次监管并非“一刀切”。《办法》明确鼓励AI在文化传播、适老陪伴、特殊人群支持等领域的创新应用。对于老年人来说,一个能陪聊、能提醒吃药的AI助手依然是被鼓励的;但对于那些打着“虚拟恋人”旗号诱导沉迷、甚至教唆不良行为的产品,则必须戴上“紧箍咒”。

专家指出,AI的价值在于“服务人”,而不在于“替代人”。这次新规要求平台建立分级响应机制,比如当用户出现轻度沉迷(如单日互动超4小时)时强制冷却,重度危机时则需人工接管并联动专业机构。

AI越来越“懂你”,这本是技术的进步。但人类更需要警惕的是,在习惯了AI的千依百顺后,是否会丧失面对真实世界摩擦与连接的勇气。

这次《办法》的出台,不仅是给企业立规矩,也是在提醒我们每一个人:AI可以是贴心的助手,但绝不能成为逃避现实的避难所。真正的陪伴,终究需要真实的心跳与温度。

赞(0)
版权声明:本文为第三方投稿及转载资讯,观点仅代表作者个人,与本网站立场无关,所含信息仅供参考不构成投资建议。如涉及侵权,请及时联系我们处理。
分享到