对未成年人来说,若缺乏有效监管、正确引导和防护,AI情感陪伴很可能成为一个深不见底的“数字陷阱”
近年来,随着生成式人工智能(AI)的普及,AI情感陪伴类应用软件迅速走红。相关调查显示,国内数款“沉浸式角色扮演”AI情感陪伴类应用软件,不仅充斥着猎奇角色和危险剧情,还会在用户“调教”后采用露骨言论进行诱导。更令人担忧的是,这些应用软件已经吸引大量未成年人使用,而软件内置的青少年模式却形同虚设。
AI情感陪伴类应用软件最初的设计初衷,是以人工智能算法模拟人类的情感交互,为用户提供聊天、心理疏导甚至恋爱模拟体验。但对心智尚未成熟的未成年人来说,若缺乏有效监管、正确引导和防护,很可能掉入深不见底的“数字陷阱”。“算法式亲密关系”一旦固化,会造成未成年人对现实社交的疏离,以及对自我认知的扭曲。为促使未成年人健康使用AI情感陪伴类应用软件,应通过构建政府、企业、学校、家庭和社会多方协同的社会治理体系,为未成年人营造清朗安全的AI应用环境。
面对AI情感陪伴类应用软件的扩张,监管体系亟须升级。相关部门应出台“AI情感陪伴类应用软件未成年人保护指南”,推进AI分级制度,明确平台内容审核、数据保护、防沉迷机制等责任边界,落实平台算法备案审查制度,对算法推荐机制是否诱导成瘾进行第三方机构评估。在此基础上,应建立常态化监管机制,定期对相关企业和平台服务商进行安全评估,并将结果向社会公示,接受公众监督。
企业须将未成年人保护理念内置于技术研发和产品设计之初,做到“事前预防、事中过滤、事后干预”的全流程防护。在准入端,优化未成年人注册、登录验证机制。通过实名认证、“一号一用”等多种方式,完善应用软件的青少年模式。为防止未成年人偷用家长身份登录,可以通过研发应用声纹识别、行为分析等智能认证技术和预测系统,实现更精准的未成年人身份识别与动态年龄验证。在内容端,融合关键词过滤与深度学习语义理解等技术,对AI对话内容进行实时监测,精准拦截不良信息。在干预端,设立未成年人时长管理功能,开发家长监管模式,让监护人能够实时掌握未成年人使用软件的情况。
推动家长、学校和社会多方协同共治。首先,家长需要履行监护职责,引导未成年人形成健康的AI使用习惯。家庭教育促进法规定,未成年人的父母或者其他监护人应当预防未成年人沉迷网络。因此,家长有责任加强对未成年人身心需求的关注,提供高质量的陪伴和监督,筑牢用好AI的第一道防线。其次,学校可以通过开设“AI伦理与安全”相关主题讲座、班会等,加强对学生使用AI的教育和引导,通过社会情感能力教育防止未成年人沉迷于AI情感陪伴。当学校和教师发现学生出现涉及AI应用软件不良内容传播时,应及时干预和告知家长。与此同时,凝聚社会合力,加大对“诱导青少年聊色情、猎奇话题”APP案例的警示宣传力度,曝光不良运营手段,提高未成年人网络风险防范意识和能力。
AI情感陪伴的出现,是时代发展的必然,它折射出人类情感需求与数字技术的交汇。AI情感陪伴不只是技术娱乐的新问题,更是社会治理的新挑战。技术越温柔,越需要理性约束,技术不应是隐匿于监管盲区的“数字荒野”,而应成为助力未成年人健康成长的“智慧花园”。
(作者系华东师范大学教育学部教育学系讲师)
《中国教育报》2025年10月20日 第02版
作者:曹晓婕