北京市人大代表黄乐平关注“AI原住民”,提出需警惕儿童AI产品应用风险 推动儿童AI产品监管法治化标准化
发布时间:2026-01-26 03:09:00 浏览量:2
随着AI浪潮涌起,人工智能产品普惠化,不少家长将AI视为“数字家教”。“10后”被称为AI时代的第一批原住民,儿童开始与AI交流,将其作为播放音乐、解答问题的助手。但也有些儿童逐渐产生依赖,甚至出现AI上瘾的倾向。北京两会期间,北京市人大代表、北京义贤律师事务所主任黄乐平提出“关于儿童智能产品AI应用风险及应对”建议。
市人大代表北京义贤律师事务所主任
儿童AI产品滥用存在诸多风险
当前,市面上不乏专门针对儿童设计的AI产品。黄乐平认为,儿童智能产品应用存在隐私信息泄露风险。“恶意程序可以在儿童和家长不知情的情况下轻松植入并获取孩子的位置、人脸图像、语音对话等隐私信息。”他还提到,儿童对智能产品过度信任和强技术依赖,不利于身心健康。
他观察到,曾发生过儿童沉迷于智能手表社交圈导致睡眠不足的案例,有儿童过度信任AI导致认知错乱的案例,还有儿童适用AI学习机形成依赖导致丧失自主学习能力的案例。“以上案例说明,儿童过度依赖AI技术及其衍生产品,学习资源系统过度迎合未成年人的个性化需求,会助长儿童惰性思维,造成意识封闭、认知茧房和主体性缺失。”黄乐平介绍。
此外,智能产品还有诱导消费的风险。例如,儿童智能手表内置了丰富多样的应用功能,涵盖弹窗广告、内置小游戏、皮肤商店、红包积分等内容,导致孩子在使用时极易被广告推送或游戏内容吸引,甚至进行大额充值消费,增加家庭资产风险。
儿童智能产品AI技术滥用还可能会引发社会风险。黄乐平注意到,网上也爆出过部分儿童智能手表的回答突破了文化底线,会扭曲儿童的价值观,毒害儿童心灵。
结合实际情况制定监管规则
他建议,应结合北京市实际情况制定监管规则,推动儿童智能AI应用监管法治化、标准化;引入伦理审查机制,加大立法监管力度。严格落实《未成年人保护法》,规范AI技术的数据采集和使用,确保涉及儿童的数据安全存储和传输;建立算法评估机制,对算法的公正性和透明度进行评估和监督,建立完善的安全管理制度、加强安全漏洞的监测和预警、提高系统的防御能力,加强有关儿童的AI系统的安全防护措施。
在行业层面,应完善行业标准和认证机制,实施第三方认证,推动行业内形成统一的标准和质量控制体系。
此外,他也建议家庭和学校教育要加强正向引导。学校需要构建系统化课程体系,开发系统化的人工智能课程,并将隐私保护和网络安全纳入其中。
