9月12日,中国社科院新闻与传播研究所与社科文献出版社共同在京发布《青少年蓝皮书:中国未成年人互联网运用报告(2024)》,并指出,AI技术与AI设备逐步受到未成年人关注,但其AI素养有待提升,并建议,要构建全面有效的保护体系、建立完善的法律体系,为未成年人网络空间的安全提供保障。
城市地区未成年人使用各类AI设备占比达20.5%
该蓝皮书指出,近年来,AI技术逐渐被广泛应用,也在潜移默化地影响未成年人的认知。一方面,随着智能推荐算法的普及,未成年人更容易陷入信息茧房、刻板偏见,这影响其对多元世界的理解和认知;另一方面,ChatGPT、Sora等生成式人工智能的逐步应用,可能会加大未成年人对事实信息的辨别难度。技术快速发展,新型的网络威胁和风险不断涌现,而未成年人受认知能力和信息获取渠道的限制,可能难以及时掌握应对人工智能新风险的知识和技能。
根据该蓝皮书,2024年调查数据显示,部分未成年人已经开始逐步使用AI设备上网。其中,城市地区未成年人使用各类AI设备的占比达20.5%,乡村地区未成年人使用AI设备上网的比例为8.1%。
该蓝皮书认为,未成年人在享受人工智能带来的便利的同时,也需要认识到它可能带来潜在威胁,并学会如何防范和应对这些风险。但调研数据显示,上过专门的网络素养课程的未成年人仅占19%,大部分未成年网民对人工智能技术的了解主要依靠上网和课外实践,未成年人AI素养亟待提升。此外,更为突出的问题是,目前国内开展人工智能科技创新活动的中小学校主要集中在一线城市,AI设备未能普及和AI教育的城乡差距,可能导致AI鸿沟进一步扩大,加剧城乡之间的教育和信息获取不平等,这一问题值得后续有关研究重点关注。
未成年人隐私信息保护意识不足
该蓝皮书同时指出,网络社交中,未成年人主动展示个人信息的比例较高,隐私信息保护意识不足。
根据该蓝皮书,调查数据显示,在互联网平台公布自己性别的未成年人最多,男生占44.8%,女生占47.9%。未成年人公布的个人信息前四位中,男生为性别、年龄、学校、姓名;女生为性别、年龄、姓名、QQ/微信号。除性别一项之外,其他个人信息的公布程度均是男生高于女生。当前,个人信息的使用存在容易被网络画像的情况。未成年人个人信息防护意识不强,对自己真实信息的公布容易引发线上线下的风险隐患。
该蓝皮书就推进未成年人科学健康用网提出针对性建议:要充分研判新一代AI技术给未成年人用网带来的机遇与挑战,注重提升未成年人的AI素养;要强化低龄儿童的用网教育,重视朋辈示范作用,合力帮助未成年人树立正确的网络价值观念;要鼓励网络平台探索运用AI技术,打造个性化、陪伴式“未成年人模式”。
该蓝皮书指出,应加快推进我国互联网人工智能立法进程。其中,和发达国家相比较,我国人工智能相关法律尚不完善,对互联网的监管重心多放在互联网行业本身,法律法规多聚焦于产业、内容和渠道等方面,与未成年人用网相关的专项法规相对较少,使得在人工智能技术的应用和管理等方面缺乏明确的法律规范和指导。
该蓝皮书认为,我国要构建全面有效的保护体系、建立完整的法律体系,在考虑到立法难度的基础上,应优先完善现有的《未成年人网络保护条例》,确保条例内容与时俱进,能够应对互联网环境的快速变化,为未成年人网络保护提供一个坚实的法律框架,同时引导互联网行业充分发挥自我监管的作用,未成年人家长和学校共同承担起教育引导未成年人的责任,培养他们正确的网络使用习惯和安全意识,为未成年人网络空间的安全提供保障,让未成年人身心健康成长。
编辑 李斌 审读 张雪松 二审 党毅浩 三审 王湛