利润与安全的博弈! 专家指出,技术早有了,就是对儿童的保护滞后
发布时间:2026-02-05 12:09:24 浏览量:1
本文为深度编译,仅供交流学习,不代表智子说观点。
仅在2024至2025财政年度,澳大利亚反儿童剥削中心就接到了近83000起关于网络儿童虐待材料的举报,其中绝大多数来自主流网络平台。这一数字较上一年度激增了41%。
正是在这种儿童虐待行为于主流平台上众目睽睽之下频发的背景下,澳大利亚电子安全专员朱莉·因曼·格兰特要求谷歌、苹果、微软、Meta以及其他科技巨头每六个月提交一次透明度报告。
今日发布的最新报告显示,在检测已知的虐待材料——包括人工智能生成的材料、直播虐待行为、网络诱拐以及针对儿童和成人的勒索——以及缩短审核时间方面,取得了一些进展。
然而,报告同时也揭示了持续存在的严重安全漏洞,这些漏洞依然将用户,尤其是儿童,置于风险之中。这清楚地表明,仅有透明度是远远不够的。正如目前外界呼吁确立法律强制的“数字审慎义务”那样,我们需要从仅仅记录伤害,转向通过更好的设计来预防伤害。
这些透明度报告对于企业满足监管要求至关重要。但电子安全专员发布的这份最新“快照”显示,在技术所能达到的高度与企业实际采取的遏制网络伤害的行动之间,仍存在着一道鸿沟。
其中的一个积极发现是,拥有Snapchat的Snap公司已将其对儿童性剥削和虐待内容的审核响应时间从90分钟大幅缩减至11分钟。微软也扩大了其在Outlook邮箱中检测已知虐待材料的范围。
然而,Meta和谷歌继续放任其视频通话服务(如Messenger和谷歌会议)处于未受监控的状态,无法应对直播式的虐待行为。尽管它们在旗下的其他平台上使用了检测工具,却唯独遗漏了这一领域。
电子安全专员的报告特别指出,苹果和Discord未能实施主动检测措施。苹果几乎完全依赖用户举报,而非自动化的安全技术。
目前的现状是,苹果、Discord、谷歌的聊天与会议服务、微软Teams以及Snapchat,均未使用现有软件来检测针对儿童的勒索行为。
专员认定的最大隐患区域在于直播视频和加密环境。目前,针对检测在线直播儿童剥削和虐待工具的投入依然不足。尽管微软拥有的Skype在关闭前曾实施过此类保护措施,但微软Teams和其他提供商至今仍未能做到这一点。
与报告同步发布的还有一个新的仪表盘,用于追踪科技公司的进展。该仪表盘突出了关键指标,包括用于检测有害内容的技术和数据源、用户举报的内容数量(这通常意味着自动化系统未能捕捉到这些内容),以及公司内部信任与安全团队的规模。
电子安全专员指出的持续性漏洞表明,当前的报告要求不足以让平台变得安全。
行业理应将安全置于利润之上。但除非法律强制要求,否则这种情况鲜少发生。正如《在线安全法》审查所提议的那样,立法的“数字审慎义务”是解决方案的一部分。
这将使科技公司在法律上负有责任,必须在产品发布前证明其系统在设计上是安全的。 与其等待报告揭示长期存在的安全漏洞,审慎义务将要求平台尽早识别风险,并实施现有的解决方案,例如语言分析软件和威慑性信息。
为了阻止人们分享或获取有害及非法材料,我们还需要关注威慑力,并鼓励人们寻求帮助。这正是儿童虐待材料威慑中心的核心关注点,该中心由耶稣会社会服务机构与塔斯马尼亚大学合作建立。
通过与主要科技平台的合作,我们发现主动的安全措施能够有效减少有害行为。证据表明,有一种尚未被充分利用的关键工具,即实时威慑和阻断违规行为的警告信息。
当新的或已知的虐待材料被分享,或者对话被检测为勒索或诱拐时,系统可以触发此类信息。除了阻断行为外,平台还可以引导用户寻求帮助。
这包括将人们引向支持服务,例如澳大利亚的“立刻停止!”热线。这是一项针对成人的儿童虐待预防服务,专门面向那些对自己(或他人)针对儿童的性念头或行为感到担忧的人群。
电子安全专员持续敦促各大公司采取更全面的方法,解决其平台上的儿童剥削和虐待问题。技术早已存在,但如果使用这些技术可能会减缓用户增长或影响利润,公司往往缺乏使用的意愿。
透明度报告向我们展示了行业的真实状态。
此刻,它们揭示了一个明明知道如何解决问题,却行动迟缓的行业。我们需要超越仅仅发布报告的阶段,通过加强立法,让安全性成为一种标准,而不仅仅是一个附加功能。
技术构筑了庞大的数字迷宫,而算法掌握着照亮幽暗角落的火把。当代码的效率与孩童的安全被置于天平两端时,选择权不应仅在商业巨头手中。屏幕背后的每一次犹豫,都可能意味着一个孩子在黑暗中多停留一秒。这不仅仅是关于监管的博弈,更是对技术伦理底线的一次终极叩问:在一个万物互联的时代,我们是否愿意为了保护最脆弱的群体,去重新定义“进步”的含义?
