大学声丨当AI可以不标识,谁还为信任负责?
发布时间:2026-02-14 10:50:49 浏览量:4
近日,国家网信部门通报处置了一批利用人工智能生成合成信息却未添加AI标识的违规账号,封禁账号13421个,清理违法违规信息五十四万余条。
从虚构感人剧情博取流量,到假冒公众人物非法牟利;从编造虚假灾情混淆视听,到魔改动画角色侵扰未成年人……这些行为看似形态各异,实则指向同一本质:刻意隐匿AI生成痕迹,以假乱真,诱使公众信以为真。其最恶劣之处,不在于技术被滥用,而在于公众的“信任”被当作廉价矿藏,无情开采,直至枯竭。
通报中,部分账号发布“狗在高铁站救下婴儿”“狗拆炸弹救人”等视频,借虚构的感人故事与猎奇事件大肆引流。此类内容之所以屡试不爽,恰恰因为它精准击中了人性最柔软的角落——对善良的嘉奖、对英雄的崇敬、对奇迹的期待。观众为之动容、转发、落泪的那一刻,并不知晓屏幕那端的“感人故事”不过是算法批量生成的代码,那位“英雄”从未真实存在。创作者获取流量的代价,是诱导观众付出了本不值得付出的真心。
一次的欺骗或许微不足道,但当此类戏码日复一日上演,公众第一反应将从“好感动”悄然转向“是不是真的都难说”。这道自我保护的心理防线一旦筑起,就很难再拆除。那些真正发生在身边的凡人善举、那些真正值得被看见的真实故事,都将在这道防线之外被一并挡回。违规者攫取的是流量与收益,付出的成本却是全社会的信任与情感的透支。
声音可以克隆,面孔可以替换,连表情动作都能模拟。过去我们信赖“眼见为实”,但现在眼见也可能是假的;过去我们靠熟悉的声音辨认亲人,现在声音也成了可以批量生产的商品。
当在外打工的儿子发的拜年视频可能是假的,一位淳朴老人该靠什么确认视频那端真的是自己的孩子?当名人出镜发言随时可能被换脸,公众该凭什么判断哪些表态是值得信任的?AI造假不是在制造个别骗局,它是在系统性地摧毁那些我们用来确认“你是谁”“这是不是真的”的基础认知。他们用几乎零成本的合成内容,不加任何标识,混进真实信息流里,让每一个普通人自己承担起鉴别真假的责任。这不是技术进步的红利,而是技术进步向全社会征收的高昂信任税。
与此同时,去除AI标识的教程与软件公然在网络平台售卖,这意味着任何普通人都能以极低成本生产“干干净净”的假信息。信任在技术门槛的庇护下存续了多年,如今这道天然屏障已被拆除殆尽。至于那些被无底线魔改的动画角色、被推送至儿童眼前的低俗娱乐内容,则彻底暴露了信任瓦解的最残忍后果:当成年人尚且在这场真假迷局中挣扎时,那些认知尚未独立的儿童,已被迫提早面对“连陪伴自己长大的朋友都可以是假的”这一事实。
网信部门此次的集中处理,是对数字时代信任契约的一次必要重申。AI标识从来不是为了约束谁,它只是为了明确告知:这条信息来自技术,我选择告诉你。它不是才华的减分项,而是诚实的加分项。(黑龙江大学 苏倢萱)
