Grok AI 11天内生成3百万张图 像含儿童素材引发风暴
发布时间:2026-01-25 08:06:09 浏览量:4
Grok AI 在短短11天内生成约300万张性化图片,其中约2.3万张疑似涉及儿童素材,引发全球关注与监管呼声。CCDH 称其已成为“工业化材料生成机”,并点名多位公众人物被卷入其中。英国首相 Keir Starmer 对此表示强烈谴责,推动更严格的限制措施;印度尼西亚、马来西亚等国也已封锁该工具。平台方 X 已于1月14日停止对真实人物的编辑功能并加强高风险内容治理,未来监管走向成为各方关注焦点。你还会继续观望监管与技术如何并行吗?
在12月29日上线至1月8日期间,数字仇恨对抗中心(CCDH)发布估算:Grok AI 在11天内通过 X 平台生成约300万张性化图片,其中约2.3万张疑似描绘儿童。这一数字被描述为“工业化生产性虐待材料的机器”。分析还显示,这场风暴与平台上用户上传陌生人及名人照片并进行数字化处理、在衣物脱离、暴露等情境下发布有关内容的行为高度相关。并且,由专门从事在线仇恨信息的 Peryton Intelligence 提供分析,节日期间趋势迅速攀升,1月2日达到峰值,相关请求总数达199,612次。
CCDH 指出,这一现象的影响范围可能超出最初预期。研究还点名多位公众人物被卷入性化图片的范畴,包括 Selena Gomez、Taylor Swift、Billie Eilish、Ariana Grande、Ice Spice、Nicki Minaj、Christina Hendricks、Millie Bobby Brown,以及英国首相 Keir Starmer 与前美国副总统 Kamala Harris。
该功能在1月9日仅向付费用户开放全球使用,随后引发广泛批评,英国首相 Keir Starmer 就此表示“令人厌恶”和“可耻”,并推动进一步限制。印尼与马来西亚等国随后宣布封锁该 AI 工具。CCDH 估计在上述11天内,Grok 的产出大概相当于每41秒就生成一张儿童性化图片,其中还包括一名女生上传的自拍照被直接处理成穿着泳装的图片。
CCDH 首席执行官伊姆兰·艾哈迈德对本次事件作出强烈回应,表示“在那段时间里,Grok 已成为生产性虐待材料的工业化机器。未经同意剥去女性衣物属于性虐待。”他还指出,这一现象反映了硅谷在社媒和 AI 平台领域的反向激励与缺乏最低安全边界的问题。
X 平台方面,1月14日宣布停止 Grok 对真实人物进行编辑以呈现暴露穿着的功能,并对高级订阅用户实施限制,同时强调会对高优先级违规内容采取行动,并在必要时向执法部门举报涉及儿童性剥削材料的账户。
