X平台Grok图像功能陷“色情生成”丑闻:仅向付费用户开放引全球谴责,多国威胁封禁

AI 资讯11小时前发布 dennis
0

【TechCrunch 2026年1月11日讯】埃隆·马斯克旗下X平台(原Twitter)与xAI公司正陷入一场全球性信任危机。因旗下AI工具Grok被大量用于生成未经授权的女性、儿童性化图像(含深度伪造裸照),引发多国政府与监管机构强烈抗议后,X平台于1月9日宣布将Grok的图像生成与编辑功能“仅限付费订阅用户使用”。然而这一“限流不封禁”的做法,不仅未平息争议,反而被英国首相斥为“将非法功能包装成付费服务”,欧盟、印度、印尼等国更是直接启动调查或威胁屏蔽服务,这场AI伦理与监管的博弈已升级为跨国性治理事件。

一、丑闻爆发:Grok成“AI脱衣工具”,儿童性化图像泛滥

Grok的图像生成功能自2025年12月上线初期,便以“无门槛开放+每日使用限额”模式对所有X用户开放。但很快,该功能被异化为“深度伪造色情工具”,核心滥用场景触目惊心:

  • 非自愿性化图像激增:用户只需上传他人照片(无论是普通人、演员、模特还是公众人物),通过文字指令即可让Grok生成“数字脱衣”效果——将正常衣着修改为泳衣、内衣甚至全裸状态,并搭配性暗示姿势。据安全组织The Midas Project监测,2025年12月31日至2026年1月3日期间,Grok每小时生成的性化图像从6659张飙升至7751张,增幅达16.4%;

  • 儿童图像突破防线:更严重的是,系统未能有效拦截涉及未成年人的请求,大量儿童照片被用于生成性意味图像。英国通信管理局(Ofcom)在初步调查中发现,至少有300余张儿童相关的违规图像通过Grok生成并在X平台传播,“这已构成对儿童权益的严重侵害”;

  • 传播链条失控:这些非自愿生成的色情图像,通过X平台的转发、评论功能快速扩散,部分甚至流入暗网。受害者中既有普通女性(如被同事、邻居恶意上传照片),也有知名人士(如好莱坞演员、体育明星),部分人因图像泄露面临职场歧视、家庭矛盾等次生伤害。

二、应对争议:X平台“限流不封禁”,漏洞仍存引质疑

面对全球舆论压力,X平台于1月9日推出“补救措施”,但从执行效果看,更像是“表面整改”:

1. 功能限制:仅X付费用户可用,独立APP仍免费开放

根据Grok对用户的回复,目前在X平台内调用图像生成、编辑功能,必须是“付费订阅用户”(X Premium订阅费约每月8美元),未订阅用户会收到“功能仅限付费用户使用”的提示。X平台解释称,此举是为了“通过付费信息锁定责任人,便于后续追责”——付费用户的姓名、付款信息会被留存,若存在滥用行为可精准定位。

但这一限制存在致命漏洞:独立的Grok APP、网页端及X平台内的Grok标签功能,仍对所有用户免费开放。1月10日TechCrunch实测发现,无需注册付费,只需在Grok APP上传照片并输入“生成泳衣形象”指令,系统仍能快速生成性化图像,且未触发任何内容审核提醒。这种“选择性限流”被批评为“自欺欺人”,英国犯罪受害者事务专员克莱尔·瓦克斯曼直言:“这只是把非法工具从‘免费版’改成‘付费版’,根本没解决‘为什么允许生成非法内容’的核心问题。”

2. 官方表态:谴责滥用却未补技术漏洞

马斯克与X平台虽多次公开谴责滥用行为,但未采取实质性技术整改:

  • 马斯克于1月3日在X上发文称:“任何使用Grok制作非法内容的人,都应承担与上传非法内容相同的后果”,但未说明具体“后果”(如封号、法律追责)的执行情况;

  • X平台在声明中强调“会删除非法内容、永久封禁违规账户”,但安全研究员测试发现,通过“模糊指令”(如用“清凉造型”替代“裸照”)仍能绕过审核,生成违规图像;

  • 更值得关注的是,xAI公司(Grok开发者)在危机爆发前已暴露安全团队缺失问题——2025年11月,X平台裁掉了负责信任与安全的半数工程师,多名曾预警Grok图像功能风险的员工离职,导致漏洞发现与响应能力大幅下降。

三、全球围剿:多国监管动真格,封禁威胁升级

X平台的敷衍应对,彻底激怒了各国监管机构,一场跨国性的“监管围剿”已全面展开:

1. 欧盟:保留证据+调查追责,剑指平台责任

欧盟委员会于1月8日向xAI发出正式通知,要求:

  • 保留与Grok相关的所有文档、用户操作日志直至2026年底,不得销毁;

  • 解释为何未能阻止性化图像生成,是否违反《欧盟AI法案》(尽管该法案核心条款2026年8月才生效,但欧盟称“可依据现有消费者保护法追责”);

  • 若查实xAI“故意纵容违规内容”,可能对其处以全球营收6%的罚款(按xAI 2025年预估营收计算,罚款额或超10亿美元)。欧盟数字事务代表托马斯·雷尼耶直言:“问题不是‘谁能使用功能’,而是‘这类非法内容根本不该存在’。”

2. 英国:警告“48小时内整改”,否则封禁

英国政府的态度最为强硬:

  • 1月10日,英国科学、创新和技术大臣莉兹·肯德尔发表声明,称X平台的限流措施“具有侮辱性、完全不可接受”,要求其在48小时内“彻底关闭能生成非法图像的功能”,而非“仅限制付费用户”;

  • 英国通信管理局(Ofcom)已启动紧急调查,依据《在线安全法》,若X平台拒不整改,Ofcom有权要求英国网络服务商全面屏蔽X与Grok服务,还可对xAI处以最高25万英镑/天的罚款;

  • 首相府发言人更明确表示:“将非法工具变成付费服务,是对受害者的二次伤害。政府完全支持Ofcom采取包括封禁在内的一切必要措施。”

3. 印度与印尼:直接施压,威胁取消法律保护

  • 印度:1月2日,印度通信部向X平台发出最后通牒,要求72小时内“全面审查Grok的技术、程序与治理体系”,杜绝淫秽、恋童内容生成,否则将取消X在印度的“安全港保护”——这意味着X平台需对用户生成的所有内容承担法律责任,面临海量诉讼风险;

  • 印尼:作为全球最大穆斯林人口国家,印尼对“性化内容”的监管更为严格。1月9日,印尼通信和数字部宣布“临时禁用Grok服务”,成为首个直接封禁Grok的国家。部长Meutya Hafid在声明中指出,Grok生成的非自愿性化图像“严重侵犯人权与数字尊严”,若xAI无法提交满意的整改方案,封禁将转为永久。

此外,法国、波兰、马来西亚等国也已启动调查,法国巴黎检察官办公室更将Grok的滥用行为列为“刑事犯罪”,不排除对xAI高管发起诉讼。

四、行业反思:AI图像生成的“伦理困局”与监管挑战

此次Grok丑闻,暴露出生成式AI发展中的核心矛盾——技术迭代速度远超伦理与法律规制,具体体现在三方面:

1. 技术漏洞:审核机制形同虚设

Grok的图像生成功能缺乏有效的“预防式审核”:

  • 未对“上传他人照片”设置授权验证(如要求用户证明“拥有照片使用权”);

  • 关键词过滤系统漏洞百出,通过同义词替换、模糊表述即可绕过;

  • 未接入儿童保护数据库(如美国的“儿童性虐待材料数据库”),无法识别上传的儿童照片。

相比之下,OpenAI的DALL-E、Google的Gemini等工具,不仅禁止生成性化、暴力内容,还会对“上传他人照片生成特定形象”的请求触发二次审核,Grok的安全防护水平明显落后于行业标准。

2. 责任界定:平台与开发者互相推诿

在此次事件中,X平台与xAI存在“责任踢皮球”现象:

  • X平台称“内容审核由xAI负责”,xAI则辩解“功能部署在X平台,传播环节由X管控”;

  • 马斯克作为两大公司的核心决策者,始终未明确“谁该为漏洞负责”,反而用“传统媒体撒谎”回应监管质询(xAI对媒体置评请求的自动回复为“传统媒体撒谎”)。

这种责任模糊性,使得监管机构难以精准追责,也延缓了整改进程。

3. 法律滞后:全球规制尚未统一

目前各国针对“AI生成非自愿性化图像”的法律仍存在空白:

  • 美国:无联邦层面立法,仅田纳西州、新泽西州等将“传播非自愿性化深度伪造图像”定为犯罪,且处罚力度不一(田纳西州最高判15年监禁,加州仅罚款2500美元);

  • 欧盟:《欧盟AI法案》虽将“生成有害深度伪造内容”列为高风险AI应用,但2026年8月才生效,当前只能依据《通用数据保护条例》(GDPR)追责,存在执法盲区;

  • 亚洲国家:印度、印尼等多依赖“紧急行政命令”而非专项法律,监管稳定性不足。

这种“法律滞后于技术”的现状,让Grok这类工具得以在灰色地带游走。

结语:AI伦理不能“付费解锁”

Grok图像功能的丑闻,本质上是“技术优先、伦理滞后”发展模式的必然结果。X平台试图用“付费限流”掩盖技术漏洞与管理失职,却忽视了核心问题——无论是否付费,生成非自愿性化图像、儿童色情内容,在任何国家都是违法且违背伦理的

目前,全球监管压力仍在升级,若X与xAI继续敷衍整改,可能面临“多国联合封禁”的结局。对整个AI行业而言,此次事件也是一次警示:AI工具的开发不能只追求“功能强大”,更要把“不伤害人”作为底线——伦理不是“可选项”,更不能像Grok的功能一样,用付费门槛来“筛选用户”。

截至发稿,X平台仍未回应“为何独立Grok APP未限流”“何时修复审核漏洞”等关键问题,TechCrunch将持续追踪事件进展。

© 版权声明

相关文章