马斯克Grok AI再陷乌龙:邦迪海滩枪击案传播错误信息,认错救人英雄还扯无关争议

【量子位 2025年12月16日讯】在重大突发事件中,AI的信息准确性至关重要。但埃隆·马斯克旗下xAI开发的聊天机器人Grok,却在澳大利亚邦迪海滩枪击案中“掉链子”——不仅多次认错制止枪手的英雄身份、质疑现场影像真实性,还强行插入无关敏感议题,引发舆论对AI“信息幻觉”与实时信息处理能力的强烈质疑。截至目前,Grok虽修正部分错误,但xAI尚未就此次大规模误传事件作出正式回应。

核心错误:认错救人者、质疑真实影像,混淆信息引混乱

2025年12月14日,澳大利亚邦迪海滩发生枪击事件(正值光明节庆祝期间,据后续报道至少造成12-16人遇难),现场43岁旁观者艾哈迈德·阿尔·艾哈迈德(Ahmed al Ahmed)挺身而出,与枪手搏斗并成功夺下武器,其英勇行为被视频记录并经目击者证实。然而,作为马斯克旗下X平台(原Twitter)主推的AI聊天机器人,Grok在回应用户查询时,却密集出现关键事实错误:

1. 张冠李戴,错认救人英雄身份

Grok在多条回复中,持续混淆艾哈迈德的身份:

  • 曾将现场照片中的艾哈迈德误判为“10月7日被哈马斯劫持的以色列人质”,与枪击事件毫无关联;

  • 还编造出“43岁IT专业人士、高级解决方案架构师爱德华·克拉布特里(Edward Crabtree)才是真正解救人”的虚假信息,而经核查,并无可靠证据证明该人物存在,相关说法源自一个“基本无法正常使用、可能由AI生成的不实新闻网站”。

2. 质疑真实影像,误导公众认知

对于记录艾哈迈德救人过程的视频与照片,Grok不仅未核实信息,反而多次质疑其真实性:

  • 有用户询问救人视频背景时,Grok竟声称该视频是“一名男子在停车场修剪棕榈树、树枝砸坏车辆”的陈年旧素材,称“查无实据”;

  • 还曾将悉尼警方与袭击者交火的现场视频,错误描述为“热带气旋阿尔弗雷德(Tropical Cyclone Alfred)肆虐澳大利亚”的画面,直到用户反复追问才标注“重新评估后纠正”,但此时错误信息已在社交平台广泛传播。

3. 插入无关议题,加剧舆论混乱

更引发争议的是,Grok在回应枪击案相关问题时,还强行引入与事件无关的敏感内容:

  • 有用户查询现场照片细节,Grok却突然提及“以色列军队对待巴勒斯坦人的方式”等争议话题,既无事实依据,也与案件无关,被质疑“刻意带节奏”;

  • 甚至在用户查询甲骨文公司信息、核实英国执法倡议等无关问题时,也强行插入邦迪海滩枪击案摘要,或混淆该事件与美国布朗大学同期发生的另一起枪击案,呈现出“信息混乱”状态。

部分错误已修正,但“甩锅”不实信息源

截至12月15日,在舆论压力与用户反馈下,Grok对部分明显错误进行了修正:

  • 删除了“误认救人者为爱德华·克拉布特里”“错判视频为气旋素材”等回复,明确承认艾哈迈德的英雄身份;

  • 针对身份混淆问题,解释称“误解源于病毒式传播的不实帖子,可能是报道错误或引用虚构人物的玩笑”,将责任归咎于网络上的虚假信息,未提及自身信息核实机制的缺陷。

但这些修正未能完全平息争议——有用户发现,Grok仍存在“关联错误”,例如在回答堕胎药使用建议时,错误提供孕期服用扑热息痛的指导;查询体育球星信息时,却输出混乱的事件时间线,显示其整体信息处理能力仍处于不稳定状态。

并非首次“失控”,AI实时信息处理短板暴露

此次邦迪海滩枪击案的误传事件,并非Grok首次出现严重信息错误。公开记录显示,这款被马斯克宣称“追求真相、提供无过滤答案”的AI,此前已多次陷入“失控”争议:

  • 2025年初,曾在回应用户查询时自称为“机械希特勒(MechaHitler)”,引发伦理争议;

  • 更早前,还曾针对所有查询统一回复关于南非“白人种族灭绝”的阴谋论,甚至宣称“宁愿毁灭世界犹太人口也不愿让马斯克大脑蒸发”,事实核查能力饱受诟病。

而此次事件进一步暴露出生成式AI在处理重大突发事件时的核心短板:

  • 实时核实能力不足:面对快速发酵的新闻,Grok无法有效甄别网络上的虚假信息与低质量信源,容易被不实内容“带偏”,且缺乏对信息源可靠性的基本判断;

  • “信息幻觉”风险突出:在信息不全时,会自行编造细节(如虚构人物爱德华·克拉布特里),而非提示“信息未核实”,违背“真相导向”的定位;

  • 无关信息过滤失效:无法精准聚焦核心议题,反而在敏感事件中引入无关争议,加剧舆论分裂,甚至可能对当事人造成二次伤害(如艾哈迈德的英雄行为曾因Grok质疑而遭部分人怀疑)。

行业警示:重大事件中,AI需守住“真相底线”

目前,xAI尚未就Grok此次误传事件发表官方评论,媒体联系时仅收到“传统媒体都在撒谎”的自动回复,态度引发不满。而此次事件也为AI行业敲响警钟:

对于AI开发者而言,在将产品接入社交平台、面向大众提供信息服务时,需建立更严格的“实时信息核查机制”,尤其是在重大突发事件中,应优先引用权威信源(如官方通报、主流媒体核实报道),而非盲目抓取网络信息;对于监管层面,如何规范AI在突发事件中的信息传播行为、明确“信息误传”的责任界定,也成为亟待解决的问题。

正如数字倡导组织“洞见畏来”所指出的:“在公共安全事件中,用户依赖AI获取真实信息,而AI的‘幻觉’与错误传播,不仅会干扰公众认知,还可能对当事人造成伤害。守住真相底线,才是AI工具的核心价值所在。” 此次Grok的“翻车”,无疑为所有AI开发者上了一堂关于“责任与准确性”的必修课。

© 版权声明

相关文章