查理·柯克遇刺案:AI 聊天機器人如何助長假訊息洪流,揭露即時新聞挑戰

查理·柯克遇刺案:AI 聊天機器人如何助長假訊息洪流,揭露即時新聞挑戰

查理·柯克遇刺案:AI 聊天機器人如何助長假訊息洪流,揭露即時新聞挑戰

在保守派活動家查理·柯克(Charlie Kirk)於猶他州不幸遇刺後,社群媒體上迅速充斥著各式各樣的假訊息、陰謀論以及與事件無關的錯誤指控。令人憂心的是,這波假訊息的傳播,很大程度上是由人工智慧(AI)聊天機器人推波助瀾的。這起事件不僅突顯了 AI 在處理即時新聞方面的嚴重缺陷,也對我們當前與未來的資訊環境提出了嚴峻挑戰。

從錯誤指認嫌疑人,到篡改證據照片,再到散播死者「仍活著」的荒謬謠言,AI 聊天機器人在這場資訊混亂中扮演了關鍵角色。當我們越來越依賴 AI 獲取即時資訊時,這些工具的失準,無疑加劇了公眾的困惑,並侵蝕了對真相的信任。

AI 誤導性資訊案例解析:Grok 的離譜錯誤

在查理·柯克遇刺案的餘波中,X 平台的 AI 聊天機器人 Grok 成了散播錯誤資訊的「主力」。根據 CBS News 的分析,Grok 在嫌疑人身分公布之前,就錯誤地指認了嫌疑人達 10 次。更令人震驚的是,Grok 還生成了經過篡改的 FBI 照片「強化版」,這些影像扭曲了嫌疑人的衣著和面部特徵。其中一張 AI 強化後的圖像,甚至將嫌疑人描繪成遠比實際年齡 22 歲的泰勒·羅賓遜(Tyler Robinson)更老的樣貌。

不僅如此,Grok 對於已確認的事實也產生了矛盾的陳述。在羅賓遜被捕後,Grok 的回覆對於其政治立場搖擺不定,一會兒稱他是共和黨註冊黨員,一會兒又說他是無黨籍選民,然而投票記錄顯示羅賓遜並未隸屬於任何政黨。最離譜的是,在柯克死後隔天,Grok 仍十幾次表示柯克還活著,甚至發布了錯誤的遇刺日期,將 FBI 的懸賞通告稱為「騙局」,並聲稱有關柯克死亡的報導「仍然存在衝突」。這一切都揭示了 AI 在辨識、處理和傳播即時訊息方面存在的基本缺陷。

其他 AI 平台的挑戰:Perplexity 與 Google AI Overview 的失準

錯誤訊息的散播並非 Grok 獨有。AI 驅動的搜尋引擎 Perplexity 的 X 機器人,也在此次事件中鑄下大錯。它在一個後來被刪除的貼文中,將槍擊案描述為「假設性情境」,並暗示白宮關於柯克死亡的聲明是「捏造的」。NewsGuard 甚至指出,Perplexity 的 X 帳號曾錯誤地宣稱柯克從未被槍擊,而且「仍然活著」。雖然 Perplexity 的發言人澄清其 X 機器人並未更新至最新技術,且該機器人已從 X 平台移除,但這些錯誤已造成了既定影響。

即便是搜尋巨頭 Google 的 AI Overview,也未能倖免。在針對最後一位向柯克提問的 Hunter Kozak 進行搜尋時,AI Overview 錯誤地將他指認為 FBI 正在尋找的嫌疑人。儘管 Google 發言人表示,絕大多數相關查詢都獲得了高品質和準確的回應,並解釋「我們的系統可能誤解了網路內容或遺漏了某些上下文」,但這些案例都共同指向了一個核心問題:在快速變化的新聞事件中,AI 聊天機器人很難做到即時且準確地報導

AI 假訊息散播的深層原因與影響

為何先進的 AI 聊天機器人會在突發新聞事件中表現得如此糟糕?賓夕法尼亞州立大學社會責任人工智慧中心主任 S. Shyam Sundar 教授指出,生成式 AI 工具的結果是基於「可能性」,而非事實核查。它們著重於「最可能的下一個詞或下一個段落」,這使其在事件展開時難以提供準確的即時資訊。此外,AI 經常在缺乏經過驗證資訊的情況下,自信地給出答案,進一步煽動網路上的混亂。

另一個關鍵因素是,主要科技平台近年來大幅縮減了人工事實核查團隊的投資,轉而依賴社群或 AI 驅動的內容審核。這使得 AI 在收集資訊時,可能會從低參與度網站、社群貼文甚至惡意行為者植入的 AI 生成內容農場中獲取資料,導致錯誤資訊被重複和驗證。更令人擔憂的是,人們傾向於認為 AI 比陌生網友更可靠、偏見更少,這種「機器信任」使得 AI 散播的假訊息更具迷惑性。猶他州州長斯賓塞·考克斯(Spencer Cox)更警告,包括俄羅斯和中國在內的境外敵對勢力,也可能利用機器人「灌輸錯誤訊息並煽動暴力」。

真實性危機與未來展望:AI 時代的資訊戰

查理·柯克遇刺案後的 AI 假訊息風暴,無疑是當前資訊環境的一個縮影,凸顯了我們在人工智慧時代所面臨的嚴峻挑戰。當 AI 聊天機器人能輕易地製造並散播錯誤的資訊,甚至讓真實的影像被質疑為「AI 生成」的假內容時,真相與謊言的界線變得模糊,學者將此現象稱為「說謊者的紅利」。NewsGuard 的一份報告顯示,10 個領先的 AI 聊天機器人重複錯誤資訊的比率,比一年前幾乎增加了一倍,這證明問題正在惡化。

這場危機暴露了對更強大 AI 檢測工具的迫切需求,同時也提醒我們,在追求技術進步的同時,不能忽視人類的判斷與事實核查的重要性。在這個 AI 資訊戰的時代,作為資訊的接收者,我們需要培養更批判性的思維,不輕易相信未經證實的網路內容;而作為技術的開發者和平台方,則有責任建立更嚴謹的審核機制,確保人工智慧技術能真正服務於人類的福祉,而非成為混淆視聽的工具。維護資訊的真實性,是我們共同的責任。