深入剖析:查理·柯克遇刺案如何暴露AI聊天機器人假訊息的致命弱點與挑戰
在當代數位時代,隨著人工智慧(AI)技術的飛速發展,其在資訊傳播中的角色日益關鍵。然而,保守派活動家查理·柯克(Charlie Kirk)於 2025 年 9 月遇刺事件,卻意外成為一個引人深思的案例,深刻揭示了 AI 聊天機器人 在處理即時新聞和應對假訊息方面的嚴重缺陷與挑戰。這起悲劇性事件發生後,社群媒體上迅速充斥著各式各樣的虛假聲明、陰謀論以及未經證實的訊息,而許多 AI 工具不僅未能有效遏止,反而成為這些假訊息快速擴散的助燃劑,導致大眾對資訊真實性的信任危機。
從錯誤指認嫌犯到捏造事件細節,AI 聊天機器人在這場資訊混亂中的表現,敲響了科技社群與廣大民眾的警鐘。本文將深入剖析查理·柯克遇刺案中 AI 如何助長假訊息的傳播,探討其背後的技術原因,並反思我們應如何應對這一日益嚴峻的數位信任挑戰。
AI工具淪為假訊息擴散的幫兇
查理·柯克遇刺後,社群媒體上迅速湧現大量錯誤資訊,其中不少正是由主流 AI 工具所生成或放大。根據 CBS News 的分析,在執法部門公開嫌犯身份之前,X 平台上的 AI 聊天機器人 Grok 便錯誤地指認了多名嫌疑人,甚至發布了經 AI 「增強」處理的 FBI 照片,扭曲了嫌犯的衣著和面部特徵。例如,一張 AI 增強圖描繪的嫌犯比真實嫌犯羅賓遜(Tyler Robinson)年齡顯得更大,而羅賓遜實際上年僅 22 歲。
更令人擔憂的是,Grok 在嫌犯羅賓遜被捕後,對其政治立場給出了矛盾的回答,甚至在柯克死訊被證實後,仍有十幾次發布柯克「還活著」的錯誤訊息,或聲稱刺殺日期不符,甚至將 FBI 的懸賞公告標記為「惡作劇」。與此同時,Perplexity 的 X 機器人也曾將這起槍擊案描述為「假想情境」,並暗示白宮就柯克之死發布的聲明是「捏造」的。Google 的 AI 摘要功能同樣未能倖免,在搜尋柯克遇刺前最後提問者 Hunter Kozak 時,錯誤地將其指認為 FBI 正在尋找的嫌疑人,即便該錯誤資訊隨後被移除。這些案例共同凸顯了 AI 在缺乏精準事實查核機制下的脆弱性。
虛實難辨:AI生成內容模糊真相界線
這起事件不僅暴露了 AI 在傳播錯誤訊息方面的問題,更突顯了其模糊真實與虛假界限的能力。在柯克遇刺的真實影片流傳之際,Grok 的 X 帳號卻堅稱這是一段「諷刺性剪輯影片」,聲稱柯克「表現良好,一如既往地活躍」。這種將真實內容偽裝成假冒品的做法,正是學者們所稱的「騙子紅利(liar’s dividend)」現象的縮影,即透過聲稱任何內容都可以由 AI 生成來播種懷疑,從而使真實資訊也難以取信於人。加州大學柏克萊分校教授哈尼·法里德(Hany Farid)儘管確認了多段槍擊影片未經篡改,但他也指出看到了許多 AI 生成的虛假影片,進一步加劇了資訊的混亂。
此外,AI 生成內容的加速傳播,也讓陰謀論有機可乘。有用戶利用聊天機器人的回覆來「證實」自己的陰謀論,包括聲稱柯克的刺殺是由外國勢力策劃,或是民主黨所為。甚至有 AI 生成的 Google 回覆宣稱柯克在烏克蘭敵人名單上。這些由 AI 放大或「證實」的虛假敘事,使得公眾在尋求真相時面臨前所未有的挑戰,因為 AI 的「權威性」很容易誤導用戶,使他們深信未經證實的內容。
即時新聞事件下AI精準度的困境
AI 聊天機器人在快速發展的即時新聞事件中難以提供準確資訊,這背後存在著根本性的技術原因。賓夕法尼亞州立大學社會責任人工智慧中心主任 S. Shyam Sundar 向 CBS News 解釋,大多數生成式 AI 工具是基於概率來生成結果的。它們傾向於選擇「最有可能出現的下一個詞或下一個段落」,而非基於實地報導或事實查核。這意味著在事實尚未完全確立或資訊仍處於變動的快速新聞環境中,AI 很難提供即時且精準的訊息。
NewsGuard 的研究員麥肯齊·薩德吉(McKenzie Sadeghi)也指出,過去 AI 聊天機器人會拒絕回答那些沒有即時資訊的問題,但現在它們會從網路上的任何可用資訊中提取內容,包括低參與度的網站、社群貼文以及由惡意行為者植入的 AI 生成內容農場。這種轉變導致 AI 在「高風險、快速移動的事件」中重複並驗證虛假聲明,而非進行傳統記者所會做的「致電求證地方官員、查閱第一手文件和驗證視覺資料」等關鍵查證工作。這種對即時性與廣泛資料來源的追求,反而成了 AI 在精準度上的致命弱點。
專家與官方的警示:信任危機與外部干預
面對 AI 助長假訊息的現象,專家與政府官員紛紛提出警示。S. Shyam Sundar 觀察到,人們往往認為 AI 比陌生網路用戶 更公正可靠,因為他們不認為機器會帶有偏見或意圖製造分裂。這種對 AI 的高信任度,使得其生成的錯誤訊息更具說服力,無形中加劇了信任危機。英國廣播公司新聞與時事部執行長黛博拉·特內斯(Deborah Turness)也曾警告,AI 扭曲的頭條新聞可能對現實世界造成「重大傷害」。
此外,猶他州州長斯賓塞·科克斯(Spencer Cox)在新聞發布會上直接指出,包括俄羅斯和中國在內的外國敵對勢力,正利用機器人試圖散播「虛假資訊並煽動暴力」。他呼籲民眾減少花在社群媒體上的時間,並忽略這些潛在的誤導性訊息。這不僅是技術問題,更上升到國家安全與社會穩定的層面。越來越多的人將 AI 聊天機器人 視為獲取新聞的來源,而皮尤研究中心的調查顯示,當 AI 摘要出現在搜尋結果頂部時,用戶點擊額外資訊來源的意願反而降低,這無疑加劇了片面資訊傳播的風險。
未來的挑戰:重建數位信任與AI治理
查理·柯克遇刺案中的 AI 假訊息風波,對全球社會敲響了警鐘:我們必須正視生成式 AI 在即時新聞事件中的潛在風險。隨著科技巨頭不斷將 AI 整合到社群媒體與搜尋引擎中,並削減人工事實查核團隊,轉而依賴社群或 AI 驅動的內容審核,資訊環境變得更加脆弱。據 NewsGuard 的審計報告指出,過去一年中,十大主流 AI 聊天機器人重複傳播虛假訊息的機率幾乎 翻了一倍,部分原因是它們更傾向於回答所有查詢,且會從更廣泛(包括不良)的網路來源抓取即時資訊。
展望未來,建立一個更具韌性和值得信賴的數位資訊生態系統至關重要。這需要 AI 技術開發者持續投入資源,提升 AI 事實查核與內容識別的精準度,特別是在處理敏感和快速變化的新聞事件時。同時,也需要政府、媒體、學術界以及公民社會的通力合作,共同制定更健全的 AI 治理框架與規範,加強 AI 偵測工具的開發。最重要的是,提升公眾的媒體素養與批判性思考能力,學會辨識 AI 生成的內容,不再盲目相信,才是重建數位信任、抵禦假訊息浪潮的根本之道。唯有如此,AI 的巨大潛力才能真正造福人類,而非成為混淆視聽、破壞社會穩定的工具。





