事件概述:首次公開的 AI 參與指控
多家媒體報導稱,在美軍在 2026 年 1 月進行的「Operation Absolute Resolve」突襲中,Anthropic 的 Claude 被部署於行動當下協助任務執行。據外媒報導,美國國防部使用 Claude 的說法 指出,這類大型語言模型可以在混亂的作戰環境中即時處理資料,為決策提供支援。
相關報導同時強調,媒體無法完全確認 Claude 在行動中的精確角色或範疇,但多個消息來源稱該模型是在「行動期間」而非僅僅在準備階段被調用。
政策與立場:Anthropic 的使用條款與國防部的需求
Anthropic 一向把自己定位為「安全優先」的模型開發者,其使用條款明確禁止將 Claude 用於「促進暴力、研發武器或進行大規模監控」。公司發言人對媒體表示,任何對 Claude 的部署都必須遵守既有的使用政策。
同時,報導也指出國防部希望在符合法律規範下更廣泛地使用商業模型,並有高層推動把AI 快速整合到軍事工作中的趨勢,但在實務上與 Anthropic 就保障措施存在摩擦與談判。
技術層面:Claude 可能的用途與整合管道
外媒指出,Claude 被用於分析衛星影像、情報彙整或即時資料處理等任務的可能性較高;另有報導稱該模型透過與軍方承包商(如 Palantir)等合作管道被整合進作戰流程,然而具體細節仍不公開。
值得注意的是,商業大型模型的能力包括快速處理大量文件(如 PDF)、合成情報摘要與協助分析,這些功能在「多域作戰」與快速決策中具備價值,但如何在不違反供應商政策下使用,仍是實務挑戰。
行動後果:傷亡數字與資訊的不確定性
關於突襲的傷亡,各方數字不一。媒體報導援引官方說法指出行動中「沒有美國人喪生」,而古巴與委內瑞拉方面表示其人員有「數十人」被殺;另有報導援引委國防部稱有 83 人死亡。由於消息來源與說法存在差異,事件傷亡與責任判定仍具高度不確定性(參見 相關報導)。
此外,學界與分析機構也討論到行動中可能採用的電磁、網路與空間效應,指出美軍在行動前後「分層」使用多種能力以創造作戰窗口(參見 行動詳報)。
分析與結語:技術進步帶來的倫理與監管兩難
分析:此次事件凸顯出一個關鍵命題——當商業 AI 模型被納入國防體系,技術能力與供應商的倫理限制會發生直接碰撞。國防部希望在合法範圍內廣泛使用 AI 以提升作戰效能,供應商則試圖藉由使用條款限制可能的不當用途,兩者之間的談判將影響未來軍用 AI 的邊界。
結語:不論 Claude 在該次突襲中的實際角色為何,這場事件都提醒我們在擁抱軍事 AI 應用時,必須同步推動透明的監控機制與嚴謹的法律倫理審查,以避免技術濫用並維持國際責任與人道準則。





