五角大廈向Anthropic發出最後通牒:AI軍用限制、供應鏈風險與倫理爭議

五角大廈向Anthropic發出最後通牒:AI軍用限制、供應鏈風險與倫理爭議

事發概述:五角大廈對Anthropic的最後通牒

美國國防部近日向人工智慧公司Anthropic下達最後通牒,要求該公司在限期前放棄對軍用場景的使用限制,否則將面臨被標為「供應鏈風險」與啟動國防生產法的威脅。報導指出,這場對立源於雙方對於AI模型在軍事任務中應否保有使用守則(guardrails)的分歧,而Anthropic同時也是首家被部署到機密軍事網路的AI公司之一(相關報導參見New York Times)。

該通牒與潛在措施引發業界與公共政策圈高度關注,因為它不僅牽動單一合約,也可能改變政府在面對前沿AI系統時採用國安工具的先例。

爭點詳解:守則、使用範圍與合同規模

矛盾的核心在於Anthropic為軍方打造的專屬模型「Claude Gov」是否能在政府要求下解除部分或全部使用限制。公司高層據稱曾向國防部表明,期望對於「不得用於自動化致命目標指派(autonomous targeting)」與「不得用於對美國公民進行大規模監控」等情境得到書面或實務上的保證。

同時,報導提及該合作合約規模高達$200 million,而且Claude已經嵌入到國防部的機密系統中,若合約被終止或公司遭標為供應鏈風險,將造成既有工作流程與敏感系統轉移的實務挑戰(相關分析可參考Fox News)。

五角大廈立場:一切以「合法使用」為唯一限制

國防部官員強調,他們的立場是政府在採購與運用裝備上擔負合法使用的責任,因此不能允許廠商為設備的使用設定超出法律以外的限制。官員們表示,若允許每個承包商自行決定使用限制,將無法有效執行國防需求與責任。

在與Anthropic執行長的會談後,國防部首長表示若公司不妥協,將於期限後採取更強硬的措施。這個做法被視為運用國家安全授權來取得對前沿AI系統的可用性,並透過標示供應鏈風險來施壓。

產業影響與替代選項的難度

多方報導指出,雖然OpenAI、Google與其他AI廠商在未分類環境已經放寬部分使用限制,並在與政府協商向機密領域延伸,但將現有系統快速替換並非易事,因為專用、經過硬化的政府應用仍有技術與合規門檻。國防部也承認若解除合作,必須有「有序過渡」來避免影響作業。

此外,這場爭議反映出AI企業內部對軍事合作的不同看法——部分工程師可能擔憂倫理與風險,企業領導層則在國安商機與責任之間尋找平衡。這些動態將影響其他供應商是否願意接受相同條款,或促使政府在採購條件上做出更明確的政策指引。

結語:法律、倫理與國家安全如何找到平衡

五角大廈與Anthropic的對峙不僅是單一合約糾紛,而是關乎如何在推動國家安全需求與維護AI倫理守則之間找到制度化的解答。若政府常態化使用國安工具來強制廠商放寬使用限制,未來的商業合作與企業自我約束可能會被根本改寫。

展望未來,需要更清晰的法律框架與公開規範來協調「合法使用」與「倫理界限」,同時也應促成公開的監督機制,避免單一事件成為常態化壓力來源。這場爭議提醒我們:在前沿技術轉入國防體系時,制度與價值的碰撞必須被制度化、透明化地處理,以保障既有國安利益與社會倫理底線。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *