拒當“殺人工具” 美AI企業控告國防部香港中通社3月14日電 (記者 關秀英)美國人工智能(AI)公司Anthropic日前與美國總統特朗普政府及國防部的衝突,已從合約談判演變為法律戰與全國性禁令。這場被外界形容為“拒當殺人工具”的對峙,不僅讓這家曾獲五角大廈青睞的企業失去數億美元政府合約,更震動矽谷,引發對美國AI產業自主性與國家安全優先順序的激烈辯論。
美國總統特朗普 圖源:新華社 事件核心在於Anthropic拒絕移除其旗艦模型Claude兩條“不可逾越的紅線”:一是不得用於美國境內大規模民眾監察,二是不得開發或支援完全自主武器系統(即無人類介入即可決定生死的殺人機器)。公司創辦人兼行政總裁阿莫迪在2月26日公開聲明中強調:“我們深信AI應捍衛民主價值,但在某些情況下,它可能反而摧毀這些價值。我們無法在良知上同意。” 美國國防部長赫格塞思則在2月27日發出最後通牒,要求Anthropic允許“所有合法用途”,否則面臨後果。特朗普隨即下令,所有聯邦機構立即停止使用Anthropic技術,並給予六個月過渡期。赫格塞思更史無前例地將這家美國企業標記為“供應鏈風險”——這項標籤以往僅用於外國對手,從未施加於本土公司。Anthropic隨後於3月9日在加州北區聯邦法院提起訴訟,指控政府報復性打壓,違反正當程序與憲法權限,並要求撤銷標籤與禁令。 這場“開戰”源頭可追溯至2025年7月Anthropic與國防部簽署的2億美元原型合約。當時Claude是首個獲准部署於美軍機密網路的前沿AI模型,已廣泛用於情報分析、模擬演練、作戰規劃及網路行動。《華盛頓郵報》報道指出,今年1月美軍對伊朗的軍事行動中,Claude甚至參與目標辨識與建議生成,顯示其已深度嵌入美軍戰場。 但2026年初,國防部根據赫格塞思的AI戰略備忘錄,要求所有AI供應商移除“超出法律要求的限制”,即取消公司自行設定的安全護欄。Anthropic堅持上述兩項例外,導致談判破裂。阿莫迪在聲明中直言:“國防部威脅移除我們系統上供應鏈風險標籤,甚至考慮援引《國防生產法》強迫就範,這些威脅本質上自相矛盾——一面說我們是安全風險,一面又承認Claude對國家安全不可或缺。” 公開資料顯示,Anthropic公司曾多次強調支持Claude用於99%的軍事用途,包括協助美軍對抗有威脅的對手,但阿莫迪在2月印度AI峰會上重申憂慮:“AI模型自主性日益提高,個人與政府誤用風險、經濟錯配都可能破壞民主。”他警告,AI若無人類最終判斷權,可能淪為“殺人工具”,這正是公司不可退讓的底線。 美國政治網站Politico及多家媒體報道,事件令矽谷瀰漫“寒蟬效應”。特朗普前白宮AI顧問批評此舉“等同企圖謀殺企業”,擔心初創公司不再敢在美國投資AI研發。微軟、谷歌等大廠雖未公開表態,但據報正關注後續,部分國防承包商已開始認證是否仍能使用Claude。 分析人士指出,特朗普政府“速度優先”策略旨在加速軍事AI部署,避免落後別國,但將本土AI龍頭打成“供應鏈風險”,可能適得其反——削弱美國私營部門創新優勢。Anthropic訴訟文件強調,供應鏈風險標籤雖經澄清主要限於國防合約範圍,未全面禁止英偉達或谷歌向其出售晶片,但仍對企業客戶與承包商造成實質壓力。公司估值與收入(八成來自企業客戶)短期內已受到衝擊。(完) 【編輯:劉春】
|










