■張瑞雄
美國總統川普宣布將命令所有聯邦機構在六個月內停用Anthropic的人工智慧服務,並威脅若該公司不配合安排,將動用總統職權施以「重大民事與刑事後果」。這場風波的起源,是國防部長彼特·海格塞斯向Anthropic發出最後通牒,要求該公司移除其旗艦AI產品Claude的安全防護機制,允許軍方將其用於大規模國內監控與全自主武器系統。Anthropic執行長達里奧·阿莫代伊公開表態,公司「良心上無法接受」這樣的要求,雙方由此陷入一場前所未見的對峙。
這不只是一紙合約的糾紛,而是一場關於誰有權定義人工智慧邊界的根本衝突。
五角大廈所持的立場,表面上看似合理。軍事體系本就主張自身有權決定作戰手段,政府採購合約通常也不允許供應商對用途指手畫腳。然而這次不同,Anthropic所堅守的兩條紅線,並非商業上的精明算計,而是涉及美國憲法精神的核心議題。允許AI系統在無法院令的情況下追蹤公民的行蹤、網路活動與社交關係,這與第四修正案所保障的隱私權直接衝突。而讓AI系統在沒有人類監督的情況下做出致命決策,則是將戰爭倫理推入無人負責的灰色地帶。
阿莫代伊在公開信中特別將「國內」二字以斜體標示,這個細節耐人尋味。他似乎有意提醒美國社會,威脅不只來自海外,也可能悄悄滲入日常生活之中。這種措辭,顯示出Anthropic並非僅在打一場企業公關戰,而是試圖喚起更廣泛的公民意識。
更值得關注的,是這場對峙在科技業內部引發的連鎖反應。谷歌超過百名AI工程師聯署信函,要求公司管理層在與五角大廈的合約談判中堅守同樣的原則底線。OpenAI的執行長山姆·奧特曼則透過一份流出的內部備忘錄宣示,OpenAI同樣反對將AI用於大規模監控與自主致命武器。跨越競爭壁壘、共同對抗政府壓力,這在矽谷並不常見,足以說明此事觸碰到了整個科技業的集體神經。
五角大廈的策略,從一開始就存在內在矛盾。一方面將Anthropic列為「供應鏈安全風險」,這個標籤向來只用於中國等敵對國家的企業;另一方面又試圖透過《國防生產法》強制徵用該公司的技術,理由是Claude對國家安全不可或缺。把同一家公司同時定性為威脅與不可替代的資產,這種邏輯的自我矛盾,已讓多名專家直言批評此舉「前後不一」。
民主與科技倡議組織「民主與技術中心」的批評一針見血。當政府可以透過威脅取消合約、貼上安全標籤甚至祭出刑事後果,來逼迫企業交出其技術的完整控制權,這不只是商業環境的問題,而是一種關於權力邊界的訊號。企業若無法在不受恐嚇的情況下與政府坦誠討論技術的適當使用方式,那麼所謂的「負責任AI」就只會淪為一句空話。
AI治理的核心問題,從來不只是技術能不能做到某件事,而是我們願不願意讓它去做。全自主武器系統能否可靠到足以在沒有人類判斷的情況下決定生死,目前的答案並不樂觀。研究顯示,包括Claude在內的AI聊天機器人在模擬戰爭情境中,有高達九成五的機率選擇動用核武,這個數字令人不寒而慄。在技術尚未成熟、問責機制尚未建立之前,將生死決策權交給演算法,是一種我們承擔不起的冒險。
這場對峙的結局仍未明朗,川普政府是否真的會走完整個驅逐程序,軍方能否在合理時間內找到替代方案,Anthropic在財務壓力下能否繼續維持立場,都還是開放性問題。但無論結果如何,這個事件已經清楚地揭示出一件事:當人工智慧的能力強大到足以影響戰場、監控人民時,誰來決定它的使用,就不再只是科技公司與政府之間的商業談判,而是涉及所有公民的政治選擇。這個問題,值得每一個人嚴肅對待。(作者台北商業大學榮譽講座教授)