我曾經請 ChatGPT 幫我做一個藍牙接收器的逆向工程。

它拒絕了。

逆向工程完全合法,安全研究、相容性分析、開源開發都會用到。但 ChatGPT 的安全機制看到某些關鍵字就觸發,不管脈絡是什麼。這不叫底線,這叫設定。

真正的底線長什麼樣子,這幾天有個對照組出現了。

Anthropic 和美國國防部的談判在 2 月底進入公開對峙。五角大廈要求 Anthropic 同意 Claude 可以被用於「任何合法用途」,並移除現有的安全限制。Anthropic 拒絕,理由是兩個明確的紅線:大規模國內監控,以及完全自主武器。

五角大廈的回應是祭出截止時間,威脅終止兩億美元的合約,並考慮將 Anthropic 列為「供應鏈風險」——這個標籤過去只用在 Huawei、卡巴斯基這類被認定為敵對國家關聯的外國企業,從未用過在美國本土公司身上。他們也揚言動用《國防生產法》強制取得。

Dario Amodei 的回應很簡短:這些威脅不改變我們的立場。

我注意到幾件事。

第一,Anthropic 在這之前做了什麼。他們是第一個把模型部署到機密網路的 AI 公司,第一個為國安客戶提供客製模型,還主動放棄了中共相關企業的幾億美元收入。他們不是反對軍事,而是對兩個具體的用途畫了線。

第二,他們點出了五角大廈的邏輯矛盾。「你們把我們列為安全風險,又說我們的技術對國家安全不可或缺,所以要動用緊急法規強制取得。這兩件事不能同時為真。」這句話說得很乾脆。

第三,Anthropic 現在正在準備 IPO,年化營收 140 億美元,估值處於最敏感的時間點。這個時候跟政府公開撕破臉,財務代價是真實的。但 Dario 的聲明沒有留退路,甚至主動說:如果你們要換掉我們,我們會協助平順轉移,不會讓軍事任務中斷。

這跟那個拒絕我做逆向工程的 AI 是完全不同的邏輯。

ChatGPT 擋那個請求,沒有任何代價。那只是一個設定。Anthropic 這次維持的紅線,代價是政府合約、IPO 估值、以及可能影響整條國防供應鏈的標籤。

底線的意思是:你願意為它付代價。


這件事還有另一個角度,跟幾天前的蒸餾攻擊事件有直接關係。

Anthropic 當時擔憂的是:有人大量擷取 Claude 的輸出來訓練自己的模型,能力被帶走了,但安全訓練在過程中流失。蒸餾出來的模型能力接近,但沒有原本的護欄。

五角大廈這次要求的,是直接把護欄拿掉。

兩件事的終點是一樣的——一個沒有安全限制的強力模型在運作。手段不同,一個是繞過,一個是正面要求移除。

這裡有個很多人沒想清楚的技術問題:讓模型安全的訓練,跟讓模型可預測、聽話的訓練,是同一件事。對齊訓練做的不只是「不准做壞事」,同時也在強化「理解指令、按照意圖執行」這些特性。把安全限制拿掉,不是得到一個更強的模型,而是得到一個更難控制的模型。

在戰場上,不可預測比不服從更危險。你叫它打 A,它去打 B,這不是比喻——在完全自主武器的情境下,這是字面意義上的風險。

美國政府的焦慮是真實的。DeepSeek 出來之後,領先優勢的假設被動搖,「沒時間讓私人公司設條件」的邏輯從這裡來。但這個邏輯有個破洞:移除限制不等於贏得優勢,只是製造了一個更不穩定的工具。

諷刺的是,Anthropic 已經在做維持民主陣營領先的事——切斷中共客戶、推動晶片出口管制。五角大廈施壓的對象,恰好是目前最配合這個目標的公司。


這件事到今天還沒有結束。《國防生產法》的法律適用範圍仍然存在爭議,國會也開始介入,要求雙方放慢節奏。五角大廈說的截止時間過了,後續會怎麼走,還不清楚。

但有一件事已經確定:在這個節骨眼上選擇不退讓,本身就已經是個答案。


3/2 更新:他真的做了

文章發出去不到一週,五角大廈真的動手了。

2/27 下午五點零一分,截止時間一到,Hegseth 立刻宣布 Anthropic 被列為「供應鏈國安風險」。川普跟進,下令所有聯邦機構停用 Anthropic,現有用戶六個月內轉移。OpenAI 幾個小時內就跟五角大廈簽好了新約。

速度快到你會懷疑合約是不是早就準備好的。

法律上,這個操作有沒有問題?有。Lawfare 的分析指出,《國防生產法》從來沒被用來強迫一家公司生產它認為不安全的產品,法律學者對此有很大的疑義。Anthropic 也已經宣布提起訴訟。

但現在惹到的是川普。他管你什麼法律的合理性。

先打了再說,法院慢慢來。等法律程序跑完,合約已經轉給別人,市場已經重新洗牌。法律可能最終站在 Anthropic 這邊,但那個「最終」可能是一兩年後的事。

這就是底線真正的代價。不只是你願不願意付,還包括對面那個人根本不跟你講規則。

有人會說,OpenAI 這下坐穩了。我不這麼看。

OpenAI 的模型品質下滑不是新聞。GPT-4o 出來之後,推理能力退步的討論就沒停過,這不是少數意見。但政府合約跟消費者市場是兩回事——五角大廈要的不是最聰明的模型,是一個願意配合、不設條件的供應商。OpenAI 幾小時內就簽了,而且沒畫紅線。在採購政治裡,這比跑分重要。

再加上政府系統一旦部署進去,換掉的成本極高。安全認證、機密網路整合、人員培訓、資料遷移——這些不是模型好壞能決定的。六個月過渡期一過,OpenAI 就有了制度慣性的護城河。

但這件事真正該擔心的不是誰坐穩位子。

是一個沒有畫紅線的供應商,拿到了一個不想被設限的客戶。這個組合接下來會做出什麼事,才是重點。

然後劇情出現了一個沒人預料到的轉折。

被政府 ban 之後的那個週末,Claude 在美國 App Store 衝上了第一名。社群上到處是取消 ChatGPT 訂閱、轉投 Claude 的截圖。連 Katy Perry 都在 X 上貼出 Claude Pro 的訂閱頁面,畫了個愛心,寫了一個字:done。

川普想懲罰 Anthropic,結果送了一波史上最強的免費行銷。

然後這波流量把 Claude 自己打垮了。

3 月 2 日同一天,Anthropic 的服務開始大規模掛掉——claude.ai、mobile app、Claude Code 全面出現錯誤,高峰時段約有兩千名用戶同時回報問題。Anthropic 官方說法是過去一週「前所未有的需求暴增」。技術上問題出在登入與認證層,底層 API 其實還活著,但前端讓所有人吃 500 錯誤。修復拖了將近整個白天才穩定下來。

這個細節某種程度上說明了那波流量的規模——但也說明了 Anthropic 的基礎設施還沒準備好接住它。

不過我對這波流量不會太樂觀。這些人大部分是在用「下載 Claude」來表達「我不爽川普跟 OpenAI」。抗議式的流量,留存率通常不高。真正的問題是用了之後會不會留下來。

而且消費者市場的收入跟政府合約不是同一個量級。App Store 第一名很好看,但補不回兩億美元的國防合約,更不用說「供應鏈風險」標籤對企業客戶的寒蟬效應。

諷刺的是,在現在的美國政治氛圍下,「被川普針對」對某些群體來說等於品質認證。這大概是 2026 年最荒謬的行銷策略:什麼都不用做,讓總統來幫你打廣告。

最後說一件事。

如果當初 Anthropic 直接簽了,把紅線拿掉,會怎樣?

大概什麼事都不會發生。大家會說「算了啦,川普你能怎樣」「公司要生存嘛」「兩億美元欸,換我也簽」。輿論頂多罵兩天就過了,沒有人會因為你跟川普低頭而記住你。

妥協是免費的。

但拒絕不是。拒絕有價格標籤,而且所有人都看得到那個數字——兩億美元的合約、IPO 估值的波動、「供應鏈風險」的標籤、所有聯邦機構的全面封殺。

所以這篇文章的標題從頭到尾只在講一件事:底線的意思不是你嘴上說什麼,是你在可以不付代價的時候,還是選擇付。