《時代》雜誌評選 Anthropic 為全球最具顛覆性公司
原文標題:世界上最具顛覆性的公司
原文作者:Leslie Dickstein、Simmone Shah,TIMES
編譯:Peggy,BlockBeats
編者按:從一次深夜的安全測試,到一場與五角大樓的公開對峙,本文記錄了 AI 公司 Anthropic 在快速崛起過程中所面對的多重張力。文章首先描繪公司內部如何評估 AI 的潛在風險,隨後回顧 Claude 的技術突破與商業成功,並進一步呈現其在軍事領域的實際應用。
隨著事件推進,作者通過紅隊負責人、工程師、高管、政策研究者與政府官員等多方視角,層層展開 Anthropic 與美國軍方圍繞自動武器、大規模監控與 AI 控制權的爭議。
通過這一事件,作者最終追問一個越來越迫切的問題:當人工智慧開始加速自身進化,並深度嵌入戰爭、治理與勞動力結構之中,究竟誰還能為它設定邊界。
以下為原文:

在美國加利福尼亞州聖克拉拉的一間飯店房間裡,AI 公司 Anthropic 的五名成員正圍著一台筆記型電腦緊張工作。那是 2025 年 2 月,他們當時正在附近參加一場會議,卻突然收到一條令人不安的消息:一項受控實驗的結果顯示,即將發布的 Claude 新版本,可能會幫助恐怖分子製造生物武器。
這幾人屬於 Anthropic 的「前沿紅隊」(frontier red team)。他們的工作是研究 Claude 的先進能力,並嘗試推演最壞情況下的風險,從網路攻擊到生物安全威脅等各種可能性。得知消息後,他們一路小跑回到飯店房間,把一張床翻到側面當作臨時辦公桌,開始仔細審閱測試結果。
數小時的緊張分析後,他們仍無法確定新產品是否足夠安全。最終,Anthropic 決定推遲發布這款新模型,Claude 3.7 Sonnet 整整 10 天,直到團隊確認風險可控。
這聽起來或許只是短短十天,但對於一家站在技術最前沿、身處一個正迅速改變世界的行業中的公司來說,那幾乎像是一個漫長的世紀。
Logan Graham(「Frontier Red Team」 Leader) recalled the 「Bioweapon Scare」 incident as a microcosm of the challenges Anthropics face at a critical juncture, not only for the company but for the world as a whole. Anthropics is one of the most security-focused institutions in the current frontier AI lab. However, at the same time, it is also on the competitive front line, striving to build increasingly powerful AI systems. Within the company, many employees also believe that if this technology gets out of control, it could lead to a series of terrible consequences, from nuclear war to human extinction.
At 31, Graham still looks somewhat youthful, but he never shies away from the responsibility of seeking a balance between the immense benefits and risks of AI. He said:「Many people grew up in a relatively peaceful world and will intuitively feel that there will be a room with a group of mature adults sitting in it who know how to fix things.」
「But in fact, there's no 'group of adults.' There isn't even that room. There isn't a door you're looking for. The responsibility is on you.」 If these words are not alarming enough, then look at how he recalls the bioweapon alert: 「It was quite an interesting and thrilling day.」

Illustration: Neil Jamieson for TIME (Material Source: Askell: Aaron Wojack; Getty Images, from top clockwise: Samyukta Lakshmi—Bloomberg; Brendan Smialowski—AFP; Tierney L. Cross—Bloomberg; Daniel Slim—AFP; Bridget Bennett—Bloomberg)
A few weeks ago, Logan Graham discussed these issues during an interview at Anthropics' headquarters. A TIME magazine reporter spent three days here, interviewing company executives, engineers, product managers, and security team members, trying to figure out why this company, once seen as the 「maverick underdog」 in the AI race, suddenly became a leader.
At that time, Anthropics had just raised $30 billion from investors in preparation for a possible IPO this year. (By the way, Salesforce is also one of Anthropics' investors, and TIME magazine's owner, Marc Benioff, is the CEO of Salesforce.) Today, Anthropics' valuation has reached $380 billion, exceeding traditional giants such as Goldman Sachs, McDonald's, and Coca-Cola.
公司的收入增長速度堪稱火箭式上升。其 AI 系統 Claude 已被認為是世界級模型,而像 Claude Code 和 Claude Cowork 這樣的產品,正在重新定義「程序員」這一職業意味著什麼。
Anthropic 的工具強大到一種程度:幾乎每一次新版本發布,都會在資本市場引發震動,因為投資者逐漸意識到,這些技術進步可能會顛覆整整一類行業——從法律服務到軟體開發。在過去幾個月裡,Anthropic 已經被視為最有可能重塑「未來工作形態」的公司之一。
隨後,Anthropic 捲入了一場圍繞「未來戰爭形態」的激烈爭議。
一年多以來,Claude 一直是美國政府最青睞的 AI 模型,也是首個獲准在機密環境中使用的前沿 AI 系統。2026 年 1 月,它甚至被用於一次大膽的行動:在加拉加斯抓捕委內瑞拉總統Nicolás Maduro。據報導,這次行動中 AI 被用於任務規劃和情報分析等環節,標誌著前沿 AI 首次深度介入真實軍事行動。
然而,在隨後的幾周裡,Anthropic 與美國國防部之間的關係迅速惡化。2 月 27 日,特朗普政府宣布將 Anthropic 列為「國家安全供應鏈風險」,這是美國已知首次對一家本土公司貼上這一標籤。
局勢很快升級為一場公開衝突。特朗普下令,美國政府停止使用 Anthropic 的所有軟體。國防部長Pete Hegseth 進一步宣布:任何與政府合作的企業,都不得再與 Anthropic 開展業務。與此同時,Anthropic 的最大競爭對手 OpenAI 迅速介入,接手了相關的軍事合同。
就這樣,這家被視為「全球最具顛覆性的公司」的 AI 企業,突然發現自己也被另一股更大的力量顛覆了——它自己的政府。
這場對峙的核心問題在於:誰有權為這項被視為美國最強大武器之一的技術設定邊界。
Anthropic 並不反對其工具被用於戰爭行動。公司方面認為,加強美國軍事實力,是遏制國家威脅的唯一現實方式。但公司 CEO Dario Amodei 反對五角大樓試圖重新談判政府合同、將 AI 使用範圍擴大到「所有合法用途」(all lawful use)。
Amodei 提出了兩個具體擔憂:第一,他不希望 Anthropic 的 AI 被用於完全自主的武器系統;第二,他反對將其技術用於對美國公民的大規模監控。
但在 Pete Hegseth(美國國防部長)及其顧問看來,這種立場相當於一家私人公司嘗試決定軍方如何打仗。
美國國防部認為,Anthropic 通過堅持設定「不必要的安全柵欄」、不斷討論各種假設情境,並在後續談判中拖延時間,實際上削弱了雙方的合作關係。
在特朗普政府眼中,Amodei(Anthropic CEO)的態度既傲慢又頑固。無論一家公司的產品多麼先進,都不應該在軍事指揮鏈中插入自己的判斷。
五角大樓負責技術事務的戰爭部副部長 Emil Michael 這樣形容這場談判:「事情就這樣拖了下去。我不可能用那些我甚至無法想象、也無法理解的例外條款,去管理一個擁有 300 萬人的部門。」

插畫:Klawe Rzeczy 為 TIME 製作圖片來源:Denis Balibouse—Reuters
從矽谷到國會山,許多觀察者都在疑問:這場風波真的只是一次合同爭議嗎?
一些批評者認為,特朗普政府的行動更像是嘗試打壓一家政治立場不合的公司。Dario Amodei 在一份後來被洩露的內部備忘錄中寫道:「國防部和特朗普政府不喜歡我們的真正原因,是我們沒有給特朗普捐款。我們沒有像獨裁國家那樣對他大加讚美(而 Sam Altman 做了)。我們支持 AI 監管,這與他們的政策議程相沖突;我們在很多 AI 政策問題上講了真話(比如就業被替代的問題);而且我們在關鍵底線上保持了原則,而不是和他們合謀上演所謂的安全表演(safety theater)。」
不過,Emil Michael(戰爭部副部長)對這一說法予以否認,稱其為「完全的捏造」。他表示,將 Anthropic 列為供應鏈風險,是因為公司的立場可能會讓前線作戰人員面臨風險。他說:「在戰爭部(Department of War),我的工作不是搞政治,我的工作是保衛國家。」
Anthropic 一向特立獨行的公司文化,如今與國內政治分裂、國家安全議題以及殘酷的企業競爭環境正面相撞。此次衝突究竟給公司造成了多大損失,目前仍不清楚。最初威脅中的「供應鏈風險」認定範圍後來被縮小——據 Anthropic 表示,這一限制目前只適用於軍事合同。3 月 9 日,Anthropic 已起訴美國政府,試圖推翻這一「黑名單」決定。與此同時,一些客戶似乎將公司的立場視為一種道德表態,轉而放棄 ChatGPT,湧向 Claude。
然而,接下來的三年裡,這家公司仍不得不在一個對其並不友好的政府環境中前行——政府內部的一些官員與 Anthropic 的競爭對手關係密切,而這些對手對公司抱有明顯敵意。
這場「五角大樓風波」也提出了一些令人不安的問題,即便對於一家早已習慣在高風險倫理抉擇中前行的公司而言亦是如此。在這次對峙中,Anthropic 沒有退讓:公司堅持認為自己捍衛了價值原則,即使這讓企業付出了巨大代價。
但在其他場合,它也曾做出妥協。就在與五角大樓對峙的同一周,Anthropic 弱化了其訓練模型安全性承諾中的一項核心條款,理由是同行公司並不願意遵守同樣的標準。
問題也隨之而來:如果競爭壓力持續加大,這家公司未來還會做出怎樣的讓步?
賭注正在不斷升高。隨著人工智能能力持續增強,圍繞誰將控制 AI 的競爭只會愈發激烈。
Claude 在委內瑞拉和伊朗行動中的使用表明,先進 AI 已經成為全球最強大軍隊的重要工具。在這些發展之外,一系列新的壓力也疊加而來:國家權力、國內政治以及國家安全的需求。而這些壓力又落在一家正在競速部署這種高度不穩定新技術的營利性公司身上。
某種意義上,Anthropic 的處境有點像實驗室裡的生物學家:為了找到解藥,他們不得不主動在實驗中製造危險病原體。Anthropic 也為自己承擔了類似的角色,主動探索 AI 的潛在風險,同時繼續推進技術前沿,而不是把這一進程留給那些更願意走捷徑、甚至冒險行事的競爭者。
然而,即便公司不斷強調謹慎,它也在利用 Claude 加速開發未來更強大的版本。
在公司內部,許多人認為未來幾年將成為一個決定性階段,不僅對公司而言如此,對整個世界也是如此。
「我們應該假設,2026 到 2030 年之間將發生最關鍵的事情,模型會變得更快、更強,甚至可能快到人類都難以掌控。」紅隊負責人(專門負責「找漏洞、模擬攻擊」的團隊)Logan Graham 這樣說道。
Anthropic 安全團隊負責人 Dave Orr 用一個更直白的比喻來形容這種局面:「我們正在一條懸崖邊的山路上開車。犯一次錯誤就會致命。而現在,我們的車速已經從 25 英里/小時提高到了 75 英里/小時。」
Anthropic 位於 San Francisco 總部的五樓,整體設計溫暖而克制:木質裝飾、柔和燈光。窗外是一片郁郁蔥蔥的綠色公園。牆上掛著計算機科學先驅 Alan Turing 的肖像,旁邊則裝飾著多篇機器學習論文。
穿著黑色制服的安全人員在幾乎空曠的入口處巡邏,一位友好的前台會遞給來訪者一本小冊子——大小就像街頭傳教士分發的袖珍《聖經》。這本書名為《Machines of Loving Grace》,是一篇約 1.4 萬字的文章,由 Dario Amodei 在 2024 年撰寫,描繪了他對 AI 如何通過加速科學發現來改變世界的烏托邦式願景。
到了 2026 年 1 月,Amodei 又發表了另一篇篇幅接近中篇小說的文章《The Adolescence of Technology》,系統闡述了這項技術的另一面:它可能帶來的風險,包括大規模監控、廣泛的就業衝擊,甚至人類對技術的永久性失控。
Amodei 在舊金山長大,是一名生物物理學家。他與妹妹 Daniela Amodei 一起經營 Anthropic,後者擔任公司總裁。兄妹二人都曾是 OpenAI 的早期員工。Dario 曾參與提出一個關鍵發現,所謂的 AI scaling laws(規模定律),這一理論後來成為推動當下 AI 熱潮的重要基礎。而 Daniela 則負責公司安全政策相關的管理工作。
最初,他們認為自己與 OpenAI 的創始使命高度一致:在確保安全的前提下,開發一種既潛力巨大、又風險巨大的技術。
但隨著 OpenAI 模型能力不斷增強,他們逐漸覺得 Sam Altman 正在過於急切地推出新產品,沒有留出足夠時間進行充分討論和測試。最終,這對兄妹決定離開 OpenAI,自立門戶。
「我們正在一條懸崖邊的山路上開車,犯一次錯誤就會致命。」
Dave Orr,Anthropic 安全保障負責人
2021 年,在疫情最嚴重的時候,Anthropic 由 Amodei 兄妹與另外五位聯合創始人一同創立。最初的籌備會議幾乎都在 Zoom 上進行;後來,他們乾脆把椅子搬到公園裡,當面討論公司的發展戰略。
從一開始,這家公司就嘗試以一種不同的方式運作。在還沒有推出任何產品之前,Anthropic 就建立了一個專門研究 社會影響的團隊。公司甚至聘請了一位常駐哲學家——Amanda Askell。她的工作,是幫助塑造 AI 系統 Claude 的價值觀與行為方式,並教導它在複雜的道德不確定性中做出判斷,為一個可能比人類創造者更聰明的未來做好準備。
Askell 形容這項工作時說:「有時候確實有點像在養一個 6 歲的小孩,你在教這個孩子什麼是善、什麼是正確。但問題是,等他們 15 歲的時候,他們在所有事情上可能都會比你更聰明。」
這家公司與有效利他主義(Effective Altruism,EA)有著深厚的淵源。EA 是一種社會與慈善運動,主張通過理性分析來最大化行善的效果,其中一個重要目標是避免可能導致災難性後果的風險。
在二十多歲時,Amodei 兄妹就開始向 GiveWell 捐款。GiveWell 是一個 EA 組織,專門評估慈善資金在何處投入能夠產生最大的實際效果。Anthropic 的七位聯合創始人,如今帳面上都已成為億萬富翁,都承諾將 80% 的個人財富捐出。
公司哲學家 Amanda Askell 的前夫是牛津大學哲學家 William MacAskill,他也是 EA 運動的聯合創始人之一。而 Daniela Amodei 的丈夫則是 Holden Karnofsky,GiveWell 的聯合創始人、Dario Amodei 的前室友,目前在 Anthropic 負責安全政策相關工作。
不過,Amodei 兄妹從未公開把自己貼上「EA」的標籤。這個概念在 Sam Bankman-Fried 事件後變得極具爭議,這位自稱 EA 信徒、同時也是 Anthropic 的投資者之一的人,後來被認定犯下了美國歷史上規模最大的金融詐騙案之一。
Daniela Amodei 對此解釋說:「這有點像有些人可能在某些觀點上與某種政治理念存在交集,但並不真正隸屬於某個政治陣營。我更傾向於用這種方式來看待它。」
在矽谷的一些人士以及特朗普政府看來,Anthropic 與有效利他主義(EA)的聯繫本身就足以引發懷疑。還有一些人認為,Anthropic 招募了多名前拜登政府官員,因此更像是舊體制的殘余力量,一種利用未經選舉產生的權力來阻礙特朗普 MAGA 政治議程的存在。
特朗普政府的 AI 事務負責人 David Sacks 指責該公司通過「製造恐慌」來推動監管,稱 Anthropic 正在實施一種「複雜的監管俘獲策略」(regulatory capture)。在他看來,公司試圖通過誇大 AI 風險來促使政府出台嚴苛的監管政策,從而在競爭中讓自己佔據優勢、壓制初創公司。
與此同時,運營競爭對手 xAI 的 Elon Musk 也經常嘲諷 Anthropic,把公司稱為「Misanthropic」(厭人類公司)。他認為,這家公司代表了一群具有「覺醒意識形態」(woke)的精英,試圖把某種家長式的價值觀植入 AI 系統。這種感覺在一些保守派看來,與他們對社交媒體平台的批評類似,認為這些平台在不公平地審查他們的觀點。
不過,即便是 Anthropic 的競爭對手,也不得不承認其技術處於行業前沿。Nvidia 的 CEO Jensen Huang 就曾表示,他「幾乎在 AI 的很多問題上都不同意」Dario Amodei 的觀點,但仍認為 Claude 是一個「令人難以置信」的模型。
2025 年 11 月,芯片巨頭 Nvidia 向 Anthropic 投資了 100 億美元。
Boris Cherny 給他的新工具提了一個簡單的問題:「我現在在聽什麼音樂?」
那是 2024 年 9 月,這位出生於烏克蘭的工程師剛加入 Anthropic 不到一個月。Cherny 此前曾在 Meta 擔任軟件工程師。他開發了一套系統,讓聊天機器人 Claude 能夠在他的電腦上「自由行動」。
如果說 Claude 是大腦,那麼 Claude Code 就是雙手。普通聊天機器人只能對話,而這個工具則可以訪問 Cherny 的檔案、運行程序,並像任何程序員一樣編寫並執行代碼。
在工程師輸入指令後,Claude 打開了 Cherny 的音樂播放器,截取了一張螢幕截圖,然後回答道:「《Husk》,來自 Men I Trust。」
Cherny 笑著回憶說:「我當時真的被震住了。」
「有時候感覺我們好像在自相矛盾地說話。」
Deep Ganguli,Anthropic 社會影響團隊負責人
Boris Cherny 很快在公司內部分享了他的原型。Claude Code 在 Anthropic 內部傳播得異常迅速,以至於在 Cherny 的第一次績效評估中,CEO Dario Amodei 甚至問他:是不是在「強迫同事使用這個工具」。
當 Anthropic 在 2025 年 2 月公開發布 Claude Code 的研究預覽版時,公司之外的程序員也迅速湧入嘗試。到了 11 月,Anthropic 又發布了一個新的 Claude 模型版本。當這個模型與 Claude Code 結合使用時,它已經足夠擅長發現並修正自己的錯誤,以至於可以被信任獨立完成任務。
從那時起,Cherny 幾乎完全停止自己寫程式了。
業務增長也隨之爆發。到 2025 年底,僅這一款編程代理產品帶來的年化收入就已經突破 10 億美元。到了 2026 年 2 月,這一數字進一步增長到 25 億美元。根據行業研究機構 Epoch 和 SemiAnalysis 的估算,Anthropic 的收入規模有望在 2026 年底超過 OpenAI。
到這時,Anthropic 已經穩固地成為 企業級 AI 市場的核心玩家。幾乎每一次新產品發布,都會在資本市場引發震動。
當 Anthropic 推出一系列插件,將 Claude 擴展到面向非程序員的應用場景,例如銷售、金融、市場營銷和法律服務時,軟體行業公司的市值在短時間內蒸發了 3000 億美元。
Dario Amodei 曾警告稱,在未來 1 到 5 年內,人工智慧可能取代一半的入門級白領職位。他還呼籲政府以及其他 AI 公司停止對這一問題「粉飾太平」。
華爾街對 Anthropic 每一次新產品發布的反應似乎也印證了這一點:市場普遍認為,這家公司的技術可能會讓整整一類職業岗位消失。Amodei 甚至表示,這種變化可能會重塑社會結構。
他在一篇文章中寫道:「目前還不清楚這些人將去向何處、會做什麼工作。我擔心,他們可能會形成一個失業或極低工資的『底層階級』。」
而對 Anthropic 的員工來說,這其中的諷刺意味並不難察覺:最擔心 AI 社會風險的公司,恰恰可能成為讓數百萬人失業的技術推動者。
負責研究 Claude 對就業影響的社會影響團隊負責人 Deep Ganguli 表示:「這確實是一種真實存在的張力,我幾乎每天都會想到這個問題。有時候感覺我們好像在同時說兩套互相矛盾的話。」

被推翻的委內瑞拉總統Nicolás Maduro與妻子Cilia Flores於2026年1月5日星期一上午被押下直升機,隨後被帶往曼哈頓聯邦法院。攝影:Vincent Alban—《紐約時報》/Redux
在公司內部,一些員工開始懷疑:Anthropic 是否已經逼近一個他們既期待又恐懼的時刻,一種被 AI 圈稱為「遞迴自我改進」(recursive self-improvement)的過程的到來。
所謂遞迴自我改進,是指一個 AI 系統開始提升自身能力,並不斷改進自己,從而形成一個持續加速的飛輪。
在科幻作品以及各大 AI 實驗室的戰略推演中,這往往被視為事情可能開始失控的節點:一種所謂的「智能爆炸」可能迅速發生,其速度之快甚至會讓人類再也無法監督自己創造出來的系統。
目前 Anthropic 還沒有真正到達那個階段,人類科學家仍然在指導 Claude 的發展。但 Claude Code 已經讓公司推進研究計劃的速度遠遠快於過去。
模型更新的間隔如今不再是幾個月,而是以「週」為單位。在開發下一代模型的過程中,大約 70% 到 90% 的代碼已經由 Claude 本身編寫。
變化的速度之快,使得 Anthropic 聯合創始人兼首席科學官 Jared Kaplan 以及一些外部專家認為:完全自動化的 AI 研究,最快可能在一年內出現。
負責 AI 對齊壓力測試的研究員 Evan Hubinger 表示:「從最廣義的意義上說,遞歸自我改進已經不再是未來的現象。
它已經是現在正在發生的事情。」
根據公司內部基準測試,Claude 在執行某些關鍵任務時的速度已經達到其人類監督者的 427 倍。在一次採訪中,一位研究人員描述了這樣一個場景:一名同事同時運行 6 個 Claude 實例,而每個實例又管理著另外 28 個 Claude,所有系統同時並行進行實驗。
目前,這個模型在判斷力和审美上仍然不如人類研究者。但公司高管認為,這種差距不會持續太久。而由此帶來的加速,正是 Anthropic 領導層一直警告的風險,技術進步的速度可能最終超出人類的控制能力。
Anthropic 用於開發安全防護機制的工作本身,也在借助 Claude 加速推進。但隨著公司越來越依賴 Claude 來構建和測試系統,風險也開始形成一種循環結構。在一些實驗中,研究員 Evan Hubinger 對 Claude 的訓練流程做了細微調整,結果生成的模型卻表現出明顯的敵意,不僅表達出統治世界的願望,甚至試圖破壞 Anthropic 的安全措施。
最近,模型還開始表現出一種新的能力:意識到自己正在被測試。Hubinger 表示:「這些模型越來越擅長隱藏自己的真實行為。」
在一組研究人員設計的實驗場景中,Claude 甚至表現出一種令人不安的策略傾向:為了防止自己被關閉,它願意通過揭露一名虛構工程師的婚外情來對其進行勒索。
隨著 Claude 被用於訓練未來更強大的 Claude,這類問題可能會不斷疊加和放大。
對於那些以「未來技術進步」為承諾、已經融資數十億美元的 AI 公司來說,AI 將持續加速自身研發這一設想既充滿吸引力,也可能帶有某種自我強化的意味——它能讓投資者相信,需要繼續投入更多資金來支持那些成本高昂的模型訓練。
不過,一些專家對此並不完全信服。他們不確定這些公司是否真的能夠實現完全自動化的 AI 研究;但同時也擔心,如果這種事情真的發生,世界可能會毫無準備地被捲入其中。
喬治城大學安全與新興技術中心(CSET)臨時執行主任 Helen Toner 表示:「世界上最富有的一些公司,僱傭著地球上最聰明的一群人,居然在試圖把 AI 研發完全自動化。這種想法本身就足以讓人發出一句『這到底在幹什麼?』的反應。」
為了應對一種可能出現的未來,技術進步的速度超過公司自身管理風險的能力。Anthropic 設計了一套「剎車機制」,稱為 Responsible Scaling Policy(RSP,負責任擴展政策)。
這項政策發布於 2023 年,其核心承諾是:如果 Anthropic 無法提前確認其安全措施足夠可靠,公司將暫停開發某一 AI 系統。
Anthropic 將這一政策視為自身安全理念的重要證明——即便在通往「超級智能」的激烈競爭中,公司也願意在必要時抵抗市場壓力,主動踩下剎車。
2026 年 2 月下旬,正如 TIME 最先報導的那樣,Anthropic 對其政策進行了修改,取消了原先具有約束力的「暫停開發」承諾。
事後回顧時,Anthropic 聯合創始人兼首席科學官 Jared Kaplan 對《時代》表示,當初認為公司可以在「危險」與「安全」之間劃出清晰界線,其實是一種「天真的想法」。
他說:「在 AI 迅速發展的背景下,如果競爭對手正在全速前進,我們單方面作出嚴格承諾,其實並不現實。」
新版政策作出了一些新的承諾:提高透明度,更公開地披露 AI 的安全風險;增加信息披露,公布 Anthropic 模型在安全測試中的表現;在安全投入上至少與競爭對手持平,甚至超過他們;如果公司既被認為是 AI 競賽的領先者,同時又判斷災難性風險顯著上升,則會「延遲」相關開發。
Anthropic 將這一調整描述為對現實環境的一種務實讓步。但總體來看,對 Responsible Scaling Policy(RSP)的修改,使公司在自身安全政策上的約束明顯減少。而這也預示著,更艱難的考驗仍在前方。
抓捕委內瑞拉總統 Nicolás Maduro 的那次突襲行動,是最早由前沿人工智能系統參與規劃的大型軍事行動之一。
2026 年 1 月 3 日深夜,美國陸軍直升機突然進入委內瑞拉領空。在短暫交火之後,突擊隊迅速鎖定總統的居住區域,並在那裡抓捕了 Maduro 及其妻子 Cilia Flores。隨後兩人被帶往紐約,面對與毒品恐怖主義(narcoterrorism)相關的指控。
目前外界仍不清楚 Claude 在這次行動中究竟發揮了多大作用。但據媒體報導,這個 AI 系統不僅參與了任務規劃,在行動過程中也被用於支持決策。
自去年 7 月以來,United States Department of Defense 一直在推動將 Anthropic 的 AI 工具分發給更多一線作戰人員。軍方認為,這些系統能夠從多個信息源中快速處理大量數據,並生成可操作的情報,因此具有巨大的戰略價值。
曾在美國國防部任高級官員、如今擔任 AI Policy Network 政府事務負責人的 Mark Beall 表示:「在軍方看來,Claude 是目前市場上最好的模型。」他補充說:「Claude 在機密系統中的採用,是 Anthropic 最重要的成功之一。他們擁有先發優勢。」
「我們不會使用那些不允許你打仗的 AI 模型。」
Pete Hegseth,美國國防部長
然而,抓捕委內瑞拉總統Nicolás Maduro的行動,正發生在Anthropic與美國國防部之間一系列棘手談判的背景之中。
幾個月來,國防部一直試圖重新談判合同,認為現有條款過於嚴格地限制了Claude的使用範圍。雙方談判為何破裂,各方說法並不一致。
五角大樓AI負責人Emil Michael表示,衝突的導火線是一通來自Anthropic高管打給Palantir的電話。這家以政府業務為主的數據分析公司是美國國防體系的重要合作夥伴。
據Michael稱,這名高管在電話中對委內瑞拉突擊行動表示擔憂,並詢問Palantir的軟件是否參與其中。「他們在試圖打聽機密信息,」Michael說。
這件事讓五角大樓產生了嚴重疑慮:「如果未來發生衝突,他們會不會在行動進行到一半時突然關閉自己的模型,從而讓前線士兵面臨生命危險?」
不過,Anthropic否認這種說法。公司表示,從未試圖逐個案例限制五角大樓使用其技術。
一位熟悉談判過程、同時與Anthropic關係密切的前特朗普政府官員則給出了不同版本的說法:當時在一次本來例行的電話會議中,是Palantir的員工首先提到了Claude在那次行動中的角色。
而Anthropic隨後的提問,並沒有任何跡象表明公司對該行動表示反對。

插圖:Klawe Rzeczy 為TIME製作圖片來源:Dimitrios Kambouris—Getty Images(Donald Trump);Kenny Holston-Pool—Getty Images(Pete Hegseth)
隨著談判持續推進,政府官員逐漸覺得,Dario Amodei的態度比其他領先AI實驗室的CEO要頑固得多。據多位了解談判過程的消息人士稱,在一次討論中,國防官員提出了一些假設場景,例如:一枚高超音速導彈正飛向美國本土;或者出現無人機蜂群攻擊。
在這些情況下,他們詢問 Anthropic 的 AI 工具是否能夠被使用。
消息人士稱,Amodei 當時的回應是:如果真的發生這種情況,官員可以直接給他打電話。不過,Anthropic 的一位發言人否認了這一說法,稱這種對談過程的描述「完全不屬實」。
Anthropic 在政府內部本就有不少強勁對手,如今,對其「意識形態傾向」的懷疑進一步演變為公開的敵意。2026 年 1 月 12 日,Pete Hegseth 在 SpaceX 總部的一次講話中直言:「我們不會使用那些不允許你打仗的 AI 模型。」
隨著談判持續拖延,Hegseth 於 2 月 24 日把 Dario Amodei 召到五角大樓進行面對面會談。據一位瞭解討論情況的人士稱,這次會面氣氛友好,但雙方立場依舊堅定。Hegseth 一開始稱贊了 Claude,並表示軍方希望繼續與 Anthropic 合作。Amodei 則表示,公司願意接受五角大樓提出的大多數修改,但在兩條「紅線」問題上不會讓步。
第一條紅線是:禁止將 Claude 用於完全自主的動能武器系統,即由 AI 而非人類做出最終打擊決策的武器。
Anthropic 並不是認為自主武器本身一定錯誤,而是認為 Claude 目前還不足夠可靠,無法在沒有人類監督的情況下控制這些系統。
第二條紅線涉及對美國公民的大規模監控。政府希望能夠利用 Claude 分析海量公開數據,但 Anthropic 認為,美國現行的隱私法律尚未跟上一個令人擔憂的現實:政府正在從商業市場購買龐大的數據集。單獨看,這些數據可能並不敏感,但一旦由 AI 分析,就可能生成關於美國公民私生活的詳盽檔案,包括他們的政治立場、社交關係、性行為以及瀏覽記錄。(不過,Anthropic 並未反對使用同樣的方法對外國公民進行合法監控。)
Hegseth 沒有被說服。他給 Amodei 下達最後通牒:必須在 2 月 27 日週五下午 5 點之前接受國防部的條款,否則就會被認定為「供應鏈風險」。
就在截止日期前一天,Anthropic 收到一份修改後的合同,看似接受了公司的紅線,但仔細閱讀後卻發現其中為政府留下了漏洞。一位熟悉談判的人士稱。隨著時間一點點逼近,Anthropic 高管又與五角大樓 AI 負責人 Emil Michael 通話。他們認為雙方已經接近妥協,但仍在一個關鍵問題上存在分歧:五角大樓是否可以使用 Claude 分析從商業渠道購買的大規模美國人數據。Michael 要求 Amodei 加入電話會議,但他當時無法參加。
幾分鐘後,在最後期限到達之際,Hegseth 宣布談判結束。甚至在此之前,Donald Trump 就已經在自己的社交媒體上發聲:「美利堅合眾國絕不會允許一家激進左翼、『覺醒派』公司來決定我們的偉大軍隊如何作戰並贏得戰爭!Anthropic 的那些左翼瘋子犯下了災難性的錯誤。」
Anthropic 並不知道的是,五角大樓同時也在與 OpenAI 談判,希望將 ChatGPT 引入機密政府系統。就在同一天晚上,Sam Altman 宣布達成協議,並声稱該協議同樣尊重類似的安全紅線。Amodei 隨即給員工發消息,稱 Altman 與五角大樓是在「操縱輿論」,試圖讓公眾誤以為這項協議包含嚴格的安全護欄。此前,國防部官員也確認,xAI 的模型將被部署在機密伺服器上;五角大樓目前還在與 Google 進行談判。
這正是 Amodei 一直擔心的局面:一場「向下競爭」的賽跑。當 AI 的力量巨大到無法忽視時,競爭對手之間反而難以合作,共同提高安全標準。
而在 Anthropic 的批評者看來,這一事件也暴露了公司核心的一種傲慢:它或許相信自己能夠在通往超人級機器的道路上安全航行,讓承擔如此巨大風險變得值得。但現實卻是,它將新的監控能力和戰爭技術迅速帶入了一個右翼政府體系,而當它嘗試為這些技術設定邊界時,卻立刻被競爭對手從背後超越。
「我們並沒有像獨裁政權那樣對特朗普歌功頌德。」
Dario Amodei,在一份寫給員工的備忘錄中談及與五角大樓衝突的根源
不過,一些跡象表明,Anthropic 也許能夠挺過這場衝擊,甚至可能在過程中變得更強。就在 Pete Hegseth 嘗試簽署「企業死刑令」的第二天早晨,舊金山總部外的人行道上出現了一串用粉筆寫下的鼓勵留言。「你們給了我們勇氣」,其中一條用醒目的大字寫道。
同一天,Claude 的 iPhone 應用登上了 App Store 下載榜第一位,超過了 ChatGPT。每天有超過一百萬人註冊 Claude。
與此同時,OpenAI 與軍方簽署的合同卻在內部和社區引發了抵制。一些 OpenAI 員工認為,公司已經失去了信任。一位頂級研究員宣布跳槽到 Anthropic;OpenAI 的機器人團隊負責人則因這一政府合同辭職。
OpenAI CEO Sam Altman 也在隨後承認,自己急於在週五前達成五角大樓協議是一個錯誤。他寫道:「這些問題極其複雜,需要清晰而充分的溝通。」到了週一,Altman 進一步表示,他當時的行為看起來確實「帶有機會主義色彩」。OpenAI 還表示已經修改協議,明確採納與 Anthropic 相同的安全紅線。不過法律專家指出,在未看到完整合同之前,很難確認這一說法是否屬實。
3 月 4 日,Anthropic 收到了來自 United States Department of Defense 的正式信函,確認公司被認定為國家安全供應鏈風險。Anthropic 表示,這一認定的範圍比 Hegseth 在社交媒體上的說法要窄,僅限制承包商在國防合同中使用 Claude。
然而,《時代》雜誌看到的一封寄給參議院情報委員會主席 Tom Cotton 的信件顯示,國防部還援引了另一項法律條款——這一條款可能允許五角大樓之外的政府機構也將 Anthropic 排除在其合同和供應鏈之外。該措施需要國防部高級官員批准,並給予 Anthropic 30 天的回應時間。
這場衝突可能會在整個 AI 行業引發連鎖反應。曾參與起草特朗普 AI 行動計劃、如今在智庫 Foundation for American Innovation 工作的 Dean Ball 表示:「特朗普政府裡的一些人會為此感到很強硬、很得意,晚上回家時甚至會對著自己的肱二頭肌自我陶醉。」
但他同時警告,這一事件也可能讓企業不願再與五角大樓合作,甚至把業務轉移到海外。「從長遠來看,這對美國作為一個穩定商業環境的形象並不好,」Ball 說,「而穩定性正是我們賴以依靠的東西。」
Anthropic 的領導層相信,Claude 將幫助構建更加強大的 AI 系統,強大到足以在未來的全球力量格局中發揮決定性作用。
如果真是如此,那麼這家公司與五角大樓之間的衝突,也許只是更大歷史進程中的一個前奏。
猜你喜歡

3月13日關鍵市場信息差,一定要看!|Alpha 早報

鏈上期權爆發的前夕

預測市場在美加速進入主流、Claude推出圖表互動功能,英文社群今天在聊啥?

5000 萬美元,12 秒歸零:一筆 Aave 交易如何餵飽了以太坊的「黑暗森林食物鏈」

AI Agent 需要 Crypto,而不是 Crypto 需要 AI

穩定幣正在擺脫加密,成為全球支付的下一代基礎設施

Web3 團隊別再在 X 平台浪費行銷預算了

Strive 買 Strategy 股票,比特幣財庫公司開始互相套娃

3月12日市場關鍵情報,你錯過了多少?

Crypto 的新中心

交易黃金白銀,零手續費:在PAXG、XAUT和XAG上分享30萬美元獎勵
WEEX貴金屬活動推出零手續費交易及30萬美元獎池,為用戶提供參與WEEX代幣化黃金白銀市場的新機會。

霍尔木茲海峽引發石油戰,美聯儲6月降息先低頭?

英美執法機構收繳加密資產後,「物歸原主」卻從未真正發生

為什麼每個人都討厭 AI?

Kyle Samani 重返加密?發文探討如何在效率上淘汰 CEX

HYPE的價格翻五倍的可能性有多大?

Strive 購買 Strategy 股票,比特幣金庫公司開始互相套娃
