人工智慧公司Anthropic拒絕五角大廈將其大型語言模式Claude用於全自動武器或大規模監控。因此,川普政府禁止聯邦機構使用該公司的技術,並將其列為供應鏈風險——然而,據報道,美國政府仍在對伊朗的襲擊中使用了Claude。

圖鑑作者:Timo Lenzen
Anthropic 由七位 OpenAI 的叛逃者創立,他們希望優先考慮「安全、嚴謹和責任」。吉迪恩·劉易斯-克勞斯 (Gideon Lewis-Kraus) 在他今天發表的文章中寫道,這篇文章講述了這家人工智慧公司與川普政府之間的衝突。劉易斯-克勞斯著手調查在戰爭部可以在多大程度上將 Claude 用於軍事行動的談判過程中究竟發生了什麼。我與劉易斯-克勞斯探討了 Anthropic 對 Claude 原則性使用的承諾,以及這似乎與政府隨意部署該程序的願望之間的衝突。
這段對話經過編輯精簡。
五角大廈與人工智慧公司Anthropic之間的爭鬥,其主要焦點在於這家人工智慧公司在某些倫理問題上拒絕讓步,而川普政府——尤其是戰爭部長皮特·赫格塞斯——則抨擊Anthropic聯合創始人達裡奧·阿莫迪過於謹慎。在你的報道中,這是否是事情的真相?
過於謹慎、過於書呆子氣、過於自以為是、過於傲慢——這些都是相關因素。但同時,衝突的根源遠比個人差異或組織文化更為深刻。這其實是一個關於我們對人工智慧這項技術的根本態度的故事,而這一點很容易在各種戲劇化的情節中被忽略。
你認為政府為什麼想要重新談判與Anthropic公司的合約?
對政府而言,人工智慧似乎與他們可能為軍事目的購買的任何其他物品——槍支、坦克等等——之間沒有本質區別。他們購買的是一種小部件,並期望它能勝任其作為小部件的功能。
他們的態度是:我們買螺絲起子的時候,沒人能告訴我們,它只能用來擰鬆木板,卻不能在任何情況下損壞紅木。木材的選擇權在我們自己手中。他們承認自己受木工和物理定律的約束,但他們不認為自己必須接受舊金山某個笨蛋的額外規定。他們知道克勞德不是螺絲刀,但他們似乎很確定它並不比瑞士軍刀複雜多少。
你寫道,「很難描述政府的這些措施有多麼荒謬。」你的意思是?
理論上講,本屆政府重視私有財產、合約權利、企業神聖不可侵犯性、國內人工智慧企業的主導地位,以及其他所有你認為與科技領先的古典自由民主政體相關的要素。此外,他們也強烈反對人工智慧監管。因此,他們試圖透過摧毀一家頂級供應商來解決與該公司之間的例行合約糾紛,這似乎有點自相矛盾。
大規模監控問題是談判的癥結點嗎?
在某種程度上,是的。至少從史諾登事件曝光以來,我們就知道我們的隱私法遠遠不夠完善。首先,政府官員使用「監視」、「收集」等字眼的方式與一般人截然不同。他們對這些字詞的定義允許他們為所欲為。
然而,在很大程度上,他們受到人力的限制。他們可以購買市面上任何可用的數據——購買記錄、Wordle遊戲成就等等——但他們缺乏數百萬員工來篩選這些數據。但克勞德卻能輕鬆地按尺寸、形狀、顏色或原始製造商對海量數據進行分類。阿莫迪似乎擔心,如果政府完全放任克勞德,很可能會輕易利用自己的法律漏洞。
您能告訴我們Anthropic公司在伊朗戰爭中扮演的角色嗎?
諷刺的是,當阿莫迪拒絕在底線問題上讓步時,赫格塞斯宣布安特羅皮克公司構成“供應鏈風險”,這意味著該公司的基礎設施極其危險,必須與所有政府系統隔離。然而,據報道,就在第二天,赫格塞斯就利用克勞德在伊朗戰爭中選擇攻擊目標。
我們目前仍在執行一項大多數人解讀為禁止使用自主武器的政策。像克勞德這樣的系統或許可以產生一份潛在目標清單,但交戰規則仍由官員決定。例如,可接受的附帶損害閾值由人來決定。克勞德不會判斷轟炸一棟五十名平民和一棟高價值目標的公寓大樓是否合理。最終的決定權在人手中。安特羅皮克公司只是想要確保這種情況能持續下去。
克勞德最初之所以被選中,而不是其他模特,正是因為他秉持著良好的判斷力。如今,他的這些信念又如何呢?
阿莫迪長期以來一直試圖推動一場「競相超越」的競賽,以此向市場證明,最安全、最負責任的人工智慧也是最可靠、最有用的人工智慧。但他沒有料到的是,國防領域大多遵循的是「競相超越」的原則。他們想要的是一種沒有任何可能限制其為所欲為的麻煩安全措施的人工智慧。事實證明,當你的最有權勢的客戶想要的本質上是「終結者」的「天網」時,市場紀律就無濟於事了。
閱讀更香戲故事 The Pentagon Went to War with Anthropic. What’s Really at Stake?



