|
|
|
|
|
|
人工智慧帶來的新恐懼:當自主殺人機器人成為軍方工具
|
|
去年10月宣布嚴格限制向中國出售最先進的計算機晶片時,拜登總統給出的解釋是,這一定程度上是為了給美國工業一個恢復競爭力的機會。 但在五角大廈和國家安全委員會,還有另外一個議程:軍備控制。 從理論上說,如果中國軍方拿不到晶片,可能會放慢研發人工智慧武器的努力。這將讓白宮和世界有時間制定出一些關於傳感器、導彈和網路武器中使用人工智慧的規則,終極目標則是防範好萊塢設想的那種噩夢——把自己的人類創造者關在門外的自主殺手機器人和計算機——變成現實。 現在,圍繞著廣受歡迎的ChatGPT聊天機器人和其他生成式人工智慧軟體的恐懼迷霧讓限制中國獲取晶片看起來只是一個權宜之計。上週四,拜登在白宮參加了一個科技高管會議,這些高管們正在想方設法限制這項技術的風險。拜登的第一句話是,「你們正在做的事情具有巨大的潛力和巨大的危險。」 他的國家安全助手表示,這是對最近有關這項新技術可能顛覆戰爭、網路衝突以及——在最極端的情況下,顛覆核武器使用決策的機密簡報所做的反應。 但就在拜登發出警告的同時,五角大廈官員在科技論壇上表示,他們認為暫停開發下一代ChatGPT和類似軟體六個月的想法是個壞主意:中國人不會等,俄羅斯人也不會等。 「如果我們停下來,猜猜誰不會停下來:海外的潛在對手,」五角大廈的首席信息官約翰·舍曼上週三表示。「我們必須繼續前進。」 他的直白突顯了當今整個國防界的緊張氣氛。沒有人真的清楚這些新技術在開發和控制武器方面的能力,而且也不了解什麼樣的軍備控制制度(如果有的話)可能奏效。 這種預感雖然還不明確,但令人深感擔憂。ChatGPT會讓那些以前不容易接觸到破壞性技術的壞人得逞嗎?它是否會加速超級大國之間的對抗,以致沒有時間進行外交和談判? 「這個行業並不愚蠢,你已經看到了自我監管的努力,」谷歌前董事長埃里克·施密特說,他曾在2016年至2020年擔任國防創新委員會首任主席。 「因此,該行業現在正在進行一系列非正式對話——所有這些都是非正式的——探討人工智慧的規則會是什麼樣的,」施密特說,他與前國務卿亨利·季辛吉合作撰寫了一系列文章和書籍,探討人工智慧顛覆地緣政治的潛力。 任何測試過最初幾個版本的ChatGPT的人都看到了將保護措施置入系統的努力。例如,機器人不會回答有關如何自製藥物傷害他人的問題,或者如何炸毀大壩或破壞核離心機,美國和其他國家在沒有人工智慧工具的情況下都參與過這些行動。 但是這類行為黑名單只能減緩對系統的濫用;很少有人認為他們可以完全阻止這種行為。總是有辦法繞過安全限制,任何試圖關閉汽車安全帶警告系統緊急蜂鳴聲的人都可以證明這一點。 儘管這個新軟體讓更多人看到了這個問題,但對於五角大廈來說,這並不是什麼新鮮事。關於開發自主武器的第一條規則在十年前發布。五角大廈的聯合人工智慧中心成立於五年前,旨在探索人工智慧在戰鬥中的應用。 一些武器已經處於自動巡航模式。擊落進入受保護空域的導彈或飛機的愛國者導彈長期以來一直都有「自動」模式。這個模式使它們能夠在沒有人工干預的情況下被飛來的目標觸發並開火,速度快於人類的反應。不過它們應該接受人類的監督,人類可以在必要時中止攻擊。 針對伊朗資深核科學家穆赫森·法赫裡扎德的暗殺行動是由以色列的摩薩德使用由人工智慧輔助的自動機槍執行的,儘管看起來存在很大程度的遙控操作。俄羅斯最近表示已經開始製造——但尚未部署——波塞冬核魚雷。如果真的像俄羅斯鼓吹的那樣,這種武器將能夠自主穿越海洋,避開現有的導彈防禦系統,在發射幾天後投送核武器。 到目前為止,還沒有針對此類自主武器的條約或國際協定。在這個時代,放棄軍備控制協議的速度比談判的速度還快,達成這樣的協議的希望渺茫。但ChatGPT及其同類產品提出的挑戰類型不同,而且在某些方面更為複雜。 在軍隊中,注入人工智慧的系統可以加快戰場決策的速度,以至於它們會產生完全意料之外的打擊風險,或者根據誤導性或故意錯誤的攻擊警報做出決策。 「在軍事和國家安全領域,人工智慧的一個核心問題是,你如何防禦比人類決策速度更快的攻擊,我認為這個問題尚未解決,」施密特說。「換句話說,導彈來得太快了,必須要有自動反應。但如果這是一個錯誤的信號怎麼辦?」 冷戰期間充斥著錯報的故事——本應用於練習核反應的訓練磁帶不知何故被輸入了錯誤的系統,引發了蘇聯大規模進攻的警報。(是良好的判斷力讓人們沒有驚慌失措。)新美國安全中心的保羅·沙雷在他2018年出版的《無人軍隊》一書中指出,「從1962年到2002年,至少發生了13起險些使用核武器的事件」,這「證實了這樣一種觀點,即未遂事件是核武器的正常情況,即使這很恐怖。」 出於這個原因,在超級大國之間的緊張局勢遠低於今天的時代,歷任總統都試圖通過談判為各方的核決策留出更多時間,這樣就沒有人會匆忙捲入衝突。但是生成命令的AI有可能將各國往反方向推,加快決策速度。 好消息是,大國似乎會非常小心——因為他們知道對手的反應會是什麼樣子。但到目前為止,還沒有經過商定的規則。 前國務院官員、萊斯、哈德利、蓋茲和曼紐爾公司合伙人安雅·曼紐爾最近寫道,中國和俄羅斯還沒有準備好就人工智慧進行軍備控制談判,但就這一主題進行會談可以促進有關什麼樣的人工智慧用途將被視為「過於危險」的討論。 當然,五角大廈也會擔心同意許多限制。 計算機科學家丹尼·希利斯是用於人工智能的並行計算機的先驅,他說,「我非常努力地爭取制定一項政策,如果你有武器的自主元件,你需要一種關閉它們的方法。」希利斯也曾在國防創新委員會任職。他說,五角大廈的官員不同意,他們說,「如果我們能把它們關掉,敵人也能把它們關掉。」 更大的風險可能來自個人行為者、恐怖分子、勒索軟體組織或擁有先進網路技術的小國——比如朝鮮——它們學會了如何複製一個更小、限制更少的ChatGPT版本。他們可能會發現,生成式人工智慧軟體非常適合加速網路攻擊和部署虛假信息。 負責微軟信任與安全業務的湯姆·伯特最近在喬治·華盛頓大學的一個論壇上說,他認為人工智慧系統將幫助防禦者更快地發現異常行為,而不是幫助攻擊者。微軟正在加快使用這項新技術改造其搜索引擎。有些專家不同意這一觀點。但他表示,他擔心人工智慧可能會「加速」有針對性的虛假信息的傳播。 所有這些都預示著軍備控制新時代的到來。 一些專家說,既然不可能阻止ChatGPT和類似軟體的傳播,最理想的出路是限制推進這項技術所需的專用晶片和其他計算能力。毫無疑問,這將是未來幾年提出的許多不同的軍備控制計劃之一,而看起來各核大國目前對舊武器的談判至少可以說缺乏興趣,更不用提新武器了。 |
|