作為與澳大利亞和美國聯(lián)合試驗的一部分,英國政府已經(jīng)部署了一個“協(xié)作群”自主無人機,使用人工智能 (AI) 來檢測和跟蹤軍事目標。
該試驗由英國國防科學技術實驗室 (Dstl) 組織,于 2023 年 4 月舉行,涉及在實時“代表性環(huán)境”中部署無人機,并在飛行途中重新訓練其 AI 模型。
它還涉及參與國無人機之間不同機器學習 (ML) 模型的“互換”,并將這些相同模型部署在一系列地面車輛中,以進一步測試其目標識別能力。
英國國防部 (MoD) 表示:“三方團隊合作開發(fā)聯(lián)合機器學習 (ML) 模型,應用測試和評估流程,并在不同國家的無人機上飛行。” “ML 模型被快速更新以包含新的目標,并在聯(lián)盟和 AI 模型之間共享,這些模型經(jīng)過重新訓練以滿足不斷變化的任務要求。”
國防部進一步聲稱,使用自主系統(tǒng)獨立探測和跟蹤敵方目標“將對聯(lián)盟的軍事能力產(chǎn)生巨大影響”,并且“如果我們要保持我們的作戰(zhàn)優(yōu)勢”,就需要“加快發(fā)展”軍事人工智能。
根據(jù) AUKUS 協(xié)議進行——澳大利亞、英國和美國政府之間的一項三邊安全協(xié)議,旨在推動整個印太地區(qū)在核潛艇、高超音速武器和人工智能等領域的軍事合作——該試驗是聯(lián)盟先進能力支柱的一部分,也稱為支柱 2。
這項工作的目的是協(xié)同加速這三個政府在軍事背景下對人工智能的集體理解,并最終將技術投入運營。
英國國防部副參謀長Rob Magowan 中將說:“這次試驗展示了 AUKUS 先進能力的軍事優(yōu)勢,因為我們聯(lián)合起來從更遠的距離和更快的速度識別、跟蹤和對抗?jié)撛诘膶κ帧?rdquo;
“加速技術進步將提供必要的作戰(zhàn)優(yōu)勢,以戰(zhàn)勝整個戰(zhàn)場上當前和未來的威脅。我們致力于與合作伙伴合作,以確保我們實現(xiàn)這一目標,同時促進負責任的人工智能開發(fā)和部署。”
美國國防部長 Aukus 的高級顧問 Abe Denmark 補充說,先進的人工智能技術有可能改變這三個政府應對國防和安全挑戰(zhàn)的方式。
他說:“這種能力展示確實是一項共同努力,因此是我們采取集體行動領先于新出現(xiàn)威脅的關鍵一步。” “通過我們的 AUKUS 伙伴關系匯集我們的專業(yè)知識和資源,我們可以確保我們的軍隊配備最新和最有效的工具來保衛(wèi)我們的國家并維護世界各地的自由和民主原則。”
超過 70 名軍事和民防人員以及行業(yè)承包商參與了試驗,其中包括來自無人機供應商 Blue Bear 和 Insitu 的人員。
國防部此前于 2021 年 1 月宣布,它已根據(jù) Dstl 的“多無人機輕作業(yè)”計劃在坎布里亞郡進行了自主“蜂群無人機”試驗,該計劃由 20 架協(xié)同操作的無人機組成,可提供六種不同的有效載荷。
2021 年 7 月,皇家海軍陸戰(zhàn)隊根據(jù)其自主先遣部隊 4.0 計劃對無人機群進行了進一步的試驗,其中六架無人機的任務是偵察和補給地面部隊。
2022 年 6 月,國防部 (MoD) 公布了 國防人工智能戰(zhàn)略, 概述了英國將如何與私營部門密切合作,優(yōu)先考慮人工智能的研究、開發(fā)和實驗,以“徹底改變我們的武裝部隊能力”。
盡管在這份72 頁的戰(zhàn)略文件中沒有詳細介紹其自主武器的方法 ,但 隨附的政策文件的附件 稱,在沒有“適當?shù)娜祟悈⑴c”的情況下能夠識別、選擇和攻擊目標的系統(tǒng)是不可接受的。
在國會研究服務處 2022 年 11 月發(fā)布的一份 關于“新興軍事技術”的報告 中,分析人士指出,出于道德方面的考慮,大約 30 個國家和 165 個非政府組織 (NGO) 呼吁先發(fā)制人地禁止使用自主武器圍繞它們的使用,包括可能缺乏問責制和無法遵守有關沖突的國際法。
上議院審查人工智能武器
2023 年 1 月,上議院成立了武器系統(tǒng)人工智能委員會,以探討開發(fā)和部署自主武器的倫理問題,包括如何安全可靠地使用它們、沖突升級的可能性以及它們對國際法的遵守情況。
在委員會 2023 年 3 月的第一次證據(jù)會議上,上議院警告說,在軍事行動中使用人工智能的潛在好處不應與更好地遵守國際人道主義法混為一談。
隨后的委員會會議——可通過官方錄音和文字記錄在線獲取——引發(fā)了進一步的擔憂。
例如, 4 月 20 日,蘭德歐洲國防與安全小組助理主任詹姆斯布萊克指出,雖然圍繞非國家行為者使用人工智能武器的對話往往會讓人聯(lián)想到“暴力極端主義組織的形象”,但他們應該還包括“大型跨國公司,它們是處于開發(fā)該技術前沿的組織類型”。
他補充說:“展望未來,由于其固有的基于軟件的性質(zhì),從反擴散和不擴散的角度來看,很多這樣的東西將很難控制。
“我們現(xiàn)有的許多出口管制和反擴散或不擴散制度都集中在導彈、發(fā)動機或核材料等老式傳統(tǒng)硬件上。這種事情是一個不同的命題,顯然是一個挑戰(zhàn)。”
然而,倫敦國王學院戰(zhàn)略學教授肯尼斯佩恩補充說,私營部門對人工智能發(fā)展的重要性日益增加并非不可避免,政府可以開始采取措施解決企業(yè)在這一領域的主導地位問題。
“一個具體的例子是增加大學環(huán)境中研究人員可用的計算量。這樣做是新的國家計算戰(zhàn)略的一部分。主權基礎模型人工智能能力將是一個具體的步驟,作為再次使這些活動民主化的更廣泛項目的一部分,”他說。
佩恩進一步告訴上議院,由“人機團隊”進行的軍事交戰(zhàn)的兵棋研究表明,可能存在“相當迅速的螺旋升級”,因為“對手將多少外包給自動決策者的不確定性意味著你有搶先行動并首先進行報復”。
他補充說,雖然我們通常對人類如何看待威懾、升級和脅迫有很好的理解,但我們對機器將如何駕馭這些復雜的動態(tài)沒有類似的理解。
Payne 進一步指出,在這種情況下,AI 不會簡單地取代人類,而是將使軍事組織能夠采取“質(zhì)上不同”的行動:“沒有人類相當于 10,000 人的空中蜂群或可以停留在水下的淺灘無限期地出海。”
在4 月 27 日的另一場會議上,牛津互聯(lián)網(wǎng)研究所副教授 Mariarosaria Taddeo 表示,人工智能的不可預測性是“技術本身固有的”,并補充說:“如果我們要在戰(zhàn)爭中使用人工智能,我們必須確保我們可以應用法規(guī),包括關于人們所負責任的法規(guī),這很難做到,我們離找到解決方案還很遠。”