美國陸軍未來司令部司令約翰·默里上將在戰(zhàn)略與國際問題研究中心的一場網(wǎng)絡(luò)研討會上說,人類可能無法打擊敵方無人機群。他還說,管理人類對人工智能控制的規(guī)定可能需要放寬。
默里說:“當你抵御無人機集群時,我不確定人的反應(yīng)是否能跟得上。當你從人類的角度(做出)非致命決策時,你實際上需要多少人為參與?”
這表明了五角大樓在使用自主武器時對規(guī)則有新的解讀。這需要對任何致命系統(tǒng)進行有目的的人類控制,盡管這可能是監(jiān)督作用,而不是直接控制——被稱為“人監(jiān)督回路”,而不是“人直接控制回路”。
默里說,五角大樓的領(lǐng)導(dǎo)人們應(yīng)當就人工智能需要多少人類控制才能安全但仍然有效進行討論,尤其是在應(yīng)對無人機集群等新威脅的情況下。這樣的無人機群有可能會同步它們的攻擊,這樣攻擊就會同時來自各個方向,目標就是飽和打擊防空系統(tǒng)。
由幾百架無人機組成的軍用無人機群已經(jīng)得到展示,在未來我們有可能看到由數(shù)千架甚至更多無人機組成的無人機群。美國海軍的一個項目設(shè)想必須同時應(yīng)對最多可達一百萬架無人機。
美國陸軍正在斥資十億美元購買新的防空車輛,也就是“初期機動型短距防空系統(tǒng)”(IM-SHORAD)。在正確的時間用正確的武器應(yīng)對正確的目標將是至關(guān)重要的。面對大量來襲的威脅——可能還會有誘餌混跡其中——人類炮手有可能負擔過重。
這并非陸軍未來司令部首次提出人類自身可能會被超越。在一次有關(guān)國防部高級研究項目局和美國陸軍聯(lián)合進行的“系統(tǒng)增強型小型作戰(zhàn)單元”(SESU)項目簡報中,科學(xué)家們指出,人類操作人員一直想要干涉機器人的行動。試圖微觀管理機器的舉措會降低機器人的性能。
一名要求匿名的科學(xué)家說:“如果你不得不傳輸目標圖像,先讓人類看到,然后等待人類按下‘開火’鍵,這對機器的速度來說是很漫長的。如果我們將人工智能的速度放慢至人類的速度……那我們就將輸?shù)簟?rdquo;
人工智能方興未艾。在去年8月的一場虛擬空戰(zhàn)中,人工智能5比0戰(zhàn)勝一名人類飛行員。該結(jié)果仍在被討論,但毫無疑問,機器具有更快的反應(yīng)能力,有能力同時追蹤數(shù)件事,并且不會受到疲勞或恐懼的困擾,疲勞和恐懼可能會導(dǎo)致在戰(zhàn)斗中的糟糕決策。
對此有兩種回應(yīng)。一種是努力并控制人工智能,讓其遠離戰(zhàn)場,因為機器缺乏人類的道德感。長期以來,反對“殺手機器人”的組織一直提出理由反對自主武器,而歐盟似乎也贊同。上周,歐洲議會確定其立場:“選擇一個目標并使用自主武器系統(tǒng)采取致命行動的決定,必須始終由人類做出,進行有意義的控制和判斷。”換言之,自主武器作出自己的決定應(yīng)被法律禁止。
然而,美國似乎采取了不同的路線。由政府任命的一個小組本周向國會報告時提出,人工智能有可能比人類犯的錯誤少,并且在識別目標方面會做得更好。
該小組副主席、前國防部副部長羅伯特·沃克說:“至少追求這一假設(shè)是道德義務(wù)。”他認為,自主武器將減少由于目標錯誤識別而造成的傷亡。
在這背后,有軍事觀點。如果由人工智能控制的武器能夠擊敗人類操作的武器,那么擁有人工智能的任何人都將獲勝,并且無法部署它們意味著接受失敗。