美國陸軍未來司令部司令約翰·默里上將在戰(zhàn)略與國際問題研究中心的一場網(wǎng)絡(luò)研討會(huì)上說,人類可能無法打擊敵方無人機(jī)群。他還說,管理人類對人工智能控制的規(guī)定可能需要放寬。
默里說:“當(dāng)你抵御無人機(jī)集群時(shí),我不確定人的反應(yīng)是否能跟得上。當(dāng)你從人類的角度(做出)非致命決策時(shí),你實(shí)際上需要多少人為參與?”
這表明了五角大樓在使用自主武器時(shí)對規(guī)則有新的解讀。這需要對任何致命系統(tǒng)進(jìn)行有目的的人類控制,盡管這可能是監(jiān)督作用,而不是直接控制——被稱為“人監(jiān)督回路”,而不是“人直接控制回路”。
默里說,五角大樓的領(lǐng)導(dǎo)人們應(yīng)當(dāng)就人工智能需要多少人類控制才能安全但仍然有效進(jìn)行討論,尤其是在應(yīng)對無人機(jī)集群等新威脅的情況下。這樣的無人機(jī)群有可能會(huì)同步它們的攻擊,這樣攻擊就會(huì)同時(shí)來自各個(gè)方向,目標(biāo)就是飽和打擊防空系統(tǒng)。
由幾百架無人機(jī)組成的軍用無人機(jī)群已經(jīng)得到展示,在未來我們有可能看到由數(shù)千架甚至更多無人機(jī)組成的無人機(jī)群。美國海軍的一個(gè)項(xiàng)目設(shè)想必須同時(shí)應(yīng)對最多可達(dá)一百萬架無人機(jī)。
美國陸軍正在斥資十億美元購買新的防空車輛,也就是“初期機(jī)動(dòng)型短距防空系統(tǒng)”(IM-SHORAD)。在正確的時(shí)間用正確的武器應(yīng)對正確的目標(biāo)將是至關(guān)重要的。面對大量來襲的威脅——可能還會(huì)有誘餌混跡其中——人類炮手有可能負(fù)擔(dān)過重。
這并非陸軍未來司令部首次提出人類自身可能會(huì)被超越。在一次有關(guān)國防部高級(jí)研究項(xiàng)目局和美國陸軍聯(lián)合進(jìn)行的“系統(tǒng)增強(qiáng)型小型作戰(zhàn)單元”(SESU)項(xiàng)目簡報(bào)中,科學(xué)家們指出,人類操作人員一直想要干涉機(jī)器人的行動(dòng)。試圖微觀管理機(jī)器的舉措會(huì)降低機(jī)器人的性能。
一名要求匿名的科學(xué)家說:“如果你不得不傳輸目標(biāo)圖像,先讓人類看到,然后等待人類按下‘開火’鍵,這對機(jī)器的速度來說是很漫長的。如果我們將人工智能的速度放慢至人類的速度……那我們就將輸?shù)簟?rdquo;
人工智能方興未艾。在去年8月的一場虛擬空戰(zhàn)中,人工智能5比0戰(zhàn)勝一名人類飛行員。該結(jié)果仍在被討論,但毫無疑問,機(jī)器具有更快的反應(yīng)能力,有能力同時(shí)追蹤數(shù)件事,并且不會(huì)受到疲勞或恐懼的困擾,疲勞和恐懼可能會(huì)導(dǎo)致在戰(zhàn)斗中的糟糕決策。
對此有兩種回應(yīng)。一種是努力并控制人工智能,讓其遠(yuǎn)離戰(zhàn)場,因?yàn)闄C(jī)器缺乏人類的道德感。長期以來,反對“殺手機(jī)器人”的組織一直提出理由反對自主武器,而歐盟似乎也贊同。上周,歐洲議會(huì)確定其立場:“選擇一個(gè)目標(biāo)并使用自主武器系統(tǒng)采取致命行動(dòng)的決定,必須始終由人類做出,進(jìn)行有意義的控制和判斷。”換言之,自主武器作出自己的決定應(yīng)被法律禁止。
然而,美國似乎采取了不同的路線。由政府任命的一個(gè)小組本周向國會(huì)報(bào)告時(shí)提出,人工智能有可能比人類犯的錯(cuò)誤少,并且在識(shí)別目標(biāo)方面會(huì)做得更好。
該小組副主席、前國防部副部長羅伯特·沃克說:“至少追求這一假設(shè)是道德義務(wù)。”他認(rèn)為,自主武器將減少由于目標(biāo)錯(cuò)誤識(shí)別而造成的傷亡。
在這背后,有軍事觀點(diǎn)。如果由人工智能控制的武器能夠擊敗人類操作的武器,那么擁有人工智能的任何人都將獲勝,并且無法部署它們意味著接受失敗。