隨著人工智能的發(fā)展,關(guān)于戰(zhàn)爭道德的充滿爭議的問題變得更加復(fù)雜
人工智能(AI)的倫理問題正困擾著不少該領(lǐng)域的專家。為調(diào)查這一問題而成立的一個(gè)特別委員會在2019年底公布了其建議,該委員會由赫茲利亞跨學(xué)科中心的卡琳·納翁教授領(lǐng)導(dǎo)。該報(bào)告描述了不負(fù)責(zé)任地使用人工智能工具的風(fēng)險(xiǎn),以及在開發(fā)技術(shù)產(chǎn)品時(shí)考慮人工智能因素的重要性。
但是,該報(bào)告只涉及該問題的民事方面。委員會故意忽視了與軍事應(yīng)用中人工智能的整合相關(guān)的考慮,尤其是人類生命中最神秘的價(jià)值。討論中的倫理考量有多重要?美國國防部2018年發(fā)布的一份文件稱,道德和安全是國防部發(fā)揮主導(dǎo)作用的因素之一。
去年12月,赫茲里亞跨學(xué)科中心召開了關(guān)于人工智能與現(xiàn)代戰(zhàn)爭的會議。微軟以色列商業(yè)法律顧問Adv。本·哈克萊(Ben Haklai)概述了有關(guān)此事的話語界限,這只是處于起步階段。他說:“政府和研究機(jī)構(gòu)僅在過去兩年中才開始深入討論這些問題,但是直到現(xiàn)在,所有的研究才開始具有具體的性質(zhì)。” 該會議是為期一周的計(jì)劃的一部分,該計(jì)劃在國際刑法和人道主義法診所的框架內(nèi)接待了來自歐洲和美國的許多代表團(tuán)。來自以色列和美國,意大利,中國,波蘭和德國等國家的學(xué)生參加了會議。
難以調(diào)查決策
似乎幾乎每個(gè)以色列人都熟悉AI中倫理考量的重要性。當(dāng)一枚“鐵穹”(Iron Dome)導(dǎo)彈“決定”不對從加沙地帶發(fā)射的一枚火箭發(fā)射攔截器時(shí),即便它不會擊中有人居住的地區(qū),該系統(tǒng)也在做一個(gè)合乎道德的決定。然而,“鐵穹”事件相對簡單,因?yàn)樗让媾R著生命與財(cái)產(chǎn)損失的兩難境地,也因?yàn)槊總€(gè)炮兵連都有士兵監(jiān)督其活動。該系統(tǒng)還提供情報(bào)和精度,以便對導(dǎo)彈的預(yù)期著陸地點(diǎn)進(jìn)行非常準(zhǔn)確的預(yù)測。對于IDF使用的另一個(gè)具有自主能力的系統(tǒng)—獎杯坦克保護(hù)系統(tǒng),情況變得稍微復(fù)雜一些。這是在前線進(jìn)行的,它的行動很容易危及在該地區(qū)移動的步兵。
如何對將在更復(fù)雜的環(huán)境中操作的武器進(jìn)行編程,例如在建筑物密集地區(qū)操作中使用的無人駕駛汽車的情況下?就像部署在朝鮮和韓國邊界上的那種——一種必須探測入侵者意圖并“決定”是殺死他們還是讓他們通過的武器?這些問題還沒有明確和絕對的答案。這正是討論這件事的原因。
哈克萊在演講中解釋了軍事背景下各種可能的局勢如何變得越來越復(fù)雜。鐵穹頂是一個(gè)相當(dāng)簡單的情況的例子,在這種情況下,機(jī)器可以做出決策,但是人類士兵可以干預(yù)該決策并將其撤消。
最簡單的情況是機(jī)器只推薦一個(gè)動作;只有這個(gè)人才能決定是否執(zhí)行它。另一方面,最困難和最具挑戰(zhàn)性的情況是,在這種情況下,人被排除在外,而機(jī)器自己做決定。隨著技術(shù)的發(fā)展,無人機(jī)、無人駕駛飛行器(uav)和其他機(jī)器人完全自主行動成為可能,這種情況將變得越來越重要。
恰恰在這種情況下,三星制造的SGR-A1機(jī)器人被放置在朝鮮與韓國之間的非軍事區(qū)。該機(jī)器人由紅外攝像機(jī)和語音識別系統(tǒng)組成。它具有在警告動作和射擊橡皮子彈或其他彈藥之間進(jìn)行選擇的能力。機(jī)器人可以完全自主地行動,但是它仍然包含供操作員執(zhí)行命令的選項(xiàng)。Haklai解釋說SGR-A1是其程序員面臨的道德困境的一個(gè)很好的例子-“是對機(jī)器進(jìn)行編程以拍攝移動的一切物體,還是先嘗試驗(yàn)證是否有人參與其中,以及是否有人參與其中,無論他或她正在舉手還是投降。”
哈克萊認(rèn)為,這次討論的特殊之處在于“與民用應(yīng)用相反,負(fù)責(zé)使用自動武器后果的一方首先是整個(gè)國家,此后便出現(xiàn)了一個(gè)問題,即究竟誰在指揮系統(tǒng)中承擔(dān)責(zé)任。”
責(zé)任不是唯一的方面。為了監(jiān)督此類武器的活動,必須具有追溯調(diào)查決策的能力。“所有工程師都會跳進(jìn)來,并提醒所有人,人工智能是一個(gè)黑匣子,這意味著機(jī)器做出的每個(gè)決定背后的邏輯都是無法理解的,因?yàn)樗谌祟惪梢哉业降拇罅繑?shù)據(jù)沒有邏輯。深度學(xué)習(xí)系統(tǒng)中的神經(jīng)元網(wǎng)絡(luò)實(shí)際上會生成無限的決策樹或圖表。” 問題開始于一個(gè)事實(shí),即“大多數(shù)人類社會將無法接受發(fā)生殺戮的情況,而無法解釋其發(fā)生原因”。
Haklai通過從普通汽車向自動駕駛汽車過渡的例子比較了民用挑戰(zhàn)與軍事挑戰(zhàn)。他說,盡管公眾愿意接受合理的死亡率作為生意價(jià)格的一部分,但他說:“不愿接受無人駕駛飛機(jī)炸彈轟炸鄉(xiāng)村的案件的意愿就較小。”
Haklai說,未來的解決方案可能會存在于將解碼AI決策方式的其他內(nèi)容中。“已經(jīng)有一些初創(chuàng)公司致力于算法,可以為AI決策提供合理的解釋。沒有這種能力,將很難改進(jìn)原始算法。”
將網(wǎng)絡(luò)安全整合到發(fā)展中
由于用于武器系統(tǒng)的基于AI的系統(tǒng)的開發(fā)人員面臨固有的失敗,所有這些挑戰(zhàn)變得更加困難?;谏疃葘W(xué)習(xí)的系統(tǒng)能夠產(chǎn)生的見解的質(zhì)量取決于它們可以分析的數(shù)據(jù)的質(zhì)量和數(shù)量以及它們所基于的數(shù)據(jù)。Haklai解釋說,如果沒有足夠的數(shù)據(jù),問題就開始了。Mobileye的傳感器已安裝在全球數(shù)百萬輛汽車上,這些傳感器在世界各地的道路上行駛,并將無數(shù)有關(guān)事件的數(shù)據(jù)輸入系統(tǒng)。這些數(shù)據(jù)使系統(tǒng)能夠不斷學(xué)習(xí)和改進(jìn)。
像Google這樣的公司的自動駕駛汽車也是如此,它們會在人們駕駛的汽車旁邊行駛,收集數(shù)據(jù)并學(xué)習(xí)。AI武器系統(tǒng)將處理哪些數(shù)據(jù)?會浪費(fèi)數(shù)千小時(shí)的戰(zhàn)斗飛行員嗎?美國國防部找到的解決方案是與私營部門合作使用模擬器,例如Microsoft的AirSim模擬器,用于在實(shí)驗(yàn)室條件下訓(xùn)練算法,以代替現(xiàn)場試驗(yàn)。
最后,Haklai解釋說,當(dāng)涉及軍事需求時(shí),必須在基于AI的系統(tǒng)的開發(fā)階段徹底了解網(wǎng)絡(luò)方面。例如,哈克拉(Haklai)斷言,應(yīng)包括檢測使用Deepfake技術(shù)的工具,這些工具可以創(chuàng)建看似真實(shí)的視頻或音頻剪輯。Haklai說,除非從一開始就包含這些工具,否則普通系統(tǒng)將很難理解正在努力欺騙它。
如果聽起來很復(fù)雜,那僅僅是開始。這些解決方案很難在單個(gè)文化框架中應(yīng)用,但是當(dāng)它所基于的整個(gè)價(jià)值層次發(fā)生變化時(shí),會發(fā)生什么呢?哈克萊舉例說明了中美之間的差異。在一個(gè)社會中什么是合理的,在另一個(gè)社會中不一定是合理的。“廣泛使用攝像機(jī)進(jìn)行面部識別和每個(gè)人的信用等級被認(rèn)為是正確管理制造公司的一種合理方法。這種看法上的差異絕對是原則問題。”
評論:各國不應(yīng)該把舞臺讓給科技巨頭
微軟(Microsoft)等公司參與設(shè)計(jì)管理技術(shù)世界的規(guī)則,以一種最引人入勝的方式,突顯出該公司在軍事領(lǐng)域參與人工智能工具的開發(fā)。算法必須用大量的數(shù)據(jù)來訓(xùn)練,但是由于系統(tǒng)不能在真實(shí)的情況下訓(xùn)練,所以有必要使用模擬器。
由于私人公司控制著模擬程序的編程方式,這意味著它們實(shí)際上參與了未來武器的使用設(shè)計(jì)。這不僅僅是猜測。這種施加影響的能力與公司的思維方式一致。微軟總裁布拉德·史密斯(Brad Smith)在2019年11月警告說,除非技術(shù)巨頭對防止濫用技術(shù)造成限制,否則人工智能很可能成為難以反擊的武器。
微軟和其他開發(fā)此類模擬器的公司很有可能會根據(jù)國家為它們設(shè)置的規(guī)則和限制來構(gòu)造它們,但是還有另一種可能性-這些行動原則中的某些將是工作和思想的結(jié)果。公司。“公司立法”由公司為其自身制定的規(guī)則組成。幾乎每個(gè)網(wǎng)絡(luò)沖浪者都親自遇到過這些規(guī)則。當(dāng)Facebook阻止發(fā)布種族主義煽動行為的用戶時(shí),我們了解“懲罰”的法律依據(jù)。但是,當(dāng)用戶因?yàn)榘l(fā)送過多的好友請求并違反“社區(qū)標(biāo)準(zhǔn)”而被阻止時(shí),會發(fā)生什么情況?這是Facebook對其用戶執(zhí)行的規(guī)則之一,有時(shí)這些規(guī)則對用戶生活的影響大于州法律。” 這里發(fā)生了一些有趣的事情。公司的立法比政府的立法變得越來越重要。”以色列最大和最知名的律師事務(wù)所之一的高級律師說。
在法學(xué)院中,眾所周知和研究的是,立法者對技術(shù)進(jìn)步及其適應(yīng)的反應(yīng)非常緩慢。在AI的情況下尤其如此,這尤其是因?yàn)楸O(jiān)管機(jī)構(gòu)的技術(shù)知識方面的差距以及無法趕上技術(shù)巨人辦公室而非監(jiān)管機(jī)構(gòu)辦公室中對監(jiān)管和道德規(guī)范的深入思考的結(jié)果監(jiān)管機(jī)構(gòu)或民選官員的委員會。
如果沒有更好的話語權(quán),除了法律和技術(shù)專家之外,還需要有公共代表,因此,技術(shù)公司將成為制定使用技術(shù)規(guī)則的公司。當(dāng)涉及到對我們的生活造成難以想象的深遠(yuǎn)影響的人工智能技術(shù)時(shí),讓貓來守護(hù)霜的危險(xiǎn)就更加危險(xiǎn)了。
免責(zé)聲明:凡注明來源全球無人機(jī)網(wǎng)的所有作品,均為本網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,歡迎轉(zhuǎn)載,請注明出處。非本網(wǎng)作品均來自互聯(lián)網(wǎng),轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé)。