如果有一天,你想打我,你以為一拳頭揮過來就完事了嗎?
現(xiàn)在可不那么簡單了?,F(xiàn)在你如果想要打我,不僅要問問我爸媽同不同意,還得問問AI答不答應(yīng),可能你還沒動手,就已經(jīng)被我的AI所攔截下來了。
沒錯,“暴力檢測”成為了當(dāng)下的一個熱門。在人群中實時檢測“暴力行為”成為了現(xiàn)實,如果你想打架,最好先看看AI同不同意。
“檢測暴力”的AI
這種能夠檢測“暴力行為”的AI系統(tǒng)由英國劍橋大學(xué)、印度國家技術(shù)研究院和印度科學(xué)理工學(xué)院的研究人員研發(fā),此類AI技術(shù)利用懸停式四軸飛行器上的攝像頭來檢測每個人的身體動作。然后,當(dāng)系統(tǒng)識別出攻擊性的行為,如拳打、腳踢、刺殺、射擊、掐脖子等時,它就會發(fā)出警報,準(zhǔn)確率達到85%。
它不識別人臉——只是監(jiān)測人們之間可能的暴力行為。
借由無人機實現(xiàn)AI“暴力檢測”
這個系統(tǒng)可以擴展到自動識別非法越境的人,在公共場所發(fā)現(xiàn)綁架事件,并在發(fā)現(xiàn)暴力行為時發(fā)出警報。因此,在某種程度上,這種自主間諜無人機可以幫助警察壓制犯罪,或幫助士兵在無辜群眾中找出敵人。
AI在檢測暴力動作時,主要分為五個類型:扼殺、拳打、踢踹、槍擊,以及刺傷。系統(tǒng)先用FPN (特征金字塔網(wǎng)絡(luò))檢測在場的所有人類,并標(biāo)記出頭、上肢、下肢三個部分的14個重要位點,畫出人體的骨架。然后,SHDL網(wǎng)絡(luò)可以分析四肢朝向等數(shù)據(jù),判斷那些人是不是在使用暴力。
可用于檢測公共區(qū)域或大型聚會中的暴力分子姿態(tài)估計pipeline
當(dāng)然,AI暴力檢測的效果也與數(shù)據(jù)處理人數(shù)有著很大關(guān)系。一般來說,系統(tǒng)需要處理的人數(shù)更少時,準(zhǔn)確率會更高。如只需處理一人時,系統(tǒng)準(zhǔn)確率可以達到94.1%,如果人數(shù)超過了十人,準(zhǔn)確率下降到僅79.8%。同樣,其在檢測扼殺、拳打、踢踹、槍擊,以及刺傷五種暴力行為時,也存在著準(zhǔn)確率差異。
檢測不同暴力行為的準(zhǔn)確率
檢測不同人數(shù)時的準(zhǔn)確率
另一方面,無人機的應(yīng)用也存在著一定的使用條件限制問題。在真正應(yīng)用場景中,無人機無法直接靠近斗毆人群,只能實行高空檢測,而這一定程度上降低了能見度和檢測準(zhǔn)確度。
AI檢測暴力,依然存在著眾多問題
AI檢測在人工智能領(lǐng)域早已經(jīng)不是新鮮事。不論是此前的Dextro公司利用機器學(xué)習(xí)來解讀視頻的聲音和圖象信息,還是谷歌解決雞尾酒會問題,并成功推出新一代Google Assistance,AI檢測一直是各領(lǐng)域應(yīng)用的重要方式。
在云端執(zhí)行推理有潛在的安全和隱私風(fēng)險,因為要將人們的視頻傳輸?shù)降谌接嬎阆到y(tǒng)中。當(dāng)AI滲入日常生活的監(jiān)測過程之中,智能相對論(aixdlun)分析師柯鳴認(rèn)為,其依然就幾個問題“有待解決”。
1.泛濫的用戶信息泄露
2017年,是數(shù)據(jù)泄露極為猖獗的一年。根據(jù)金雅拓(Gemalto)近期發(fā)布的一份報告“2017 Poor International Security Practices Take a Toll”顯示,2017年僅上半年被盜的數(shù)據(jù),就已超過2016年全年被盜數(shù)據(jù)的總量。
2017年1月到6月,平均每天有1050萬條記錄被盜。盡管很多數(shù)據(jù)泄露來自于外部黑客攻擊所致,但所造成的記錄被盜或遺失,僅占13%;相比之下,內(nèi)部惡意泄露、員工疏忽無意泄露等造成的卻占19億被盜數(shù)據(jù)中的86%。
早在此前的Cambridge Analytica丑聞造成了8700萬人的信息泄露,并且對2016年唐納德·特朗普參與美國總統(tǒng)競選的結(jié)果造成了影響。Facebook數(shù)據(jù)泄露事件再次向人們展現(xiàn)了信息泄露的危害,“被行為”或是“誘導(dǎo)行為”成為許多數(shù)據(jù)公司利用用戶信息進行的不良操作。
可想而知,如果當(dāng)AI監(jiān)測暴力系統(tǒng)被惡意使用,其帶來的風(fēng)險更是相當(dāng)嚴(yán)重。諸如此類的面部識別技術(shù),如亞馬遜的Rekognition服務(wù),已經(jīng)被美國警方采用。這些系統(tǒng)經(jīng)常受到高誤報率的困擾,或者根本就不準(zhǔn)確,所以像這樣的技術(shù)要和無人機結(jié)合還需要一段時間。
2.“大數(shù)據(jù)殺熟”
從目前眾多AI應(yīng)用的表現(xiàn)來看,隱私數(shù)據(jù)的泄露所導(dǎo)致的“大數(shù)據(jù)殺熟”是一個不容忽視的問題。
信息泄露不僅會威脅到一個普通用戶的網(wǎng)絡(luò)賬戶安全,更會直接影響到其現(xiàn)實生活中的方方面面。最近鬧得沸沸揚揚的Facebook用戶數(shù)據(jù)泄露更是讓全球用戶紛紛自危,不少知名人士更是宣布從Facebook退出,揚言保護自身隱私數(shù)據(jù)安全。
在前段時間,滴滴被曝光對用戶進行大數(shù)據(jù)殺熟,一時之間輿論紛紛,顯然被人區(qū)別對待的感受不是每個人都喜歡,尤其是在加價的情況下。雖然之后滴滴很快對其進行了澄清,但大數(shù)據(jù)殺熟這種方式卻已經(jīng)被世人獲知。
那么什么是大數(shù)據(jù)殺熟,通常而言,這種行為指的是通過大數(shù)據(jù)來判斷用戶消費潛力,當(dāng)判斷用戶為高消費者時,則會對用戶進行區(qū)別對待,提高其消費價格,比其他用戶花費更多資金才能享受到相同的商品及服務(wù)。
互聯(lián)網(wǎng)上的殺熟早就不是什么新鮮的事情,自互聯(lián)網(wǎng)誕生以來,這種行為便一直存在。而在2000年,也發(fā)生了一件令人矚目的殺熟事件。有亞馬遜用戶反映,在其刪除瀏覽器cookies之后,之前瀏覽過的DVD商品售價從26.24美元降至22.74美元。
此消息一出,備受輿論壓力的亞馬遜只能出來解釋,稱這項功能只是向不同顧客展示的差別定價實驗,絕對與客戶數(shù)據(jù)沒有關(guān)系。最后也只能努力公關(guān),才度過了這個信任危機。如今的一些互聯(lián)網(wǎng)公司,顯然已經(jīng)忘記了亞馬遜當(dāng)年的遭遇,試圖重蹈覆轍。
3.AI監(jiān)測恐侵犯主體的“知情權(quán)”
在AI監(jiān)測的過程中,“知情”確實成為了一個倫理爭論的焦點。“如何監(jiān)測”、“是否知情”爭議不斷。誠然,隨著行為識別技術(shù)的不斷發(fā)展,許多識別技術(shù)都可以實現(xiàn)“非受控性”:即主體無需配合,依然可以實現(xiàn)精準(zhǔn)識別。
這無疑將AI倫理提到了一個新的高度。信息不再為我所有,確實讓人細(xì)思極恐。那么,在公安與刑偵領(lǐng)域,AI監(jiān)測尚可讓人信服,但在其他民用甚至是商用領(lǐng)域,如何平衡好“獲取信息”與保障和滿足受眾基本的知情權(quán)將會成為一個重點和難點。
顯然,許多大公司在此類“獲取信息”與“保障隱私”兩者中積極尋求平衡。Facebook首席運營官雪莉·桑德伯格(Sheryl Sandberg)宣布為了響應(yīng)歐盟即將于五月份生效的新隱私法規(guī),F(xiàn)acebook將讓其20億用戶更容易地管理自己的個人數(shù)據(jù)。
在歐盟,將于今年五月份實施的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)是自互聯(lián)網(wǎng)誕生以來對個人隱私數(shù)據(jù)法規(guī)的最大一次修訂。該條例旨在給予歐盟成員國內(nèi)居民更多管理自身信息的權(quán)限,并規(guī)定了公司使用用戶數(shù)據(jù)的方法。
總的來說,AI監(jiān)測暴力的出現(xiàn),為安防與刑偵領(lǐng)域提供了一個便捷之道。但是,作為極為敏感的領(lǐng)域,精確性的問題依然是不可忽視的。畢竟,冤枉一個好人永遠都不是一件好事。