人類能控制AI狙擊手的準星嗎?

原標題:人類能控制AI狙擊手的準星嗎?

自從人工智能被賦予新的生命力量,其在短短幾年之內(nèi)迅速蔓延到社會的各個層面。這其中自然免不了一些比較敏感的領(lǐng)域,比如武器開發(fā)。

冷兵器時代的武器的作用簡單明了,就是殺人。但當戰(zhàn)爭進入槍炮時代,尤其是現(xiàn)代各種高科技武器頻現(xiàn),武器又并不僅僅是為了消滅對方更多的有生力量以取得勝利,而是形成震懾力以不戰(zhàn)而屈人之兵。比如核武器。

由于核武器的巨大威力,其很早就被禁止研發(fā)。但除此之外,還有一些武器由于其非人道性,比如激光武器、化學(xué)武器等,也處于被限制發(fā)展甚至禁止發(fā)展的境地。這很好理解,對一個人而言,一槍斃命倒也了結(jié)得快;但被激光弄瞎了眼而不死、被毒氣慢慢蔓延整個身體然后扭曲而死,實在是有點違背人性。

所以,當人工智能將觸角伸進武器的領(lǐng)域的時候,其引發(fā)了社會的強烈不滿。谷歌為五角大樓研發(fā)人工智能無人機的時候甚至引起了全公司員工的聯(lián)名反對。而就在不久前,馬斯克和Deepmind的三大聯(lián)合創(chuàng)始人以及其他的一眾公司大佬們也宣布,將永遠不會研發(fā)人工智能武器。

導(dǎo)致這種情況出現(xiàn)的原因,就是他們認為:人類的生死不應(yīng)該由機器來決定。那么,是不是所有的人工智能武器都要被禁止呢?

比如人工智能狙擊手。

來無蹤去無影:AI狙擊手為什么更令人恐懼?

去年,在日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議上,人工智能研究者斯圖爾特·拉塞爾公布了一段搭載了面部識別、廣角攝像頭和各種傳感器的無人機擊殺目標任務(wù)和學(xué)生人群的視頻。視頻中,這些無人機飛快地穿過各種區(qū)域,然后通過精準的面部識別,對目標進行狙殺。直中眉心,一擊致命。

視頻主要是為了傳達這樣一個信息:在未來,人工智能武器的研發(fā)很可能把人類置于一個危險的境地。拋去這些比較遠的話題不談,視頻中呈現(xiàn)的無人機武器一旦成真的話,倒是很可能砸了一群人的飯碗:狙擊手。

我們知道,在現(xiàn)代戰(zhàn)爭當中,狙擊手的作用非常重要。不同于密集槍炮發(fā)射換來一點點戰(zhàn)果,優(yōu)秀的狙擊手幾乎是百發(fā)百中,因此其又被稱為“神槍手”。又因其常常具有極佳的隱匿效果,加上消音器的作用,其往往會給人帶來心理上的恐懼。這又令其威脅倍增。

一名優(yōu)秀的狙擊手要具備的基本素質(zhì)有很多,挑選最佳射擊位置、巧妙的偽裝、對距離的測算、對風力的估計、極佳的耐力……一般人還真做不來。然而,人工智能狙擊手的到來,很可能讓這一切成為不必要條件。

比如上文提到的無人機武器。通過偽裝,其完全可以變成一只蒼蠅或者小鳥,在目標缺乏注意的情況下出其不意。毫無疑問,它能最大限度地接近目標,毋需考慮位置、射程、風速等任何問題,畢竟目標近在咫尺,風力什么的完全可以忽略不計。

可以確定的是,這一方面會令狙擊手失業(yè),另一方面,其造成的恐懼也將是空前的。

想象一下,士兵們在以前遇到狙擊手的時候臥倒隱藏,然后尋找一下或許還能將來個反殺;但這種新型的武器你根本不知道它在哪兒,但它又無處不在,冷不丁你就一命嗚呼。這種情況下士兵們?nèi)加脕砗ε铝?,哪里還有心思去打仗?并且,暗殺、刺殺等活動也很可能變得日益猖獗。

因此,它給人造成的心理恐慌恐怕會導(dǎo)致其被貼上“非人道”的標簽,被列入禁止武器的行列也就不足為奇。當然這一切還是在人工控制的前提下;如果是自行識別目標然后徑直攻擊,就更難以走到現(xiàn)實中來了。

但對狙擊本身而言,其使用的區(qū)域難道僅僅只局限于戰(zhàn)場或者暗殺嗎?

狙擊的特點就是精準,因此其也就會被用來“解難題”。比如在影視劇當中,一旦出現(xiàn)綁架事件,我們往往會看到刑警、特警一同出動,有負責喊話的,有負責攻堅的,而在不遠的高處則會埋伏著一名或數(shù)名狙擊手。在關(guān)鍵時刻對關(guān)鍵嫌犯實施精準打擊,將在很大可能上實現(xiàn)對復(fù)雜局面的快速解圍。

那么,人工智能狙擊手將會更出色地完成這一任務(wù),在嫌犯神不知鬼不覺的情況下對其進行打擊。

并且,在其他的一些需要進行正面火力交鋒的時候,比如追捕毒販,其也可以派上用場。警察只需要將嫌犯困在一定的范圍內(nèi),然后放出這些智能武器進行追捕即可。

也就是說,在處理防恐、防暴、防毒等治安犯罪事件的時候,利用機器來避免對人造成生命傷害,也可以成為發(fā)展人工智能狙擊手的理由。

如果不能握在手心,就把它永遠禁閉

而狙擊也僅僅是人工智能武器能有助于人類保證自身安全和處理緊急情況的一種選擇而已。戰(zhàn)爭中的對手可能只是暫時的,他們互為敵人,但不一定是壞人。但暴恐等分子卻永遠是作為人類社會的對立面而存在的。也就是說,在戰(zhàn)爭中適應(yīng)于對手的,也同樣適用于犯罪分子。

從這個角度上來說,我們確實需要人工智能武器來幫助應(yīng)對這個群體。那么同時問題就來了,我們還能說真的不需要人工智能武器嗎?

看來要說不需要,好像有點不合適。但其有一個大前提:務(wù)必是以積極維護社會的目的出現(xiàn)。而除此之外,面對在使用人工智能武器的過程中可能出現(xiàn)的問題,我們還需要有更多的考慮。

第一,人工智能不能擁有開火決定權(quán)。阿西莫夫早在1940年之前就提出了著名的“機器人三原則”,其中第一條和第二條分別為:“機器人不得傷害人類,或看到人類受到傷害而袖手旁觀”“機器人必須服從人類命令,除非這條命令與第一條相矛盾”。拯救人質(zhì)自然算是看到人類受到傷害而不袖手旁觀了。但即便是要擊斃犯罪嫌疑人,其也要等待人類的授權(quán),就像狙擊手的開火需要得到授權(quán)一樣。畢竟人工智能雖然擁有人臉識別的能力,但涉及到生命傷害,確定射殺對象的時候仍然要由人類做出最后判斷。

第二,嚴格人工智能武器的管理和使用程序。對警方而言,人工智能武器是一把破敵利器;一旦因為保管工作的失誤而導(dǎo)致武器遭竊或者丟失,甚至被恐怖分子利用,其帶來的社會安全隱患也將是巨大的。那么,為了應(yīng)對這種情況,兩方面的問題應(yīng)該值得注意。

一是要制定比常規(guī)武器更嚴格的保管、使用、收回等程序,確保其出庫和入庫都能做到萬無一失。畢竟這不是簡單的一個追究責任的問題,最好的方法就是不丟失。二是要在武器的開發(fā)上做充分的考慮,比如在發(fā)現(xiàn)武器丟失的第一時間可以暫時鎖定其功能,找回后再進行解鎖;如果確定武器丟失,可以開啟武器的自我毀滅(當然不一定是爆炸)。此外,設(shè)置啟動保護程序等也是非常必要的。

總之,利用一切手段保證人工智能武器不被壞人利用,是對人類社會負責的基本表現(xiàn)。

第三,人工智能武器的反制技術(shù)開發(fā)。說到底,人們對人工智能武器的擔憂來自于目前尚無特別好的反制方法。畢竟當有一個物種打破生態(tài)平衡的時候,一定要有相應(yīng)的物種出現(xiàn)來維持平衡。為什么美國扔了個原子彈日本就投降了?

因為日本拿它沒辦法呀。

所以,這才是人工智能的可怕之處。畢竟在人類的對立面,也存在著一批利用技術(shù)作惡的危險分子。隨著人工智能技術(shù)的成熟和研發(fā)成本的降低,很難確??植婪肿拥炔粫虼硕邪l(fā)出人工智能武器來威脅民眾的生命安全。這就給各國提出了一個明確而急迫的要求:在人工智能武器的技術(shù)被壞人掌握之前,我們必須要有所作為,保證在惡魔來臨之前,我們有強大的法力將其制服。

而在以上的這些東西實現(xiàn)之前,對人工智能武器持非常慎重的態(tài)度自然是無可厚非。它不應(yīng)該作為單純的危險物種而存在,但又不能對其有益之處也全盤否定。我們未來可能需要人工智能武器,但一定不能是以無辜的傷害為目的。當然,如果我們不能確定它只能為確保人類的安全而工作,人工智能武器的潘多拉魔盒還是緊閉為好。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-07-30
人類能控制AI狙擊手的準星嗎?
原標題:人類能控制AI狙擊手的準星嗎?自從人工智能被賦予新的生命力量,其在短短幾年之內(nèi)迅速蔓延到社會的各個層面。這其中自然免不了一些比較敏感的領(lǐng)域,比如武器開發(fā)。

長按掃碼 閱讀全文