俄羅斯計劃打造AI武器,馬斯克的擔憂正在成為事實

俄羅斯一家戰(zhàn)術導彈制造公司本周宣布,計劃將人工智能技術應用到導彈上,打造基于機器學習算法的人工智能導彈。對人工智能技術發(fā)展而言,這似乎是個危險信號。

關于人工智能會否對人類文明帶來威脅的話題,總是能夠引發(fā)大范圍的討論。在科技圈,由于持有兩種截然相反的立場和觀點,許多大佬被自然地劃分為兩大不同陣營。

特斯拉的創(chuàng)始人埃隆·馬斯克是人工智能威脅論的堅定支持者,幾天前在一次會議上馬斯克還曾發(fā)出:“人工智能是人類文明面臨的最大風險”的警告。物理學家霍金、微軟創(chuàng)始人蓋茨,也曾發(fā)出過類似警告。

當然,也有相當一部分人認為目前對人工智能的擔憂太早,顯得有些杞人憂天。Facebook的創(chuàng)始人扎克伯格針對馬斯克的言論發(fā)表意見稱:“馬斯克對人工智能的悲觀論調是不負責任的”,因為:“如果你拒絕人工智能就意味著拒絕了安全的汽車和更好的醫(yī)療服務。”

不可否認,人工智能技術在不同領域的應用正在改善人類的生活,包括馬斯克和他的無人駕駛汽車特斯拉也是人工智能的受益者,IBM的人工智能系統(tǒng)沃森甚至可以輔助醫(yī)生幫助病人針對疾病。但問題是,如果將人工智能技術應用在武器上呢?

科幻電影常常渲染人工智能機器人意識覺醒之后屠殺人類的情節(jié),但很少有人試想過,人類自身使用人工智能技術進行自我毀滅。在有關人類末日的預言中,最令人信服的莫過于人類將毀滅與一場核戰(zhàn)爭。那么,如果人工智能技術有一天被應用在核武器等大規(guī)模殺傷性武器上呢?

不必說人工智能具備自主意識,哪怕是人工智能系統(tǒng)出現一個小小的錯誤,后果都是難以接受的。事實上在無人駕駛汽車等領域我們已經看到了很多人工智能犯下的錯誤,同時也導致了很多不可挽回的后果,盡管是小范圍的個別案例,但也同樣值得我們警惕。

埃隆·馬斯克也曾對自己所持立場做出過解釋,他表示自己并不是反對人工智能的進步,雖然方向是對的,但不能操之過急,貿然進入到我們未知的領域。

現在看來,馬斯克擔心的事情正在發(fā)生。將人工智能技術應用到導彈上,究竟會導致什么結果?對此我們一無所知。

免責聲明:此文內容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com。

極客網企業(yè)會員

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2017-07-28
俄羅斯計劃打造AI武器,馬斯克的擔憂正在成為事實
俄羅斯一家戰(zhàn)術導彈制造公司本周宣布,計劃將人工智能技術應用到導彈上,打造基于機器學習算法的人工智能導彈。對人工智能技術發(fā)展而言,這似乎是個危險信號。

長按掃碼 閱讀全文