6月7日,谷歌CEO桑達爾·皮查伊發(fā)布了七條AI應用的“道德原則”,包括對社會有益;避免制造或強加不公平的偏見;發(fā)展和利用AI技術時注重隱私原則等。谷歌稱其不會將AI用于軍事武器和侵犯人權的監(jiān)控中。但是仍會在其他領域保持跟政府和軍隊的合作,包括網絡安全、軍事訓練、軍隊招募、退伍兵醫(yī)療、搜索、營救等方面。桑達爾·皮查伊表示這些合作至關重要,谷歌也會積極尋求其他方式來加強這些方面的工作,并保證服務人員和平民的安全。同時,谷歌不會研發(fā)可能會造成傷害的科技,除非谷歌認定“科技帶來的好處遠超過其造成的威脅”。
早在4月,谷歌因為美國國防部提供AI技術而受到公司內外的廣泛批評和質疑。合作項目叫做“ProjectMaven”,幫助開發(fā)應用于無人機的人工智能系統(tǒng)。此舉遭到四千多名員工聯(lián)名上書,數(shù)十名員工離職,要求皮查伊遠離“戰(zhàn)爭的生意”。最終谷歌向員工做出妥協(xié),承諾明年合約到期后將終止“ProjectMaven”計劃。這場“風暴”之后,谷歌管理層承諾會發(fā)布一系列“道德原則”規(guī)范未來的項目,指導技術研究、產品發(fā)展、商務決策。谷歌對TheVerge透露,如果這項原則發(fā)布得早一點,谷歌也許不會參與到“ProjectMaven”中。
其實,谷歌決定發(fā)布這項AI原則也是考慮到多年以來自動化系統(tǒng)所構成的威脅,還有人工通用智能引起的聳人聽聞的聲音。就在上個月,一個人權組織和技術團體聯(lián)盟發(fā)起“多倫多宣言”,呼吁政府和科技公司確保AI尊重平等和非歧視的基本準則。
作為行走在人工智能領域前沿的科技公司,谷歌早已將其未來押注在人工智能技術上,公司管理層都相信人工智能所帶來的影響力絕不亞于互聯(lián)網所能做到的。皮查伊表示,“在谷歌,我們用AI技術讓產品變得更好:從Gmail電子郵件服務做到垃圾郵件攔截率高至99.9%,為用戶編寫郵件時提供簡單的建議到語音助手自如地與用戶交談。但是AI也有“犯錯”的時刻,比如GooglePhotos的圖像識別功能曾將黑人識別成大猩猩?!?/p>
盡管谷歌發(fā)布了這項原則,也無法控制科技的方方面面。谷歌擁有頂級的人工智能實驗室,承載很多重要的學術研究,谷歌也公開發(fā)布了人工智能領域的很多研究成果。這意味著,其他公司可以重新創(chuàng)造和使用谷歌的研究方法和思想。當谷歌與其他實驗室合作的時候,如果認為后者沒有“正當”使用自己的研究成果,就會將其收回。谷歌的一位發(fā)言人說道,“比如拿谷歌開源的AI軟件庫——TensorFlow來說,發(fā)布的原則不可能照顧得“面面俱到”,但是谷歌可以做到發(fā)揮其在開源社區(qū)的影響力,直接控制軟件開發(fā)工具包,出臺更嚴格的許可條例。最起碼,在“不作惡”的這件事情上,谷歌明確表示,“如果在使用科技的過程中違背了原則,那么我們保留阻止或者停止科技的權利。”
谷歌還在極力爭取競標國防部價值100億美元的云服務訂單。在微軟、IBM等公司的共同競爭下,谷歌AI原則的發(fā)布也許意味著其將離國防合同更遠了一步。但是皮查伊表示“原則的出臺為的就是減少人工智能造成的危害、限制人工智能的濫用。我們承認人工智能如此強大的科技一定會引起同等效應的社會問題。也許在未來的幾年,人工智能的發(fā)展和應用會給社會造成嚴重的影響。但是作為人工智能領域的領導者,谷歌有責任要讓人工智能的發(fā)展步入正軌?!?/p>
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )