谷歌CEO皮查伊:AI必須受到監(jiān)管 不能任由市場放縱

1月20日消息,據(jù)外媒報道,谷歌及其母公司Alphabet首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)日前親自撰文,聲稱人工智能(AI)太過重要,必須受到監(jiān)管,人們非常擔心AI造成的潛在負面后果。公司不能僅僅建立新技術(shù),而放任市場力量來決定如何使用它。

圖:谷歌及其母公司Alphabet首席執(zhí)行官桑達爾·皮查伊

皮查伊撰文全文如下:

我在印度長大,總是對技術(shù)癡迷不已。每項新發(fā)明都以意義非凡的方式改變了我和家人的生活。有了電話,我們就不必長途跋涉去醫(yī)院看檢查結(jié)果了。冰箱意味著我們可以花更少的時間做飯,電視讓我們可以在收聽短波收音機的同時看到我們只能想象的世界新聞和板球比賽。

現(xiàn)在,我很榮幸能幫助塑造新的技術(shù),我們希望這些技術(shù)將改變世界各地人們的生活。其中,最有前途的技術(shù)包括AI:就在本月,關(guān)于Alphabet和谷歌如何挖掘AI潛力的三個具體例證已經(jīng)發(fā)布?!蹲匀弧钒l(fā)表了我們的研究,顯示AI模型可以幫助醫(yī)生在乳房X光檢查中更準確地發(fā)現(xiàn)乳腺癌;作為應(yīng)對氣候變化的重要組成部分,我們正在使用AI更快、更準確地對降雨量做出即時的預測;漢莎航空集團正在與我們的云計算部門合作,測試使用AI來幫助減少航班延誤。

然而,歷史上有很多例子表明,技術(shù)的發(fā)展也會帶來出人意料的負面影響。內(nèi)燃機讓人們可以長途旅行,但也造成了更多的事故?;ヂ?lián)網(wǎng)使人們有可能與任何人聯(lián)系,從任何地方獲取信息,但也更容易傳播錯誤信息。這些教訓告訴我們,我們需要清醒地認識到可能會出現(xiàn)的問題。

人們確實擔心AI造成的潛在負面后果,從深度換臉(deepfakes)到抑制面部識別技術(shù)的使用。雖然許多公司已經(jīng)做了很多工作來解決這些擔憂,但未來不可避免地會有更多挑戰(zhàn),沒有任何單獨的公司或行業(yè)可以單獨應(yīng)對。歐盟和美國已經(jīng)開始制定監(jiān)管提案,國際協(xié)調(diào)將是使全球標準發(fā)揮作用的關(guān)鍵。

要實現(xiàn)這個目標,我們需要在核心價值觀方面達成一致。像我們這樣的公司不能僅僅創(chuàng)造有前途的新技術(shù),然后讓市場力量決定如何使用它。我們同樣有責任確??萍嫉玫缴朴?,讓每個人都可以使用?,F(xiàn)在,在我看來,AI需要受到監(jiān)管,這是毋庸置疑的。這項技術(shù)太過重要,不能放任不管。

唯一的問題是如何對待它。這就是為何谷歌在2018年發(fā)布了自己的AI原則的理由,旨在幫助指導這項技術(shù)以符合倫理道德的方式開發(fā)和使用。這些指導方針幫助我們避免偏見,嚴格測試安全性,在設(shè)計之初就將隱私放在首位,并使技術(shù)對人們負責。這些原則還指定了我們不會設(shè)計或部署AI的領(lǐng)域,例如支持大規(guī)模監(jiān)視或侵犯人權(quán)。

但停留在紙面上的原則沒有任何實際意義。因此,我們還開發(fā)了將其付諸實施的工具,例如測試AI決策的公平性,以及對新產(chǎn)品進行獨立的人權(quán)評估。我們甚至走得更遠,讓這些工具和相關(guān)的開源代碼廣泛可用,這將使其他人能夠善意地使用AI。我們認為,任何開發(fā)新AI工具的公司都應(yīng)該遵循這些指導原則和嚴格的審查程序,政府的監(jiān)管也需要發(fā)揮重要作用。

我們不必從頭開始去做?,F(xiàn)有的規(guī)則可以作為堅實的基礎(chǔ),如歐洲的《通用數(shù)據(jù)保護條例》。好的監(jiān)管框架將考慮安全性、可解釋性、公平性和問責性,以確保我們以正確的方式開發(fā)正確的工具。明智的監(jiān)管還必須采取相稱的方法,平衡潛在的危害,特別是在高風險領(lǐng)域。監(jiān)管可以提供廣泛的指導,同時允許在不同部門有針對性地部署技術(shù)。

對于有些AI技術(shù)的使用,例如包括AI輔助心臟監(jiān)測器在內(nèi)的受監(jiān)管醫(yī)療設(shè)備,現(xiàn)有框架提供了很好的監(jiān)管基礎(chǔ)。對于自動駕駛汽車等較新的領(lǐng)域,政府將需要建立適當?shù)男乱?guī)則,并考慮所有相關(guān)的成本和好處。谷歌的作用始于認識到,應(yīng)用AI需要遵循原則性的、受監(jiān)管的方法,但它并沒有到此為止。

我們希望在監(jiān)管機構(gòu)努力應(yīng)對不可避免的緊張局勢和權(quán)衡取舍時,成為他們的合作伙伴。在共同應(yīng)對這些問題時,我們可以提供我們的專業(yè)知識、經(jīng)驗和工具。AI有可能改善數(shù)十億人的生活,而最大的風險可能是無法實現(xiàn)這個目標。通過確保以負責任的方式構(gòu)建AI,使每個人都受益,我們可以激勵子孫后代像我一樣相信技術(shù)的變革力量。(小?。?/p>

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2020-01-20
谷歌CEO皮查伊:AI必須受到監(jiān)管 不能任由市場放縱
谷歌及其母公司Alphabet首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)日前親自撰文,聲稱人工智能(AI)太過重要,必須受到監(jiān)管,人們非常擔心AI造

長按掃碼 閱讀全文