10位科技企業(yè)女性高管對AI威脅論的探討

原標題:10位科技企業(yè)女性高管對AI威脅論的探討

編譯:李珠江

編輯:瓊涼

審校:周鶴翔

來源:GPLP犀牛財經(ID:gplpcn)

女性從事科技行業(yè)的機會越來越多,但仍有很大的提升空間。目前,約有四分之一的科技工作是由女性擔任的。為了突出該領域那些有成就的女性,《權威雜志》(Authority Magazine)采訪了多位AI領域的女性領導人。

每個人都被問到了以下問題:“眾所周知,科學家們一直在爭論,先進的AI在未來是否會對人類構成威脅。這場辯論已經逐漸演化為埃隆·馬斯克(Elon Musk)和馬克·扎克伯格(Mark Zuckerberg)之間的辯論。那么,您的立場是什么?怎樣才能防止這種擔憂發(fā)生?我們該怎么做才能讓公眾相信,AI沒有什么可擔心的呢?”

下面是10位AI領域女性領導人的回答。

AI具有雙面性

Anna Bethke(英特爾AI負責人)

我認為,人們使用AI的方式比AI本身對人類的危害要更大。

AI的使用具有雙面性性,就像錘子或者其他任何工具一樣,既可以用來做善事,比如做鳥籠;也可以用來做壞事,比如打碎花瓶。雖然AI有可能學習提高到具有自我意識和甚至產生惡意,但這其實極難做到。

有些人已經能夠通過制造帶有惡意的AI,進行服務類攻擊、在社交媒體的騷擾等等。雖然我們不能簡單地排除具有自我意識的惡意AI存在的可能性,甚至被忽視,但是我們應該更多的就創(chuàng)建惡意AI進行討論。

隨著技術的發(fā)展和應用,披露該技術發(fā)展的透明度越高,每個人就能越了解情況,就能更多的提出質疑。從系統(tǒng)的設計,測試和實現(xiàn),到立即糾正任何不利行為,或根據(jù)需要進行批量升級,在一定程度上都要保持人類的判斷力,這一點很重要。

科技是我們的合作伙伴

Carolina Barcenas(Visa高級副總裁)

我認為,科技是我們的合作伙伴。

科技的確會帶來一些變化,但是我相信社會的適應能力。盡管一些工作崗位可能會消失,但新的工作崗位將會被創(chuàng)造出來。當前是技術創(chuàng)新的時代。我相信,正確地使用AI將使我們的生活受益無窮,而我們現(xiàn)在正處于這一重大變革的開端。但是,我也認識到,技術一旦落入心懷不軌的人手中,可能是毀滅性的,這就是為什么要圍繞AI的道德使用去進行有效監(jiān)管,這是極其重要的一點。目前,數(shù)據(jù)的使用和隱私保護在歐洲已經受到了重視,其他國家也緊隨其后,但我們仍處于起步的萌芽階段。我認為最重要的是,我們要讓人們知道什么是真正的AI,以及我們需要面對的挑戰(zhàn)是什么。

AI只是我們開發(fā)的一種工具

Tatiana Mejia(Adobe的AI主管)

AI只是我們開發(fā)的一種工具,作為一個社區(qū),我們有責任告訴大眾,AI是如何創(chuàng)建的,以及我們該如何使用。技術本身并無好壞。

在Adobe,我們談論AI服務于創(chuàng)作者并尊重消費者。我們正在仔細研究相關問題,并制定和實施有關數(shù)據(jù)隱私、數(shù)據(jù)治理、數(shù)據(jù)多樣性等方面的流程和準則等。

繼續(xù)推進 同時落實安全措施

Marie Hagman(Zillow的人工智能總監(jiān))

縱觀歷史,人們一直在使用新技術來完成一些令人驚訝的事情,并且給他人帶來痛苦。例如,核能和原子彈。我是一個樂觀主義者,我認為AI利大于弊。我們需要繼續(xù)推進,同時落實安全措施,更快地制定和更新公共政策以幫助減輕風險。我覺得我們不能也不應該向人們保證AI沒有什么可擔心的。人們應該了解到它的風險并提高警覺。我們已經建立了保護社會免受不良行為影響的系統(tǒng),包括執(zhí)法,司法體系和公共政策。除此之外,我們應該讓這些領域的領導人了解情況,并優(yōu)先考慮防范AI可能造成的威脅。

當今AI發(fā)展還不成熟

Madelaine Daianu, Ph.D.(Intuit數(shù)據(jù)科學高級經理)

我認為,隨著AI技術的進步,這些辯論只會越來越激烈。

有人認為這些爭論為時過早,主要是因為當今的AI發(fā)展還不成熟。我們尚未發(fā)現(xiàn)創(chuàng)建超級智能的必要條件,因此,我們尚未掌握正確的信息,來確定如何更好地減輕可能存在的危害。

機器人不會明天就來占領這個世界

Doris Yang (BlackBerry Cylance高級總監(jiān))

AI的好壞,取決于人類如何定義問題和答案的邊界,以及處理這些問題所需的數(shù)據(jù)。也就是說,不管制造出一個有意識的機器人需要花費多長時間,談論AI使用的邊界以及人工智能的應用才是至關重要的。即使到了今天,我們身邊仍然存在著隱私和透明性的問題。

以AI驅動的解決方案有很多好處,我們應該積極地考慮問題,以便我們可以繼續(xù)從中受益,而不會放棄更多的自由。我們現(xiàn)在需要為我們的底層設施打下基礎,并保持警惕,以防技術和其他實體侵犯它們。

探索如何更好的利用AI

Marina Arnaout(Microsoft經理)

歷史表明,每當一項偉大的發(fā)明落入心懷不軌之人手中時,邪惡就會占上風。當前,我們正處于AI發(fā)展的早期階段,正在探索如何更好的利用AI,激發(fā)潛能,這可以幫助我們預防自然災害,或者為盲人提供更多幫助,當然,還有更多形式的商業(yè)智能。

AI具有賦予社區(qū)和企業(yè)權力的潛力,并具有許多好處。但是,毫無疑問,先進的AI技術同時也會帶來各種不利影響。它可能會以人類無法跟上的速度大幅度改變勞動力結構,從而產生重大的經濟影響,并帶來許多道德挑戰(zhàn)。更直接地說,AI可以被設定為破壞程序,也可以做一些有益的事情,這是一個全球性的問題。

為AI設定條件和界限

Elena Fersman(愛立信AI研究負責人)

每一項新技術都會帶來威脅。盡管AI是特殊的,但由于它是自我發(fā)展的,我們仍為其發(fā)展設定條件或界限。這些條件需要掌握在人類手中。我們需要承擔責任,規(guī)定“游戲規(guī)則”,并規(guī)定這些算法永遠不能打破規(guī)則。這些規(guī)則與人類必須遵守的法律,法規(guī),道德框架和社會規(guī)范沒有什么不同。為避免此類擔憂發(fā)生,我們應該以AI系統(tǒng)所理解的語言來實施“生存規(guī)則”。也就是說,我們需要將這些規(guī)則數(shù)字化,確??蚣芎蛙浖軜嬀哂徐`活性并允許修改,并且算法可以保證它們遵守這些框架。

成立一個組織:規(guī)范AI產業(yè)和研究

韓超(Lucidworks副總裁)

AI可以應用于許多造福社會的領域,例如醫(yī)療保健和自動駕駛汽車。然而,在武器開發(fā)或基因編輯領域,危險團體對于AI的濫用是令人擔憂的。當前,AI不具備自我學習的能力,無法故意傷害他人,也無法通過互聯(lián)網相互連接進行大規(guī)模的破壞。但是,如果未來控制不當,這些行為都是可能發(fā)生的。當前沒有任何集中化的組織來規(guī)范AI產業(yè)和研究。我們高度依賴大型IT公司的良好愿景,并遵循標準的模型構建流程,以防止AI的偏見或濫用。我希望這樣的組織能盡快成立,以獲得更多公眾的信任。

不應該試圖去阻止人們的擔憂

Trisala Chandaria(Temboo首席執(zhí)行官)

所有新的技術給人類帶來機遇的同時,也帶來了危機,這就是科技的本質。

想想在汽車剛出現(xiàn)的時候,我們必須建立基礎設施,采取安全措施和其他技術來適應他們。諸如道路,駕照,安全帶和安全氣囊等東西,都是為了確保公眾能夠安全有效地使用汽車。同樣,在構建AI技術時,我們需要考慮安全性,基礎設施,法律等。只要考慮到這些因素,我們就可以永遠使用AI。

然而,這些措施仍在制定過程中,目前需要優(yōu)先考慮。我們不應該試圖去阻止人們對AI的擔憂。人們應該問問他們的數(shù)據(jù)是如何被使用的,哪些技術影響了他們的生活,以及AI是如何影響社會。擔憂和恐懼是有區(qū)別的。我們不想嚇唬人們,讓他們遠離新技術,但我們希望確保人們在影響他們日常生活的技術上有所選擇。這取決于這個領域的領導者,確保公眾有足夠的能力和信息來做出選擇。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2019-11-01
10位科技企業(yè)女性高管對AI威脅論的探討
目前,數(shù)據(jù)的使用和隱私保護在歐洲已經受到了重視,其他國家也緊隨其后,但我們仍處于起步的萌芽階段。我認為最重要的是,我們要讓人們知道什么是真正的AI,以及我們需要面對的挑戰(zhàn)是什么。

長按掃碼 閱讀全文