極客網(wǎng)·人工智能5月9日 當AI 聊天機器人破繭而出時,很多人感到驚喜或驚訝。
這些大型語言模型擅長自我學習,并且能用各種語言和風格與人類進行交流。其生成的藝術(shù)模型幾乎可以生成人們能想到的任何事物;能夠回答人們可以提出各種問題,甚至越古怪越好;科學家們正在訓練AI作曲、探索太空,以及執(zhí)行傳統(tǒng)上由人類完成的重復性任務(這讓很多人擔心他們的工作崗位會被替代)。
盡管取得了驚人的成果,但AI呈現(xiàn)出來的嚴重問題卻只是冰山一解。也許人們還沒有注意到,也許仍然處于敬畏的狀態(tài)。然而別無選擇,我們只能努力解決AI帶來的現(xiàn)實和道德困境。當AI帶來的奇跡和夢想開始消退時,人們不能忽視阻礙AI發(fā)展的七個“減速帶”。
1、資源稀缺
大多數(shù)大型AI模型依賴于大規(guī)模并行計算,這些計算可以通過GPU或TPU專用芯片來加速。充分發(fā)揮AI模型的潛力需要采用大量IT硬件,但成本高昂。
每家廠商及個人都希望采用更多的IT硬件,在過去的幾年,由于供不應求,芯片和IT硬件的成本飆升。更糟糕的是,越來越多的人正在使用云計算服務,導致云計算平臺容量擴展的速度難以滿足需求。
硬件并不是成功推出AI所需的唯一稀缺資源。運行大型AI模型還需要大量電力,但并不是每個國家或地區(qū)都能充分供應。在地緣政治沖突和主要采用可再生能源電力的地區(qū),能夠以可預測的價格獲得足夠的電力是一項挑戰(zhàn)。為了彌補損失,一些云計算提供商正在提高某些地區(qū)的云服務價格。
2、AI倫理
人類總是知道在某些場合避免爭論一些問題,然而AI需要學習如何在各種情況下處理此類問題。一些大型語言模型被編程為對提出的問題轉(zhuǎn)移話題或者拒絕回答,但一些用戶總是很執(zhí)著,當這樣的用戶注意到AI在回避一些棘手的問題,例如引發(fā)種族或性別偏見的問題時,他們會立即尋找繞過這些護欄的方法進行提問。
隨著時間的推移,AI數(shù)據(jù)偏差和數(shù)據(jù)不足是可以糾正的問題,但與此同時,惡作劇和濫用的可能性也是巨大的。雖然讓AI發(fā)表仇恨言論很糟糕,但當人們開始使用AI來探索現(xiàn)實生活決策的道德含義時,就會變得更加復雜。
3、AI勞動力待遇不平等
許多AI項目依靠人類的反饋來指導它們的學習。通常情況下,一個大規(guī)模的AI項目需要大量的人員來構(gòu)建訓練集,并隨著模型規(guī)模的增長調(diào)整大型語言模型的行為。對于許多項目來說,只有在貧窮國家向訓練人員支付更低工資的情況下,才能在經(jīng)濟效益上可行。
這引發(fā)了人們對于AI公平和公正的深入辯論,但沒有人能夠為開發(fā)大型AI項目找到經(jīng)濟可行的解決方案。正如寶石行業(yè)人士并不考慮從事采礦這一棘手而危險的工作一樣,AI行業(yè)也沒有簡單可行的勞動力成本解決方案。
4、糟糕的反饋循環(huán)
以虛假新聞和評論的形式出現(xiàn)的虛假信息已經(jīng)存在了一段時間,無論是處于政治考量還是獲取利潤目的,虛假信息總有市場生存空間。然而阻止不良行為者的AI算法異常復雜,需要大量維護,大模型供應商不見得會花大力氣來解決這個問題。
可以想象一下,當AI開始被用來制造虛假信息時會發(fā)生什么情況:一方面,虛假信息的數(shù)量將呈指數(shù)級增長;另一方面,有的AI系統(tǒng)很有可能會選擇假信息并將其反饋到訓練語料庫中。如此,病毒式傳播的錯誤信息將會對人們的社交網(wǎng)絡帶來不利影響,糟糕的反饋循環(huán)可能會破壞知識和信息。
5、法律法規(guī)
AI通過復制大量的文本和圖像來學習它們所知道的一切。在大多數(shù)情況下,創(chuàng)造這些數(shù)據(jù)的人類從未被告知,他們的成果可能被價值數(shù)十億美元的AI模型所盜用。
當這些人的工作被AI取代時會發(fā)生什么?他們可能去找律師處理許可、版權(quán)和剽竊知識的問題。人們可能會通過訓練AI學習相關(guān)的判例法規(guī),但是,可以在幾毫秒內(nèi)做出裁決的AI法官要比一個需要數(shù)年時間權(quán)衡問題的人類法官更可怕。
還有另外一種場景:當AI錯誤地評價某一歷史事件或當今流行文化時,可能只會令人反感,但不會直接傷害到任何人。但是當AI說出一些貶損某人的話時,實際上成為了一種誹謗。很容易想象,如果AI誹謗某人時,假設這個人雇傭律師進行訴訟,那么AI本身需承擔責任嗎?還是擁有它的公司承擔責任?
6、死亡與毀滅
現(xiàn)在好像并沒有顯著的例子表明,被壞人利用的AI就像科幻電影中的惡棍那樣邪惡。眾所周知,自動駕駛汽車和工廠的機器會犯錯,但到目前為止,似乎還沒有惡意事件發(fā)生。然而對于AI來說,人們似乎還不知道如何解釋它造成嚴重傷害或死亡的可能性,以至于AI威脅論始終縈繞在人們的耳邊。
7、期望值過高
人們通常認為AI的思維方式可能和人類一樣,但這可能是錯誤的。真正的問題是,AI具有截然不同的智能形式,還沒有被人們理解。作為一個新物種,人們對AI的獨特優(yōu)勢和劣勢還有很多需要了解的地方。
與此同時,AI也被人們的樂觀情緒所炒作和鼓舞,以至于它永遠無法實現(xiàn)人們的夢想。只要是人們的想法和希望超越現(xiàn)實,那么AI領(lǐng)域的發(fā)展注定會讓人失望,這可能會極大地阻礙AI的持續(xù)發(fā)展。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )