極客網(wǎng)·極客觀察2月16日 經(jīng)過科技人員幾十年的不懈努力,現(xiàn)實世界中的人工智能現(xiàn)在終于達到了一個臨界點。ChatGPT和DALL-E這樣的AI模型的驚人表現(xiàn),讓很多人感受到越來越聰明的AI系統(tǒng)正在趕超人類。
【專題:ChatGPT引爆生成式AI 人工智能產(chǎn)業(yè)如何生變?】
生成式AI的功能如此多樣和獨特,以至于人們很難相信它們來自機器。但是一旦奇跡感消退,生成式AI的明星效應(yīng)也會消失。AI在一些應(yīng)用中也顯示了其場景感知或常識的局限性, 如今也有很多人正在關(guān)注或擔心生成式AI的缺點或缺陷。
以下是人們所擔心的生成式AI的10個缺點或缺陷。
1.抄襲內(nèi)容
當研究人員創(chuàng)建DALL-E和ChatGPT等生成式AI模型時,這些實際上只是從訓練集中的數(shù)百萬個示例中創(chuàng)建的新模式。其結(jié)果是從各種數(shù)據(jù)來源提取的剪切粘貼合成的,而人類這種行為被稱為“抄襲”。
當然,人類也是通過模仿來學習的,但在某些情況下,這種抄襲并不可取,甚至違法。而生成式AI生成的內(nèi)容由大量文本組成,或多或少抄襲了一些內(nèi)容。然而,有時其中涉及到足夠多的混合或合成,即使是大學教授也可能難以檢測到真實來源。無論怎樣,其生成的內(nèi)容缺少的是獨特性。盡管它們看上去功能強大,但并不能生產(chǎn)出真正的創(chuàng)新產(chǎn)品。
2.版權(quán)問題
雖然抄襲是學校盡力避免的問題,但版權(quán)法適用于市場。當某人竊取他人的知識產(chǎn)權(quán)或工作成果時,那么可能會被人起訴,或者會被處以數(shù)百萬美元的罰款。但是AI系統(tǒng)呢?同樣的規(guī)則適用于它們嗎?
版權(quán)是一個復雜的主題,生成式AI的法律地位將需要數(shù)年時間才能確定。但需要記住的是,當AI開始取代人類的一些工作的時間,那么就會有人根據(jù)版權(quán)法規(guī)提起訴訟。
3. 無償獲取人類的勞動
生成式AI引發(fā)的法律問題不僅僅是抄襲和侵犯版權(quán),一些律師已經(jīng)AI引發(fā)的道德發(fā)起訴訟。例如,一家制作繪圖程序的公司是否收集有關(guān)用戶繪圖行為的數(shù)據(jù),然后將這些數(shù)據(jù)用于AI培訓目的?人類是否應(yīng)該為這種創(chuàng)造性勞動的使用獲得補償?AI的成功很大程度上源于對數(shù)據(jù)的訪問。那么,生成數(shù)據(jù)的人類想要從中獲利會發(fā)生什么呢?那么什么是公平的?什么是合法的?
4.利用信息而不創(chuàng)造知識
AI擅長模仿人類需要數(shù)年才能發(fā)展出來的那種智能。當一位人類學者介紹一位不知名的17世紀藝術(shù)家,或者一名藝術(shù)家用一種幾乎被人遺忘的文藝復興時期的音調(diào)創(chuàng)作出新的音樂時,人們對他們具有高深的知識和技能感到欽佩,因為這需要多年的學習和練習。當AI只經(jīng)過幾個月的訓練就能做同樣的事情時,其結(jié)果可能會非常精確和正確,但總是感覺缺少了什么。
訓練有素的AI系統(tǒng)機器通過獲取大量信息了解某一事物,甚至可以破譯瑪雅象形文字。AI似乎在模仿人類創(chuàng)造力中有趣和不可預測的一面,但它們并不能真正做到這一點。與此同時,不可預測性是創(chuàng)造性創(chuàng)新的驅(qū)動力。像時尚行業(yè)不僅沉迷于變化,而且被變化所定義。事實上,AI和人類都有各自擅長的領(lǐng)域。
5.智能增長受限
說到智能,AI本質(zhì)上是機械的和基于規(guī)則的。一旦AI系統(tǒng)通過一組數(shù)據(jù)進行訓練,就會創(chuàng)建了一個模型,而這個模型并沒有真正改變。一些工程師和數(shù)據(jù)科學家設(shè)想,隨著時間的推移,逐步重新訓練AI模型,這樣AI就能學會適應(yīng)。
但是,在大多數(shù)情況下,這個想法是創(chuàng)建一組復雜的神經(jīng)元,以固定的形式編碼特定的知識。這可能適用于某些行業(yè)。AI的危險在于,其智能增長將永遠被其訓練數(shù)據(jù)的局限性所困。當人類變得依賴生成式AI,以至于無法再為訓練模型提供新的材料時,將會發(fā)生什么?
6.隱私和安全性有待提高
AI的訓練需要大量數(shù)據(jù),人類并不總是那么確定神經(jīng)網(wǎng)絡(luò)的結(jié)果是什么。如果AI從訓練數(shù)據(jù)中泄露個人信息怎么辦?更糟糕的是,控制AI要困難得多,因為它們的設(shè)計非常靈活。關(guān)系數(shù)據(jù)庫可以限制對具有個人信息的特定表的訪問。然而,AI可以通過數(shù)十種不同的方式進行查詢。
網(wǎng)絡(luò)攻擊者將很快學會如何以正確的方式提出正確的問題,以獲取他們想要的敏感數(shù)據(jù)。假設(shè)網(wǎng)絡(luò)攻擊者鎖定了某一特定設(shè)施的緯度和經(jīng)度,可能會詢問AI系統(tǒng)那個地點的確切時間,而盡職的AI系統(tǒng)可能會回答這個問題。因此,如何訓練AI保護隱私數(shù)據(jù)也是一件困難的事情。
7.產(chǎn)生偏見
即使是早期的大型機程序員也理解計算機問題的核心,他們創(chuàng)造了“垃圾輸入,垃圾輸出”(GIGO)這一概念。AI的許多問題來自于糟糕的訓練數(shù)據(jù)。如果數(shù)據(jù)集不準確或有偏見,就會反映在其輸出結(jié)果中。
生成式AI的核心硬件由邏輯驅(qū)動,但建造和訓練機器的人類卻不是。偏見和錯誤已經(jīng)被證明可以進入AI模型。也許有人使用了有偏見的數(shù)據(jù)來創(chuàng)建模型,也許他們只是覆蓋了防止AI回答特定的熱點問題,也許他們輸入了一些固定的答案,而這些將讓AI系統(tǒng)產(chǎn)生偏見。
8. AI也會犯錯
人們很容易原諒AI模型犯的錯誤,因為它們在很多其他事情上都做得很好,只是許多錯誤很難預測,因為AI的思維方式與人類不同。例如,許多使用文本轉(zhuǎn)圖像功能的用戶發(fā)現(xiàn),AI在相當簡單的事情上都會犯錯,例如計數(shù)。
人類從小學就開始學習基本的算術(shù),然后用各種各樣的方式使用這項技能。例如讓一名10歲的孩子畫一只章魚,他通常會確定它有8條腿。當涉及到數(shù)學的抽象和場景應(yīng)用時,當前版本的AI模型往往會陷入困境。如果模型構(gòu)建者對這個錯誤給予一定的關(guān)注,這種情況很容易改變,但還會有其他錯誤。機器智能不同于人類智能,這意味著機器犯的錯誤也會有所不同。
9.欺騙人類
有時,人類往往會在沒有意識到錯誤的情況下被AI系統(tǒng)所欺騙。例如,如果AI告訴人類,英國國王亨利八世殺死了他妻子,他們通常會相信,因為他們也可能不了解這段歷史。人們往往假設(shè)AI提供的答案是真實和正確的。
對于生成式AI的用戶來說,最棘手的問題是知道AI系統(tǒng)何時出錯。人們認為,機器不會像人類那樣撒謊,這讓它們變得更加危險。AI系統(tǒng)可以寫出一些完全準確的數(shù)據(jù),然后轉(zhuǎn)向猜測,甚至變成謊言,而人類通常不知道發(fā)生了什么。二手車經(jīng)銷商或撲克玩家往往知道他們什么時候在撒謊,而且大多數(shù)人都會說出在哪里撒謊,但AI不能做到這一點。
10.無限的復制性
數(shù)字內(nèi)容具有無限的復制性,這讓許多圍繞稀缺性建立的AI模型不堪重負。生成式AI將進一步打破這些模式。生成式AI將會讓一些作家和藝術(shù)家失業(yè),它還顛覆了人們遵循的許多經(jīng)濟規(guī)則。
當廣告和內(nèi)容可以不斷地重新組合和更新時,廣告支持的內(nèi)容還會有效嗎?互聯(lián)網(wǎng)的免費部分是否會陷入“機器人點擊網(wǎng)頁廣告”的世界,而所有這些都是由生成式AI生成的并且無限復制的?
無限豐富性可能會破壞數(shù)字經(jīng)濟。例如,如果不可替代的代幣可以被復制,人們還會繼續(xù)為它們付費嗎?如果藝術(shù)創(chuàng)作如此簡單,它還會受到尊重嗎?它還會是獨特的嗎?當一切都被視為理所當然時,一切都會失去價值嗎?
不要試圖自己回答這些問題,可以向生成式AI尋求一個有趣而奇怪的答案。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- MIT想用AI設(shè)計電動汽車,大幅縮短設(shè)計時間并節(jié)省成本
- 美媒:一些中國大模型已經(jīng)追平甚至超越美國產(chǎn)品
- 透過這場開發(fā)者圈的“年度盛典”,窺見華為開發(fā)者生態(tài)構(gòu)建之道
- 谷歌Willow量子芯片有進步 但離實用還很遙遠
- LLM很難變成AGI?科學家:創(chuàng)造AGI理論上可行
- PON在園區(qū)網(wǎng)絡(luò)的“先天不足”,無源以太全光來拯救!
- 英特爾CEO黯然退場背后:芯片制造陷泥潭,AI起大早趕晚集
- 開源5年樹立新里程 openEuler以智能 致世界
- 華為推出Mate 70手機引發(fā)高度關(guān)注 看外媒是如何評價的?
- 5G-A終端規(guī)模鋪開響應(yīng)“以舊換新”,湖北移動“機網(wǎng)套”協(xié)同刺激內(nèi)需
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。