IEEE:生成式人工智能的下一步是什么?

近年來,隨著 ChatGPT 等多個聊天機器人進入公共領域,生成式人工智能風靡全球。聊天機器人以近乎神奇的速度生成類似人類的文本 - 以莎士比亞的風格寫十四行詩,在多種語言之間翻譯文本,編寫計算機代碼等等。

企業(yè)和商業(yè)專家立即看到了潛在的好處。但最近幾個月,人們對生成式人工智能的質疑日益增多。批評者表示,生成式人工智能的能力被夸大了?;糜X,也就是生成式人工智能模型可能產(chǎn)生的虛假陳述,降低了它的實用性,許多企業(yè)尚未找到使用這些工具的理想策略。盡管 ChatGPT 是有史以來增長最快的應用程序之一,但經(jīng)常使用它的人比例仍然相當?shù)汀?/p>

在IEEE最新發(fā)布的“ 2025 年及以后技術的影響:IEEE 全球研究”中,91% 的受訪者同意“到 2025 年,隨著公眾的興趣和看法轉變?yōu)閷@項技術可以和應該做什么的更深入的理解和期望,將出現(xiàn)生成性人工智能清算,比如在結果的準確性、深度偽造的透明度等方面。”

但調查結果并不認為生成式人工智能會遭遇持久的阻礙。絕大多數(shù)人 (91%) 也同意“到 2025 年,生成式人工智能的創(chuàng)新、探索和采用將繼續(xù)以閃電般的速度發(fā)展。”

那么,2025 年生成式人工智能將迎來什么?產(chǎn)品路線圖是什么?它們將對我們的工作和生活方式產(chǎn)生什么影響?

更多多模式功能

IEEE 高級會員林道莊預計,未來幾年,生成式 AI 模型將使從短文本片段生成圖像和視頻變得更加容易。文本轉圖像、文本轉視頻和語音合成將得到改進,模型將在各種輸入之間實現(xiàn)更好的上下文理解。

“第一步是多模式的深度融合,為消費者甚至專業(yè)內容創(chuàng)作者創(chuàng)造更復雜、更詳細、更準確、更自洽的內容。”林道莊表示。

消除準確性和偏差

對幻覺、準確性和偏見的擔憂也減緩了生成式人工智能模型的采用。當模型在有偏見的數(shù)據(jù)上進行訓練時,偏見可能會悄然出現(xiàn)。一些圖像生成模型可能會表現(xiàn)出對某一種族的人的偏好。

林道莊還表示,“模型開發(fā)者需要關注如何消除人工智能在消費者數(shù)據(jù)訓練過程中產(chǎn)生的偏見和道德問題,引導用戶走向更普遍、更持久的價值觀,引導模型變得更加‘善良’,這很重要。”

改進的上下文窗口

模型面臨的一個限制是它們在提示中一次可以處理的信息量。這稱為上下文窗口或上下文大小。例如,想象一下,您需要輸入一個非常長的提示(或描述)來嘗試生成圖像。在某些時候,生成式 AI 模型將無法處理整個提示。輸出將僅反映提示的一部分,從而忽略潛在的重要信息。

在另一個場景中,你可能需要與模型討論一個較長的文檔。隨著對話的進行,模型可能會忘記對話的早期部分。

改進上下文窗口將允許生成式人工智能模型處理更復雜的任務,并提高其響應的連貫性。

IEEE 研究生成員Hector Azpurua表示:“生成式人工智能所能做的事情尚未達到極限;我們還沒有達到這項技術的頂峰。”

(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )