OpenAI證實(shí)AI寫(xiě)作檢測(cè)器無(wú)法區(qū)分AI和人類(lèi)

上周,OpenAI在一篇宣傳博客文章中為教育工作者提供了一些提示,展示了一些教師如何將ChatGPT作為教育輔助工具,并提供了一些建議性的提示。在相關(guān)的常見(jiàn)問(wèn)題解答中,他們也正式承認(rèn)了我們已經(jīng)知道的事實(shí):盡管經(jīng)常被用來(lái)懲罰學(xué)生的AI寫(xiě)作檢測(cè)器無(wú)法正常工作。

在常見(jiàn)問(wèn)題解答的一個(gè)部分中,OpenAI寫(xiě)道:“簡(jiǎn)而言之,不行。雖然一些(包括OpenAI在內(nèi))發(fā)布了聲稱(chēng)可以檢測(cè)AI生成內(nèi)容的工具,但這些工具都沒(méi)有可靠地區(qū)分AI生成和人類(lèi)生成的內(nèi)容?!?/p>

七月份,我們深入探討了為什么像GPTZero這樣的AI寫(xiě)作檢測(cè)器無(wú)法正常工作,專(zhuān)家稱(chēng)其為“大部分都是騙人的”。由于依賴(lài)未經(jīng)證實(shí)的檢測(cè)指標(biāo),這些檢測(cè)器經(jīng)常產(chǎn)生誤報(bào)。最終,AI寫(xiě)作文本并沒(méi)有什么特別之處總是能將其與人類(lèi)寫(xiě)作區(qū)分開(kāi)來(lái),而且檢測(cè)器可以通過(guò)改寫(xiě)來(lái)規(guī)避。同一個(gè)月,OpenAI停止了其AI分類(lèi)器,這是一個(gè)用于檢測(cè)AI寫(xiě)作文本的實(shí)驗(yàn)性工具。它的準(zhǔn)確率僅為26%。

OpenAI的新常見(jiàn)問(wèn)題解答還解決了另一個(gè)常見(jiàn)的誤解,即ChatGPT本身是否能夠知道文本是否為AI生成。OpenAI寫(xiě)道:“此外,ChatGPT無(wú)法‘知道’哪些內(nèi)容可能是AI生成的。它有時(shí)會(huì)對(duì)問(wèn)題做出編造的回答,比如‘你寫(xiě)的這篇文章嗎?’或‘這可能是由AI寫(xiě)的嗎?’這些回答是隨機(jī)的,沒(méi)有事實(shí)依據(jù)?!?/p>

在這方面,OpenAI還解釋了其AI模型傾向于虛構(gòu)錯(cuò)誤信息的特點(diǎn),我們?cè)贏rs上也進(jìn)行了詳細(xì)報(bào)道。公司寫(xiě)道:“有時(shí),ChatGPT聽(tīng)起來(lái)很有說(shuō)服力,但它可能會(huì)給出不正確或誤導(dǎo)性的信息(在文獻(xiàn)中通常稱(chēng)為‘幻覺(jué)’)。它甚至可以編造引語(yǔ)或引文,因此不要將其作為您研究的唯一來(lái)源?!?/p>

盡管自動(dòng)化的AI檢測(cè)器無(wú)法正常工作,但這并不意味著人類(lèi)永遠(yuǎn)無(wú)法檢測(cè)到AI寫(xiě)作。例如,熟悉學(xué)生典型寫(xiě)作風(fēng)格的教師可以察覺(jué)到他們的風(fēng)格或能力突然發(fā)生的變化。此外,一些將AI生成的作品冒充人類(lèi)寫(xiě)作的粗糙嘗試可能會(huì)留下明顯的痕跡,例如短語(yǔ)“作為一個(gè)AI語(yǔ)言模型”,這意味著有人在復(fù)制和粘貼ChatGPT的輸出時(shí)不夠小心。最近,科學(xué)期刊《自然》的一篇文章展示了人類(lèi)如何注意到科學(xué)論文中的短語(yǔ)“重新生成回應(yīng)”,這是ChatGPT中一個(gè)按鈕的標(biāo)簽。

就目前的技術(shù)而言,最安全的做法是完全避免使用自動(dòng)化的AI檢測(cè)工具。常見(jiàn)AI分析師和沃頓商學(xué)院教授Ethan Mollick在七月份告訴Ars:“AI檢測(cè)器的誤報(bào)率很高,因此不應(yīng)使用它們?!?/p>

本文譯自Ars Technica,由 BALI 編輯發(fā)布。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2023-09-14
OpenAI證實(shí)AI寫(xiě)作檢測(cè)器無(wú)法區(qū)分AI和人類(lèi)
上周,OpenAI在一篇宣傳博客文章中為教育工作者提供了一些提示,展示了一些教師如何將ChatGPT作為教育輔助工具,并提供了一些建議性的提示。

長(zhǎng)按掃碼 閱讀全文