文丨劉興亮
來源:人民網(wǎng)-觀點頻道
責編丨趙春曉、曲源
隨著人工智能技術的突破,特別是DeepSeek等智能大模型的崛起,AI已逐步融入人們的日常生活與工作。然而,AI技術在帶來便利的同時,也催生了一系列社會問題,例如論文造假、換臉欺詐等違規(guī)行為。這些問題可能加劇虛假信息的傳播,甚至對社會穩(wěn)定造成威脅。
針對這一現(xiàn)象,全國人大代表李東生提出建議,應對人工智能生成的內(nèi)容進行強制標識,以減少惡意濫用。他倡導加快出臺相關法規(guī),明確懲戒措施,并加強國際合作,以促進AI技術的健康發(fā)展。
任何新興技術在早期發(fā)展階段都會經(jīng)歷一定程度的無序擴張,而當負面影響逐漸顯現(xiàn),適度監(jiān)管便成為必要手段。對人工智能生成內(nèi)容進行強制標識是一項具有現(xiàn)實必要性的措施,不僅符合當前社會治理需求,也有助于未來行業(yè)的健康發(fā)展。
強制標識AI內(nèi)容,可促進行業(yè)規(guī)范化。強制標識機制將推動技術企業(yè)更加重視算法的安全性和倫理責任,促使行業(yè)向更加規(guī)范、有序的方向發(fā)展。哪些生成的內(nèi)容是錯的,需要懲罰的,應詳細明確。中立的內(nèi)容被非法利用如何處置,都需要有應對方法。
強制標識AI內(nèi)容,可增強信息透明度。通過明確標識AI生成內(nèi)容,公眾能夠更理性地辨別信息來源,減少因誤信虛假內(nèi)容而受騙的風險。
強制標識AI內(nèi)容,可提高社會安全性。監(jiān)管部門可以通過標識機制更容易追溯問題內(nèi)容的來源,明確責任歸屬,并強化法律約束,防止AI技術被濫用于欺詐、造謠等不當用途。
但強制標識AI生成內(nèi)容在實際落地過程中仍然面臨不少挑戰(zhàn)。
第一,如何確保標識不被篡改或移除仍是難點。目前,AI生成內(nèi)容的標識可通過水印、元數(shù)據(jù)嵌入、隱形編碼等技術實現(xiàn),如果標識易被去除,則其監(jiān)管效果將大打折扣。
第二,如何跨模型統(tǒng)一標識標準。AI模型的架構和生成方式各不相同,確保不同模型間的互認,是一個需要解決的重要問題。
第三,如何權衡性能與效率,存在挑戰(zhàn)。強制標識需要額外的計算和存儲資源,可能造成企業(yè)成本增加。尤其在AI直播、AI語音通話等實時場景下,如何嵌入標識而不影響生成速度和質(zhì)量,是技術上的另一大挑戰(zhàn)。
在實際推進強制標識AI生成內(nèi)容過程中,還需充分考慮技術可行性、行業(yè)承受能力以及監(jiān)管執(zhí)行效率,確保標識機制既能保障透明度,又不影響技術創(chuàng)新。比如,建立一個動態(tài)調(diào)整的監(jiān)管體系,通過不斷探索和優(yōu)化,最終形成符合社會、行業(yè)及技術發(fā)展需求的可持續(xù)監(jiān)管模式。
首發(fā)平臺:人民網(wǎng)
▼
免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關。文章僅供讀者參考,并請自行核實相關內(nèi)容。投訴郵箱:editor@fromgeek.com。
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。