隨著人工智能技術的迅猛發(fā)展,大模型已成為推動AI前進的關鍵驅動力。然而,對于企業(yè)而言,如何確保數(shù)據(jù)安全和隱私保護,成為了一個不可忽視的問題。
對此,某零售集團的技術負責人表示,他們現(xiàn)在實驗的AI大模型仍然局限在單店上,出于安全和權限的考慮,不敢給大模型喂更多的數(shù)據(jù)。企業(yè)的這種謹慎態(tài)度,正是出于對數(shù)據(jù)安全和隱私保護的深刻認識。
在推動AI大模型應用的過程中,獵戶星空深刻認識到,數(shù)據(jù)安全和隱私保護對于企業(yè)的重要性。有些內容不應該使用ChatGPT等公有大模型來制作,因為一旦機密泄漏,就會威脅到公司的安全。
例如用戶想要使用AI大模型時,就需要把自己的知識、數(shù)據(jù)先輸入給大模型。這樣,用戶會因此獲得大模型的幫助,大模型也會越來越聰明。但是,如果是像ChatGPT這樣的公有大模型,用戶的自己的數(shù)據(jù)也會被用來幫助同樣使用這一模型的競爭對手。
事實上,越來越多的業(yè)內人士已經意識到,由于企業(yè)級應用往往涉及專業(yè)場景和多人協(xié)同工作,所以更關注協(xié)同辦公場景和數(shù)據(jù)的私有性。對于那些擁有特別敏感且高價值數(shù)據(jù)的企業(yè)而言,更需要定制化或私有化AI大模型。正如中國移動汪恒江指出,“我們很多數(shù)據(jù)是一定需要私有化和個性化,不能公開,這是一定的,特別是在端側,我們手機里面、個人的家庭硬件里面有很多的隱私數(shù)據(jù)。”
對于那些從事工程報價軟件的公司而言,他們也絕對不愿意將報價信息提供給公有的大模型。同樣的情況也適用于半導體等公司,以及涉及醫(yī)療領域中的隱私數(shù)據(jù)和整車廠擁有大量汽車零配件BOM數(shù)據(jù)等。因為這些企業(yè)的數(shù)據(jù)都有很高的價值。
因此在許多領域中,僅僅依賴通用大型模型可能無法實現(xiàn)落地推進,特別是在企業(yè)的安全和金融、政務等方面。這些公司和組織要想踏上AI大潮,只能建立私有的模型。
傅盛指出,Open AI今天幾乎已經把互聯(lián)網上所有公開出版的數(shù)據(jù)都給讀取了。但互聯(lián)網再浩瀚也是人類知識體系的冰山一角。每一個公司的文檔都有自己的競爭力和特點。他強調,“企業(yè)要有持續(xù)的競爭力,就應該使用私有化大模型,讓經營數(shù)據(jù)內循環(huán),讓企業(yè)過去留在每個人腦海的經驗變成整個決策智能的一部分。”
不管如何,企業(yè)大模型的私有化是AI決策智能發(fā)展的必然趨勢。隨著企業(yè)對數(shù)據(jù)安全和隱私保護的需求日益增強,以及公有大模型的潛在風險逐漸顯現(xiàn),企業(yè)將更加傾向于建立私有的AI大模型。只有這樣,企業(yè)才能在AI大潮中保持持續(xù)的競爭力并實現(xiàn)可持續(xù)發(fā)展。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )