如何管理企業(yè)中的生成式人工智能安全風(fēng)險(xiǎn)

ChatGPT推出后,生成式人工智能模型的迅速采用,有望從根本上改變企業(yè)開(kāi)展業(yè)務(wù),以及與客戶(hù)和供應(yīng)商互動(dòng)的方式。

生成式人工智能可以支持廣泛的業(yè)務(wù)需求,例如編寫(xiě)營(yíng)銷(xiāo)內(nèi)容、改善客戶(hù)服務(wù)、生成軟件應(yīng)用源代碼以及生成業(yè)務(wù)報(bào)告。生成式人工智能工具的眾多好處,尤其是降低成本以及提高工作速度和質(zhì)量,鼓勵(lì)企業(yè)和個(gè)人在工作中測(cè)試這些工具的功能。

然而,與任何新興技術(shù)一樣,快速實(shí)施可能存在風(fēng)險(xiǎn),為威脅行為者利用企業(yè)的漏洞打開(kāi)了大門(mén)。在當(dāng)今復(fù)雜的IT威脅環(huán)境中,未經(jīng)仔細(xì)考慮就使用生成人工智能工具,可能會(huì)給企業(yè)帶來(lái)災(zāi)難性的后果。

與在企業(yè)環(huán)境中使用生成式人工智能相關(guān)的安全風(fēng)險(xiǎn)

了解在企業(yè)環(huán)境中使用生成式人工智能的潛在風(fēng)險(xiǎn)對(duì)于從該技術(shù)中受益、同時(shí)保持監(jiān)管合規(guī)性和避免安全漏洞至關(guān)重要。在規(guī)劃生成式AI部署時(shí),請(qǐng)牢記以下風(fēng)險(xiǎn)。

1.員工暴露敏感工作信息

在企業(yè)環(huán)境中,用戶(hù)應(yīng)該謹(jǐn)慎對(duì)待與他人共享的任何數(shù)據(jù),包括ChatGPT和其他人工智能聊天機(jī)器人。

最近最引人注目的事件是,三星員工將敏感信息與ChatGPT共享而導(dǎo)致的數(shù)據(jù)泄露。三星的工程師將機(jī)密源代碼上傳到ChatGPT模型,此外還使用該服務(wù)創(chuàng)建會(huì)議記錄和匯總包含敏感工作相關(guān)信息的商業(yè)報(bào)告。

三星案件只是向人工智能聊天機(jī)器人,泄露敏感信息的廣為人知的例子之一。許多其他使用生成式人工智能工具的公司和員工,可能會(huì)因泄露敏感工作信息而犯類(lèi)似的錯(cuò)誤,例如內(nèi)部代碼、版權(quán)材料、商業(yè)秘密、個(gè)人身份信息(PII)和機(jī)密商業(yè)信息。

OpenAI針對(duì)ChatGPT的標(biāo)準(zhǔn)政策是將用戶(hù)記錄保留30天,以監(jiān)控可能的濫用情況,即使用戶(hù)選擇關(guān)閉聊天歷史記錄也是如此。對(duì)于將ChatGPT集成到其業(yè)務(wù)流程中的企業(yè)來(lái)說(shuō),這意味著員工的ChatGPT帳戶(hù)可能包含敏感信息。因此,成功入侵員工ChatGPT帳戶(hù)的威脅行為者,可能會(huì)訪(fǎng)問(wèn)這些用戶(hù)的查詢(xún)和人工智能響應(yīng)中,包含的任何敏感數(shù)據(jù)。

2.人工智能工具中的安全漏洞

與任何其他軟件一樣,生成式人工智能工具本身也可能存在漏洞,使企業(yè)面臨網(wǎng)絡(luò)威脅。

例如,3月份,OpenAI將ChatGPT下線(xiàn),以修復(fù)聊天機(jī)器人開(kāi)源庫(kù)中的一個(gè)錯(cuò)誤,該漏洞使一些用戶(hù)能夠從另一個(gè)活躍用戶(hù)的聊天歷史中看到聊天標(biāo)題。如果兩個(gè)用戶(hù)在同一時(shí)間處于活動(dòng)狀態(tài),也可以在其他人的聊天記錄中看到新創(chuàng)建對(duì)話(huà)的第一條消息。

此外,同樣的漏洞還泄露了在特定時(shí)間段內(nèi)活躍的1.2%的ChatGPTPlus用戶(hù)的支付相關(guān)信息,包括客戶(hù)的姓名、電子郵件地址和信用卡號(hào)碼的最后四位數(shù)字。

3.數(shù)據(jù)中毒和盜竊

生成式人工智能工具必須輸入大量數(shù)據(jù)才能正常工作。這些培訓(xùn)數(shù)據(jù)來(lái)自各種來(lái)源,其中許多數(shù)據(jù)可以在互聯(lián)網(wǎng)上公開(kāi)獲取,并且在某些情況下,可能包括企業(yè)之前與客戶(hù)的互動(dòng)。

在數(shù)據(jù)中毒攻擊中,威脅行為者可以操縱人工智能模型開(kāi)發(fā)的預(yù)訓(xùn)練階段。通過(guò)向訓(xùn)練數(shù)據(jù)集中注入惡意信息,攻擊者可以影響模型的預(yù)測(cè)行為,從而導(dǎo)致錯(cuò)誤或其他有害的響應(yīng)。

另一個(gè)與數(shù)據(jù)相關(guān)的風(fēng)險(xiǎn)涉及威脅行為者,竊取用于訓(xùn)練生成人工智能模型的數(shù)據(jù)集。如果沒(méi)有足夠的數(shù)據(jù)訪(fǎng)問(wèn)加密和控制,模型訓(xùn)練數(shù)據(jù)中包含的任何敏感信息,都可能對(duì)獲取數(shù)據(jù)集的攻擊者可見(jiàn)。

4.違反合規(guī)義務(wù)

在企業(yè)環(huán)境中使用人工智能驅(qū)動(dòng)的聊天機(jī)器人時(shí),IT領(lǐng)導(dǎo)者應(yīng)評(píng)估以下與違反相關(guān)法規(guī)相關(guān)的風(fēng)險(xiǎn):

不正確的響應(yīng)

人工智能工具有時(shí)會(huì)給出錯(cuò)誤或膚淺的答案。使顧客接觸到誤導(dǎo)性的信息,除了對(duì)企業(yè)的聲譽(yù)產(chǎn)生負(fù)面影響外,還可能引起法律責(zé)任。

數(shù)據(jù)泄露

員工可以在與人工智能聊天機(jī)器人對(duì)話(huà)期間,共享敏感的工作信息,包括客戶(hù)的個(gè)人身份信息或受保護(hù)的健康信息(PHI)。這反過(guò)來(lái)又可能違反GDPR、PCIDSS和HIPAA等監(jiān)管標(biāo)準(zhǔn),面臨罰款和法律訴訟的風(fēng)險(xiǎn)。

偏見(jiàn)

人工智能模型的反應(yīng)有時(shí)會(huì)表現(xiàn)出基于種族、性別或其他受保護(hù)特征的偏見(jiàn),這可能違反反歧視法。

違反知識(shí)產(chǎn)權(quán)和版權(quán)法

人工智能驅(qū)動(dòng)的工具經(jīng)過(guò)大量數(shù)據(jù)的訓(xùn)練,通常無(wú)法準(zhǔn)確地提供其響應(yīng)的特定來(lái)源。其中一些培訓(xùn)數(shù)據(jù)可能包括受版權(quán)保護(hù)的材料,例如書(shū)籍、雜志和學(xué)術(shù)期刊。在沒(méi)有引用的情況下,使用基于受版權(quán)保護(hù)的作品的人工智能輸出,可能會(huì)讓企業(yè)受到法律罰款。

關(guān)于聊天機(jī)器人使用的法律

許多企業(yè)已經(jīng)開(kāi)始將ChatGPT和其他生成式人工智能工具,集成到他們的應(yīng)用中,其中一些企業(yè)使用人工智能驅(qū)動(dòng)的聊天機(jī)器人,來(lái)立即回答客戶(hù)的詢(xún)問(wèn)。但在不提前告知客戶(hù)的情況下這樣做,可能會(huì)受到機(jī)器人信息披露法等法規(guī)的處罰。

數(shù)據(jù)隱私

一些企業(yè)可能想要開(kāi)發(fā)自己的生成式人工智能模型,這個(gè)過(guò)程可能需要收集大量的訓(xùn)練數(shù)據(jù)。如果威脅行為者成功破壞企業(yè)IT基礎(chǔ)設(shè)施,并獲得對(duì)訓(xùn)練數(shù)據(jù)的未經(jīng)授權(quán)的訪(fǎng)問(wèn),則受損數(shù)據(jù)集中包含的敏感信息的暴露,可能會(huì)違反數(shù)據(jù)隱私法。

生成人工智能的關(guān)鍵業(yè)務(wù)挑戰(zhàn)影響人員、流程和技術(shù)。除了安全性之外,生成式人工智能還帶來(lái)了算法偏差、幻覺(jué)和技術(shù)復(fù)雜性等挑戰(zhàn)。

在企業(yè)中使用生成式AI工具時(shí)的安全最佳實(shí)踐

為了解決與生成人工智能相關(guān)的眾多安全風(fēng)險(xiǎn),企業(yè)在實(shí)施生成人工智能工具時(shí)應(yīng)牢記以下策略。

1.在構(gòu)建或集成生成式人工智能之前對(duì)數(shù)據(jù)進(jìn)行分類(lèi)、匿名和加密

企業(yè)應(yīng)該對(duì)數(shù)據(jù)進(jìn)行分類(lèi),然后再將其輸入聊天機(jī)器人或使用它來(lái)訓(xùn)練生成式人工智能模型。確定哪些數(shù)據(jù)對(duì)于這些用例是可接受的,并且不與AI系統(tǒng)共享任何其他信息。

同樣,對(duì)訓(xùn)練數(shù)據(jù)集中的敏感數(shù)據(jù)進(jìn)行匿名化,以避免泄露敏感信息。加密人工智能模型的數(shù)據(jù)集及其所有連接,并通過(guò)強(qiáng)大的安全策略和控制保護(hù)企業(yè)最敏感的數(shù)據(jù)。

2.對(duì)員工進(jìn)行生成式人工智能安全風(fēng)險(xiǎn)培訓(xùn),并制定內(nèi)部使用政策

員工培訓(xùn)是降低生成式人工智能相關(guān)網(wǎng)絡(luò)攻擊風(fēng)險(xiǎn)的最重要的保護(hù)措施。為了負(fù)責(zé)任地實(shí)施生成式人工智能,企業(yè)必須讓員工了解與使用該技術(shù)相關(guān)的風(fēng)險(xiǎn)。

企業(yè)可以通過(guò)制定安全和可接受的使用政策,來(lái)制定工作中生成式人工智能的使用指南。盡管具體情況因企業(yè)而異,但一般的最佳實(shí)踐是需要人工監(jiān)督。不要自動(dòng)信任人工智能生成的內(nèi)容;人類(lèi)應(yīng)該審查和編輯人工智能工具創(chuàng)建的所有內(nèi)容。

人工智能的使用和安全策略還應(yīng)該明確指出,在對(duì)聊天機(jī)器人的查詢(xún)中可以包含哪些數(shù)據(jù),哪些數(shù)據(jù)是不允許的。例如,開(kāi)發(fā)者不應(yīng)該將知識(shí)產(chǎn)權(quán)、版權(quán)材料、PII或PHI添加到AI工具中。

3.為安全提供生成式人工智能工具

針對(duì)生成式人工智能工具進(jìn)行安全審計(jì)和定期滲透測(cè)試,以便在將其部署到生產(chǎn)環(huán)境之前識(shí)別安全漏洞。

安全團(tuán)隊(duì)還可以通過(guò)向人工智能工具,提供網(wǎng)絡(luò)攻擊示例來(lái)訓(xùn)練人工智能工具識(shí)別和抵御攻擊嘗試。這降低了黑客成功利用企業(yè)人工智能系統(tǒng)的可能性。

4.管理員工對(duì)敏感工作數(shù)據(jù)的訪(fǎng)問(wèn)

在企業(yè)環(huán)境中應(yīng)用最小權(quán)限原則,僅允許授權(quán)人員訪(fǎng)問(wèn)AI訓(xùn)練數(shù)據(jù)集和底層IT基礎(chǔ)設(shè)施。

使用身份和訪(fǎng)問(wèn)管理工具可以幫助集中和控制員工的訪(fǎng)問(wèn)憑證和權(quán)限。同樣,實(shí)施多因素身份驗(yàn)證,可以幫助保護(hù)人工智能系統(tǒng)和數(shù)據(jù)訪(fǎng)問(wèn)。

5.確保底層網(wǎng)絡(luò)和基礎(chǔ)設(shè)施安全

在專(zhuān)用網(wǎng)段上部署AI系統(tǒng)。使用單獨(dú)的網(wǎng)段,限制對(duì)主機(jī)AI工具的訪(fǎng)問(wèn),可以增強(qiáng)安全性和可用性。

對(duì)于在云中托管人工智能工具的企業(yè),請(qǐng)選擇一家信譽(yù)良好的云提供商,該提供商實(shí)施嚴(yán)格的安全控制并具有有效的合規(guī)性認(rèn)證,確保與云基礎(chǔ)設(shè)施的所有連接均已加密。

6.密切關(guān)注遵從性需求,包括定期審核供應(yīng)商

合規(guī)性法規(guī)在不斷發(fā)展,隨著企業(yè)人工智能采用的增加,組織可能會(huì)看到更多與生成式人工智能技術(shù)相關(guān)的合規(guī)性要求。

企業(yè)應(yīng)密切關(guān)注影響其行業(yè)的合規(guī)法規(guī),以了解與人工智能系統(tǒng)使用相關(guān)的任何變化。作為此過(guò)程的一部分,當(dāng)使用第三方供應(yīng)商的人工智能工具時(shí),請(qǐng)定期檢查供應(yīng)商的安全控制和漏洞評(píng)估。這有助于確保供應(yīng)商系統(tǒng)中的任何安全漏洞不會(huì)滲透到企業(yè)的IT環(huán)境中。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2023-08-08
如何管理企業(yè)中的生成式人工智能安全風(fēng)險(xiǎn)
生成式人工智能可以支持廣泛的業(yè)務(wù)需求,例如編寫(xiě)營(yíng)銷(xiāo)內(nèi)容、改善客戶(hù)服務(wù)、生成軟件應(yīng)用源代碼以及生成業(yè)務(wù)報(bào)告。生成式人工智能工具的眾多好處,尤其是降低成本以及提高工作速度和質(zhì)量,鼓勵(lì)企業(yè)和個(gè)人在工作中測(cè)試這些工具的功能。

長(zhǎng)按掃碼 閱讀全文