谷歌Bard也有泄密風(fēng)險(xiǎn)?母公司Alphabet已告知員工避免輸入機(jī)密信息

6月16日消息,據(jù)外媒報(bào)道,在OpenAI訓(xùn)練的人工智能聊天機(jī)器人ChatGPT大火之后,多家公司在開發(fā)類似的產(chǎn)品,也有不少公司將ChatGPT等人工智能工具引入到了他們的服務(wù)或工作中。

ChatGPT等人工智能工具在為相關(guān)的服務(wù)或產(chǎn)品帶來(lái)全新功能、為工作帶來(lái)便利的同時(shí),泄密也成了他們不得不重視的問(wèn)題,三星電子半導(dǎo)體業(yè)務(wù)部門的員工在使用ChatGPT時(shí)就導(dǎo)致部分源代碼泄漏,三星隨后也禁止員工在工作場(chǎng)所使用ChatGPT等生成式人工智能聊天工具。

而從外媒最新的報(bào)道來(lái)看,作為ChatGPT競(jìng)品的谷歌Bard,也有類似的泄密風(fēng)險(xiǎn)。

外媒援引消息人士的透露報(bào)道稱,谷歌母公司Alphabet已告知員工,不要將機(jī)密信息輸入人工智能聊天機(jī)器人,并警告員工包括自家Bard在內(nèi)的人工智能工具的風(fēng)險(xiǎn)。

除了不要將機(jī)密信息輸入人工智能聊天機(jī)器人,Alphabet還建議工程師不要直接使用人工智能聊天機(jī)器人生成的代碼。

此外,從外媒的報(bào)道來(lái)看,谷歌方面似乎很早就有信息泄密方面的擔(dān)憂,在今年2月份,也就是Bard人工智能聊天機(jī)器人還在內(nèi)部測(cè)試時(shí),谷歌就已告知參與測(cè)試的員工,在正式發(fā)布之前不要輸入內(nèi)部信息。

作為在ChatGPT大火之后盡全力推出的競(jìng)品,Bard對(duì)谷歌多項(xiàng)業(yè)務(wù)的未來(lái)發(fā)展至關(guān)重要,他們目前正在全球超過(guò)180個(gè)國(guó)家以40種語(yǔ)言推廣。

隨著ChatGPT、谷歌Bard等人工智能工具的不斷強(qiáng)大,使用這些工具的人群也在不斷壯大,也有大量的公司員工在工作時(shí)使用,這也就增加了公司信息泄露的風(fēng)險(xiǎn)。相關(guān)機(jī)構(gòu)在1月份對(duì)12000人的調(diào)查就顯示,大約43%的專業(yè)人士在使用ChatGPT或其他人工智能工具時(shí),通常不會(huì)告知他們的老板。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2023-06-16
谷歌Bard也有泄密風(fēng)險(xiǎn)?母公司Alphabet已告知員工避免輸入機(jī)密信息
谷歌也曾告知參與測(cè)試的員工,在正式發(fā)布之前不要輸入內(nèi)部信息。

長(zhǎng)按掃碼 閱讀全文