今年以來,以ChatGPT為代表的人工智能通用大模型快速發(fā)展,隨之而來的是對AI安全風(fēng)險問題關(guān)注度的陡然提升。在近日召開的2023北京智源大會上,中外多位人工智能頂尖專家熱議AI安全倫理和風(fēng)險防范問題。
OpenAI聯(lián)合創(chuàng)始人山姆·阿爾特曼呼吁:為AI構(gòu)筑“安全護(hù)欄”,使之更好地服務(wù)人類。北京智源人工智能研究院院長黃鐵軍表示,隨著人工智能大模型出現(xiàn)了“涌現(xiàn)”能力,其不可預(yù)知性確實帶來了巨大的挑戰(zhàn)。被譽(yù)為“AI教父”的杰弗里·辛頓也在智源大會上再次表達(dá)了對人工智能技術(shù)風(fēng)險的擔(dān)憂。
隨著AI應(yīng)用越來越廣泛,首當(dāng)其沖的風(fēng)險就是生成內(nèi)容的真實性、準(zhǔn)確性。OpenAI發(fā)布ChatGPT時指出,由于所使用的訓(xùn)練數(shù)據(jù)及訓(xùn)練方法的原因,ChatGPT有時會寫出聽起來很有道理但不正確或無意義的回答。當(dāng)前,無論是GPT-4,還是其它通用大語言模型,均存在這樣的“AI幻覺”。
對于醫(yī)療、自動駕駛等領(lǐng)域而言,這是一個非常嚴(yán)肅的安全問題。例如醫(yī)療行業(yè)的診斷、治療等場景要求高精準(zhǔn)度,不容有失,而通用大語言模型缺乏深入的醫(yī)療專業(yè)領(lǐng)域知識、經(jīng)驗及復(fù)雜推理過程,在面對醫(yī)療問題的準(zhǔn)確性上存在天然缺陷。因此,醫(yī)療行業(yè)需要更高質(zhì)量、足夠?qū)I(yè)的垂類模型,提供更精準(zhǔn)回應(yīng),消除大模型幻覺。
但由于醫(yī)療行業(yè)的復(fù)雜性(醫(yī)療領(lǐng)域知識體系極其龐大),構(gòu)建醫(yī)療垂直領(lǐng)域大語言模型的知識門檻也更高,不僅需要AI技術(shù)基礎(chǔ),還要具備足夠的專業(yè)醫(yī)療知識儲備。據(jù)悉,國內(nèi)醫(yī)療AI頭部企業(yè)醫(yī)渡科技正在研發(fā)醫(yī)療垂直領(lǐng)域的大語言模型。
公開資料顯示,醫(yī)渡科技在醫(yī)療AI領(lǐng)域已經(jīng)深耕多年,一直通過AI技術(shù)賦能監(jiān)管機(jī)構(gòu)、醫(yī)院、藥企、險企和患者,其自主研發(fā)的“醫(yī)療智能大腦”YiduCore擁有強(qiáng)大的數(shù)據(jù)處理能力,積累了大量的醫(yī)學(xué)知識和洞見,內(nèi)部人才團(tuán)隊80%以上都具備醫(yī)學(xué)或人工智能背景,橫跨技術(shù)和醫(yī)學(xué)的交叉性人才近100名。
醫(yī)渡科技具備研發(fā)垂類大模型的醫(yī)療數(shù)據(jù)、知識壁壘,以及NLP、深度學(xué)習(xí)等核心AI技術(shù)和交叉性人才儲備,期待其給醫(yī)療AI的發(fā)展開啟更多想象空間。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )