5月14日消息(顏翊)今日凌晨,OpenAI舉行了一場發(fā)布會,正式發(fā)布了一款最新的GPT-4o多模態(tài)大模型。
OpenAI介紹,與現有模型相比,GPT-4o在視覺和音頻理解方面尤其出色,可以在232毫秒內對音頻輸入做出反應,平均響應速度為320毫秒,這與人類在對話中的反應時間相近。而GPT-3.5和GPT-4用戶以語音模式Voice Mode與ChatGPT對話的平均延遲時間為2.8秒和5.4秒。
在發(fā)布會演示中,GPT-4o甚至能夠從OpenAI高管的喘氣聲中理解“緊張”的含義,并且指導他進行深呼吸。
該大模型可以處理50種不同的語言,并實時對音頻、視覺和文本進行推理。相比GPT-4 Turbo,GPT-4o的速度快兩倍,成本降低50%,API速率限制提高五倍。
OpenAI官網顯示,GPT-4o將對用戶免費開放,免費用戶可獲得分析數據、幫助總結、寫作和分析等功能。
OpenAI的CEO Sam Altman發(fā)布博客文章表示,“新的語音(和視頻)模式是我用過的最佳計算機界面。感覺(GPT-4o)就像電影里的AI一樣。它的成真讓我感到驚訝。”
- Meta將繼續(xù)大力投資AI 扎克伯格已宣布今年資本支出將超過600億美元
- AlphaFold 3發(fā)布,讓藥物研發(fā)更高效
- 蘋果抽調“救火隊員”押注AI 戰(zhàn)略地位超Vision Pro
- 現代汽車集團收購波士頓動力3年后 LG電子也將控股一家美國機器人公司
- 消息稱智譜管理層變動 2名高管離職
- 智譜首席戰(zhàn)略官離職,前Midjourney亞洲副總裁加入:人才流動新動態(tài)
- "AI終極挑戰(zhàn)揭曉:基準測試慘淡成績揭示AI系統(tǒng)短板,準確率未超10%"的犀利解讀
- AI管家神器來襲!OpenAI首個智能體Operator測評:24小時私人管家不是夢
- 解碼機器人技術未來:英偉達推動智能與產業(yè)融合
- 百川智能發(fā)布全場景深度思考模型Baichuan-M1-preview:聚齊三大推理能力,解鎖醫(yī)療循證模式
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。