GPT-4o

開發者 | OpenAI |
---|---|
首次發布 | 2024年5月13日 |
前任 | GPT-4 Turbo |
繼任 | GPT-4.5 |
類型 | |
許可協議 | 專有軟件 |
網站 | openai |
生成型預訓練變換模型4多模態(英語:Generative Pre-trained Transformer 4 Omni,簡稱GPT-4o)是由OpenAI訓練的多語言、多模態(多種類型數據,例如文本、圖像、音頻等)GPT大型語言模型。GPT-4o於2024年5月13日發布。 該模型比其前身GPT-4快兩倍,而價格僅為其50%。該模型由米拉·穆拉蒂在OpenAI直播演示中宣布[1]。OpenAI聲稱該模型將對所有用戶免費, 並為付費ChatGPT Plus用戶提供高達5倍的消息上限[2]。
背景
[編輯]GPT-4o最初在LMSYS上以3個不同模型的形式暗中發布。這3個模型分別稱為gpt2-chatbot、im-a-good-gpt2-chatbot和im-also-a-good-gpt2-chatbot。2024年5月7日,薩姆·奧爾特曼透露OpenAI發布了這些神秘的新模型[3]。
功能
[編輯]GPT-4o在語音、多語言和視覺基準測試中取得了最先進的成果,在音頻語音識別和翻譯領域創下了新紀錄。GPT-4o在MMLU基準測試中的得分為88.7,而GPT-4的得分為86.5[4][5][6]。
根據該公司的演示,GPT-4o將有效地將ChatGPT轉變為可以進行實時語音對話的數字個人助理。 它還能夠使用文本和「視覺」進行交互,這意味着它可以查看用戶上傳的屏幕截圖、照片、文檔或圖表,並就它們進行對話。OpenAI演示了與ChatGPT的語音對話,以獲得解決數學問題的實時說明、講述睡前故事並獲得編碼建議。免費ChatGPT用戶將可以與新的GPT-4o模型進行有限次數的交互,然後該工具會自動恢復依賴更小的GPT-4o mini模型;付費用戶將可以使用最新GPT-4o訪問更多數量的消息[7]。
該模型支持超過50種語言,覆蓋超過97%的口語語言。它目前是LMSYS Elo Arena基準測試中的領先模型。
GPT-4o mini
[編輯]OpenAI於2024年7月18日發布了GPT-4o mini,比起GPT-4o更小,而且價格更便宜[8]。
根據OpenAI的說法,其低成本預計對那些希望將其集成到服務中的公司、初創企業和開發者特別有用,因為他們通常會進行大量的API調用。其API的費用為每百萬輸入標記15美分,每百萬輸出標記60美分,相比之下,GPT-4o的輸入和輸出標記價格分別為每百萬2.5美元和10美元。它的性能也比GPT-3.5更好,而且比後者便宜60%。
GPT-4o mini 已成為ChatGPT未登錄用戶所能使用的默認模型。
參見
[編輯]參考資料
[編輯]- ^ Wiggers, Kyle. OpenAI debuts GPT-4o 'omni' model now powering ChatGPT. TechCrunch. 2024-05-13 [2024-05-13]. (原始內容存檔於2024-05-22) (美國英語).
- ^ Mauran, Cecily. OpenAI announces GPT-4o, a multimodal voice assistant that's free for all ChatGPT users. Mashable. 2024-05-13 [2024-05-13] (英語).
- ^ Sam Altman (@sama) on X. X (formerly Twitter). [2025-01-14]. (原始內容存檔於2024-06-09) (英語).
- ^ Hello GPT-4o. OpenAI. [2024-05-13]. (原始內容存檔於2024-05-14).
- ^ 郭曉靜、郝博陽. OpenAI教谷歌做语音助手!新模型GPT-4o科幻级语音交互,零延迟满情绪,AI进入HER时代. Weixin Official Accounts Platform. 2024-05-13 [2025-01-14]. (原始內容存檔於2024-05-16).
- ^ 吉卜力AI圖|一鍵生成吉卜力風格全家福 實測3大免費網站簡易製作AI圖【附教學】,香港經濟日報,2025-04-03
- ^ OpenAI unveils newest AI model, GPT-4o. 2024-05-13 [2024-05-13] (英語).
- ^ OpenAI. GPT-4o mini: advancing cost-efficient intelligence. [2024-07-21]. (原始內容存檔於2025-01-30).