OpenAI首席執(zhí)行官 Sam Altman 在接受采訪時(shí)透露了 GPT-4o 和 GPT5的一些信息。GPT-4o 是一款多模態(tài)大模型,可以跨文本、視頻和音頻進(jìn)行推理。Sam Altman表示,他早就有用語音控制計(jì)算機(jī)的想法,而 GPT-4o 的綜合推理能力將帶來所未有的用戶體驗(yàn)。相比現(xiàn)有的語音助手,如蘋果的 Siri,GPT-4o 更自,并在語義理解方面表現(xiàn)出色。
Altman 提到,他在體驗(yàn) GPT-4o 時(shí),發(fā)現(xiàn)其中一個(gè)令驚喜的用例是能夠在一個(gè)平臺上完成許多需要頻繁切換應(yīng)用和瀏覽器才能完成的任務(wù),如實(shí)時(shí)翻譯、語音交互和視頻分析等。對于依賴保持專注和效率的開發(fā)人員和專業(yè)人來說,這是一個(gè)巨大的改變。
GPT-4o 具有低延遲的特點(diǎn),平均延遲只有200300毫秒左右。這種低延遲使得 GPT-4o 能夠應(yīng)用于實(shí)時(shí)翻譯、醫(yī)學(xué)圖像解析醫(yī)療記錄分析等領(lǐng)域。
Altman 表示,醫(yī)學(xué)領(lǐng)域?qū)⑹?GPT-4o 的最大受益群體之一關(guān)于 GPT-5,Altman 透露,GPT-5將是一種非常特別的產(chǎn)品,可能會采用新的名稱。他表示,GPT-5可能類似于一個(gè) “虛擬大腦”,能夠幫助用戶處理各種任務(wù)。與之前的 GPT 列產(chǎn)品相比,GPT-5將是一次巨大的嘗試。
GPT-4o 和即將發(fā)布的 GPT-5展示了 OpenAI 在人工智能領(lǐng)域的創(chuàng)新和突破。這些多模態(tài)大模型將為帶來更智能、更高效的體驗(yàn),為不同領(lǐng)域的人群提供更好的服務(wù)和幫助。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們