太震撼了啊,沒等到GPT-5,卻迎來了 OpenAI 新旗艦?zāi)P虶PT-4o!
5月14日凌晨,GPT-4o 在 OpenAI 官網(wǎng)正式發(fā)布了,GPT-4o是一個(gè)多模態(tài)模型,能夠處理視頻、音頻和文本數(shù)據(jù),具有實(shí)時(shí)推理的能力。它能夠執(zhí)行多種任務(wù),包括實(shí)時(shí)翻譯、唱歌、做數(shù)學(xué)題和講笑話等。GPT-4o的語音響應(yīng)時(shí)間非常短,平均響應(yīng)時(shí)間為320毫秒,并且在MMLU評(píng)測中創(chuàng)下了88.7%的新高分,超過了其他市面上的大模型。
這是正兒八經(jīng)的原生多模態(tài),更重要的是可以實(shí)時(shí)推理音頻、視覺和文本,注意這里是實(shí)時(shí),實(shí)時(shí),實(shí)時(shí),推理的不是文本,是音頻!視覺!
某種程度上,AGI 已然成為現(xiàn)實(shí),我們即將迎來一個(gè)新的時(shí)代?。?/p>