斯坦福大學(xué)的研究團隊與 Apparate Labs 前幾天發(fā)布一款名為 Proteus 的創(chuàng)新 AI 視頻生成模型,可以從單一圖像生成笑、說唱、唱歌、眨眼、微笑、說話高度逼真和具有表現(xiàn)力的虛擬人物。
PROTEUS兼容多種大模型的多模態(tài)輸入,可以處理語音、文本和圖像等多種形式的數(shù)據(jù)。
Proteus模型亮點:
- 高度逼真:利用先進的AI技術(shù),Proteus能夠從單張圖片生成具有高度逼真表情和流暢動作的虛擬人物形象。
- 低延遲生成:Proteus模型具備低延遲特性,能夠?qū)崟r響應(yīng)語音輸入,生成每秒超過100幀的視頻流。
- 多模態(tài)交互:模型支持語音、文本和圖像等多種輸入形式,實現(xiàn)與用戶的自然直觀交互。
應(yīng)用領(lǐng)域:
Proteus模型在個性化虛擬助理、虛擬寵物、情感支持、客戶服務(wù)、教育和培訓(xùn)、游戲定制、影視娛樂、市場營銷和社交媒體等領(lǐng)域具有廣泛的應(yīng)用潛力。