先帶大家看一下深度學(xué)習(xí)模型發(fā)展歷程:
2014年:GAN 圖像生成發(fā)布,對輸出結(jié)果的控制力較弱,容易產(chǎn)生隨機(jī)圖像、分辨率比較低。
2017年:Transformer 自然語言模型發(fā)布,引入自注意力機(jī)制,能夠基于兩個單詞間的關(guān)系進(jìn)行建模,有效理解單詞在上下文中的意思,支持并行訓(xùn)練,使語言模型訓(xùn)練效果達(dá)到新高度。是自然語言理解飛躍性發(fā)展,平行訓(xùn)練優(yōu)勢逐步發(fā)展出超億規(guī)模的大模型,ChatGPT打開AI新紀(jì)元。
2021年:CLIP 文本-圖像生成發(fā)布,對文字、圖像分別進(jìn)行訓(xùn)練,不斷調(diào)整兩個模型內(nèi)部參數(shù),使得模型分別輸出文字特征值和圖像特征值并確認(rèn)匹配,多模態(tài)技術(shù)推動AIGC內(nèi)容多樣性雛形。
2022年:Diffusion 圖像生成發(fā)布,通過增加噪聲破壞訓(xùn)練數(shù)據(jù)來學(xué)習(xí),然后找出如何逆轉(zhuǎn)這種噪聲過程以恢復(fù)原始圖像,高效地解決GAN無AI繪畫法訓(xùn)練、訓(xùn)練不穩(wěn)定的問題。圖像生成技術(shù)突破,點燃AIGC
從以上的發(fā)展不難看出,AIGC今年的爆發(fā)是厚積薄發(fā)的必然結(jié)果。