Techcrunch整理了一份AI行業(yè)最常見(jiàn)到的技術(shù)詞語(yǔ)詞典,搞懂這些,或許能幫初學(xué)者們輕松邁入AI世界的大門(mén)。
- AGI 通用人工智能
通用人工智能(AGI)是一個(gè)有些模糊的概念,通常指在多數(shù)任務(wù)上比普通人更強(qiáng)大的AI。OpenAI將其定義為“在最具經(jīng)濟(jì)價(jià)值的工作上超越人類的高度自主系統(tǒng)”。谷歌DeepMind則認(rèn)為AGI是“在大多數(shù)認(rèn)知任務(wù)上至少與人類能力相當(dāng)?shù)腁I”。
- Chain of Thought 思維鏈
思維鏈推理意味著讓AI像人一樣一步步思考,把一個(gè)大問(wèn)題拆解成多個(gè)小步驟。雖然慢一點(diǎn),但在邏輯推理或編程這種需要嚴(yán)謹(jǐn)思考的場(chǎng)景里,答案會(huì)更準(zhǔn)確。現(xiàn)在的大語(yǔ)言模型經(jīng)過(guò)優(yōu)化,在處理復(fù)雜問(wèn)題時(shí),就是靠這種“思維鏈”來(lái)提高準(zhǔn)確性。
- Deep learning 深度學(xué)習(xí)
AI能自我優(yōu)化學(xué)習(xí)的關(guān)鍵技術(shù)。它模仿人腦神經(jīng)元連接方式,搭建多層人工神經(jīng)網(wǎng)絡(luò),使AI算法能夠建立比簡(jiǎn)單機(jī)器學(xué)習(xí)系統(tǒng)更復(fù)雜的關(guān)聯(lián)關(guān)系。
深度學(xué)習(xí)模型能自己識(shí)別數(shù)據(jù)里的重要特征,而無(wú)需人類預(yù)先定義,還能從錯(cuò)誤中學(xué)習(xí),不斷改進(jìn)。
- Diffusion 擴(kuò)散模型
擴(kuò)散技術(shù)是眾多藝術(shù)、音樂(lè)和文本生成AI模型的核心。受物理學(xué)啟發(fā),先“故意”一步步往數(shù)據(jù)里加噪聲,直到數(shù)據(jù)面目全非。然后,AI學(xué)習(xí)如何“逆向擴(kuò)散”,把這些被破壞的數(shù)據(jù)還原回來(lái),從而獲得從噪聲中“創(chuàng)造”出全新數(shù)據(jù)的能力。
- Distillation 知識(shí)蒸餾
一種“師父帶徒弟”的學(xué)習(xí)方法。讓一個(gè)大型(“老師”)AI模型處理問(wèn)題,然后把它的答案用來(lái)訓(xùn)練一個(gè)更小、更高效的(“學(xué)生”)模型,讓學(xué)生模型學(xué)會(huì)老師的行為。這樣就能用更小的模型,實(shí)現(xiàn)接近大型模型的性能。
- Fine-tuning 微調(diào)
微調(diào)是指對(duì)已訓(xùn)練的AI模型進(jìn)行進(jìn)一步訓(xùn)練,通過(guò)輸入新的專業(yè)化數(shù)據(jù),優(yōu)化其在特定任務(wù)或領(lǐng)域的性能表現(xiàn),使其超越原始訓(xùn)練的重點(diǎn)范圍。很多AI公司都在用這個(gè)技術(shù),把大型語(yǔ)言模型“微調(diào)”成適合自己行業(yè)的產(chǎn)品,提升實(shí)用性。
- GAN 生成對(duì)抗網(wǎng)絡(luò)
讓AI能“以假亂真”的關(guān)鍵技術(shù)。它由兩個(gè)互相競(jìng)爭(zhēng)的神經(jīng)網(wǎng)絡(luò)組成:生成器負(fù)責(zé)創(chuàng)造數(shù)據(jù),判別器負(fù)責(zé)鑒別真?zhèn)?。就像一?chǎng)“貓捉老鼠”的游戲,兩者不斷對(duì)抗,讓AI能自動(dòng)生成極其逼真的數(shù)據(jù),無(wú)需人工干預(yù)。GAN適合用于生成圖片或視頻。
- Hallucination 幻覺(jué)
“幻覺(jué)”是AI行業(yè)對(duì)模型虛構(gòu)內(nèi)容的專業(yè)術(shù)語(yǔ),特指AI生成錯(cuò)誤信息的行為。這顯然是影響AI質(zhì)量的核心問(wèn)題。
- Neural Network 神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)是指支撐深度學(xué)習(xí)的多層算法結(jié)構(gòu),是推動(dòng)生成式AI工具全面爆發(fā)的技術(shù)基礎(chǔ)。盡管這個(gè)概念由來(lái)已久,GPU的崛起也讓這個(gè)概念迎來(lái)了爆發(fā)。GPU被證明非常適合訓(xùn)練具有更多層次的算法,使得基于神經(jīng)網(wǎng)絡(luò)的AI系統(tǒng)在語(yǔ)音識(shí)別、自動(dòng)駕駛導(dǎo)航和藥物研發(fā)等多個(gè)領(lǐng)域?qū)崿F(xiàn)了遠(yuǎn)超以往的性能表現(xiàn)。
- Transfer Learning 遷移學(xué)習(xí)
把一個(gè)已經(jīng)訓(xùn)練好的AI模型拿來(lái)當(dāng)起點(diǎn),開(kāi)發(fā)一個(gè)針對(duì)不同但相關(guān)的任務(wù)的新模型。這樣可以節(jié)省大量開(kāi)發(fā)時(shí)間,尤其是在新任務(wù)數(shù)據(jù)量不多的時(shí)候非常有用。但要注意,模型可能還需要在新領(lǐng)域的數(shù)據(jù)上進(jìn)行額外訓(xùn)練才能表現(xiàn)最佳。
- Weights 權(quán)重
權(quán)重是AI訓(xùn)練的核心要素,它決定了在訓(xùn)練系統(tǒng)所用數(shù)據(jù)中,不同特征(或輸入變量)的重要程度,直接影響AI模型的最終輸出。訓(xùn)練開(kāi)始時(shí)權(quán)重是隨機(jī)的,但隨著學(xué)習(xí)的深入,它們會(huì)不斷調(diào)整,讓AI的預(yù)測(cè)越來(lái)越準(zhǔn)。
這份詞典由Techcrunch定期維護(hù),有需要的朋友可以收藏:https://techcrunch.com/2025/05/25/from-llms-to-hallucinations-heres-a-simple-guide-to-common-ai-terms/
ps:轉(zhuǎn)自量子位