先別看提示詞!從底層原理幫你快速理解AI

前些天受邀去前司做了一次 AI 相關(guān)分享,為他們團(tuán)隊解決業(yè)務(wù)問題。準(zhǔn)備分享資料時,我加了一章觀念性質(zhì)的內(nèi)容,特別針對非技術(shù)人員,希望把大家對 AI 的理解提到一個更高的層次,這樣許多細(xì)枝末節(jié)的問題自然就會有答案。

講完大家反響很好,表示對 AI 真的有全新的認(rèn)識。所以把這部分單獨提取出來,希望能解答更多人的困惑。

本文旨在幫助不懂技術(shù)但需要大量使用 AI 的人,算是個科普文。對 AI 行家應(yīng)該沒有多大幫助。

一、正確認(rèn)識 AI

1. AI 是一種什么樣的智能?

分享開始前,我問了大家一個問題:“如果 AI 是個人,你覺得他是個什么樣的人?”

你也可以嘗試回答一下。

前司同事說,感覺 AI 是一個學(xué)習(xí)很努力的人。

然后,我基于對 AI 原理的了解,講了一個比喻:AI 其實像一個地牢里的作家或畫家,自出生起一輩子被鎖在昏暗的桌前,每日閱讀如山的書籍畫卷。他的壽命遠(yuǎn)超一般人,也許和整個人類文明一樣老。他把世間所有記載都讀完后,拿起筆,開始用文字和畫來描繪這個世界。

先別看提示詞!從底層原理幫你快速理解AI

這樣一位智者知識量驚人。如果你有機會下到地牢里和他促膝長談,他的博學(xué)會讓你誤以為他也有與之相稱的智力,因此對他產(chǎn)生過高的期望和信任。

但是,真正的廣博者,讀萬卷書也行萬里路。這位地牢智者對物理世界的經(jīng)驗完全為零,從沒用手觸摸過一棵樹,從沒聽過一聲鳥鳴。他的廣博知識讓他能說出概念,也能正確運用,但對事物并不能形成人類這樣真實和立體的理解。

就像小孩不理解死亡。

前幾天女兒說:“媽媽,如果爸爸被砸死了,你不會開車,我也不會開車,誰帶我們出去玩呀?”

女兒只是從爸爸媽媽嘴里聽說,人死了就再也見不到了,消失不見了。但是從來沒有親密的人消失過,她一知半解。

我們的地牢智者就是這么個情況。他能回答很難的問題,是因為知識量。小孩很多常識不知道,不是比大人傻,只是因為知道得少?,F(xiàn)在人類就是這個小孩。

另一方面,他學(xué)習(xí)和發(fā)現(xiàn)規(guī)律的效率遠(yuǎn)不及人。

比如訓(xùn)練 AI 的視覺能力,看過成千上萬張貓的圖片,他才能認(rèn)識貓,能理解貓和其他毛茸茸兩個耳朵的動物的區(qū)別。

而我女兒在 2 歲的時候,并沒有見過活的鴨子。在家里和托班見到的鴨子圖畫,也不超過 10 張,她卻能準(zhǔn)確認(rèn)出商場里各種鴨子造型的玩具、玩偶、游樂設(shè)施。令我吃驚的是,有次路過餐館,她指著金黃的烤鴨說:“鴨鴨!”

先別看提示詞!從底層原理幫你快速理解AI

2. AI 為什么不聽話?

另一個常見問題是,AI 不按你的意圖來回答。你指東,它打西。

這里可以講一個從 TED 演說里聽來的故事。

早在 ChatGPT 推出以前,人們就已經(jīng)研究 AI 很久了。有一項研究是模擬物種演化,讓 AI 們自己設(shè)定參數(shù),創(chuàng)造出各式各樣活在虛擬世界里的動物。給它們的任務(wù)是,自己在演化中不斷調(diào)整參數(shù),一輪輪比試,最終要在百米賽跑中勝出。

最后勝出的物種差不多長這樣,脖子高 100 米,比賽開始立馬倒下,直達(dá)終點:

先別看提示詞!從底層原理幫你快速理解AI

給你 5 秒鐘笑一會兒。

這看似是 AI 找到了規(guī)則漏洞,并加以利用。但它們?yōu)槭裁茨芟氲竭@么雞賊的辦法?

其實,不是 AI 不聽話。是人了解全部背景信息,大家在一個頻道上。我們都知道,沒有哪種動物是為百米賽而生的,還有許多限定條件。這種動物要能正常行動、正常覓食、正常繁衍,面對天敵要能成功逃脫不至于被吃到滅絕。這些我們都知道,且默認(rèn)會考慮進(jìn)來。AI 也知道,但并不當(dāng)回事,因為你沒講。

相比之下,AI 更像供應(yīng)商對接人,凡事都跟你說“好的”。你惜字如金,它亂做一氣。

要 AI 聽話,就得把它該知道的都告訴它,并指示它缺少信息要主動提問。

3. AI 為什么胡編?

這個術(shù)語叫“幻覺”,可能是 AI 使用者最大的煩惱源泉。讓它做行業(yè)研究,它瞎編數(shù)字,引用不存在的文獻(xiàn)。感覺像某個受了氣準(zhǔn)備第二天掀桌離職、此刻正在極盡報復(fù)的螺絲釘。

AI 當(dāng)然不會蓄意報復(fù),它沒有情緒。它只是想“幫”你。

主流的文字類 AI,本質(zhì)上是一個故事續(xù)寫機器,它只有一種能力:接著已有的文字繼續(xù)寫下去。給它一個小說開頭,它寫出來的就是故事。給它半頁合同,它寫出來的就是合同條款。

但你會說,我用的 AI 不是這樣啊,它像人一樣能和我聊天。沒錯,通過一種巧妙的邏輯設(shè)計,可以把故事續(xù)寫機變成聊天機器人。

先別看提示詞!從底層原理幫你快速理解AI

在你看來,你說的話是“你好啊,你叫什么名字?”。而 AI 接受到的信息也是“你好啊,你叫什么名字?”,然后給出了它的回復(fù)。

實際上,AI 接受到的信息可能是這樣的:

你是一個樂于助人的助手,你將要回答用戶的問題。

用戶說:你好啊,你叫什么名字?

助手說:

其中“你是一個樂于助人的助手,你將要回答用戶的問題”這部分你看不見,固定寫在程序里了,叫做系統(tǒng)提示詞。

看見沒,它不是在回答問題,而是在續(xù)寫一個用戶和助手相互交流的劇本。它判斷助手在這個情況下可能回復(fù)什么,就把相應(yīng)內(nèi)容接在后面。

先別看提示詞!從底層原理幫你快速理解AI

如果你再回一句,這次它接收到的信息就會是這樣:

你是一個樂于助人的助手,你將要回答用戶的問題。

用戶說:你好啊,你叫什么名字?

助手說:你好呀!我叫豆包,很開心能和你互動呢~要是你有任何問題或者需要幫忙的地方,隨時跟我說哦 ??

用戶說:你可以叫我可樂,請多指教

助手說:

它每次都會把全部歷史信息帶進(jìn)來,確保不會離題。這樣,它就能把對話一直繼續(xù)下去。同時,AI 工具被做成了只展示助手最新的回復(fù)內(nèi)容,讓你感覺像是一來一回的交流。

那為什么這樣它就會胡編呢?

來看一個最經(jīng)典、最廣泛使用的簡易系統(tǒng)提示詞:“You are a helpful assistant.”

先別看提示詞!從底層原理幫你快速理解AI

劍橋詞典對 helpful 一詞的解釋,其中 willing to help 是關(guān)鍵。我們中文里通常把這個詞翻譯成“有幫助”,這其實稍微窄化了原意,聽起來只有被動的意思。一把有幫助的錘子,在我需要的時候我拿他來釘釘子。

但它原意還有 willing to help,愿意幫助,這是主動的!顯然是一個有生命、至少有智能的東西,想要去幫助別人。系統(tǒng)提示詞給助手的定義就是這樣,它想要幫助用戶,它得幫助用戶。

在這個前提下,嚴(yán)謹(jǐn)不是它的主要考慮,能給出一個回答(幫到用戶)才是,即使不正確。況且,如果 AI 真的有人這樣的自我意識,它也會發(fā)現(xiàn)自己是以第三人稱視角在續(xù)寫這個故事:故事里有個助手很想幫別人,還有個用戶來找這個助手聊天,助手會怎么回復(fù)呢,我得給它寫完整。

給出回答是第一要務(wù),嚴(yán)謹(jǐn)性得靠邊站,胡編當(dāng)然就是可以接受的。

AI 不同于程序,程序是精確的,AI 更像人。許多非技術(shù)人員因為 AI 是“高科技”,而對它產(chǎn)生了程序般精確的期望,這是人的誤解。

就像我問你:“上周二下午你在干什么?必須回答?!?/p>

你除了編還能怎么辦?

當(dāng)然,幻覺還有其他原因,比如訓(xùn)練數(shù)據(jù)本身就有問題等。但這個是根子上的原因。

幻覺無法根除。給它接入網(wǎng)絡(luò)、讓它每個結(jié)論給出具體依據(jù)、讓它讀知識庫,都可以減少幻覺。

二、AI 的能力

AI 既然這么多毛病,我能怎么用它呢?

文字類 AI 有 3 類能力:

  1. 語言(★★★★★):對語言(中文、外語、編程語言)本身的理解和運用。
  2. 知識(★★☆☆☆):學(xué)習(xí)語言過程中獲得的世界知識。
  3. 推理(★★★☆☆):通過語言邏輯和世界知識發(fā)現(xiàn)的事物間的內(nèi)在聯(lián)系,因此產(chǎn)生的推理能力。

其中,知識方面,它嚴(yán)重偏科。如果把世間所有信息按照影響力大小、影響時間長短分到 4 個象限里,大概就會是這樣:

先別看提示詞!從底層原理幫你快速理解AI

AI 在訓(xùn)練中獲得的知識:幾乎全部歷史、大部分熱點、小部分傳承、極少瑣事。

世界上信息這么多,AI 當(dāng)然選擇記住那些反復(fù)被人提及的。這些都是重要的、廣泛傳播過的信息。開啟搜索能力,AI 能回答更多熱點和傳承類問題,但可能會降低歷史類問題的回答質(zhì)量(人類的理解未必比 AI 好)。

什么事該找 AI?什么不該?

? 給這篇文章起一個能勾起好奇心的標(biāo)題,要結(jié)合關(guān)稅戰(zhàn)話題。
? 解釋個稅專項附加扣除的算法。
? 敦煌5月份大概什么氣溫?去玩要帶什么衣服?
? 這兩張設(shè)計稿哪個效果更好?
? 現(xiàn)在是合適的入市時機嗎?
? 這份簡歷有造假嗎?

到這里,我們已經(jīng)明白了,AI 不能替你干所有事情。你生活工作中要解決的問題,往往由許多個小問題構(gòu)成。AI 能解決其中一部分,剩余得你親自上手。用好 AI,就是用它替代掉任務(wù)流程里部分環(huán)節(jié)。

先別看提示詞!從底層原理幫你快速理解AI

AI 模型能力的迭代增強,它能穩(wěn)定可靠地接管更多環(huán)節(jié)。而如果你善用 AI,了解各種模型和工具的優(yōu)劣勢,知道它們適合處理什么問題,你還能進(jìn)一步擴(kuò)大 AI 的替代范圍。

在極其復(fù)雜的任務(wù)中,AI 能替代的環(huán)節(jié)不止一個。你甚至?xí)磸?fù)經(jīng)歷“人工——AI——人工——AI——”這樣的接力。假如沒了AI這個任務(wù)無法完成,那AI顯然是有價值的。如果AI的環(huán)節(jié)你用人工方式也能完成,那就要權(quán)衡一下值不值得交給AI?這是不是一個頻繁出現(xiàn)、需要反復(fù)解決的問題?AI的加入能不能讓人工投入的時間變少?

極致的例子可以看我這篇文章:

寫在最后

由于是觀念性質(zhì)的科普文,具體問題的解決這里就不談了。

從 ChatGPT 出現(xiàn)到現(xiàn)在,已經(jīng) 2 年半了。這 2 年半里,我看到身邊的朋友同事們逐漸開始擁抱 AI,但許多人一直不得要領(lǐng),對 AI 犯的錯誤束手無策。

網(wǎng)絡(luò)上有許多 AI 使用技巧的教程,教工具,賣提示詞。但如果跳出術(shù)的范圍,從原理層面了解 AI 到底是個什么樣的東西,該怎么看待它,你會更加游刃有余,運用自如。

收藏 4
點贊 44

復(fù)制本文鏈接 文章為作者獨立觀點不代表優(yōu)設(shè)網(wǎng)立場,未經(jīng)允許不得轉(zhuǎn)載。