GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

由普林斯頓和GoogleDeepMind聯合提出的全新「思維樹」框架,讓GPT-4可以自己提案、評估和決策,推理能力最高可提升1750%。

2022年,前Google大腦華人科學家Jason Wei在一篇思維鏈的開山之作中首次提出,CoT可以增強LLM的推理能力。但即便有了思維鏈,LLM 有時也會在非常簡單的問題上犯錯。

最近,來自普林斯頓大學和Google DeepMind研究人員提出了一種全新的語言模型推理框架——「思維樹」(ToT)。

ToT將當前流行的「思維鏈」方法泛化到引導語言模型,並通過探索文字(思維)的連貫單元來解決問題的中間步驟。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

簡單來說,「思維樹」可以讓LLM:

  • 自己給出多條不同的推理路徑
  • 分別進行評估後,決定下一步的行動方案
  • 在必要時向前或向後追溯,以便實現進行全域的決策

論文實驗結果顯示,ToT顯著提高了LLM在三個新任務(24點遊戲,創意寫作,迷你填字遊戲)中的問題解決能力。

比如,在24點遊戲中,GPT-4只解決了4%的任務,但ToT方法的成功率達到了74%。

 

讓LLM「反覆思考」

用於生成文字的大語言模型GPT、PaLM,現已經證明能夠執行各種廣泛的任務。

所有這些模型取得進步的基礎仍是最初用於生成文字的「自回歸機制」,以從左到右的方式一個接一個地進行token級的決策。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

那麼,這樣一個簡單的機制能否足以建立一個通向「解決通用問題的語言模型」?如果不是,哪些問題會挑戰當前的範式,真正的替代機制應該是什麼?

恰恰關於「人類認知」的文獻為這個問題提供了一些線索。

「雙重過程」模型的研究表明,人類有兩種決策模式:快速、自動、無意識模式——「系統1」和緩慢、深思熟慮、有意識模式——「系統2」。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

語言模型簡單關聯token級選擇可以讓人聯想到「系統1」,因此這種能力可能會從「系統2」規劃過程中增強。

「系統1」可以讓LLM保持和探索當前選擇的多種替代方案,而不僅僅是選擇一個,而「系統2」評估其當前狀態,並積極地預見、回溯以做出更全域的決策。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

為了設計這樣一個規劃過程,研究者便追溯到人工智慧和認知科學的起源,從科學家Newell、Shaw和Simon在20世紀50年代開始探索的規劃過程中汲取靈感。

Newell及其同事將問題解決描述為「通過組合問題空間進行搜尋」,表示為一棵樹。

一個真正的問題解決過程包括重複使用現有資訊來探索,反過來,這將發現更多的資訊,直到最終找到解決方法。

這個觀點突出了現有使用LLM解決通用問題方法的2個主要缺點:

1. 局部來看,LLM沒有探索思維過程中的不同延續——樹的分支。

2. 總的來看,LLM不包含任何類型的計畫、前瞻或回溯,來幫助評估這些不同的選擇。

為瞭解決這些問題,研究者提出了用語言模型解決通用問題的思維樹框架(ToT),讓LLM可以探索多種思維推理路徑。

ToT四步法

當前,現有的方法,如IO、CoT、CoT-SC,通過採樣連續的語言序列進行問題解決。

而ToT主動維護了一個「思維樹」。每個矩形框代表一個思維,並且每個思維都是一個連貫的語言序列,作為解決問題的中間步驟。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

ToT將任何問題定義為在樹上進行搜尋,其中每個節點都是一個狀態,表示到 目前為止輸入和思維序列的部分解。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

 

ToT執行一個具體任務時需要回答4個問題:

如何將中間過程分解為思維步驟;如何從每個狀態生成潛在的想法;如何啟發性地評估狀態;使用什麼搜尋演算法。

1. 思維分解

CoT在沒有明確分解的情況下連貫抽樣思維,而ToT利用問題的屬性來設計和分解中間的思維步驟。

根據不同的問題,一個想法可以是幾個單詞(填字遊戲) ,一條方程式(24點) ,或者一整段寫作計畫(創意寫作)。

一般來說,一個想法應該足夠「小」,以便LLM能夠產生有意義、多樣化的樣本。比如,生成一本完整的書通常太「大」而無法連貫 。

但一個想法也應該「大」,足以讓LLM能夠評估其解決問題的前景。例如,生成一個token通常太「小」而無法評估。

2. 思維生成器

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

給定樹狀態

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

,通過2種策略來為下一個思維步驟生成k個候選者。

(a)從一個CoT提示採樣

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

思維:

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

在思維空間豐富(比如每個想法都是一個段落),並且

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

導致多樣性時,效果更好。

(b)使用「proposal prompt」按順序提出想法:

。 這在思維空間受限制(比如每個思維只是一個詞或一行)時效果更好,因此在同一上下文中提出不同的想法可以避免重複。

3. 狀態求值器

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

給定不同狀態的前沿,狀態評估器評估它們解決問題的進展,作為搜尋演算法的啟髮式演算法,以確定哪些狀態需要繼續探索,以及以何種順序探索。

雖然啟髮式演算法是解決搜尋問題的標準方法,但它們通常是程式的(DeepBlue)或學習的(AlphaGo)。這裡,研究者提出了第三種選擇,通過LLM有意識地推理狀態。

在適用的情況下,這種深思熟慮的啟髮式方法可以比程式規則更靈活,比學習模型更有效率。與思維生成器,研究人員也考慮2種策略來獨立或一起評估狀態:對每個狀態獨立賦值;跨狀態投票。

4. 搜尋演算法

最後,在ToT框架中,人們可以根據樹的結構,即插即用不同的搜尋演算法。

研究人員在此探索了2個相對簡單的搜尋演算法:

演算法1——廣度優先搜尋(BFS),每一步維護一組b最有希望的狀態。

演算法2——深度優先搜尋(DFS),首先探索最有希望的狀態,直到達到最終的輸出

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

,或者狀態評估器認為不可能從當前的

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

為閾值

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

解決問題。 在這兩種情況下,DFS都會回溯到s的父狀態以繼續探索。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

由上,LLM通過自我評估和有意識的決策,來實現啟髮式搜尋的方法是新穎的。

實驗

為此,團隊提出了三個任務用於測試——即使是最先進的語言模型GPT-4,在標準的IO提示或思維鏈(CoT)提示下,都是非常富有挑戰的。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

24點(Game of 24)

24點是一個數學推理遊戲,目標是使用4個數字和基本算術運算(+-*/)來得到24。

例如,給定輸入「4 9 10 13」,答案的輸出可能是「(10-4)*(13-9)=24」。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

ToT設定

團隊將模型的思維過程分解為3個步驟,每個步驟都是一個中間方程。

如圖2(a)所示,在每個節點上,提取「左邊」的數字並提示LLM生成可能的下一步。(每一步給出的「提議提示」都相同)

其中,團隊在ToT中進行寬度優先搜尋(BFS),並在每一步都保留最好的b=5個候選項。

如圖2(b)所示,提示LLM評估每個思維候選項是「肯定/可能/不可能」達到24。基於「過大/過小」的常識消除不可能的部分解決方案,保留剩下的「可能」項。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

結果

如表2所示,IO,CoT和CoT-SC提示方法在任務上的表現不佳,成功率僅為7.3%,4.0%和9.0%。相比之下,ToT在廣度為b=1時已經達到了45%的成功率,而在b=5時達到了74%。

團隊還考慮了IO/CoT的預測設定,通過使用最佳的k個樣本(1≤k≤100)來計算成功率,並在圖3(a)中繪出5個成功率。

不出所料,CoT比IO擴展得更好,最佳的100個CoT樣本達到了49%的成功率,但仍然比在ToT中探索更多節點(b>1)要差。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

錯誤分析

圖3(b)分析了CoT和ToT樣本在哪一步失敗了任務,即思維(在CoT中)或所有b個思維(在ToT中)都是無效的或無法達到24。

值得注意的是,大約60%的CoT樣本在第一步就已經失敗了,或者說,是前三個詞(例如「4+9」)。

創意寫作

接下來,團隊設計了一個創意寫作任務。

其中,輸入是四個隨機句子,輸出應該是一個連貫的段落,每段都以四個輸入句子分別結束。這樣的任務開放且富有探索性,挑戰創造性思維以及高級規劃。

值得注意的是,團隊還在每個任務的隨機IO樣本上使用迭代-最佳化(k≤5)方法,其中LLM基於輸入限制和最後生成的段落來判斷段落是否已經「完全連貫」,如果不是,就生成一個最佳化後的。

GPT-4推理提升1750%,普林斯頓研究論文提出全新「思維樹ToT」框架讓LLM反覆思考

ToT設定

團隊建構了一個深度為2(只有1個中間思維步驟)的ToT。

LLM首先生成k=5的計畫並投票選擇最佳的一個(圖4),然後根據最佳計畫生成k=5的段落,然後投票選擇最佳的一個。

一個簡單的zero-shot投票提示(「分析以下選擇,然後得出哪個最有可能實現指令」)被用來在兩個步驟中抽取5票。

結果

圖5(a)顯示了100個任務中的GPT-4平均分數,其中ToT(7.56)被認為比IO(6.19)和CoT(6.93)平均生成更連貫的段落。

雖然這樣的自動評測可能會有噪音,但圖5(b)通過顯示人類在100個段落對中有41個更喜歡ToT而只有21個更喜歡CoT(其他38對被認為「同樣連貫」)來確認這一發現。

最後,迭代最佳化在這個自然語言任務上更有效——將IO連貫性分數從6.19提高到7.67,將ToT連貫性分數從7.56提高到7.91。

團隊認為它可以被看作是在ToT框架下生成思維的第三種方法,新的思維可以通過最佳化舊的思維而產生,而不是i.i.d.或順序生成。

迷你填字遊戲

在24點遊戲和創意寫作中,ToT相對較淺——最多需要3個思維步驟就能完成輸出。

最後,團隊決定通過5×5的迷你填字遊戲,來設定一個更難的問題。

同樣,目標不僅僅是解決任務,而是研究LLM作為一個通用問題解決者的極限。通過窺視自己的思維,以有目的性的推理作為啟發,來指導自己的探索。

ToT設定

團隊利用深度優先搜尋保持探索最有可能成功的後續單詞線索,直到狀態不再有希望,然後回溯到父狀態以探索替代的思維。

為了使搜尋可行,後續的思維被限制不改變任何已填寫的單詞或字母,這樣ToT最多有10個中間步驟。

對於思維生成,團隊在每個狀態下將所有現有的思維(例如,「h2.motor; h1.tasks」對於圖6(a)中的狀態)轉換為剩餘線索的字母限制(例如,「v1.To heap: tm___;...」),從而得到下一個單詞填寫位置和內容的候選。

重要的是,團隊也提示LLM給出不同思維的置信度,並在提案中彙總這些以獲得下一個要探索的思維的排序列表(圖6(a))。

對於狀態評估,團隊類似地將每個狀態轉換為剩餘線索的字母限制,然後評估每個線索是否可能在給定限制下填寫。

如果任何剩餘的線索被認為是「不可能」的(例如,「v1. To heap: tm_s_」),那麼該狀態的子樹的探索就被剪枝,並且DFS回溯到其父節點來探索下一個可能的候選。

結果

如表3所示,IO和CoT的提示方法在單詞級成功率上表現不佳,低於16%,而ToT顯著改善了所有指標,實現了60%的單詞級成功率,並解決了20個遊戲中的4個。

鑑於IO和CoT缺乏嘗試不同線索、改變決策或回溯的機制,這種改善並不令人驚訝。

侷限性與結論

ToT是一個讓LLM可以更自主、更智慧地做決策和解決問題的框架。

它提高了模型決策的可解釋性以及與人類對齊的機會,因為ToT所生成的表徵表形式是可讀的、高級的語言推理,而不是隱式的、低級的token值。

對於那些GPT-4已經十分擅長的任務來說,ToT可能並是不必要的。

此外,像ToT這樣的搜尋方法需要更多的資源(如GPT-4 API成本)來提高任務性能,但ToT的模組化靈活性讓使用者可以自訂這種性能-成本平衡。

不過,隨著LLM被用於更多真實世界的決策應用(如程式、資料分析、機器人技術等),ToT可以為研究那些即將出現的更為複雜的任務,提供新的機會。

 

參考資料https://arxiv.org/abs/2305.10601

 

 

36Kr
作者

36氪(36Kr.com)累計發表超過10.8萬條包含圖文、音訊、影片在內的優質內容。氪原創內容體系涵蓋新創公司、大公司、投資機構、地方產業與二級市場等內容模組,設置有快訊、深度商業報導

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則