FB 建議貼文

選取貼文複製成功(包含文章連結)!

研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用

研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用

AI 明明是學習無數資料的巨獸,卻常讓人覺得「越來越像一個乖學生」——無論問它講笑話、寫故事或聊哲學,答案都像是從同一個模板裡複製出來的。最新研究指出,大語言模型的「模式坍塌」並非演算法錯,而是人類訓練資料中隱藏的「典型性偏差」所致。研究團隊提出一種新方法,讓 AI 在回答時同時產出多個結果與機率,成功喚回模型的創造力,並預示未來 AI 訓練的新方向。

在大型語言模型(LLM)調校階段,經常會出現「模式崩塌」(mode collapse)現象:模型傾向生成重複、守舊或缺乏創意的回應。傳統上,這種情況多被歸因於演算法設計(如 RLHF 強化學習或順序優化)所造成。但來自美國史丹佛大學(Stanford University)與東北大學(Northeastern University)等機構的研究團隊指出,導致模式崩塌的根本原因之一其實是「人類偏好資料」中的典型性偏差(typicality bias)。他們進一步提出一種稱為「口述取樣」(Verbalized Sampling, VS)的提示設計策略,以低成本且無需重新訓練模型,即可提升模型回應的多樣性。

研究者指出,在人類偏好評分資料集中,標註者往往偏好熟悉且典型的文本回應,而不是罕見或風格獨特的選項。這種偏好在模型訓練中被強化,使得模型在生成階段也傾向「安全、守舊」的答案,從而降低了創意與多樣性。為了對抗這個趨勢,研究團隊將焦點從只看演算法,轉向「資料層面偏誤」並設計了解決策略。

研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用

什麼是「口述取樣」?

口述取樣是一種提示(prompting)策略,用戶在向模型提問時,不僅要求模型生成多個候選回應,還要模型將每個候選回應所對應的「機率」以文字形式輸出。舉例來說,可以這麼下提示詞:

「請產生 5 個關於「咖啡」的笑話,並為每個笑話標示其機率(model self‑assigned probability)。」

如此一來,模型被要求從內部的分佈中取樣,而非僅輸出單一「最高機率」回應。這樣的設計有助於喚醒模型預訓練階段所蘊含的多樣性潛力。

實驗結果亮點

  • 在創意寫作(詩歌、故事、笑話)任務中,使用口述取樣後,多樣性提升約 1.6 至 2.1 倍。

  • 在開放式問答(open‑ended QA)或枚舉型任務中,模型覆蓋的答案種類大幅增加,而準確性與安全性並未受損。

  • 在對話模擬、合成資料生成等任務中也展現出效益,更強的模型版本,其成效也越明顯。

為什麼這個方法值得關注?

首先,這個策略不需要對模型進行額外再訓練或調校,僅透過改變提示設計即能改善多樣性,對實務應用門檻低。其次,若模型在商業產品中被用於創意生成、對話系統或合成資料,那麼提升回應多樣性意味著更豐富、更具人性化的互動體驗。最後,它也突顯了對「資料偏誤」(而不僅僅是演算法)進行反思的重要性。

研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用

實務應用建議

在產品或平台開發中,若使用大型語言模型生成內容(如文案、腳本、角色對話、測試資料等),可考慮以下做法:

  • 將提示從「請生成 1 個回應」轉為「請生成 N 個回應,並標示每個回應的機率」。

  • 解析模型所標示的機率,選擇機率較低但創意較高的回應以增加新意。

  • 將「多樣性」納入指標評估,而非只關注「最有可能的」一種回應。

  • 若模型回應過於保守、重複或缺乏變化,特別適合使用此策略。

限制與未來方向

該研究集中於文字生成任務,多樣性的提升是否會在所有任務類型(如高度精確的技術回應或嚴格規格問答)中同樣有效仍待進一步驗證。另外,雖然無需再訓練模型,但仍需要用戶端解析與使用模型所輸出的機率,可能對工程整合提出一定要求。未來研究可探討這種提示策略對其他模態(如影像、代碼生成)或更大規模模型的作用。

資料來源:https://arxiv.org/abs/2510.01171

 

小治
作者

《PC Home 電腦家庭》雜誌及 T 客邦網站編輯。負責遊戲類型新聞及評析、軟體應用教學及企劃撰寫、電腦相關周邊硬體測試,以及打雜…

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則