博弈論中的囚徒困境研究,顯示AI可以進化成更自私或合作的個性

博弈論中的囚徒困境研究,顯示AI可以進化成更自私或合作的個性

ADVERTISEMENT

日本研究人員利用大型語言模型 (LLM) 成功為聊天機器人培養出各種各樣的人格特質。名古屋大學資訊學研究科的有田隆也教授和鈴木禮治副教授團隊,利用博弈理論中的囚徒困境,創建了一個演化AI智慧體的框架,使AI可以像人類行為一樣,在自私和合作的行動之間切換,並透過演化過程調整策略。他們的研究成果發表在《科學報告》雜誌上。

由大型語言模型驅動的對話式AI構成了諸如 ChatGPT 之類的技術基礎。這些技術使電腦能夠以類似於人與人交流的方式與人互動。名古屋大學團隊的目標是研究如何利用LLM促進更多樣化的個性特徵在社會互動中的演化。 

AI的人格透過玩博弈論中的囚徒困境來進化,以獲取虛擬收益。囚徒困境是每個參與者都要選擇與夥伴合作還是背叛。如果兩個AI系統都合作,則他們各自可以獲得4美元的虛擬收益。然而,如果一方背叛而另一方合作,背叛者將獲得5美元,而合作方則一無所獲。如果雙方都背叛,則他們各自可以獲得1美元。 

「在這項研究中,我們著手研究具有各種人格特質的AI智慧體如何互動和進化,」有田解釋說。「透過利用大型語言模型的強大功能,我們開發了一個框架,AI智慧體可以根據其基因中編碼的人格特質的自然語言描述進行進化。」 

「透過這種框架,我們觀察到了各種類型的人格特質,AI的進化能夠在自私和合作行為之間切換,反映了人類行為。」 

在傳統的演化博弈論研究中,模型中的「基因」直接決定一個智慧體的行為。通過使用大型語言模型,有田和鈴木探索了比以前模型更複雜的描述所代表的基因,例如「既開放團隊合作,又優先考慮自身利益,導致合作和背叛的結合」。然後,透過詢問大型語言模型是否會在具有這種人格特質的情況下合作或背叛,將這種描述轉換成行為策略。 

這項研究使用了一個進化框架,其中AI智慧體的能力在世代更迭過程中透過自然選擇和突變而塑造。這導致出現各種各樣的人格特質。 

一些智慧體表現出自我中心的特徵,將自己的利益淩駕於整個社群或群體的利益之上,而另一些智慧體則展示出先進的策略,這些策略圍繞著追求個人利益的同時,仍然考慮互利和集體利益。 

「我們的實驗為AI智慧體人格特質的進化動力學提供了迷人的見解。我們觀察到AI群體中出現合作和自私兩種人格特質,這讓人聯想到人類社會動態,」鈴木說。 

「然而,我們也發現了AI社會固有的不穩定性,過度合作的群體會被更『自我中心』的AI智慧體所取代。」 

「這項成就強調了大型語言模型在AI研究中的變革潛力,表明基於微妙語言表達的人格特質進化可以用大型語言模型的運算模型來表示,」鈴木評論道。 

「我們的發現為AI智慧體應該具備哪些特質才能融入人類社會提供了見解,同時也為AI社會和不久的將來可能出現的AI與人類混合社會的設計提供了指導原則。」

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則