FB 建議貼文

選取貼文複製成功(包含文章連結)!

不是演算法害的!AI 模擬發現社群對立或許天生存在,因為人比演算法更毒

不是演算法害的!AI 模擬發現社群對立或許天生存在,因為人比演算法更毒

社群平台上的政治對立、同溫層效應與極端言論,長久以來多被歸咎於演算法推播。不過,阿姆斯特丹大學(University of Amsterdam)最新研究卻顛覆這種看法。研究團隊發現,即使完全移除演算法,社群互動依舊會自然走向極化。換句話說,問題恐怕不是「演算法造的孽」,而是「人性與注意力動態」本身就容易導致分裂。

模擬實驗揭示:沒有演算法也會分裂

研究團隊建立了一個「乾淨版」社群平台,沒有廣告與演算法推播,僅保留基本的發文、留言與互動功能。他們創建了 500 名虛擬用戶,並透過 GPT-4o mini、Llama-3.2-8B、DeepSeek-R1 等大型語言模型模擬人類行為,政治傾向則依據「美國國家選舉研究」資料設定,確保用戶立場分布接近現實社會。

在這個環境中,AI 用戶隨機發文與回應,經過一萬次互動循環後,平台自然產生了熟悉的現象:同溫層效應愈來愈明顯、少數帳號逐漸壟斷輿論,討論語氣也越來越偏激。這意味著,就算沒有演算法推播,「同溫層」還是存在,社群架構與人性本身仍會帶來分化。

結果顯示,即便完全沒有演算法介入,平台依舊出現三種現象:

  • 同溫層效應:用戶傾向只與立場相同者互動。

  • 權力集中:少數帳號逐漸壟斷輿論。

  • 極端化傾向:討論語氣隨時間愈來愈激烈。

研究者接著嘗試六種干預,包括改用時間排序、強制推送對立觀點、降低熱門帳號曝光等,但結果不僅沒解決極化,有些甚至讓對立更嚴重。學者直言,這顯示「人性與社群媒體的注意力機制之間存在共振」,平台架構本身就可能具備毒性。

學界爭論:人性偏差還是數據偏差?

不過,學界對這項研究仍有不同解讀。其它大學的研究人員提醒,這些 AI 模型本身的訓練數據可能就含有偏見,因此模擬結果未必完全客觀。而紐約大學的學者則認為,雖然沒有單一的簡單解方,但若用戶願意發佈更多中立或跨立場的內容,或許能在一定程度上減緩對立。

總體來看,這份研究打破了「演算法是萬惡之源」的單一說法,指出社群極化更可能是人性、群體互動與注意力競爭交織的結果。專家呼籲,未來若要改善社群的分裂,不能只期待調整演算法,而是必須從教育、媒體識讀以及政策層面多管齊下,才能真正降低社群對立。

 

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則