
Claude 的公司團隊 Anthropic 揭露了一場橫跨多國社群平台、由人工智慧驅動的影響力行動。這場由商業組織主導、具高度技術成熟度的「影響力即服務」(Influence-as-a-Service)案例,不僅再次凸顯生成式 AI 在輿論操弄上的潛力,也揭露出新型態的資訊作戰樣貌。
一個 AI 幕後操盤的社群網路
根據 Anthropic 的分析報告,這次被瓦解的影響力行動是由一個營利性組織操作,為多位客戶提供政治敘事推播服務。該組織以 Claude 這套大型語言模型為核心,操作超過 100 個具政治人設的社群帳號,活躍於 X(前Twitter)與 Facebook 等平台,與數萬名真實用戶長期互動。
這套由 Claude 驅動的系統採用高度結構化的 JSON 資料格式來管理帳號資料,確保不同平台間的人設與互動模式具有一致性。每個帳號皆具備特定政治立場與語言風格,並依據腳本進行持續性互動。
Claude 會針對每一筆即將發送的內容進行比對與審查,評估其是否符合人設,並根據其政治任務設定,決定是否與特定社群內容互動。在視覺內容生成方面,Claude 也被用於撰寫提示語給圖像生成模型,再對產出進行篩選,檢查是否達到敘事一致性。
整套系統能同時操作多個帳號,並追蹤每個帳號的互動歷史與任務進度,形塑出與真人無異的行為模式。這種高效率的「內容與互動標準化」模式,大幅提升了假帳號操作的擴張性與可維護性。
AI 如何操作政治敘事?
這些 AI 操盤的帳號擁有完整的人設,包括語言風格、政治傾向、地區文化觀點等,並以結構化 JSON 格式管理其屬性。
Claude 不只是生成貼文的工具,更是決策中心,會針對每則社群內容進行判斷,決定該帳號是否應該按讚、留言、分享或忽略。若貼文符合其政治任務,便會進一步與之互動,否則選擇冷處理。
此外,Claude 也被用來撰寫圖像生成工具的提示詞,再針對生成圖片進行評估,判斷是否符合敘事主軸。這套系統不只模仿人類語言,還學會模仿「人類互動邏輯」,讓假帳號的行為更難以分辨。
四個地區,四種敘事
根據 Anthropic 分析,這個平台同時操作至少四條不同的敘事線:
-
在歐洲,推動能源安全議題,對抗清潔能源政策。
-
在伊朗,鞏固文化認同與民族主義。
-
在阿聯,形塑其為穩定與科技進步的典範,並批評歐盟規範。
-
在肯亞,支持特定政治人物與建設計畫。
這些敘事雖分屬不同地區,卻共用同一技術平台,顯示 AI 系統的彈性與可規模化程度。Anthropic 尚未能確認這些行動是否由國家資助,但其手法已高度接近情報組織的操作水平。
假帳號行為日益逼真,不求爆紅而講真實影響力
更值得警惕的是,這些 AI 帳號被設計能回應質疑。例如,當其他用戶懷疑其為機器人,或試圖讓它脫離角色(如要求寫詩、講笑話),AI 會以反諷或幽默回應,避免露出破綻。
這也代表,傳統的社群監測手法已逐漸失效。AI 操控下的假帳號行為日益逼真,不再透過粗暴的洗版或假新聞操作,而是用細膩的語言與互動策略,滲透並操弄真實用戶的情緒與認知。
以布魯金斯研究院提出的 Breakout Scale 衡量標準來看,這場行動雖屬「第一級」——即影響有限、未出現病毒式擴散——但其實質影響不能低估。
此行動明顯追求的是一種潛移默化的長期影響力,強調:
-
持久性優先:不追求短期爆紅,而是長期耕耘
-
建立關係重於擴散內容:與目標用戶培養互動,而非傳遞話術
-
嵌入式滲透勝於突顯操作:融入現有社群對話,而非強推議題
這反映出新型態的影響力操作邏輯,即從「內容導向」轉向「關係導向」,逐步引導用戶進入政治立場一致的同溫層。這種方法不僅難以察覺,亦更具說服力與穩定性。
重思社群平台的責任與治理框架
Anthropic 表示,這類影響力即服務的出現,代表一個關鍵轉變:AI 技術已能將技術平台與政治意圖切割,一個技術操盤手就能服務多國、多方勢力,提供定制化的社群風向操作。
當「內容可信」、「互動自然」成為 AI 操控的偽裝手段,我們對社群真實性的判斷標準也需全面重構。現行如布魯金斯研究院提出的「Breakout Scale」等評估架構,多著重於內容傳播強度與病毒式擴散,卻難以評估這類低調、長期、關係導向的滲透策略。
這份報告警示的是一種「新常態」:AI 不再只是協助創作的工具,而是成為策略性資訊行動的操盤中樞。未來的社群平台若無法導入更精密的識別機制與治理規則,將淪為各種敘事的戰場。
面對 AI 與社群平台交織的影響力操作網絡,亟需政府、科技公司與民間組織共同制定新型監管架構。否則,當我們每天滑過一則看似無害的貼文時,也許正悄悄踏入某場資訊戰的心理操控區。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!