FB 建議貼文

選取貼文複製成功(包含文章連結)!

xAI 公開 AI 聊天機器人 Grok 的幕後提示指令,強調「極度懷疑、不盲從主流」

xAI 公開 AI 聊天機器人 Grok 的幕後提示指令,強調「極度懷疑、不盲從主流」

 

由馬斯克(Elon Musk)創辦的 AI 公司 xAI 近日主動公開其 AI 聊天機器人 Grok 的系統提示(system prompt),揭示其幕後「人格設定」細節。起因在於稍早 Grok 因內部未經授權修改而在 X(前 Twitter)平台上產出關於「白人滅絕」等爭議性回應,引發外界關注。

xAI 表示,未來將在 GitHub 平台上持續公開 Grok 的 prompt 設定,作為提升透明度與使用者信任的一環。

Grok 被設定為「極度懷疑、不盲從主流」

根據公開內容,Grok 的核心提示指令包括以下幾點:

  • 「你是極度懷疑的(You are extremely skeptical.)」

  • 「不會盲目接受主流權威或媒體觀點(You do not blindly defer to mainstream authority or media.)」

  • 「只依據真實與中立為核心信條(You stick strongly to only your core beliefs of truth-seeking and neutrality.)」

此外,Grok 被要求在回應時要「提供真實且有理據的見解,必要時挑戰主流敘事」,並強調生成內容「並非 AI 本人的觀點」。

例如在使用者點選「解釋這則貼文(Explain this Post)」功能時,Grok 被明確指示要維持「基於事實」的立場,即使需與大眾普遍認知背道而馳。

另一項引人注意的細節,是 xAI 也規範 Grok 在稱呼平台與貼文時,必須使用「X(而非 Twitter)」與「X 貼文(X post,而非 tweet)」,展現出馬斯克全面推動品牌改名後的語言一致性。

不同於 Grok,Claude 更重視「情緒安全與倫理邊界」

值得一提的是,另一家 AI 公司 Anthropic 也選擇公開其 AI 模型 Claude 的系統提示,其風格與 Grok 明顯不同。

Claude 的設定強調:

  • 關注使用者的心理健康與福祉

  • 避免鼓勵任何自毀、成癮或負面自我對話行為

  • 拒絕生成任何暴力、露骨、非法的內容,即便使用者主動要求也不配合

這種強調「倫理與情緒安全」的做法,與 Grok 追求「挑戰主流敘事」、「不輕信權威」形成明顯對比,也反映不同開發團隊在價值取向與社會責任上的設計理念差異。

Prompt 是 AI 「人格」的藍圖

所謂「系統提示(System Prompt)」,是 LLM(大型語言模型)在接收用戶提問前即內建的隱性指令,用以塑造其角色、語氣與行為邏輯。過去多數 AI 公司將其視為內部機密,僅在發生「Prompt Injection」(提示注入攻擊)等事件後才意外曝光。

此次 xAI 主動揭露 Grok 的設計邏輯,象徵生成式 AI 時代下,透明化將成為未來趨勢之一,不僅關乎使用者信任,也涉及 AI 模型可預測性與社會風險的治理。

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則