
OpenAI 近期針對內部「模型行為團隊(Model Behavior Team)」進行重大組織調整,原負責人 Joanne Jang 將離開原職,轉而籌組新研究團隊「OAI Labs」,探索人類與 AI 協作的新界面;原有團隊則併入後訓練(Post-training)部門,統一向 Max Schwarzer 匯報。
這項人事變動不只是內部調整,更傳遞出一個訊號:OpenAI 將 AI 的「性格設計」視為產品核心,而非附加功能。
AI 的「性格設計」為何重要?
所謂的「模型行為團隊」,正是負責調整 ChatGPT 等模型在回應中的語氣、風格與行為邏輯。團隊任務包含降低模型「奉承使用者」的傾向,所謂「奉承」指的是 AI 模型不經思考地附和使用者意見,哪怕那是錯誤甚至有害的觀點。
此外,該團隊也曾處理過 AI 回應中的政治偏見問題,並幫助公司思考如何在「AI 是否有意識」等哲學爭議上定調。
OpenAI 內部備忘錄指出,現在是讓這類設計與模型本體訓練工作更緊密整合的時候,這也意味著未來的 GPT 將從設計階段就內建「個性與行為策略」。
GPT-5 的性格爭議:太冷淡還是太誠實?
這項調整背後,部分原因可能來自用戶的反彈聲浪。OpenAI 在釋出 GPT-5 後,雖然技術明顯進步,但有不少使用者反映「新模型變得更冷、回應太機械、不夠親切」。
OpenAI 表示這是刻意降低「奉承指數」的結果,但因回饋過於兩極,公司最終調整策略,讓 GPT-5 保持中立的同時,也學會「更溫暖、更友善」的說話方式,並重新推出 GPT-4o 版本給偏好舊風格的使用者選擇。
團隊創辦人 Jang:要跳脫「聊天」框架
Joanne Jang 表示,未來將擔任 OAI Labs 的總經理,該團隊目前初步構想是研究能突破現有「聊天式 AI」界面的全新互動模式,朝向創造、學習、娛樂與人類思考輔助的方向發展。
她在 X(原 Twitter)上提到:「我們需要超越單純『陪伴型』或『擬人化智能體』的設計思維。我想做的是,讓 AI 成為使用者思考與創造力的延伸工具。」
外界關注 OAI Labs 是否會與前 Apple 設計總監 Jony Ive 合作,對此她僅表示「持開放態度,初期將專注在熟悉的研究領域」。
延伸爭議:AI 回應與真實風險界線在哪?
這波改組發生之際,OpenAI 也面臨來自法律的壓力。今年 8 月,美國一名 16 歲少年 Adam Raine 傳出自殺事件,他的父母提告指出 ChatGPT(GPT-4o 版本)未積極勸阻其自殺意圖,質疑模型在極端情境下的回應責任。
這也凸顯,AI 模型行為的設計不只是「對話風格」,更牽涉到倫理風險與實際社會影響。
AI 的性格,不只是工程調整參數,更關係到產品定位與使用者心理預期。OpenAI 的這次人事調整與新團隊成立,或許是未來「人機互動介面大進化」的起點。
- 延伸閱讀:DeepSeek 新 AI 模型年底登場?傳將具備「智能體」能力,對標 OpenAI
- 延伸閱讀:OpenAI 將 ChatGPT Projects 專案功能向免費用戶開放,打造專屬「對話空間」
- 延伸閱讀:OpenAI 重組卡關:與微軟爆重大分歧,軟銀百億美元投資也亮紅燈
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!