FB 建議貼文

選取貼文複製成功(包含文章連結)!

開發 Codex 的前 OpenAI 工程師揭密: AI 巨頭內部「混亂而快速」的工作真實樣貌

開發 Codex 的前 OpenAI 工程師揭密: AI 巨頭內部「混亂而快速」的工作真實樣貌

曾參與開發 OpenAI 旗艦級產品之一的工程師 Calvin French-Owen,在三週前選擇離開了這家全球矚目的 AI 公司。近日,他發表了一篇引人入勝的部落格文,分享了他在 OpenAI 一年多的工作心得,包括為了開發 Codex(OpenAI 新推出的程式設計 AI 代理,旨在與 Cursor 和 Anthropic 的 Claude Code 等工具競爭)而夜以繼日衝刺的經歷。

French-Owen 的離職並非因為任何「戲劇性事件」,而是希望能重拾創業家的身份。他過去是客戶資料新創公司 Segment 的共同創辦人,該公司在 2020 年以 32 億美元(約新台幣 1,038 億元)的價格被 Twilio 收購。

他在文中揭露了一些關於 OpenAI 企業文化的資訊,有些部分在意料之中,但也有一些觀察則駁斥了外界對這家公司的一些誤解。 

快速成長下的「混亂」

 French-Owen 指出,在他任職的一年多期間,OpenAI 的員工人數從 1,000 人暴增到 3,000 人。對於這家開發大型語言模型(LLM)的巨頭來說,如此規模的招聘自有其道理。OpenAI 的 ChatGPT 是有史以來成長最快的消費產品,且競爭對手也正快速擴張。光是今年三月,OpenAI 就表示 ChatGPT 擁有超過 5 億活躍使用者,且數量仍在快速增長。

「當公司快速擴張時,一切都會崩潰:公司的溝通方式、報告結構、產品出貨方式、人員管理與組織方式、招聘流程等等。」French-Owen 寫道。他提到,就像小型新創公司一樣,OpenAI 的員工仍然可以將自己的想法付諸實踐,幾乎沒有什麼繁瑣的程序。但也正因為如此,導致多個團隊可能重複開發相同的東西。「我確實見過六個用於隊列管理或代理循環之類的函式庫,功能都差不多。」他舉例說。

此外,公司內部程式設計技能水準參差不齊,有些是經驗豐富的 Google 工程師,能寫出足以處理數十億用戶的程式碼;有些則是剛畢業的博士,卻連基礎程式都寫不出來。這種現狀,再加上 Python 語言的靈活性,使得核心程式碼庫,也就是他口中的「後端巨石」(Backend Monolith),「有點像個垃圾場」。儘管如此,他表示高層的工程經理已經意識到這些問題,並正努力改進。 

根深蒂固的「新創精神」

 儘管規模不斷擴大,OpenAI 似乎還沒有意識到自己已是巨頭公司,甚至仍然完全依賴 Slack 進行內部溝通。French-Owen 觀察到,這很像 Facebook 早期「快速行動,打破常規」(Move Fast and Break Things)的 Meta 精神,而 OpenAI 也確實從 Meta 挖走了不少人才。

French-Owen 描述了他所屬的團隊,由大約 8 名工程師、4 名研究人員、2 名設計師、2 名行銷人員和 1 名產品經理組成。他們如何在短短 7 週內,幾乎沒有充分休息的情況下,成功建構並推出了 Codex。

他認為,推出 Codex 的過程「簡直太神奇了」。只要推出產品,就能吸引大量用戶。「我從未見過一款產品僅僅出現在左側邊欄,就能帶來如此巨大的即時增長,但這就是 ChatGPT 的力量。」 

「安全」可能是外界對OpenAI最大的誤解

 OpenAI 是一家受到高度關注的公司,這也導致了其嚴格的保密文化,旨在防止資訊外洩給大眾。同時,公司會密切關注社群平台 X(原 Twitter)上的動態。如果某條貼文在 X 上爆紅,OpenAI 就會注意到,並可能做出回應。「我的一個朋友開玩笑說,『這家公司就像 Twitter 一樣在運作著,』」他寫道。

French-Owen 暗示,外界對 OpenAI 最大的誤解在於它對安全性的重視程度不夠。當然,包括 OpenAI 前員工在內的許多 AI 安全專家都曾對其流程提出批評。

但他澄清,儘管有些末日論者擔心 AI 可能對人類造成理論上的風險,但 OpenAI 內部更關注的是實際層面的安全問題,例如「仇恨言論、辱罵、操縱政治偏見、製造生物武器、自殘、即時注射」等。

OpenAI 也並沒有忽視長期的潛在影響。公司內部有研究人員正密切關注這些影響,並且 OpenAI 也清楚意識到,目前有數億人正在使用其大型語言模型來獲取從醫療建議到心理治療等各種服務。政府、競爭對手都在關注 OpenAI 的動向(OpenAI 當然也在密切關注競爭對手)。French-Owen 強調:「風險真的很高。」

其它員工對OpenAI表達的憂慮

 不過,儘管 French-Owen 提到 OpenAI 內部重視實際安全問題,但 AI 安全性與倫理的討論在外界持續不斷,甚至有前員工公開表達擔憂:

  • 員工公開信警告:在 2024 年 6 月,一群 OpenAI 的現任和前任員工發表公開信,警告世界領先的 AI 公司缺乏必要的透明度和問責制,無法有效應對 AI 的潛在風險。他們擔憂 AI 可能加劇不平等、散播假消息,甚至導致自主 AI 系統失控。這些員工呼籲制定更廣泛的吹哨者保護法規,以保護那些願意揭露公司內部資訊的人。

  • 「只顧開發光鮮產品,漠視安全」的批評:OpenAI 的一名前資深研究員 Jan Leike 在 2024 年 5 月離職時,曾公開表示公司將開發「光鮮的產品」置於安全之上。他透露,自己與公司在 AI 安全的關鍵目標上存在分歧,並認為 OpenAI 的安全文化和工作流程已變得無足輕重。他強調,建造比人類更聰明的機器本質上是危險的工作,OpenAI 作為領頭羊肩負著巨大責任,必須成為一家安全至上的通用人工智慧(AGI)企業。

  • 「建造鐵達尼號」的比喻:另一位前 OpenAI 安全員工 William Saunders 更將 OpenAI 的發展軌跡比喻為「建造鐵達尼號」,認為公司過度優先推出更新、更「閃亮」的產品,可能因為安全措施不足而面臨災難性後果。他認為公司應該像阿波羅太空計畫一樣,即使有雄心壯志,也要仔細預測和評估風險。

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則