
OpenAI 近期推出的 AI 社群應用程式 Sora 2,才剛公開就引爆爭議。這款類似 TikTok 的短影音 App,主打由生成式 AI 模型打造影片內容,不過其中大量深度偽造(Deepfake)影片讓外界擔憂,包括多段與 OpenAI 執行長 Sam Altman 有關的 AI 改圖、變聲影片也成為熱門內容。
內部員工都搖頭:這真的是「為人類福祉」的產品?
根據《TechCrunch》報導,OpenAI 這款 Sora 2 是建立在先前的影像生成模型基礎上,結合影片生成與推薦演算法推出的全新社群平台。然而,消息一出,不少現任與前任 OpenAI 員工紛紛在 X(前Twitter)上發文質疑,這樣的應用是否已經偏離公司「造福全人類」的非營利創立初衷。
OpenAI 預訓練研究員 John Hallman 就坦言:「我不否認,在第一次得知我們要發布 Sora 2 時,我確實感到擔憂……雖然我們努力打造正面的使用者體驗,但 AI 還處於早期階段,我們必須非常小心,避免技術反噬人類。」
來自哈佛大學的教授、同時也是OpenAI合作研究員的 Boaz Barak 則表示:「Sora 2 的技術非常驚人,但此時就說我們已經成功避免其他社群平台那種深偽災難,恐怕還言之過早。」
Altman 回應:展示產品是為了讓 AGI 發展下去
面對內部質疑與外界爭議,OpenAI 執行長 Sam Altman 也透過 X 平台回應:「我們確實需要資金來開發推動科學進展的 AI,也幾乎將所有研究資源集中在 AGI(通用人工智慧)上。但同時也希望透過展示這些酷炫技術,讓更多人看見 AI 的潛力,並支持背後巨大的算力需求。」
他也回顧 ChatGPT 推出時被質疑「誰會需要這東西?AGI又在哪裡?」,如今 Sora 同樣面對類似質疑,但他強調,「企業發展路線的現實,總是比理想複雜得多。」
商業化與非營利之間的拉扯還沒結束
OpenAI 的定位本就處於商業與公益之間的模糊地帶,而這波 Sora 推出也再次引發監管關注。美國加州總檢察長 Rob Bonta 上月就表示,他密切關注 OpenAI 是否仍堅持其非營利聲稱的「AI 安全」使命,尤其在 OpenAI 正逐步推動公司結構重整、尋求更多資金與潛在上市計劃之際。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!