開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

ADVERTISEMENT

每個人都知道網上假訊息是一個大的問題,它可能已經撕裂了社群、操弄選舉,並導致全球部分人群失去理智。當然,似乎沒人真正關心解決這個問題。事實上,最該對網路錯誤資訊負責的公司(也就是最有可能採取行動的公司)——也就是科技公司 - 它們似乎正盡一切所能讓問題變得更加惡化。 

最近的例子就是 OpenAI 在週四推出的新文字生成影片模型「Sora」。這個模型讓網路使用者只需透過文字提示就可以產生高品質的 AI 影片。這款應用目前正以其豐富多樣的視覺圖像吸引網路,無論是中國農曆年遊行、一個人在黑暗中倒退跑步機上跑步、在床上的貓還是兩艘海盜船在咖啡杯中旋轉。 

開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

到目前為止,儘管 OpenAI 宣稱其使命是「改變世界」,但有人認為,該公司對網路最大的貢獻可能是瞬間生成了無數 TB 的數位垃圾。該公司所有公開的工具都是內容產生器,專家警告此類工具易於被用於欺詐和虛假資訊活動。 

OpenAI 在其關於Sora的部落格文章中坦承,其新應用可能存在一些潛在的缺點。該公司表示正在開發一些浮水印技術,以標示其生成器創建的內容,並正在與專家合作,探討如何讓Sora將會引發的 AI 生成垃圾氾濫變得不那麼有害。Sora目前尚未向公眾開放,OpenAI 表示其正在創建系統,拒絕生成暴力或色情圖像的使用者請求。聲明指出: 

「我們將與世界各地的政策制定者、教育工作者和藝術家合作,瞭解他們的擔憂,並找出這項新技術積極的用例。儘管我們進行了廣泛的研究和測試,但我們無法預測人們會以何種有益的方式使用我們的技術,以及他們會以何種方式濫用它。」

這種問題框架有點可笑,因為 OpenAI 的新工具可能如何被濫用已經非常明顯。Sora將大規模生成假內容,這一點不用懷疑。其中一些內容很可能會被用於網路政治假訊息目的,有些可能被用於協助各種欺詐和騙局,還有一些可能被用於產生有害內容。OpenAI 表示希望對暴力和色情內容施加有意義的限制,但網路使用者和研究人員已經展示了他們破解 AI 系統以生成違反公司使用政策內容的精明手段。所有這些Sora內容顯然會淹沒社群媒體,使普通人更難區分什麼是真實的,什麼是假的,並使整個網路變得更加令人厭煩。要搞清楚這一點,不需要成立一個全球專家小組。

還有其他一些顯而易見的缺點。首先,Sora及其類似產品可能會對環境產生巨大影響。研究表明,從環境角度來看,文字到圖像生成器比文字生成器更糟糕,產生一個 AI 圖像所需要的能量與智慧型手機充滿電所需的能量相同。其次,新的文字到影片生成技術可能會損害影片創作者的經濟來源,因為當創建一個影片只需要按一個按鈕時,為什麼公司要支付創作者來製作視覺內容呢? 

就這個國家的企業階層而言,除了金錢,沒有什麼真正重要。環境去死吧,藝術家去死吧,一個沒有虛假資訊的網路去死吧,政治話語的健康去死吧,任何阻礙利潤動機的東西都去死吧。任何可以用來賺錢的東西都應該被榨乾,即使它只是一個軟體程式,它唯一真正的用途就是可以做出牛仔倉鼠騎著龍的影片。正如一位 X 使用者所說:「這就是一群傻瓜為了環境而犧牲的東西。愚蠢。垃圾。就像這樣。」

開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則